1000 resultados para Math en Jeu


Relevância:

30.00% 30.00%

Publicador:

Resumo:

The table, by M. Bonnycastle, is taken from his English translation of the 1st edition.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Plancha nº 23 de la obra: Schola Italica Picturae. Número de la página en el ángulo superior derecho.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The theatre director (metteur en scene in French) is a relatively new figure in theatre practice. It was not until the I820s that the term 'mise en scene' gained currency. The term 'director' was not in general use until the I880s. The emergence and the role of the director has been considered from a variety of perspectives, either through the history of theatre (Allevy, Jomaron, Sarrazac, Viala, Biet and Triau); the history of directing (Chinoy and Cole, Boll, Veinstein, Roubine); semiotic approaches to directing (Whitmore, Miller, Pavis); the semiotics of performance (De Marinis); generic approaches to the mise en scene (Thomasseau, Banu); post-dramatic approaches to theatre (Lehmann); approaches to performance process and the specifics of rehearsal methodology (Bradby and Williams, Giannachi and Luckhurst, Picon-Vallin, Styan). What the scholarly literature has not done so far is to map the parameters necessarily involved in the directing process, and to incorporate an analysis of the emergence of the theatre director during the modem period and consider its impact on contemporary performance practice. Directing relates primarily to the making of the performance guided by a director, a single figure charged with the authority to make binding artistic decisions. Each director may have her/his own personal approaches to the process of preparation prior to a show. This is exemplified, for example, by the variety of terms now used to describe the role and function of directing, from producer, to facilitator or outside eye. However, it is essential at the outset to make two observations, each of which contributes to a justification for a generic analysis (as opposed to a genetic approach). Firstly, a director does not work alone, and cooperation with others is involved at all stages of the process. Secondly, beyond individual variation, the role of the director remains twofold. The first is to guide the actors (meneur de jeu, directeur d'acteurs, coach); the second is to make a visual representation in the performance space (set designer, stage designer, costume designer, lighting designer, scenographe). The increasing place of scenography has brought contemporary theatre directors such as Wilson, Castellucci, Fabre to produce performances where the performance space becomes a semiotic dimension that displaces the primacy of the text. The play is not, therefore, the sole artistic vehicle for directing. This definition of directing obviously calls for a definition of what the making of the performance might be. The thesis defines the making of the performance as the activity of bringing a social event, by at least one performer, providing visual and/or textual meaning in a performance space. This definition enables us to evaluate four consistent parameters throughout theatre history: first, the social aspect associated to the performance event; second, the devising process which may be based on visual and/or textual elements; third, the presence of at least one performer in the show; fourth, the performance space (which is not simply related to the theatre stage). Although the thesis focuses primarily on theatre practice, such definition blurs the boundaries between theatre and other collaborative artistic disciplines (cinema, opera, music and dance). These parameters illustrate the possibility to undertake a generic analysis of directing, and resonate with the historical, political and artistic dimensions considered. Such a generic perspective on the role of the director addresses three significant questions: an historical question: how/why has the director emerged?; a sociopolitical question: how/why was the director a catalyst for the politicisation of theatre, and subsequently contributed to the rise of State-funded theatre policy?; and an artistic one: how/why the director has changed theatre practice and theory in the twentieth-century? Directing for the theatre as an artistic activity is a historically situated phenomenon. It would seem only natural from a contemporary perspective to associate the activity of directing to the function of the director. This is relativised, however, by the question of how the performance was produced before the modern period. The thesis demonstrates that the rise of the director is a progressive and historical phenomenon (Dort) rather than a mere invention (Viala, Sarrazac). A chronological analysis of the making of the performance throughout theatre history is the most useful way to open the study. In order to understand the emergence of the director, the research methodology assesses the interconnection of the four parameters above throughout four main periods of theatre history: the beginning of the Renaissance (meneur de jeu), the classical age (actor-manager and stage designer-manager), the modern period (director) and the contemporary period (director-facilitator, performer). This allows us properly to appraise the progressive emergence of the director, as well as to make an analysis of her/his modern and contemporary role. The first chapter argues that the physical separation between the performance space and its audience, which appeared in the early fifteenth-century, has been a crucial feature in the scenographic, aesthetic, political and social organisation of the performance. At the end of the Middle Ages, French farces which raised socio-political issues (see Bakhtin) made a clear division on a single outdoor stage (treteau) between the actors and the spectators, while religious plays (drame fiturgique, mystere) were mostly performed on various outdoor and opened multispaces. As long as the performance was liturgical or religious, and therefore confined within an acceptable framework, it was allowed. At the time, the French ecclesiastical and civil authorities tried, on several occasions, to prohibit staged performances. As a result, practitioners developed non-official indoor spaces, the Theatre de fa Trinite (1398) being the first French indoor theatre recognized by scholars. This self-exclusion from the open public space involved breaking the accepted rules by practitioners (e.g. Les Confreres de fa Passion), in terms of themes but also through individual input into a secular performance rather than the repetition of commonly known religious canvases. These developments heralded the authorised theatres that began to emerge from the mid-sixteenth century, which in some cases were subsidised in their construction. The construction of authorised indoor theatres associated with the development of printing led to a considerable increase in the production of dramatic texts for the stage. Profoundly affecting the reception of the dramatic text by the audience, the distance between the stage and the auditorium accompanied the changing relationship between practitioners and spectators. This distance gave rise to a major development of the role of the actor and of the stage designer. The second chapter looks at the significance of both the actor and set designer in the devising process of the performance from the sixteenth-century to the end of the nineteenth-century. The actor underwent an important shift in function in this period from the delivery of an unwritten text that is learned in the medieval oral tradition to a structured improvisation produced by the commedia dell 'arte. In this new form of theatre, a chef de troupe or an experienced actor shaped the story, but the text existed only through the improvisation of the actors. The preparation of those performances was, moreover, centred on acting technique and the individual skills of the actor. From this point, there is clear evidence that acting began to be the subject of a number of studies in the mid-sixteenth-century, and more significantly in the seventeenth-century, in Italy and France. This is revealed through the implementation of a system of notes written by the playwright to the actors (stage directions) in a range of plays (Gerard de Vivier, Comedie de la Fidelite Nuptiale, 1577). The thesis also focuses on Leoni de' Sommi (Quatro dialoghi, 1556 or 1565) who wrote about actors' techniques and introduced the meneur de jeu in Italy. The actor-manager (meneur de jeu), a professional actor, who scholars have compared to the director (see Strihan), trained the actors. Nothing, however, indicates that the actor-manager was directing the visual representation of the text in the performance space. From the end of the sixteenth-century, the dramatic text began to dominate the process of the performance and led to an expansion of acting techniques, such as the declamation. Stage designers carne from outside the theatre tradition and played a decisive role in the staging of religious celebrations (e.g. Actes des Apotres, 1536). In the sixteenth-century, both the proscenium arch and the borders, incorporated in the architecture of the new indoor theatres (theatre a l'italienne), contributed to create all kinds of illusions on the stage, principally the revival of perspective. This chapter shows ongoing audience demands for more elaborate visual effects on the stage. This led, throughout the classical age, and even more so during the eighteenth-century, to grant the stage design practitioner a major role in the making of the performance (see Ciceri). The second chapter demonstrates that the guidance of the actors and the scenographic conception, which are the artistic components of the role of the director, appear to have developed independently from one another until the nineteenth-century. The third chapter investigates the emergence of the director per se. The causes for this have been considered by a number of scholars, who have mainly identified two: the influence of Naturalism (illustrated by the Meiningen Company, Antoine, and Stanislavski) and the invention of electric lighting. The influence of the Naturalist movement on the emergence of the modem director in the late nineteenth-century is often considered as a radical factor in the history of theatre practice. Naturalism undoubtedly contributed to changes in staging, costume and lighting design, and to a more rigorous commitment to the harmonisation and visualisation of the overall production of the play. Although the art of theatre was dependent on the dramatic text, scholars (Osborne) demonstrate that the Naturalist directors did not strictly follow the playwright's indications written in the play in the late nineteenth-century. On the other hand, the main characteristic of directing in Naturalism at that time depended on a comprehensive understanding of the scenography, which had to respond to the requirements of verisimilitude. Electric lighting contributed to this by allowing for the construction of a visual narrative on stage. However, it was a master technician, rather than an emergent director, who was responsible for key operational decisions over how to use this emerging technology in venues such as the new Bayreuth theatre in 1876. Electric lighting reflects a normal technological evolution and cannot be considered as one of the main causes of the emergence of the director. Two further causes of the emergence of the director, not considered in previous studies, are the invention of cinema and the Symbolist movement (Lugne-Poe, Meyerhold). Cinema had an important technological influence on the practitioners of the Naturalist movement. In order to achieve a photographic truth on the stage (tableau, image), Naturalist directors strove to decorate the stage with the detailed elements that would be expected to be found if the situation were happening in reality. Film production had an influence on the work of actors (Walter). The filmmaker took over a primary role in the making of the film, as the source of the script, the filming process and the editing of the film. This role influenced the conception that theatre directors had of their own work. It is this concept of the director which influenced the development of the theatre director. As for the Symbolist movement, the director's approach was to dematerialise the text of the playwright, trying to expose the spirit, movement, colour and rhythm of the text. Therefore, the Symbolists disengaged themselves from the material aspect of the production, and contributed to give greater artistic autonomy to the role of the director. Although the emergence of the director finds its roots amongst the Naturalist practitioners (through a rigorous attempt to provide a strict visual interpretation of the text on stage), the Symbolist director heralded the modem perspective of the making of performance. The emergence of the director significantly changed theatre practice and theory. For instance, the rehearsal period became a clear work in progress, a platform for both developing practitioners' techniques and staging the show. This chapter explores and contrasts several practitioners' methods based on the two aspects proposed for the definition of the director (guidance of the actors and materialisation of a visual space). The fourth chapter argues that the role of the director became stronger, more prominent, and more hierarchical, through a more political and didactic approach to theatre as exemplified by the cases of France and Germany at the end of the nineteenth-century and through the First World War. This didactic perspective to theatre defines the notion of political theatre. Political theatre is often approached by the literature (Esslin, Willett) through a Marxist interpretation of the great German directors' productions (Reinhardt, Piscator, Brecht). These directors certainly had a great influence on many directors after the Second World War, such as Jean Vilar, Judith Molina, Jean-Louis Barrault, Roger Planchon, Augusto Boal, and others. This chapter demonstrates, moreover, that the director was confirmed through both ontological and educational approaches to the process of making the performance, and consequently became a central and paternal figure in the organisational and structural processes practiced within her/his theatre company. In this way, the stance taken by the director influenced the State authorities in establishing theatrical policy. This is an entirely novel scholarly contribution to the study of the director. The German and French States were not indifferent to the development of political theatre. A network of public theatres was thus developed in the inter-war period, and more significantly after the Second World War. The fifth chapter shows how State theatre policies establish its sources in the development of political theatre, and more specifically in the German theatre trade union movement (Volksbiihne) and the great directors at the end of the nineteenth-century. French political theatre was more influenced by playwrights and actors (Romain Rolland, Louise Michel, Louis Lumet, Emile Berny). French theatre policy was based primarily on theatre directors who decentralised their activities in France during both the inter-war period and the German occupation. After the Second World War, the government established, through directors, a strong network of public theatres. Directors became both the artistic director and the executive director of those institutionalised theatres. The institution was, however, seriously shaken by the social and political upheaval of 1968. It is the link between the State and the institution in which established directors were entangled that was challenged by the young emerging directors who rejected institutionalised responsibility in favour of the autonomy of the artist in the 1960s. This process is elucidated in chapter five. The final chapter defines the contemporary role of the director in contrasting thework of a number of significant young theatre practitioners in the 1960s such as Peter Brook, Ariane Mnouchkine, The Living Theater, Jerzy Grotowski, Augusto Boal, Eugenio Barba, all of whom decided early on to detach their companies from any form of public funding. This chapter also demonstrates how they promoted new forms of performance such as the performance of the self. First, these practitioners explored new performance spaces outside the traditional theatre building. Producing performances in a non-dedicated theatre place (warehouse, street, etc.) was a more frequent practice in the 1960s than before. However, the recent development of cybertheatre questions both the separation of the audience and the practitioners and the place of the director's role since the 1990s. Secondly, the role of the director has been multifaceted since the 1960s. On the one hand, those directors, despite all their different working methods, explored western and non-western acting techniques based on both personal input and collective creation. They challenged theatrical conventions of both the character and the process of making the performance. On the other hand, recent observations and studies distinguish the two main functions of the director, the acting coach and the scenographe, both having found new developments in cinema, television, and in various others events. Thirdly, the contemporary director challenges the performance of the text. In this sense, Antonin Artaud was a visionary. His theatre illustrates the need for the consideration of the totality of the text, as well as that of theatrical production. By contrasting the theories of Artaud, based on a non-dramatic form of theatre, with one of his plays (Le Jet de Sang), this chapter demonstrates how Artaud examined the process of making the performance as a performance. Live art and autobiographical performance, both taken as directing the se(f, reinforce this suggestion. Finally, since the 1990s, autobiographical performance or the performance of the self is a growing practical and theoretical perspective in both performance studies and psychology-related studies. This relates to the premise that each individual is making a representation (through memory, interpretation, etc.) of her/his own life (performativity). This last section explores the links between the place of the director in contemporary theatre and performers in autobiographical practices. The role of the traditional actor is challenged through non-identification of the character in the play, while performers (such as Chris Burden, Ron Athey, Orlan, Franko B, Sterlac) have, likewise, explored their own story/life as a performance. The thesis demonstrates the validity of the four parameters (performer, performance space, devising process, social event) defining a generic approach to the director. A generic perspective on the role of the director would encompass: a historical dimension relative to the reasons for and stages of the 'emergence' of the director; a socio-political analysis concerning the relationship between the director, her/his institutionalisation, and the political realm; and the relationship between performance theory, practice and the contemporary role of the director. Such a generic approach is a new departure in theatre research and might resonate in the study of other collaborative artistic practices.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The following article explores the application of educational technologies at a University level and their contribution in enhancing the educational effectiveness. It discusses the capabilities of computer algebra systems, such as Maple. It is integrated in the math tuition of the Technical University (TU) in Varna and is used by its students during laboratory exercises.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Report published in the Proceedings of the National Conference on "Education and Research in the Information Society", Plovdiv, May, 2015

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Math storybooks are picture books in which the understanding of mathematical concepts is central to the comprehension of the story. Math stories have provided useful opportunities for children to expand their skills in the language arts area and to talk about mathematical factors that are related to their real lives. The purpose of this study was to examine bilingual children's reading and math comprehension of the math storybooks. ^ The participants were randomly selected from two Korean schools and two public elementary schools in Miami, Florida. The sample consisted of 63 Hispanic American and 43 Korean American children from ages five to seven. A 2 x 3 x (2) mixed-model design with two between- and one within-subjects variable was used to conduct this study. The two between-subjects variables were ethnicity and age, and the within-subjects variable was the subject area of comprehension. Subjects were read the three math stories individually, and then they were asked questions related to reading and math comprehension. ^ The overall ANOVA using multivariate tests was conducted to evaluate the factor of subject area for age and ethnicity. As follow-up tests for a significant main effect and a significant interaction effect, pairwise comparisons and simple main effect tests were conducted, respectively. ^ The results showed that there were significant ethnicity and age differences in total comprehension scores. There were also age differences in reading and math comprehension, but no significant differences were found in reading and math by ethnicity. Korean American children had higher scores in total comprehension than those of Hispanic American children, and they showed greater changes in their comprehension skills at the younger ages, from five to six, whereas Hispanic American children showed greater changes at the older ages, from six to seven. Children at ages five and six showed higher scores in reading than in math, but no significant differences between math and reading comprehension scores were found at age seven. ^ Through schooling with integrated instruction, young bilingual children can move into higher levels of abstraction and concepts. This study highlighted bilingual children's general nature of thinking and showed how they developed reading and mathematics comprehension in an integrated process. ^

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’objectif principal de cette thèse était de créer, d’implanter et d’évaluer l’efficacité d’un programme de remédiation cognitive, intervenant de façon comparable sur les aspects fluide (Gf) et cristallisé (Gc) de l’intelligence, au sein d’une population d’intérêt clinique, les adolescents présentant un fonctionnement intellectuel limite (FIL). Compte tenu de la forte prévalence de ce trouble, le programme de remédiation GAME (Gains et Apprentissages Multiples pour Enfant) s’est développé autour de jeux disponibles dans le commerce afin de faciliter l’accès et l’implantation de ce programme dans divers milieux. Le premier article de cette thèse, réalisé sous forme de revue systématique de la littérature, avait pour objectif de faire le point sur les études publiées utilisant le jeu comme outil de remédiation cognitive dans la population pédiatrique. L’efficacité, ainsi que la qualité du paradigme utilisé ont été évaluées, et des recommandations sur les aspects méthodologiques à respecter lors de ce type d’étude ont été proposées. Cet article a permis une meilleure compréhension des écueils à éviter et des points forts méthodologiques à intégrer lors de la création du programme de remédiation GAME. Certaines mises en garde méthodologiques relevées dans cet article ont permis d’améliorer la qualité du programme de remédiation cognitive développé dans ce projet de thèse. Compte tenu du peu d’études présentes dans la littérature scientifique concernant la population présentant un FIL (70ent concernant son fonctionnement cognitif, adaptatif, comportemental et psychiatrique. La deuxième étude de cette thèse a donc permis de préciser le profil de cette population de manière empirique. Dans le domaine cognitif, une force a été mise en évidence au niveau langagier pour le vocabulaire réceptif et la fluence verbale. De plus, certains aspects des capacités attentionnelles et de la mémoire de travail semblaient être bien compensés, possiblement via l’effet de psychostimulants. Étonnamment, le fonctionnement adaptatif n’était pas directement relié au niveau intellectuel global et était hétérogène, suggérant l’importance d’évaluer ce domaine pour rendre compte du niveau de fonctionnement des adolescents présentant un FIL dans la vie quotidienne. D’un point de vue comportemental et psychiatrique, les adolescents avec un FIL avaient plus de manifestations internalisées et externalisées atteignant un seuil cliniquement significatif que leurs pairs. Ces manifestations comportementales expliquent d’ailleurs une part importante du niveau de stress parental dans cette population. Ces résultats sont importants à considérer lors de l’orientation académique, clinique et familiale dans la prise en charge des adolescents présentant un FIL, et soulignent l’importance de proposer une évaluation neuropsychologique approfondie. Enfin, la partie centrale de cette thèse consistait à créer un programme de remédiation cognitive portant sur les aspects fluide et cristallisé de l’intelligence, champs d’intervention qui a été négligé compte tenu de la stabilité longtemps postulée de ces processus. Ce programme de remédiation, intitulé GAME, s’adressait aux adolescents présentant un FIL pur ou partiel (soit les deux indices de raisonnement étaient dans la zone limite, soit un seul des deux), et présentait deux versants, GAME-c (portant sur l’intelligence cristallisée) et GAME-f (portant sur l’intelligence fluide). Cette intervention durait seize heures réparties sur huit semaines. Les résultats indiquent que les adolescents ayant suivi GAME-f ont amélioré leur raisonnement fluide; alors que les adolescents ayant suivi GAME-c ont amélioré à la fois leur raisonnement cristallisé et fluide. Cette étude contribue à remettre en question la stabilité des processus intellectuels. C’est par contre la première fois que des améliorations de l’intelligence sont constatées dans une population d’intérêt clinique par le biais d’un entraînement direct. Enfin, les variables cognitives, adaptatives, comportementales et psychiatriques susceptibles d’influencer la qualité de l’amélioration pour chacun des programmes GAME ont fait l’objet d’analyses supplémentaires dans un dernier chapitre et permettent de conclure à la possibilité d’adapter le programme GAME à d’autres populations (ex: déficience intellectuelle). Cette thèse a donc permis de souligner la pertinence d’utiliser les jeux comme outil de remédiation cognitive de part leur versatilité dans leur utilisation, leur facilité d’accès et leur faible coût. Elle met également en avant la nécessité de développer une meilleure compréhension de la population présentant un fonctionnement intellectuel limite et d’effectuer des évaluations neuropsychologiques exhaustives auprès de cette population (cognitif, adaptatif, comportemental et psychiatrique). Enfin, elle souligne la possibilité d’améliorer par remédiation directe les intelligences fluide et cristallisée auprès d’individus avec une intelligence subnormale et suggère qu’il pourrait en être de même pour des populations présentant des déficits cognitifs, comme la déficience intellectuelle légère. Les avenues futures de recherche et les retombées cliniques de ce travail sont discutées, en lien avec les différents résultats trouvés dans ces études.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le risque de développer un problème de jeu chez les personnes atteintes de la maladie de Parkinson (MP) est de plus en plus documenté. Un type de médicament visant à contrôler les symptômes moteurs, l’agoniste dopaminergique, serait l’un des principaux facteurs liés à son développement. Par le biais d’une synthèse narrative présentée dans le chapitre 3, les mécanismes neurobiologiques et les autres facteurs en lien sont discutés. Un important constat ressort toutefois : l’étude des habitudes de jeu de ces patients est pratiquement absente. Ce constat est surprenant puisque la littérature sur le jeu regorge d’informations à prendre en considération dans le développement de ce trouble, telles que les types de jeu pratiqués, les montants dépensés, les raisons pour jouer et la présence de proches. Le deuxième article consiste donc à répondre à cette lacune relevée en faisant le portrait de leurs habitudes de jeu. Vingt-cinq personnes souffrant de la MP ont été recrutées et parmi celles-ci, quinze ont joué dans les six derniers mois. L’examen de leurs habitudes de jeu révèle que les jeux préférés sont la loterie et la machine à sous et qu’elles ont, en majorité, débuté la pratique de ces jeux avant l’établissement du diagnostic de la MP. Les patients sont moins intéressés à jouer aux machines à sous comparativement à un échantillon de joueurs âgés de plus de 55 ans mais, en contrepartie, ce jeu est celui auquel les plus grands montants étaient dépensés chez les participants qui ont rapporté avoir développé un problème de jeu. Les participants jouent pour le plaisir ou pour gagner de l’argent, mais des raisons non répertoriées, liées à leur maladie, ont été relevées. Ces patients n’ont pas recours à des proches aidants pour les aider dans la pratique de leur jeu favori et ces derniers ont manifesté leur méconnaissance de la pratique de jeux de hasard et d’argent des participants. Parmi l’ensemble des participants rencontrés, trois d’entre eux se sont révélés être des joueurs à risque. En plus de jouer aux machines à sous, des croyances erronées et des motivations spécifiques à jouer ont été relevées chez ces derniers. La réflexion découlant de ces résultats pourra stimuler la recherche dans l’étude des variables psychosociales en lien avec le développement d’un problème de jeu chez ces patients.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire vise à démontrer, à travers l’analyse des sources du renseignement militaire russe, que vers la fin du XIXᵉ siècle, la construction du chemin de fer de Bagdad par les Allemands conduit à la reconfiguration du Grand Jeu. L’intervalle historique qui s’étend de 1878 à 1914 représente la période de l’avènement de l’Allemagne en tant que nouvel acteur de la rivalité qui opposait jusqu’ici les Russes et les Britanniques en Asie centrale. L’immixtion allemande en Asie Mineure amène à l’internationalisation de la scène moyen-orientale par la construction de la voie ferrée qui, devant relier le Bosphore au golfe Persique, menaçait directement la domination britannique sur la route des Indes et modifiait la conception antérieure du Grand Jeu. En analysant quelques centaines de pages de documents provenant des sources du renseignement militaire russe, à savoir des dépêches, des comptes rendus et des rapports des agents militaires (voennye agenty) ainsi que des notices des représentants diplomatiques russes au Moyen-Orient, nous avons discerné les positions prises par les grandes puissances dans l’entreprise de Bagdad, tout en mettant de l’avant le conflit d’intérêts qui accompagnait l’établissement du tracé du futur chemin de fer. En menaçant la sécurité de l’Inde britannique d’un côté, et en contribuant au renforcement de l’armée turque à la frontière caucasienne de l’autre, le projet allemand de la Bagdadbahn fait avancer la Marche vers l’Est en inaugurant la Weltpolitik germanique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les méthodes classiques d’analyse de survie notamment la méthode non paramétrique de Kaplan et Meier (1958) supposent l’indépendance entre les variables d’intérêt et de censure. Mais, cette hypothèse d’indépendance n’étant pas toujours soutenable, plusieurs auteurs ont élaboré des méthodes pour prendre en compte la dépendance. La plupart de ces méthodes émettent des hypothèses sur cette dépendance. Dans ce mémoire, nous avons proposé une méthode d’estimation de la dépendance en présence de censure dépendante qui utilise le copula-graphic estimator pour les copules archimédiennes (Rivest etWells, 2001) et suppose la connaissance de la distribution de la variable de censure. Nous avons ensuite étudié la consistance de cet estimateur à travers des simulations avant de l’appliquer sur un jeu de données réelles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La compréhension et la modélisation de l’interaction de l’onde électromagnétique avec la neige sont très importantes pour l’application des technologies radars à des domaines tels que l’hydrologie et la climatologie. En plus de dépendre des propriétés de la neige, le signal radar mesuré dépendra aussi des caractéristiques du capteur et du sol. La compréhension et la quantification des différents processus de diffusion du signal dans un couvert nival s’effectuent à travers les théories de diffusions de l’onde électromagnétique. La neige, dans certaines conditions, peut être considérée comme un milieu dense lorsque les particules de glace qui la composent y occupent une fraction volumique considérable. Dans un tel milieu, les processus de diffusion par les particules ne se font plus de façon indépendante, mais de façon cohérente. L’approximation quasi-cristalline pour les milieux denses est une des théories élaborées afin de prendre en compte ces processus de diffusions cohérents. Son apport a été démontré dans de nombreuses études pour des fréquences > 10 GHz où l’épaisseur optique de la neige est importante et où la diffusion de volume est prédominante. Par contre, les capteurs satellitaires radar présentement disponibles utilisent les bandes L (1-2GHz), C (4-8GHz) et X (8-12GHz), à des fréquences principalement en deçà des 10 GHz. L’objectif de la présente étude est d’évaluer l’apport du modèle de diffusion issu de l’approximation quasi-cristalline pour les milieux denses (QCA/DMRT) dans la modélisation de couverts de neige sèches en bandes C et X. L’approche utilisée consiste à comparer la modélisation de couverts de neige sèches sous QCA/DMRT à la modélisation indépendante sous l’approximation de Rayleigh. La zone d’étude consiste en deux sites localisés sur des milieux agricoles, près de Lévis au Québec. Au total 9 champs sont échantillonnés sur les deux sites afin d’effectuer la modélisation. Dans un premier temps, une analyse comparative des paramètres du transfert radiatif entre les deux modèles de diffusion a été effectuée. Pour des paramètres de cohésion inférieurs à 0,15 à des fractions volumiques entre 0,1 et 0,3, le modèle QCA/DMRT présentait des différences par rapport à Rayleigh. Un coefficient de cohésion optimal a ensuite été déterminé pour la modélisation d’un couvert nival en bandes C et X. L’optimisation de ce paramètre a permis de conclure qu’un paramètre de cohésion de 0,1 était optimal pour notre jeu de données. Cette très faible valeur de paramètre de cohésion entraîne une augmentation des coefficients de diffusion et d’extinction pour QCA/DMRT ainsi que des différences avec les paramètres de Rayleigh. Puis, une analyse de l’influence des caractéristiques du couvert nival sur les différentes contributions du signal est réalisée pour les 2 bandes C et X. En bande C, le modèle de Rayleigh permettait de considérer la neige comme étant transparente au signal à des angles d’incidence inférieurs à 35°. Vu l’augmentation de l’extinction du signal sous QCA/DMRT, le signal en provenance du sol est atténué d’au moins 5% sur l’ensemble des angles d’incidence, à de faibles fractions volumiques et fortes tailles de grains de neige, nous empêchant ainsi de considérer la transparence de la neige au signal micro-onde sous QCA/DMRT en bande C. En bande X, l’augmentation significative des coefficients de diffusion par rapport à la bande C, ne nous permet plus d’ignorer l’extinction du signal. La part occupée par la rétrodiffusion de volume peut dans certaines conditions, devenir la part prépondérante dans la rétrodiffusion totale. Pour terminer, les résultats de la modélisation de couverts de neige sous QCA/DMRT sont validés à l’aide de données RADARSAT-2 et TerraSAR-X. Les deux modèles présentaient des rétrodiffusions totales semblables qui concordaient bien avec les données RADARSAT-2 et TerraSAR-X. Pour RADARSAT-2, le RMSE du modèle QCA/DMRT est de 2,52 dB en HH et 2,92 dB en VV et pour Rayleigh il est de 2,64 dB en HH et 3,01 dB en VV. Pour ce qui est de TerraSAR-X, le RMSE du modèle QCA/DMRT allait de 1,88 dB en HH à 2,32 dB en VV et de 2,20 dB en HH à 2,71 dB en VV pour Rayleigh. Les valeurs de rétrodiffusion totales des deux modèles sont assez similaires. Par contre, les principales différences entre les deux modèles sont bien évidentes dans la répartition des différentes contributions de cette rétrodiffusion totale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les jeux vidéo, bien que souvent associés au divertissement, sont de plus en plus utilisés à des fins pratiques en raison de leurs aptitudes à soutenir la motivation intrinsèque des joueurs. Afin de bien répondre aux préférences des joueurs, il devient important de comprendre quels facteurs permettent de soutenir ce type de motivation. Malgré la vaste littérature sur le sujet, aucune étude n’a avancé un modèle des motivations pour les jeux vidéo accepté de façon unanime. D’une part, plusieurs modèles fréquemment recensés dans les écrits ne sont supportés par aucune étude empirique. D’une autre part, les modèles ayant reçu un appui empirique sont souvent spécifiques à un type de jeu, ou divergent les uns des autres en raison d’une interprétation restreinte des analyses factorielles. Par conséquent, la présente étude cherche à proposer un modèle des motivations pour les jeux vidéo unifiant les différents modèles présents dans les écrits. Un questionnaire portant sur les comportements et les préférences des joueurs a été développé afin de tester la validité d’un modèle théorique récent des motivations pour les jeux vidéo et d’explorer les motivations des joueurs dans la population générale. Cent cinquante-six participants (41 Femmes; Mage = 25.95) ont complétés le questionnaire dans le cadre d’une expérience portant sur les jeux vidéo ou en ligne. Une analyse factorielle confirmatoire n’a pas permis de confirmer la structure du modèle théorique étudié. Plutôt, une analyse en composantes principales exploratoire a révélé la présence de sept composantes. Enfin, sept facteurs récurrents à travers les modèles supportés empiriquement ont été identifiés : la socialisation, la compétition, l’accomplissement, l’immersion, l’échappement, l’autonomie, et l’auto-actualisation. Ce modèle propose une base sur laquelle les études futures pourront bâtir, ainsi qu’un modèle préliminaire pouvant contribuer au développement de jeux favorisant la motivation intrinsèque des joueurs.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'objet d'étude de cette recherche était l'enseignement de la grammaire au 2e cycle du primaire. Les chercheuses ont constaté un écart considérable du nombre de notions prescrites par le Programme de formation de l'école québécoise (2001) entre la 2e année du 1 er cycle et la 1 re année du 2e cycle. De plus, dans les manuels scolaires du 2e cycle, une grande majorité des nouveaux savoirs essentiels était abordée dans ceux de la 1re année de ce cycle. L'année suivante, peu de nouvelles notions sont travaillées. Ce qui explique que plusieurs élèves éprouvent des difficultés d'apprentissage en grammaire dès le début du 2e cycle. Afin d'améliorer cette situation, les notions de grammaire pourraient être travaillées différemment de ce que proposent les manuels puisque le Programme de formation (2001) est conçu sur deux ans. L'objectif des chercheuses était donc de bien outiller les enseignants pour travailler la grammaire du 2e cycle d'une façon différente. Pour ce faire, la création d'un jeu éducatif qui tient compte de la différenciation pour l'enseignement de la grammaire au 2e cycle pouvait être un bon outil.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Finländska elever presterar fortsättningsvis bra i matematik men deras inre motivation till ämnet är klart under medelnivån för OECD-länderna. Det finns ett konstaterat samband mellan intresse och prestationer, och att höja elevernas intresse vore därför viktigt. Användningen av dataspel i undervisningen möjliggör just detta då det kunde höja elevernas motivation och intresse. Det finns en del tidigare forskning om hur dataspel påverkar inlärningen, men eftersom området fortfarande är relativt nytt finns luckor att fylla. De övergripande resultaten inom området inlärning genom dataspel är positiva och lovande. Tidigare forskning visar att användningen av dataspel i matematikundervisningen har en positiv inverkan på elevernas prestationer. Man har också kunnat konstatera att användningen av dataspel i undervisningen påverkar elevernas attityder till ämnet positivt, men forskning om hur specifika affektiva faktorer som intresse, självuppfattning och matematikångest påverkas saknas. Syftet med avhandlingen är att undersöka effekten av dataspelet MinecraftEdu på finländska studerande inom yrkesutbildningen. Forskningsfrågorna som avhandlingen utgår ifrån är följande: Hur påverkar användningen av MinecraftEdu i matematikundervisningen låg- och normalpresterande studerandes 1) matematiska färdigheter, 2) intresse för matematik, 3) matematiska självuppfattning och 4) matematikångest? Forskningsmetoden är kvantitativ och datainsamlingen har genomförts med hjälp av en webbenkät och det standardiserade testet RMAT samt 8 problemlösningsuppgifter. Respondenterna bestod av andra årets studerande inom den finländska yrkesutbildningen. Experimentgruppen som bestod av studerande inom datanomutbildningen undervisades med hjälp av dataspelet Minecraft. Kontrollgruppen, bestående av studerande inom utbildningen för fordonsmekaniker, undervisades traditionellt. Data samlades in vid två tillfällen, före och efter avslutad kurs. Som analysmetod valdes en kovariansanalys. Resultaten av undersökningen tyder på att användningen av MinecraftEdu kan ha positiva effekter på studerandes matematiska färdigheter, speciellt problemlösningsfärdigheter. Resultaten tyder också på att lågpresterande studerande kan gynnas av undervisning genom MinecraftEdu, speciellt med tanke på matematiskt intresse och matematiska färdigheter. Skillnaderna mellan grupperna var dock inte signifikanta och resultaten kan därför inte generaliseras. Resultaten ger däremot en uppfattning om vilken effekt den här typen av undervisning kan ha.