977 resultados para Interactive role
Resumo:
One big challenge in deploying games-based learning, is the high cost and specialised skills associated with customised development. In this paper we present a serious games platform that offers tools that allow educators without special programming or artistic skills to dynamically create three dimensional (3D) scenes and verbal and non-verbal interaction with fully embodied conversational agents (ECAs) that can be used to simulate numerous educational scenarios. We present evaluation results based on the use of the platform to create two educational scenarios for politics and law in higher education. We conclude with a discussion of directions for the further work.
Resumo:
Dissertação apresentada à Escola Superior de Comunicação Social como parte dos requisitos para obtenção de grau de mestre em Audiovisual e Multimédia.
Resumo:
It is commonly accepted that the educational environment has been undergoing considerable change due to the use of the Information and Communication tools. But learning depends upon actions such as experimenting, visualizing and demonstrating through which the learner succeeds in constructing his own knowledge. Although it is not easy to achieve these actions through current ICT supported learning approaches, Role Playing Games (RPG) may well develop such capacities. The creation of an interactive computer game with RPG characteristics, about the 500th anniversary of the city of Funchal, the capital of Madeira Island, is invested with compelling educational/pedagogical implications, aiming clearly at teaching history and social relations through playing. Players interpret different characters in different settings/scenarios, experiencing adventures, meeting challenges and trying to reach multiple and simultaneous goals in the areas of education, entertainment and social integration along the first 150 years of the history of Funchal. Through this process they will live and understand all the social and historical factors of that epoch.
Resumo:
The purpose of this study was to determine the relative contributions of psychopathy and self-monitoring to the prediction of self-presentation tactics (behaviours that individuals use to manipulate their self-image). Psychopathy is composed of two main factors: Factor 1, which includes manipulativeness and shallow affect, and Factor 2, which includes irresponsibility and anti-social behaviours. Self-monitoring is a personality trait that distinguishes between those who adapt their behaviour to fit different social situations (high self-monitors) and those who behave as they feel regardless of social expectations (low selfmonitors). It was hypothesized that self-monitoring would moderate the relationship between psychopathy and self-presentation tactics. One hundred and forty-nine university students completed the Self-Monitoring Scale (Snyder, 1974), the Self-Report Psychopathy Scale - Version III (Paulhus et aI., in press), the Self-Presentation Tactics scale (Lee, S., et aI., 1999), the HEXACO-PI (a measure ofthe six major factors of personality; Lee, K., & Ashton, 2004), and six scenarios that were created as a supplementary measure of the selfpresentation tactics. Results of the hierarchical multiple regression analyses showed that self-monitoring did moderate the relationship between psychopathy and three of the selfpresentation tactics: apologies, disclaimers, and exemplification. Further, significant interactions were observed between Factor 1 and self-monitoring on apologies and the defensive tactics subscale, between Factor 2 and self-monitoring on self-handicapping, and between Factor 1 and Factor 2 on exemplification. Contrary to expectations, the main effect of self-monitoring was significant for the prediction of nine tactics, while psychopathy was significant for the prediction of seven tactics. This indicates that the role of these two personality traits in the explanation of self-presentation tactics tends to be additive in nature rather than interactive. In addition. Factor 2 alone did not account for a significant amount of variance in any of the tactics, while Factor 1 significantly predicted nine tactics. Results are discussed with regard to implications and possible directions for future research.
Resumo:
There is a great deal of evidence to support the examination of an interactive relationship between the medium and the viewer in the interpretation of mainstream media. The exact nature of this relationship, however, is not well understood. The current study was carried out to assess the variables that may help explain why certain people interpret media, such as music videos, differently than others. Jensen's concept of reception analysis describes the relationship between the medium and the audience, and thus remains a strong focus within this study. Differences in the interpretation of music videos were investigated as a function of Absorption, gender role, screen size, age and viewing experience. Multiple regression analyses uncovered independent predictions of sexuality and violence scores by absorption and experience, as well as an interaction between absorption and screen size in the sexuality rating of the music videos.
Resumo:
L’évaluation économique en santé consiste en l’analyse comparative d’alternatives de services en regard à la fois de leurs coûts et de leurs conséquences. Elle est un outil d’aide à la décision. La grande majorité des décisions concernant l’allocation des ressources sont prises en clinique; particulièrement au niveau des soins primaires. Puisque chaque décision est associée à un coût d’opportunité, la non-prise en compte des considérations économiques dans les pratiques des médecins de famille peut avoir un impact important sur l’efficience du système de santé. Il existe peu de connaissances quant à l’influence des évaluations économiques sur la pratique clinique. L’objet de la thèse est de comprendre le rôle de l’évaluation économique dans la pratique des médecins de famille. Ses contributions font l’objet de quatre articles originaux (philosophique, théorique, méthodologique et empirique). L’article philosophique suggère l’importance des questions de complexité et de réflexivité en évaluation économique. La complexité est la perspective philosophique, (approche générale épistémologique) qui sous-tend la thèse. Cette vision du monde met l’attention sur l’explication et la compréhension et sur les relations et les interactions (causalité interactive). Cet accent sur le contexte et le processus de production des données souligne l’importance de la réflexivité dans le processus de recherche. L’article théorique développe une conception nouvelle et différente du problème de recherche. L’originalité de la thèse réside également dans son approche qui s’appuie sur la perspective de la théorie sociologique de Pierre Bourdieu; une approche théorique cohérente avec la complexité. Opposé aux modèles individualistes de l’action rationnelle, Bourdieu préconise une approche sociologique qui s’inscrit dans la recherche d’une compréhension plus complète et plus complexe des phénomènes sociaux en mettant en lumière les influences souvent implicites qui viennent chaque jour exercer des pressions sur les individus et leurs pratiques. L’article méthodologique présente le protocole d’une étude qualitative de cas multiples avec niveaux d’analyse imbriqués : les médecins de famille (niveau micro-individuel) et le champ de la médecine familiale (niveau macro-structurel). Huit études de cas furent réalisées avec le médecin de famille comme unité principale d’analyse. Pour le niveau micro, la collecte des informations fut réalisée à l’aide d’entrevues de type histoire de vie, de documents et d’observation. Pour le niveau macro, la collecte des informations fut réalisée à l’aide de documents, et d’entrevues de type semi-structuré auprès de huit informateurs clés, de neuf organisations médicales. L’induction analytique fut utilisée. L’article empirique présente l’ensemble des résultats empiriques de la thèse. Les résultats montrent une intégration croissante de concepts en économie dans le discours officiel des organisations de médecine familiale. Cependant, au niveau de la pratique, l'économisation de ce discours ne semble pas être une représentation fidèle de la réalité puisque la très grande majorité des participants n'incarnent pas ce discours. Les contributions incluent une compréhension approfondie des processus sociaux qui influencent les schèmes de perception, de pensée, d’appréciation et d’action des médecins de famille quant au rôle de l’évaluation économique dans la pratique clinique et la volonté des médecins de famille à contribuer à une allocation efficiente, équitable et légitime des ressources.
Resumo:
La théorie de l'information quantique s'est développée à une vitesse fulgurante au cours des vingt dernières années, avec des analogues et extensions des théorèmes de codage de source et de codage sur canal bruité pour la communication unidirectionnelle. Pour la communication interactive, un analogue quantique de la complexité de la communication a été développé, pour lequel les protocoles quantiques peuvent performer exponentiellement mieux que les meilleurs protocoles classiques pour certaines tâches classiques. Cependant, l'information quantique est beaucoup plus sensible au bruit que l'information classique. Il est donc impératif d'utiliser les ressources quantiques à leur plein potentiel. Dans cette thèse, nous étudions les protocoles quantiques interactifs du point de vue de la théorie de l'information et étudions les analogues du codage de source et du codage sur canal bruité. Le cadre considéré est celui de la complexité de la communication: Alice et Bob veulent faire un calcul quantique biparti tout en minimisant la quantité de communication échangée, sans égard au coût des calculs locaux. Nos résultats sont séparés en trois chapitres distincts, qui sont organisés de sorte à ce que chacun puisse être lu indépendamment. Étant donné le rôle central qu'elle occupe dans le contexte de la compression interactive, un chapitre est dédié à l'étude de la tâche de la redistribution d'état quantique. Nous prouvons des bornes inférieures sur les coûts de communication nécessaires dans un contexte interactif. Nous prouvons également des bornes atteignables avec un seul message, dans un contexte d'usage unique. Dans un chapitre subséquent, nous définissons une nouvelle notion de complexité de l'information quantique. Celle-ci caractérise la quantité d'information, plutôt que de communication, qu'Alice et Bob doivent échanger pour calculer une tâche bipartie. Nous prouvons beaucoup de propriétés structurelles pour cette quantité, et nous lui donnons une interprétation opérationnelle en tant que complexité de la communication quantique amortie. Dans le cas particulier d'entrées classiques, nous donnons une autre caractérisation permettant de quantifier le coût encouru par un protocole quantique qui oublie de l'information classique. Deux applications sont présentées: le premier résultat général de somme directe pour la complexité de la communication quantique à plus d'une ronde, ainsi qu'une borne optimale, à un terme polylogarithmique près, pour la complexité de la communication quantique avec un nombre de rondes limité pour la fonction « ensembles disjoints ». Dans un chapitre final, nous initions l'étude de la capacité interactive quantique pour les canaux bruités. Étant donné que les techniques pour distribuer de l'intrication sont bien étudiées, nous nous concentrons sur un modèle avec intrication préalable parfaite et communication classique bruitée. Nous démontrons que dans le cadre plus ardu des erreurs adversarielles, nous pouvons tolérer un taux d'erreur maximal de une demie moins epsilon, avec epsilon plus grand que zéro arbitrairement petit, et ce avec un taux de communication positif. Il s'ensuit que les canaux avec bruit aléatoire ayant une capacité positive pour la transmission unidirectionnelle ont une capacité positive pour la communication interactive quantique. Nous concluons avec une discussion de nos résultats et des directions futures pour ce programme de recherche sur une théorie de l'information quantique interactive.
Resumo:
In der psycholinguistischen Forschung ist die Annahme weitverbreitet, dass die Bewertung von Informationen hinsichtlich ihres Wahrheitsgehaltes oder ihrer Plausibilität (epistemische Validierung; Richter, Schroeder & Wöhrmann, 2009) ein strategischer, optionaler und dem Verstehen nachgeschalteter Prozess ist (z.B. Gilbert, 1991; Gilbert, Krull & Malone, 1990; Gilbert, Tafarodi & Malone, 1993; Herbert & Kübler, 2011). Eine zunehmende Anzahl an Studien stellt dieses Zwei-Stufen-Modell von Verstehen und Validieren jedoch direkt oder indirekt in Frage. Insbesondere Befunde zu Stroop-artigen Stimulus-Antwort-Kompatibilitätseffekten, die auftreten, wenn positive und negative Antworten orthogonal zum aufgaben-irrelevanten Wahrheitsgehalt von Sätzen abgegeben werden müssen (z.B. eine positive Antwort nach dem Lesen eines falschen Satzes oder eine negative Antwort nach dem Lesen eines wahren Satzes; epistemischer Stroop-Effekt, Richter et al., 2009), sprechen dafür, dass Leser/innen schon beim Verstehen eine nicht-strategische Überprüfung der Validität von Informationen vornehmen. Ausgehend von diesen Befunden war das Ziel dieser Dissertation eine weiterführende Überprüfung der Annahme, dass Verstehen einen nicht-strategischen, routinisierten, wissensbasierten Validierungsprozesses (epistemisches Monitoring; Richter et al., 2009) beinhaltet. Zu diesem Zweck wurden drei empirische Studien mit unterschiedlichen Schwerpunkten durchgeführt. Studie 1 diente der Untersuchung der Fragestellung, ob sich Belege für epistemisches Monitoring auch bei Informationen finden lassen, die nicht eindeutig wahr oder falsch, sondern lediglich mehr oder weniger plausibel sind. Mithilfe des epistemischen Stroop-Paradigmas von Richter et al. (2009) konnte ein Kompatibilitätseffekt von aufgaben-irrelevanter Plausibilität auf die Latenzen positiver und negativer Antworten in zwei unterschiedlichen experimentellen Aufgaben nachgewiesen werden, welcher dafür spricht, dass epistemisches Monitoring auch graduelle Unterschiede in der Übereinstimmung von Informationen mit dem Weltwissen berücksichtigt. Darüber hinaus belegen die Ergebnisse, dass der epistemische Stroop-Effekt tatsächlich auf Plausibilität und nicht etwa auf der unterschiedlichen Vorhersagbarkeit von plausiblen und unplausiblen Informationen beruht. Das Ziel von Studie 2 war die Prüfung der Hypothese, dass epistemisches Monitoring keinen evaluativen Mindset erfordert. Im Gegensatz zu den Befunden anderer Autoren (Wiswede, Koranyi, Müller, Langner, & Rothermund, 2013) zeigte sich in dieser Studie ein Kompatibilitätseffekt des aufgaben-irrelevanten Wahrheitsgehaltes auf die Antwortlatenzen in einer vollständig nicht-evaluativen Aufgabe. Die Ergebnisse legen nahe, dass epistemisches Monitoring nicht von einem evaluativen Mindset, möglicherweise aber von der Tiefe der Verarbeitung abhängig ist. Studie 3 beleuchtete das Verhältnis von Verstehen und Validieren anhand einer Untersuchung der Online-Effekte von Plausibilität und Vorhersagbarkeit auf Augenbewegungen beim Lesen kurzer Texte. Zusätzlich wurde die potentielle Modulierung dieser Effeke durch epistemische Marker, die die Sicherheit von Informationen anzeigen (z.B. sicherlich oder vielleicht), untersucht. Entsprechend der Annahme eines schnellen und nicht-strategischen epistemischen Monitoring-Prozesses zeigten sich interaktive Effekte von Plausibilität und dem Vorhandensein epistemischer Marker auf Indikatoren früher Verstehensprozesse. Dies spricht dafür, dass die kommunizierte Sicherheit von Informationen durch den Monitoring-Prozess berücksichtigt wird. Insgesamt sprechen die Befunde gegen eine Konzeptualisierung von Verstehen und Validieren als nicht-überlappenden Stufen der Informationsverarbeitung. Vielmehr scheint eine Bewertung des Wahrheitsgehalts oder der Plausibilität basierend auf dem Weltwissen – zumindest in gewissem Ausmaß – eine obligatorische und nicht-strategische Komponente des Sprachverstehens zu sein. Die Bedeutung der Befunde für aktuelle Modelle des Sprachverstehens und Empfehlungen für die weiterführende Forschung zum Vehältnis von Verstehen und Validieren werden aufgezeigt.
Resumo:
Increasingly socially intelligent agents (software or robotic) are used in education, rehabilitation and therapy. This paper discusses the role of interactive, mobile robots as social mediators in the particular domain of autism therapy. This research is part of the project AURORA that studies how mobile robots can be used to teach children with autism basic interaction skills that are important in social interactions among humans. Results from a particular series of trials involving pairs of two children and a mobile robot are described. The results show that the scenario with pairs of children and a robot creates a very interesting social context which gives rise to a variety of different social and non-social interaction patterns, demonstrating the specific problems but also abilities of children with autism in social interactions. Future work will include a closer analysis of interactional structure in human-human and robot-human interaction. We outline a particular framework that we are investigating.
Resumo:
The latest Hadley Centre climate model, HadGEM2-ES, includes Earth system components such as interactive chemistry and eight species of tropospheric aerosols. It has been run for the period 1860–2100 in support of the fifth phase of the Climate Model Intercomparison Project (CMIP5). Anthropogenic aerosol emissions peak between 1980 and 2020, resulting in a present-day all-sky top of the atmosphere aerosol forcing of −1.6 and −1.4 W m−2 with and without ammonium nitrate aerosols, respectively, for the sum of direct and first indirect aerosol forcings. Aerosol forcing becomes significantly weaker in the 21st century, being weaker than −0.5 W m−2 in 2100 without nitrate. However, nitrate aerosols become the dominant species in Europe and Asia and decelerate the decrease in global mean aerosol forcing. Considering nitrate aerosols makes aerosol radiative forcing 2–4 times stronger by 2100 depending on the representative concentration pathway, although this impact is lessened when changes in the oxidation properties of the atmosphere are accounted for. Anthropogenic aerosol residence times increase in the future in spite of increased precipitation, as cloud cover and aerosol-cloud interactions decrease in tropical and midlatitude regions. Deposition of fossil fuel black carbon onto snow and ice surfaces peaks during the 20th century in the Arctic and Europe but keeps increasing in the Himalayas until the middle of the 21st century. Results presented here confirm the importance of aerosols in influencing the Earth's climate, albeit with a reduced impact in the future, and suggest that nitrate aerosols will partially replace sulphate aerosols to become an important anthropogenic species in the remainder of the 21st century.
Resumo:
Soluble reactive phosphorus (SRP) plays a key role in eutrophication, a global problem decreasing habitat quality and in-stream biodiversity. Mitigation strategies are required to prevent SRP fluxes from exceeding critical levels, and must be robust in the face of potential changes in climate, land use and a myriad of other influences. To establish the longevity of these strategies it is therefore crucial to consider the sensitivity of catchments to multiple future stressors. This study evaluates how the water quality and hydrology of a major river system in the UK (the River Thames) respond to alterations in climate, land use and water resource allocations, and investigates how these changes impact the relative performance of management strategies over an 80-year period. In the River Thames, the relative contributions of SRP from diffuse and point sources vary seasonally. Diffuse sources of SRP from agriculture dominate during periods of high runoff, and point sources during low flow periods. SRP concentrations rose under any future scenario which either increased a) surface runoff or b) the area of cultivated land. Under these conditions, SRP was sourced from agriculture, and the most effective single mitigation measures were those which addressed diffuse SRP sources. Conversely, where future scenarios reduced flow e.g. during winters of reservoir construction, the significance of point source inputs increased, and mitigation measures addressing these issues became more effective. In catchments with multiple point and diffuse sources of SRP, an all-encompassing effective mitigation approach is difficult to achieve with a single strategy. In order to attain maximum efficiency, multiple strategies might therefore be employed at different times and locations, to target the variable nature of dominant SRP sources and pathways.
Resumo:
As part of the SUBR:IM work (www.subrim.org.uk) being undertaken at The College, the research team for this project (Tim Dixon, Yasmin Pocock and Mike Waters) has produced the first two of three volumes covering Stage 2 of the research. Volume 1 examines the results from the national UK developer interviews (carried out in 2004-2005); National Land Use Database (NLUD) analysis (1998-2003); and residential planning permission analysis for Salford/Manchester and Barking & Dagenham (2000-2004) using Estates Gazette Interactive (EGi) data and published information. Volume 1 (of 3): Literature Review, National Developer Interviews, Planning Permission Analysis and NLUD Analysis
Resumo:
As part of the SUBR:IM work (www.subrim.org.uk) being undertaken at The College, the research team for this project (Tim Dixon, Yasmin Pocock and Mike Waters) has produced the first two of three volumes covering Stage 2 of the research. Volume 1 examines the results from the national UK developer interviews (carried out in 2004-2005); National Land Use Database (NLUD) analysis (1998-2003); and residential planning permission analysis for Salford/Manchester and Barking & Dagenham (2000-2004) using Estates Gazette Interactive (EGi) data and published information. Volume 2 covers the sub-regional context for Thames Gateway and Greater Manchester, which form the basis for the case studies (these are to be published as Volume 3 Volume 2 (of 3): Sub-regional context (Thames Gateway and Greater Manchester)
Resumo:
Previous climate model simulations have shown that the configuration of the Earth's orbit during the early to mid-Holocene (approximately 10–5 kyr) can account for the generally warmer-than-present conditions experienced by the high latitudes of the northern hemisphere. New simulations for 6 kyr with two atmospheric/mixed-layer ocean models (Community Climate Model, version 1, CCMl, and Global ENvironmental and Ecological Simulation of Interactive Systems, version 2, GENESIS 2) are presented here and compared with results from two previous simulations with GENESIS 1 that were obtained with and without the albedo feedback due to climate-induced poleward expansion of the boreal forest. The climate model results are summarized in the form of potential vegetation maps obtained with the global BIOME model, which facilitates visual comparisons both among models and with pollen and plant macrofossil data recording shifts of the forest-tundra boundary. A preliminary synthesis shows that the forest limit was shifted 100–200 km north in most sectors. Both CCMl and GENESIS 2 produced a shift of this magnitude. GENESIS 1 however produced too small a shift, except when the boreal forest albedo feedback was included. The feedback in this case was estimated to have amplified forest expansion by approximately 50%. The forest limit changes also show meridional patterns (greatest expansion in central Siberia and little or none in Alaska and Labrador) which have yet to be reproduced by models. Further progress in understanding of the processes involved in the response of climate and vegetation to orbital forcing will require both the deployment of coupled atmosphere-biosphere-ocean models and the development of more comprehensive observational data sets
Resumo:
Two fish species, one top predator (Imparfinis mirini) and one intermediate detritivorous species (Hisonotus depressicauda), were experimentally manipulated to evaluate their relative importance in structuring the periphytic community, as well as their effects on the other trophic levels. An enclosure experiment was conducted in the Potreirinho creek, a second order tributary of Paranapanema River, SE Brazil. Five treatments were used: enclosure of the predator species. enclosure of the detritivorous species, enclosure of both together, exclusion of all fish species (closed control cage), and cage open to all fish community, (open control). Through direct and indirect effects, I. mirini, when alone gave rise to a trophic cascade that resulted in a positive effect on algal resources. Through direct effects, H. depressicauda. when alone, reduced the amount of organic matter, resulting in a positive indirect effect on algae. In addition, when the two species were enclosed together, only the effects determined by the detritivorous species were present. The results indicate the important role of the intermediate detritivorous species in the maintenance of the composition and trophic structure of the analyzed community by reducing the effects caused by the top predator.