369 resultados para Interactivity
Resumo:
Os recentes avanços tecnológicos fizeram aumentar o nível de qualificação do pesquisador em epidemiologia. A importância do papel estratégico da educação não pode ser ignorada. Todavia, a Associação Brasileira de Pós-graduação em Saúde Coletiva (ABRASCO), no seu último plano diretor (2005-2009), aponta uma pequena valorização na produção de material didático-pedagógico e, ainda, a falta de uma política de desenvolvimento e utilização de software livre no ensino da epidemiologia. É oportuno, portanto, investir em uma perspectiva relacional, na linha do que a corrente construtivista propõe, uma vez que esta teoria tem sido reconhecida como a mais adequada no desenvolvimento de materiais didáticos informatizados. Neste sentido, promover cursos interativos e, no bojo destes, desenvolver material didático conexo é oportuno e profícuo. No âmbito da questão política de desenvolvimento e utilização de software livre no ensino da epidemiologia, particularmente em estatística aplicada, o R tem se mostrado um software de interesse emergente. Ademais, não só porque evita possíveis penalizações por utilização de software comercial sem licença, mas também porque o franco acesso aos códigos e programação o torna uma ferramenta excelente para a elaboração de material didático em forma de hiperdocumentos, importantes alicerces para uma tão desejada interação docentediscente em sala de aula. O principal objetivo é desenvolver material didático em R para os cursos de bioestatística aplicada à análise epidemiológica. Devido a não implementação de certas funções estatísticas no R, também foi incluída a programação de funções adicionais. Os cursos empregados no desenvolvimento desse material fundamentaram-se nas disciplinas Uma introdução à Plataforma R para Modelagem Estatística de Dados e Instrumento de Aferição em Epidemiologia I: Teoria Clássica de Medidas (Análise) vinculadas ao departamento de Epidemiologia, Instituto de Medicina Social (IMS) da Universidade do Estado do Rio de Janeiro (UERJ). A base teórico-pedagógica foi definida a partir dos princípios construtivistas, na qual o indivíduo é agente ativo e crítico de seu próprio conhecimento, construindo significados a partir de experiências próprias. E, à ótica construtivista, seguiu-se a metodologia de ensino da problematização, abrangendo problemas oriundos de situações reais e sistematizados por escrito. Já os métodos computacionais foram baseados nas Novas Tecnologias da Informação e Comunicação (NTIC). As NTICs exploram a busca pela consolidação de currículos mais flexíveis, adaptados às características diferenciadas de aprendizagem dos alunos. A implementação das NTICs foi feita através de hipertexto, que é uma estrutura de textos interligados por nós ou vínculos (links), formando uma rede de informações relacionadas. Durante a concepção do material didático, foram realizadas mudanças na interface básica do sistema de ajuda do R para garantir a interatividade aluno-material. O próprio instrutivo é composto por blocos, que incentivam a discussão e a troca de informações entre professor e alunos.
Resumo:
O presente trabalho teve como objetivo descrever o fenômeno da adesão nas igrejas neopentecostais a partir da psicologia social, mais especificamente, da teoria das representações sociais. Desta maneira, nós procuramos identificar os elementos constitutivos das práticas religiosas decorrentes de um determinado grupo religioso neopentecostal correlacionando-os àss representações sociais. Destarte, este trabalho identificou e analisou o processo de utilização do senso comum religioso pela comunidade neopentecostal Igreja Mundial do Poder de Deus, como instrumento gerador de adesão, considerando-se os fatores emocionais pertinentes ao senso comum do grupo como força motivadora de adesão à igreja referida. Deste modo, chegamos a quatro temas básicos que nos possibilitaram identificar as representações sociais construídas na interatividade da igreja. Os temas foram: oferta de milagres e feitos extraordinários; a singularidade da Igreja Mundial do Poder de Deus; a batalha entre o bem e o mal; o líder espiritual e sua relação com os adeptos de sua comunidade. As representações sociais identificadas foram: representação social da igreja como lugar de bênçãos e feitos extraordinários; representação social dos demônios; representação social do divino; representação social do ungido de Deus. Tendo em vista as representações identificadas e analisadas, o que se conclui é que, na igreja pesquisada, o senso comum - enquanto significações circulantes entre os membros desta igreja - aliado a fatores emocionais que lhe são pertinentes, se constitui como fator causativo de adesão, na medida em que os sujeitos percebem que as soluções para suas demandas e males são ofertadas, pela igreja, de maneira identificada com os significados já presentes neste senso comum.
Resumo:
MDe; Máster en Investigación de Ámbitos Socioeducativos
Resumo:
Este trabalho tem por objetivo propor um modelo de pensamento projetual que oriente o designer de experiências interativas no formato de websites. Baseia-se em um corpo teórico e diretrizes adequadas para estimular a manutenção da atividade do usuário e o prolongamento da experiência interativa no tempo, aumentando a probabilidade da ocorrência de momentos memoráveis e emocionalmente positivos ao interator, sem prejuízo à usabilidade do sistema. Esta abordagem se afasta do paradigma de projeto voltado para o cumprimento de objetivos e tarefas, no qual procura-se reduzir o tempo de interação aumentando a produtividade do interator. Ao contrário, aqui se propõe um olhar voltado para o engajamento em uma atividade, sendo esta o fim em si.
Resumo:
A pesquisa busca compreender a atuação no Twitter das campanhas às prefeituras de São Paulo e Rio de Janeiro em 2012, de modo a entender se houve de fato uma estratégia de ação que usou as possibilidades destes sites de redes sociais para a construção de uma forma inovadora de se fazer campanha eleitoral. A partir de uma revisão de literatura que abrange desde a importância da circulação da informação política nos diferentes regimes informacionais e a midiatização das campanhas eleitorais, procurou-se discutir a emergência das campanhas online, suas principais estratégias e conceitos chave tais como a informação política não mediada, a interatividade e a mobilização bem como a discussão de casos importantes sob o ponto de vista da aplicação de técnicas de marketing à comunicação política. A parte empírica do trabalho, considerando os aspectos levantados pela perspectiva de inovação, avalia a atuação dos candidatos a prefeito de São Paulo e Rio de Janeiro nos seus perfis oficiais dos candidatos no Twitter, além das atualizações dos perfis auxiliares criados por algumas campanhas. O objetivo foi chegar a um melhor entendimento de como se deu a utilização dos sites de redes sociais por parte dos candidatos, e até que ponto tais atuações estão relacionadas à forma tradicional de se fazer campanhas eleitorais, sendo que para isso foi realizada uma análise quantitativa e de conteúdo das publicações. Os resultados apontam para assimetrias com relação à utilização do Twitter pelas campanhas com maior e menor volume de recursos, existente no ambiente tradicional das campanhas políticas. Além disso, verificaram-se diferenças na atuação dos principais candidatos envolvidos no pleito, tendo os candidatos em maior vantagem junto ao eleitorado adotado posturas mais conservadoras. Na maioria dos candidatos, constatou-se o baixo índice de mensagens destinadas à mobilização dos internautas. São ressaltadas as estratégias mais inovadoras, em especial aquelas adotadas pelo candidato Marcelo Freixo, bem sucedidas em termos de mobilização de eleitores.
Resumo:
Esta dissertação visa levantar as possibilidades de uso da Geomática no ambiente de interatividade do Sistema Brasileiro de TV Digital Terrestre (SBTVD), definido pelo Decreto Presidencial 5.820, de 29 de Junho de 2006. O produto desta dissertação compreende a implementação de um Atlas, que terá como seu maior objetivo, o auxílio ao processo pedagógico e de Educação à distância (EAD), democratizando o conhecimento da Cartografia. A metodologia de desenvolvimento terá como base o estudo do município do Rio de Janeiro e como público alvo, professores e jovens de 8 a 12 anos de idade. Entretanto, poderá ser facilmente adaptado para outras regiões e diferentes níveis educacionais. No estudo foram utilizados os fundamentos da Geomática, com suas origens estruturais baseadas em uma natureza multidisciplinar, que é ponto de convergência da Informática, de Geografia, do Planejamento Urbano, das Engenharias, das Estatísticas e das Ciências do Ambiente, focadas em fases de produção definidas e divididas em: Coleta, Análise, Distribuição e Uso. Nesse contexto estudaremos como a Cartografia e o SBTVD terrestre vão se incorporar tecnologicamente na distribuição desses dados.
Resumo:
Paralelamente às mudanças ocasionadas pelas tecnologias da informação e comunicação (TIC), no contexto da sociedade e organizações o treinamento como processo para preparar o trabalhador para atividades imediatas cedeu lugar à educação continuada, que visa a formação do indivíduo numa perspectiva mais abrangente, preparando-o para lidar com as constantes alterações sociais e com o mundo a sua volta. Na sociedade em rede introduz-se um novo conceito de espaço: o ciberespaço. Nesse contexto, não há barreiras físicas à propagação de acontecimentos, notícias, costumes e hábitos. Com o propósito de interconectar pessoas, ideias e experiências, o Sesc implementou o sistema de videoconferência para difundir saberes a seus funcionários, geograficamente dispersos por todo o Brasil. Porém a prática mostrou-nos que a procura por inovações no processo de ensino e aprendizagem deve ser constante. Nessa busca da formação humana mais completa, refletiu-se acerca da potencialidade das TIC para pensar-se em um processo de formação continuada que promova: o fazer junto, a troca de conhecimentos e ideias, reconhecer a riqueza proveniente da diversidade de saberes e práticas, ações que fomentem o diálogo, o pensamento crítico e a vontade em aprender mais. Em suma: valorizar a inteligência coletiva por meio da colaboração. Para chegar-se às respostas percorreu-se um caminho que envolveu estudo de referenciais bibliográficos, a realização de um curso por videoconferência e proposição da experiência no ambiente virtual que serviu como objeto de estudo, definição e aplicação das técnicas de coleta de dados quantitativas e qualitativas cuja averiguação dos resultados permitiu-nos elucidações capazes de responder a hipótese formulada na pesquisa, pois resultados apontaram que criar situações nas quais possam ser compartilhadas as práticas profissionais e experiências de vida são determinantes para a aprendizagem em processos de formação continuada e, no contexto pesquisado, a videoconferência, facilitada por docentes de destaque em suas áreas de atuação, por acontecer de forma síncrona e ser a mídia de EaD que mais se aproxima do ensino presencial, mostrou-se com potencial para compartilhar com os participantes, principalmente, conteúdos oficiais, provenientes de pesquisas e referenciais bibliográficos e o ambiente virtual de aprendizagem, em complementação às sessões de videoconferência, como espaço para viabilizar encontros, compartilhar saberes, experiências e ideias, promovendo um debate acerca da prática cotidiana, tendo como ponto de partida questões norteadoras com os conteúdos apresentados nas aulas proferidas por videoconferência, ou seja, um espaço propício para compartilhar e refletir a práxis a partir da teoria e da prática.
Resumo:
Thin-film electronics in its myriad forms has underpinned much of the technological innovation in the fields of displays, sensors, and energy conversion over the past four decades. This technology also forms the basis of flexible electronics. Here we review the current status of flexible electronics and attempt to predict the future promise of these pervading technologies in healthcare, environmental monitoring, displays and human-machine interactivity, energy conversion, management and storage, and communication and wireless networks. © 2012 IEEE.
Resumo:
Lanthanide chlorides have been found to catalyze the Diels-Alder synthesis of 2-butoxy-3, 4-dihydro-2H-pyran and several norbornene derivatives under mild conditions. In particular, the heavier lanthanide chlorides are very active catalysts for some (4 + 2) cycloaddition reactions. The catalyst activities and selectivities generally increase with increasing atomic number of the rare earth elements.
Resumo:
As an animator and practice-based researcher with a background in games development, I am interested in technological change in the video game medium, with a focus on the tools and technologies that drive game character animation and interactive story. In particular, I am concerned with the issue of ‘user agency’, or the ability of the end user to affect story development—a key quality of the gaming experience and essential to the aesthetics of gaming, which is defined in large measure by its interactive elements. In this paper I consider the unique qualities of the video game1 as an artistic medium and the impact that these qualities have on the production of animated virtual character performances. I discuss the somewhat oppositional nature of animated character performances found in games from recent years, which range from inactive to active—in other words, low to high agency. Where procedural techniques (based on coded rules of movement) are used to model dynamic character performances, the user has the ability to interactively affect characters in real-time within the larger sphere of the game. This game play creates a high degree of user agency. However, it lacks the aesthetic nuances of the more crafted sections of games: the short cut-scenes, or narrative interludes where entire acted performances are mapped onto game characters (often via performance capture)2 and constructed into relatively cinematic representations. While visually spectacular, cut-scenes involve minimal interactivity, so user agency is low. Contemporary games typically float between these two distinct methods of animation, from a focus on user agency and dynamically responsive animation to a focus on animated character performance in sections where the user is a passive participant. We tend to think of the majority of action in games as taking place via playable figures: an avatar or central character that represents a player. However, there is another realm of characters that also partake in actions ranging from significant to incidental: non-playable characters, or NPCs, which populate action sequences where game play takes place as well as cut scenes that unfold without much or any interaction on the part of the player. NPCs are the equivalent to supporting roles, bit characters, or extras in the world of cinema. Minor NPCs may simply be background characters or enemies to defeat, but many NPCs are crucial to the overall game story. It is my argument that, thus far, no game has successfully utilized the full potential of these characters to contribute toward development of interactive, high performance action. In particular, a type of NPC that I have identified as ‘pivotal’3—those constituting the supporting cast of a video game—are essential to the telling of a game story, particularly in genres that focus on story and characters: adventure games, action games, and role-playing games. A game story can be defined as the entirety of the narrative, told through non-interactive cut-scenes as well a interactive sections of play, and development of more complex stories in games clearly impacts the animation of NPCs. I argue that NPCs in games must be capable of acting with emotion throughout a game—in the cutscenes, which are tightly controlled, but also in sections of game play, where player agency can potentially alter the story in real-time. When the animated performance of NPCs and user agency are not continuous throughout the game, the implication is that game stories may be primarily told through short movies within games, making it more difficult to define video games animation as a distinct artistic medium.
Resumo:
This paper presents a tool called Gismo (Generator of Internet Streaming Media Objects and workloads). Gismo enables the specification of a number of streaming media access characteristics, including object popularity, temporal correlation of request, seasonal access patterns, user session durations, user interactivity times, and variable bit-rate (VBR) self-similarity and marginal distributions. The embodiment of these characteristics in Gismo enables the generation of realistic and scalable request streams for use in the benchmarking and comparative evaluation of Internet streaming media delivery techniques. To demonstrate the usefulness of Gismo, we present a case study that shows the importance of various workload characteristics in determining the effectiveness of proxy caching and server patching techniques in reducing bandwidth requirements.
Resumo:
To serve asynchronous requests using multicast, two categories of techniques, stream merging and periodic broadcasting have been proposed. For sequential streaming access where requests are uninterrupted from the beginning to the end of an object, these techniques are highly scalable: the required server bandwidth for stream merging grows logarithmically as request arrival rate, and the required server bandwidth for periodic broadcasting varies logarithmically as the inverse of start-up delay. However, sequential access is inappropriate to model partial requests and client interactivity observed in various streaming access workloads. This paper analytically and experimentally studies the scalability of multicast delivery under a non-sequential access model where requests start at random points in the object. We show that the required server bandwidth for any protocols providing immediate service grows at least as the square root of request arrival rate, and the required server bandwidth for any protocols providing delayed service grows linearly with the inverse of start-up delay. We also investigate the impact of limited client receiving bandwidth on scalability. We optimize practical protocols which provide immediate service to non-sequential requests. The protocols utilize limited client receiving bandwidth, and they are near-optimal in that the required server bandwidth is very close to its lower bound.
Resumo:
Constraint programming has emerged as a successful paradigm for modelling combinatorial problems arising from practical situations. In many of those situations, we are not provided with an immutable set of constraints. Instead, a user will modify his requirements, in an interactive fashion, until he is satisfied with a solution. Examples of such applications include, amongst others, model-based diagnosis, expert systems, product configurators. The system he interacts with must be able to assist him by showing the consequences of his requirements. Explanations are the ideal tool for providing this assistance. However, existing notions of explanations fail to provide sufficient information. We define new forms of explanations that aim to be more informative. Even if explanation generation is a very hard task, in the applications we consider, we must manage to provide a satisfactory level of interactivity and, therefore, we cannot afford long computational times. We introduce the concept of representative sets of relaxations, a compact set of relaxations that shows the user at least one way to satisfy each of his requirements and at least one way to relax them, and present an algorithm that efficiently computes such sets. We introduce the concept of most soluble relaxations, maximising the number of products they allow. We present algorithms to compute such relaxations in times compatible with interactivity, achieving this by indifferently making use of different types of compiled representations. We propose to generalise the concept of prime implicates to constraint problems with the concept of domain consequences, and suggest to generate them as a compilation strategy. This sets a new approach in compilation, and allows to address explanation-related queries in an efficient way. We define ordered automata to compactly represent large sets of domain consequences, in an orthogonal way from existing compilation techniques that represent large sets of solutions.
Resumo:
For at least two millennia and probably much longer, the traditional vehicle for communicating geographical information to end-users has been the map. With the advent of computers, the means of both producing and consuming maps have radically been transformed, while the inherent nature of the information product has also expanded and diversified rapidly. This has given rise in recent years to the new concept of geovisualisation (GVIS), which draws on the skills of the traditional cartographer, but extends them into three spatial dimensions and may also add temporality, photorealistic representations and/or interactivity. Demand for GVIS technologies and their applications has increased significantly in recent years, driven by the need to study complex geographical events and in particular their associated consequences and to communicate the results of these studies to a diversity of audiences and stakeholder groups. GVIS has data integration, multi-dimensional spatial display advanced modelling techniques, dynamic design and development environments and field-specific application needs. To meet with these needs, GVIS tools should be both powerful and inherently usable, in order to facilitate their role in helping interpret and communicate geographic problems. However no framework currently exists for ensuring this usability. The research presented here seeks to fill this gap, by addressing the challenges of incorporating user requirements in GVIS tool design. It starts from the premise that usability in GVIS should be incorporated and implemented throughout the whole design and development process. To facilitate this, Subject Technology Matching (STM) is proposed as a new approach to assessing and interpreting user requirements. Based on STM, a new design framework called Usability Enhanced Coordination Design (UECD) is ten presented with the purpose of leveraging overall usability of the design outputs. UECD places GVIS experts in a new key role in the design process, to form a more coordinated and integrated workflow and a more focused and interactive usability testing. To prove the concept, these theoretical elements of the framework have been implemented in two test projects: one is the creation of a coastal inundation simulation for Whitegate, Cork, Ireland; the other is a flooding mapping tool for Zhushan Town, Jiangsu, China. The two case studies successfully demonstrated the potential merits of the UECD approach when GVIS techniques are applied to geographic problem solving and decision making. The thesis delivers a comprehensive understanding of the development and challenges of GVIS technology, its usability concerns, usability and associated UCD; it explores the possibility of putting UCD framework in GVIS design; it constructs a new theoretical design framework called UECD which aims to make the whole design process usability driven; it develops the key concept of STM into a template set to improve the performance of a GVIS design. These key conceptual and procedural foundations can be built on future research, aimed at further refining and developing UECD as a useful design methodology for GVIS scholars and practitioners.
Resumo:
The present study aims to identify the framework of personal, organizational and technical variables that contribute to the viability and successful of innovative educational practices with video games within the school context to enhance the multiple intelligences. For this purpose, advantage was taken on the information previously collected through a questionnaire about the views, thoughts and experiences of a group of teachers of childhood and primary education (N=25) who voluntarily participated in a blended training activity from Center of Teachers (CEFIRE) of Valencia, around a community of practice aimed at promoting and advising projects for implementing educational video games in the classroom. The mixed methodology adopted has allowed the following: a) describe the relationship between their degree of development and daily use made of ICT in the classroom, their level of familiarity with video games, their previous experience to integrate them for educational purposes..., and their participation in projects that focus on game-based learning; b) conduct content analysis of the opinions and thoughts expressed in a forum for teachers on innovation on and methodological strategies adopted reflected in a virtual board; and c) develop a SWOT analysis: Strengths, Weaknesses, Opportunities and Threats inherent in the implementation of experience with video games in the classroom. Among the conclusions, it is highlighted that, even though most did not have specific training or enough technological resources and the planning and implementation of innovation required them a great investment of time, their personal interest, the support given by members of the online community of practice, helped to encourage their activity, along with receptivity, positive attitude and high motivation of students with the experience. These aspects have been crucial to promote successful innovative practices with video games.