770 resultados para theatre-based research
Resumo:
Climate change is expected to profoundly influence the hydrosphere of mountain ecosystems. The focus of current process-based research is centered on the reaction of glaciers and runoff to climate change; spatially explicit impacts on soil moisture remain widely neglected. We spatio-temporally analyzed the impact of the climate on soil moisture in a mesoscale high mountain catchment to facilitate the development of mitigation and adaptation strategies at the level of vegetation patterns. Two regional climate models were downscaled using three different approaches (statistical downscaling, delta change, and direct use) to drive a hydrological model (WaSiM-ETH) for reference and scenario period (1960–1990 and 2070–2100), resulting in an ensemble forecast of six members. For all ensembles members we found large changes in temperature, resulting in decreasing snow and ice storage and earlier runoff, but only small changes in evapotranspiration. The occurrence of downscaled dry spells was found to fluctuate greatly, causing soil moisture depletion and drought stress potential to show high variability in both space and time. In general, the choice of the downscaling approach had a stronger influence on the results than the applied regional climate model. All of the results indicate that summer soil moisture decreases, which leads to more frequent declines below a critical soil moisture level and an advanced evapotranspiration deficit. Forests up to an elevation of 1800 m a.s.l. are likely to be threatened the most, while alpine areas and most pastures remain nearly unaffected. Nevertheless, the ensemble variability was found to be extremely high and should be interpreted as a bandwidth of possible future drought stress situations.
Resumo:
As a group of experienced and novice youth workers, we believe that youth work is fundamentally about building trust-filled, mutually respectful relationships with young people. We create safe environments for young people to connect with other supportive adults and peers and to avoid violence in their neighborhoods and their homes. We guide those harmed by oppressive community conditions such as racism, sexism, agism, homophobia, and classism through a process of healing. As we get to know more about young people’s interests, we help them develop knowledge and skills in a variety of areas including: academic, athletic, leadership/civic, the arts, health and wellbeing, and career exploration. In short, we create transformative experiences for young people. In spite of the critical roles we play, we have largely been overlooked in youth development research, policy, and as a professional workforce. We face challenges ‘moving up’ in our careers. We get frustrated by how little money we earn. We are discouraged that despite our knowledge and experience we are not invited to the tables where youth funding, programming, and policy decisions are made. It is true—many of us do not have formal training or degrees in youth work—a reality which at times we regret. Yet, as our colleague communicates in the accompanying passage (see below), we resent that formal education is required for us to get ahead, particularly because we question whether we need it to do our jobs more effectively. Through the “What is the Value of Youth Work?” symposium, we hope to address these concerns through a dialogue about youth work with the following objectives: • Increase awareness of the knowledge, skills, contributions, and professionalism of youth workers; • Advance a youth worker professional development model that integrates a dilemma-focused approach with principles of social justice youth development; • Launch an ongoing Worcester area Youth Worker network. This booklet provides a brief overview of the challenges in ‘professionalizing’ youth work and an alternative approach that we are advancing that puts the knowledge and expertise of youth workers at the center of professional development.
Resumo:
This paper considers how and why an Asian enclave of small businesses has appeared in a poor neighborhood characterized by Puerto Rican and other Latino immigration in the post-industrial city of Worcester, Massachusetts. We begin by examining the role of the US in the world system, and argue that the US hegemonic role and specific political economic aspects of global capitalism (ie. deindustrialization) account for some of the migration stream. Next, using socioeconomic and historical data, interviews, and observations, we outline the history of Worcester’s economy and immigration patterns. We demonstrate that the increasing economic inequality leaves few promising employment options for newcomers to Worcester. Drawing on existing literature on immigrant entrepreneurs and ethnic enclaves, we argue that some aspects of the literature appear to shed light on the Vietnamese enterprises which have so visibly appeared (e.g., ethnic niches), while others, (e.g., middle-man minority theory) are not now reflected in local conflict. We conclude by considering the prospects for immigrants to this neighborhood in light of its political economic context.
Resumo:
Supporting Worcester’s ongoing effort to understand and address youth and young adult homelessness, the Community Roundtable on Youth Homelessness in conjunction with the Compass Project and Clark University conducted the fourth annual Point-in-Time Survey during October of 2012. Young people were surveyed at city shelters, youth programs, outside of schools, in parks, and on the streets of Worcester. Out of the 753 young people (ages 13to 25) surveyed, 120 (16%) dentified as homeless. We define homeless to include young people in shelters, staying with others temporarily (i.e. couch surfing) or on the streets. In addition to these 120 young people, another 220 youth who were housed reported that they had a friend who was homeless. As in prior years, when compared to their housed counterparts in the study, homeless youth: Have experienced more residential instability and family conflict; Have more precarious income situations; Are more likely to have children; Are more likely to have had involvement with the foster care and/or juvenile justice systems; and Have faced more barriers accessing services.
Resumo:
BACKGROUND AND AIMS: There are few standardised questionnaires for the assessment of respiratory symptoms in preschool children. We have developed and tested the short-term repeatability of a postal questionnaire on respiratory symptoms for 1-year-old children. METHODS: A newly developed postal questionnaire for the assessment of wheeze and other respiratory symptoms was sent to parents of a population-based random sample of 4300 children aged 12-24 months. After an interval of 3 months, a random sample of 800 respondents received the questionnaire a second time. The responses were compared using Cohen's kappa (kappa) to assess agreement corrected for chance. RESULTS: The first questionnaire was returned by 3194 (74%) families, the second one by 460/800 (58%). Repeatability was excellent (kappa 0.80-0.96) for questions on household characteristics, environmental exposures and family history, good (kappa 0.61-0.80) for questions on prevalence, severity and treatment of wheeze, and moderate (kappa 0.39-0.66) for chronic cough and upper respiratory symptoms. CONCLUSIONS: This short postal questionnaire designed for use in population-based studies has excellent repeatability for family and household characteristics and good repeatability for questions on wheeze. Short-term changes in symptom status might be responsible for variable answers on recent chronic cough and upper respiratory symptoms. Overall, the questionnaire is a valuable instrument for community-based research on respiratory symptoms in 1 to 2-year-old children.
Resumo:
Water springs are the principal source of water for many localities in Central America, including the municipality of Concepción Chiquirichapa in the Western Highlands of Guatemala. Long-term monitoring records are critical for informed water management as well as resource forecasting, though data are scarce and monitoring in low-resource settings presents special challenges. Spring discharge was monitored monthly in six municipal springs during the author’s Peace Corps assignment, from May 2011 to March 2012, and water level height was monitored in two spring boxes over the same time period using automated water-level loggers. The intention of this approach was to circumvent the need for frequent and time-intensive manual measurement by identifying a fixed relationship between discharge and water level. No such relationship was identified, but the water level record reveals that spring yield increased for four months following Tropical Depression 12E in October 2011. This suggests that the relationship between extreme precipitation events and long-term water spring yields in Concepción should be examined further. These limited discharge data also indicate that aquifer baseflow recession and catchment water balance could be successfully characterized if a long-term discharge record were established. This study also presents technical and social considerations for selecting a methodology for spring discharge measurement and highlights the importance of local interest in conducting successful community-based research in intercultural low-resource settings.
Resumo:
In the realm of computer programming, the experience of writing a program is used to reinforce concepts and evaluate ability. This research uses three case studies to evaluate the introduction of testing through Kolb's Experiential Learning Model (ELM). We then analyze the impact of those testing experiences to determine methods for improving future courses. The first testing experience that students encounter are unit test reports in their early courses. This course demonstrates that automating and improving feedback can provide more ELM iterations. The JUnit Generation (JUG) tool also provided a positive experience for the instructor by reducing the overall workload. Later, undergraduate and graduate students have the opportunity to work together in a multi-role Human-Computer Interaction (HCI) course. The interactions use usability analysis techniques with graduate students as usability experts and undergraduate students as design engineers. Students get experience testing the user experience of their product prototypes using methods varying from heuristic analysis to user testing. From this course, we learned the importance of the instructors role in the ELM. As more roles were added to the HCI course, a desire arose to provide more complete, quality assured software. This inspired the addition of unit testing experiences to the course. However, we learned that significant preparations must be made to apply the ELM when students are resistant. The research presented through these courses was driven by the recognition of a need for testing in a Computer Science curriculum. Our understanding of the ELM suggests the need for student experience when being introduced to testing concepts. We learned that experiential learning, when appropriately implemented, can provide benefits to the Computer Science classroom. When examined together, these course-based research projects provided insight into building strong testing practices into a curriculum.
Resumo:
The observations of Michel Foucault, noted Twentieth Century French philosopher, regarding modern power relations and orders of discourse, form the framework utilized to analyze and interpret the power struggles of AIDS activists and their opponents--the religious and radical right, and the administrative agencies of the 'Liberal' welfare State. Supported by the tools of sociolinguistic inquiry, the analysis highlights the success of a safer sex campaign in Houston, Texas to illustrate the dynamics of cultural and political change by means of discursive transformations initiated by the gay micro-culture. The KS/AIDS Foundation, allied with both the biomedical community and gay entertainment spheres, was successful in conveying biomedical cautions that resulted in altered personal behavior and modified public attitudes by using linguistic conventions consonant with the discourse of the Houston gay micro-culture. The transformation of discursive practices transgressed not only the Houston gay micro-culture's boundaries, but the city boundaries of Houston as well. In addition to cultural and political change, moderate and confrontational gay activists also sought to change the cognitive boundaries surrounding 'the gold standard' for clinical research trials.^ From a Foucauldian perspective, the same-sex community evolved from the subordinated Other to a position of power in a period of five years. Transformations in discursive practices and power relations are exemplified by the changing definitions employed by AIDS policy-makers, the public validation of community-based research and the establishment of parallel track drug studies. Finally, transformations in discursive practices surrounding the issues of HIV antibody testing are interpreted using Foucault's six points of power relations. The Montrose Clinic provides the case study for this investigation. The clinic turned the technical rationalities of the State against itself to achieve its own ends and those of the gay micro-culture--anonymous testing with pre and post test counseling. AIDS Talk portrays a dramatic transformation in discursive practices and power relations that transcends the historical moment to provide a model for future activists. Volume 2 contains copies of fugitive primary source materials largely unavailable elsewhere. Original documents are archived in the Harris County Medical Archives in the Houston Academy of Medicine located in the Texas Medical Center Library, Houston, Texas. ^
Resumo:
Quantification of protein expression based on immunohistochemistry (IHC) is an important step in clinical diagnoses and translational tissue-based research. Manual scoring systems are used in order to evaluate protein expression based on staining intensities and distribution patterns. However, visual scoring remains an inherently subjective approach. The aim of our study was to explore whether digital image analysis proves to be an alternative or even superior tool to quantify expression of membrane-bound proteins. We analyzed five membrane-binding biomarkers (HER2, EGFR, pEGFR, β-catenin, and E-cadherin) and performed IHC on tumor tissue microarrays from 153 esophageal adenocarcinomas patients from a single center study. The tissue cores were scored visually applying an established routine scoring system as well as by using digital image analysis obtaining a continuous spectrum of average staining intensity. Subsequently, we compared both assessments by survival analysis as an end point. There were no significant correlations with patient survival using visual scoring of β-catenin, E-cadherin, pEGFR, or HER2. In contrast, the results for digital image analysis approach indicated that there were significant associations with disease-free survival for β-catenin, E-cadherin, pEGFR, and HER2 (P = 0.0125, P = 0.0014, P = 0.0299, and P = 0.0096, respectively). For EGFR, there was a greater association with patient survival when digital image analysis was used compared to when visual scoring was (visual: P = 0.0045, image analysis: P < 0.0001). The results of this study indicated that digital image analysis was superior to visual scoring. Digital image analysis is more sensitive and, therefore, better able to detect biological differences within the tissues with greater accuracy. This increased sensitivity improves the quality of quantification.
Resumo:
The second European Zebrafish Principal Investigator (PI) Meeting was held in March, 2012, in Karlsruhe, Germany. It brought together PIs from all over Europe who work with fish models such as zebrafish and medaka to discuss their latest results, as well as to resolve strategic issues faced by this research community. Scientific discussion ranged from the development of new technologies for working with fish models to progress in various fields of research such as injury and repair, disease models, and cell polarity and dynamics. This meeting also marked the establishment of the European Zebrafish Resource Centre (EZRC) at Karlsruhe that in the future will serve as an important focus and community resource for zebrafish- and medaka-based research.
Resumo:
Durante el primer cuatrimestre del año 2012 la asignatura Patrimonio Natural Regional de la carrera Tecnicatura de Empresas de Servicios Turísticos — Facultad de Turismo — Universidad Nacional del Comahue; contó con la presencia de un estudiante en situación de discapacidad (motora). A partir de la iniciativa de los docentes de la asignatura, se solicita apoyo institucional y se toma contacto con la Comisión Universitaria sobre Accesibilidad al Medio Físico y Social, para consensuar estrategias a implementar en la evaluación parcial del alumno en situación de discapacidad en relación al resto del curso. Este trabajo tiene por objetivos: reflexionar acerca de la evaluación parcial con estudiantes en situación de discapacidad y proponer cambios en la evaluación parcial de la asignatura Patrimonio Natural Regional en relación a estudiantes en situación de discapacidad motora. La metodología usada por el equipo de cátedra fue de un estudio de diseño para las asignaturas del área de concurso Recursos Naturales, contextualizado para el estudiante en situación de discapacidad con el asesoramiento de la comisión sobre accesibilidad y también de la comunicación con el alumno. Algunas conclusiones a las que se arribó tienen relación con los ejes 1. Necesidad de evaluaciones con nuevas estrategias pedagógicas contextuales particulares; 2.Necesidad de un acompañamiento institucional ante la presencia de estudiantes en situación de discapacidad en las aulas.
Resumo:
La intensa relación de las infotecnologías con el ámbito educativo no es algo nuevo. Ha ido pasando por diferentes etapas marcadas por uno u otro modelo para el proceso de enseñanza-aprendizaje: tele-enseñanza o educación a distancia, Computer-Based Learning (CBL), E-Learning, Blended Learning o B-Learning son algunos de ellos. En cada caso se han incorporando diferentes tecnologías, desde las cintas magnéticas de audio y vídeo hasta los portátiles, las tabletas y las pizarras electrónicas, pasando por la vídeoconferencia o la mensajería instantánea. Hoy hablamos de E-Learning 2.0 (Downes, 2005) y Technology-Enhanced Learning (TEL). Todos esos modelos y sus metáforas asociadas han ido integrando, además de las diferentes capacidades tecnologías disponibles, distintas teorías pedagógicas, empezando por las tradicionalmente conocidas en la literatura del ámbito de la psicología educativa: el conductismo, el constructivismo o el constructivismo social. En la tabla 1 puede encontrar el lector esa asociación sintética, conjeturando con la definición de los roles de enseñante y aprendiz en cada modelo. Los cambios de “paradigma” –que habitualmente obvian la naturaleza original de este término para generalizarlo de forma poco rigurosa- anunciados y demandados en el ámbito educativo durante décadas se articulaban en (Barr y Tagg, 1995) alrededor de elementos como la misión y los objetivos de las instituciones educativas, la estructuración de los procesos educativos, su coste y productividad, los roles de los diferentes actores involucrados, la definición teórica del proceso de enseñanza-aprendizaje o las métricas de tal proceso. Downes (2005) lo resume de forma muy sintética con la siguiente afirmación (la traducción es mía): “el modelo de E-Learning que lo define en términos de unos contenidos, producidos por los editores, organizados y estructurados en cursos y consumidos por los estudiantes, se está dando la vuelta. En lo que se refiere al contenido, es mucho más probable que sea usado antes que “leído” y, en cualquier caso, es mucho más probable que sea producido por los propios estudiantes que por los autores especializados en la producción de cursos. En lo que se refiere a la estructura, es más probable que se parezca más a un idioma o una conversación que a un manual o libro de texto”. La irrupción en la escena tecnológica de la Web 2.0 como fenómeno social, sociotécnico en los términos de (Fumero, Roca y Sáez Vacas, 2007), ha hecho que se recuperen antiguas ambiciones teóricas asociadas a algunas de aquellas teorías clásicas, especialmente las que tienen que ver con el constructivismo cognitivo de J. Piaget (1964) y el constructivismo social de L. Vygotsky (1978). Esas teorías, enriquecidas con apuestas más atrevidas como el “conectivismo” (Siemens, 2004), han dado lugar al relanzamiento de modelos pedagógicos como el aprendizaje auto-gestionado o auto-dirigido, con sus matices de formulación (Self-Managed vs. Self-Directed Learning) que se han ido complementando a lo largo del tiempo con modelos de intervención asistidos, basados en un proceso de “andamiaje” o ‘scaffolding’ (véase en el capítulo 3, bajo el epígrafe “Psicología educativa para ingenieros”). Hoy podemos ver cómo, mientras se empieza a consolidar la reorganización del escenario institucional de la Educación Superior en Europa, tras el agotamiento de todos los plazos y las prórrogas contempladas por el acuerdo de Bolonia para su implementación –véase, por ejemplo, (Ortega, 2005) y su reflexión acerca de los “ingenieros creativos” en relación con esta reforma- se ha vuelto a plantear la implantación de procesos educativos basados en el aprendizaje informal (frente al formal y dando lugar a la definición del aprendizaje “no formal”), procesos que realmente se implementan como experiencias de aprendizaje mutuo (peer learning), en comunidad y ayudados por unas infotecnologías que, a pesar de su característica “cotidianeidad” (véase en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana”) siguen arrastrando el atributo de “educativas”. Evidentemente, la “tecnificación” de las instituciones de enseñanza superior ha ido consolidando algunos elementos tecnológicos que hoy son estándares de facto, como por ejemplo los sistemas integrados de gestión conocidos por sus siglas anglosajonas, LMS (Learning Management Systems). Los enormes esfuerzos, organizativos y técnicos, de integración que se han ido desarrollando en ese sentido –véase por ejemplo en (Aguirre, 2012)- han permanecido un tanto insensibles al desarrollo paralelo que, animados por la proliferación de herramientas más ricas y accesibles, llevaban a cabo los usuarios (profesores y alumnos; enseñantes y aprendices) que, manteniendo algún tipo de relación con una de esas instituciones (véase el escenario a que dan lugar en la figura 4) hacían un uso creativo de las tecnologías que la Red ponía a su alcance. En el escenario actual –aun predominando la excitación tecnológica- han acabado encontrándose ambas corrientes, generando un nuevo espacio de incertidumbre (léase de oportunidades) en el que se encuentran las soluciones establecidas, en forma de LMS, con las primeras formulaciones de esas combinaciones creativas de herramientas, metodologías y modelos, también conocidos como entornos personales de aprendizaje (Personal Learning Environments, PLE), que han revitalizado otras propuestas tecnológicas, como los e-Portfolios, o pedagógicas, como los contratos de aprendizaje (véase su aplicación en el caso de estudio del proyecto iCamp, en el capítulo 4). Es en ese escenario y desde una perspectiva interdisciplinar, híbrida, mestiza y conciliadora, donde tiene sentido plantear, como objeto de un trabajo de investigación consistente, la consolidación de un modelo que nos ayude a contextualizar la situación de cambio infotecnológico, organizativo y social a la que nos enfrentamos y que nos guíe en su instrumentalización para afrontar “situaciones de complejidad” similares que, sin duda, tendremos que abordar en el medio plazo. Esto me lleva a contemplar el problema desde una perspectiva suficientemente amplia, pero con un foco bien definido sobre los procesos educativos –de enseñanza y aprendizaje- en el ámbito de la Educación Superior y, específicamente, en lo referente a la formación de los infoprofesionales. Un escenario en el que se dan cita necesariamente la Tecnología Educativa y la Web 2.0 como fenómeno sociotécnico y que me llevan al análisis de modelos de intervención basados en lo que se conoce como “software social” –en sentido amplio, considerando herramientas, tecnologías y metodologías-, ensayados en ese ámbito extendido a la capacitación y la formación profesionales. Se establece, por tanto, como escenario del trabajo de investigación –y ámbito para el diseño de aquellas intervenciones- el de las organizaciones educativas, aplicando la definición sintética que recoge el propio Fernando Sáez Vacas (FSV) de la reingeniería de procesos (la negrita y las anotaciones, entre paréntesis, son mías), “que consiste en reinventar la forma de desarrollar las operaciones de la empresa (institución educativa, universitaria por ejemplo), partiendo de nuevos enfoques muy orientados a las necesidades de los clientes (los aprendices o estudiantes), con rotura de las tradicionales formas organizativas verticales y del desempeño humano y un uso masivo de las modernas tecnologías de la información y de la comunicación”; y que se aplicarán de acuerdo con la integración de los elementos metodológicos y conceptuales, que conformarán las bases de una SocioTecnología de la Información y Cultura (STIC) y que hunden sus raíces en la complejidad y la sistémica (véase en el Prontuario). El objetivo genérico que se planteaba en la propuesta original de tesis doctoral era ambicioso: “desarrollar y potenciar las bases de un ‘movimiento’ de I+D+i (+d) –con “d” minúscula de difusión, divulgación, diseminación-, sobre socioinfotecnocultura enfocado en el contexto de este trabajo específicamente en su difusión educativa y principalmente en el ámbito de la Educación Superior” y para la formación de los infoprofesionales. El objetivo específico del mismo era el de “diseñar un (conjunto) instrumental cognitivo básico, aunque relativamente complejo y denso en su formulación, para los infoprofesionales, considerados como agentes activos de la infotecnología con visión y aplicación social”. La tesis de partida es que existe –en palabras de FSV- la necesidad “de desarrollar educativamente los conocimientos y modelos socioinfotecnoculturales para nutrir una actitud en principio favorable a los progresos infotecnológicos, pero encauzada por una mentalidad “abierta, positiva, crítica, activa y responsable” y orientar con la mayor profundidad posible a los infoprofesionales y, en un grado razonable, a los infociudadanos hacia usos positivos desde puntos de vista humanos y sociales”. Justificar, documentar y caracterizar esa necesidad latente –y en muchos aspectos patente en el actual escenario educativo- será parte importante del trabajo; así como elaborar los elementos necesarios que ofrezcan coherencia y consistencia suficientes al marco conceptual de esa nueva “socioinfotecnocultura” que en la formulación adoptada aquí será el marco tecnocultural básico de una SocioTecnología de la Información y Cultura (STIC), debiendo integrar esos elementos en el proceso educativo de enseñanza-aprendizaje de tal manera que puedan ser objeto de diseño y experimentación, particularizándolo sobre los infoprofesionales en primera instancia, aunque dentro de un proyecto amplio para el desarrollo y promoción social de una STIC. Mi planteamiento aquí, si bien incorpora elementos y modelos considerados previamente en algunos de mis trabajos de análisis, investigación, experimentación y diseminación realizados a lo largo del periodo de formación –modelos de intervención desarrollados en el proyecto iCamp, ampliamente documentados en (Fiedler, 2006) o (Fiedler y Kieslinger, 2007) y comentados en el capítulo 4-, en gran parte, por simple coherencia, estará constituido por elementos propios y/o adaptados de FSV que constituirán el marco tecnocultural de una teoría general de la STIC, que está en la base de este planteamiento. La asimilación en términos educativos de ese marco tecnocultural supondrá un esfuerzo considerable de reingeniería y se apoyará en el circuito cognitivo individual ampliado de “información-esfuerzo-conocimiento-esfuerzo-acción” que se recoge en el Prontuario (figura 34) y que parte de (Sáez Vacas, 1991a). La mejor forma de visualizar la formulación de ese proceso educativo es ponerlo en los términos del modelo OITP (Organización, Individuos, Tecnologías y Procesos) tal y como se ilustra en el Prontuario (figura 25) y que se puede encontrar descrito brevemente por su autor en (Sáez Vacas, 1995), de la misma forma que se planteaba la experiencia INTL 2.0 en (Sáez Vacas, Fumero et al., 2007) y que es objeto de análisis en el capítulo 5. En este caso, el plano que atraviesa el Proceso (educativo) será el marco tecnocultural de nuestra STIC; la Organización será, en genérico, el ámbito institucional de la Educación Superior y, en concreto, el dedicado a la formación de los infoprofesionales –entendidos en el sentido amplio que se planteaba en (Sáez Vacas, 1983b)-, que serán los Individuos, la componente (I) del modelo OITP. Este trabajo de tesis doctoral es uno de los resultados del proyecto de investigación propuesto y comprometido con esos objetivos, que se presenta aquí como un “proyecto tecnocultural” más amplio (véase el epígrafe homónimo en el capítulo 1). Un resultado singular, por lo que representa en el proceso de formación y acreditación del investigador que lo suscribe. En este sentido, este trabajo constituye, por un lado, la base de un elemento divulgativo que se sumará a los esfuerzos de I+D+i+d (véase textículo 3), recogidos en parte como resultados de la investigación; mientras que, por el otro lado, incorpora elementos metodológicos teóricos originales que contribuyen al objetivo genérico planteado en la propuesta de tesis, además de constituir una parte importante de los procesos de instrumentalización, recogidos en parte en los objetivos específicos de la propuesta, que en este entregable formarán parte de líneas futuras de trabajo, que se presentan en el capítulo 6 de conclusiones y discusión de resultados. Dentro de esos elementos metodológicos, teóricos, resulta especialmente relevante –en términos de los objetivos planteados originalmente-, la simplificación instrumental de las aportaciones teóricas previas, que han sido fruto del esfuerzo de análisis sistemático e implementación de diferentes intervenciones en el ámbito educativo, que se centran específicamente en el proyecto iCamp (véase en el capítulo 4) y la experiencia INTL 2.0 (véase en el capítulo 5, junto a otras experiencias instrumentales en la UPM). Esa simplificación, como elaboración teórica y proceso de modelización, se realiza extrayendo elementos de la validación teórica y experimental, que de alguna forma proporcionan los casos de estudio (capítulos 4 y 5), para incorporarlos como argumentos en la consolidación de un enfoque tecnocultural que está en la base de la construcción de una SocioTecnología de la Información y Cultura (STIC) consistente, basada en el sistemismo aplicado en diferentes situaciones de complejidad y que requerirán de una inter/multidisciplinariedad que vaya más allá de la simple “yuxtaposición” de especialidades que conocemos en nuestra actual Universidad (me refiero, con mayúscula, a la institución universitaria en toda su extensión). Esa será la base para el diseño y la construcción de experiencias educativas, basadas en el generalismo sistémico, para infoprofesionales (véase en el capítulo 1) en particular e infociudadanos en general, que nos permitirán “cimentar, con suficientes garantías, un cierto nivel de humanismo en el proceso de construcción de una sociedad de la información y del conocimiento”. En el caso de iCamp pudimos experimentar, desde un enfoque (véase en el capítulo 4) basado en diseño (Design-based Research, DbR), con tres elementos que se pueden trasladar fácilmente al concepto de competencias –o incluso en su implementación funcional, como habilidades o capacidades instrumentales percibidas, léase ‘affordances’- y que introducen tres niveles de complejidad asociados (véase, en el Prontuario, el modelo de tres niveles de complejidad), a saber el aprendizaje auto-dirigido (complejidad individual), la colaboración (complejidad sistémica) y la construcción de una red de aprendizaje (complejidad sociotécnica). Esa experimentación nos llevó a evolucionar el propio concepto de entorno personal de aprendizaje (PLE, Personal Learning Environment), partiendo de su concepción originalmente tecnológica e instrumental, para llegar a una concepción más amplia y versátil desde el punto de vista de la intervención, basada en una visión “ecológica” de los sistemas abiertos de aprendizaje (véase en el capítulo 3). En el caso de las experiencias en la UPM (capítulo 5), el caso singular de INTL 2.0 nos muestra cómo el diseño basado en la sistémica aplicada a problemas (léase situaciones de complejidad específicas) no estructurados, como los procesos de enseñanza-aprendizaje, dan lugar a intervenciones coherentes con esa visión ecológica basada en la teoría de la actividad y con los elementos comunes de la psicología educativa moderna, que parte del constructivismo social de L. Vygotsky (1978). La contraposición de ese caso con otras realizaciones, centradas en la configuración instrumental de experiencias basadas en la “instrucción” o educación formal, debe llevarnos al rediseño –o al menos a la reformulación- de ciertos componentes ya consolidados en ese tipo de formación “institucionalizada” (véase en el capítulo 5), como pueden ser el propio curso, unidad académica de programación incuestionable, los procedimientos de acreditación, certificación y evaluación, ligados a esa planificación temporal de “entrega” de contenidos y la conceptualización misma del “aula” virtual como espacio para el intercambio en la Red y fuera de ella. Todas esas observaciones (empíricas) y argumentaciones (teóricas) que derivan de la situación de complejidad específica que aquí nos ocupa sirven, a la postre –tal y como requiere el objetivo declarado de este trabajo de investigación- para ir “sedimentando” unas bases sólidas de una teoría general de la SocioTecnología de la Información y Cultura (STIC) que formen parte de un marco tecnocultural más amplio que, a su vez, servirá de guía para su aplicación en otras situaciones de complejidad, en ámbitos distintos. En este sentido, aceptando como parte de ese marco tecnocultural las características de convivencialidad y cotidianeidad (véase, en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana, TVIC”) de una “infotecnología-uso” (modelo de las cinco subculturas infotecnológicas, también recogido en el Prontuario), consideraremos como aportaciones relevantes (véase capítulo 2): 1) la argumentación sociotécnica del proceso de popularización de la retórica informática del cambio de versión, de la que deriva el fenómeno de la Web 2.0; 2) el papel estelar del móvil inteligente y su capacidad para transformar las capacidades percibidas para la acción dentro del Nuevo Entorno Tecnosocial (NET), especialmente en la situación de complejidad que nos ocupa, que ya desarrollaran Rodríguez Sánchez, Sáez Vacas y García Hervás (2010) dentro del mismo marco teórico que caracterizamos aquí como enfoque STIC; 3) y la existencia de una cierta “inteligencia tecnosocial”, que ya conjeturara FSV en (Sáez Vacas, 2011d) y que cobra cada vez más relevancia por cuanto que resulta coherente con otros modelos consolidados, como el de las inteligencias múltiples de Gardner (2000), así como con las observaciones realizadas por otros autores en relación con la aparición de nuevos alfabetismos que conformarían “una nueva generación de inteligencia” (Fumero y Espiritusanto, 2011). En rigor, el método científico –entiéndase este trabajo como parte de un proceso de investigación tecnocientífica- implica el desarrollo de una componente dialéctica asociada a la presentación de resultados; aunque, evidentemente, la misma se apoya en una actitud crítica para la discusión de los resultados aportados, que debe partir, necesariamente, como condición sine qua non de un profundo escepticismo debidamente informado. Es ese el espíritu con el que se ha afrontado la redacción de este documento, que incluye, en el capítulo 6, una serie de argumentos específicamente destinados a plantear esa discusión de resultados a partir de estas aportaciones que he vertido sintéticamente en este resumen, que no persigue otra cosa que motivar al lector para adentrarse en la lectura de este texto al completo, tarea que requiere de un esfuerzo personal dirigido (véase el epígrafe “Cómo leer este texto” en el índice) que contará con elementos de apoyo, tanto hipertextuales (Fumero, 2012a y 2012b) como textuales, formando parte del contenido de este documento entregable de tesis doctoral (véase el Prontuario, o el Texticulario).
Resumo:
This case study describes the analysis of the Visitor Photo Study, a study in which visitors to the Denver Museum of Nature & Science documented their visit through pictures. The origins, implementation, and findings of the Visitor Photo Study are considered within the contexts of the fields of Community-Based Research (Strand, Marullo, Cutforth, Stoecker, & Donohue, 2003b), Visual Studies (Marshall & Rossman, 2011; Pink, 2007), and Visitor Studies (Visitor Studies Association, 2012). This study considers the extent to which the principles and elements of each of these fields were present in the Visitor Photo Study, which elements were not fully realized or were missing from the study, and ways in which the Visitor Photo Study extends each of these fields. The value of this type of analysis and implications for museums, faculty, and students are also discussed.
Resumo:
This chapter focuses on possible effects of current R&D policies in the scientific work, exploring some of the dilemmas they cause to researchers. In a transnational scale, R&D policies embrace performance-based research funding systems, calling for a growing accountability and a more useful and published research. Often justified by the importance of knowledge in public policies or as part of the new managerialism regime, these trends emphasize performativity on research. In this scenario, how researchers receive and interpret R&D policies is influenced according to their values and interests? Do they play the game or do they get played by it? These questions rely on a conceptual framework that conceives the research as a political scene, where researchers and R&D policies meet. Moreover, researchers’ strategies are perceived as political, considering that it is in the context of the practices that policy is interpreted and reinvented. The chapter presents an empirical study conducted in Portugal, which will be taken as an example of what Waitere et al (2011) already named as “choosing whether to resist or reinforce” R&D policies. In fact, the study revealed a strategic calculation made by researchers and the coexistence of convergent and divergent strategies concerning R&D policies. I will argue that the tensions in this strategic game are both a reflex and generator of the dilemmas of scientific work today and a sign of the complexity of public policies.
Resumo:
Acompanha um CD com a Cota CDA 185, contendo um filme intitulado: A arte do não-retrato, apenas consultável na Biblioteca da FBAUL