729 resultados para project oriented design-based learning (PODBL)
Resumo:
This project designed, developed, implemented and is currently evaluating the effectiveness of an interactive, multi-media website designed to encourage adolescents to consider careers in mental health. This Web-based learning environment features biographies of mental health scientists. Evaluation is conducted in a systematic, structured way using cognitive achievement, usability (ease of use), and affective scales (e.g., fun to use) as outcome measures
Resumo:
A compact adjustable focusing system for a 2 MeV H- RFQ Linac is designed, constructed and tested based on four permanent magnet quadrupoles (PMQ). A PMQ model is realised using finite element simulations, providing an integrated field gradient of 2.35 T with a maximal field gradient of 57 T/m. A prototype is constructed and the magnetic field is measured, demonstrating good agreement with the simulation. Particle track simulations provide initial values for the quadrupole positions. Accordingly, four PMQs are constructed and assembled on the beam line, their positions are then tuned to obtain a minimal beam spot size of (1.2 x 2.2) mm^2 on target. This paper describes an adjustable PMQ beam line for an external ion beam. The novel compact design based on commercially available NdFeB magnets allows high flexibility for ion beam applications.
Physical activity and survival after a first myocardial infarction: The Corpus Christi Heart Project
Resumo:
Previous studies have demonstrated that habitual physical activity is associated with a reduced risk of incident coronary heart disease (CHD). However, the role of physical activity in lowering the risk of all-cause mortality, CHD mortality, reinfarction, or receipt of a revascularization procedure after a first myocardial infarction (MI) remains unresolved, particularly in minority populations. To investigate the associations between physical activity and risk of all-cause mortality, CHD mortality, reinfarction, and receipt of a revascularization procedure, this study was conducted among Mexican-American and non-Hispanic white women and men who survived a first MI. The Corpus Christi Heart Project, a population-based cardiovascular surveillance study, provide data which included vital status, survival time, medical history, CHD risk factor information, including level of physical activity among Mexican-American and non-Hispanic white adults who had experienced a first MI between May, 1988 and April, 1990. MI patients were interviewed at baseline and annually thereafter until their death or through May, 1995. A categorical variable was created to reflect change in level of physical activity following the first MI; categories included (1) sedentary with no change, (2) decreased activity, (3) increased activity, and (4) moderate activity with no change (the referent group). Proportional hazards regression analyses were used to assess the relationship of level of physical activity and risk of death, reinfarction, or receipt of a revascularization procedure adjusting for age, sex, ethnicity, severity of MI, and CHD risk factor status. Over a 7-year follow-up period, the relative risk (95% confidence intervals) of all-cause mortality was 4.67 (2.27, 9.60) for the sedentary-no change group, 2.33 (0.96, 5.67) for the decreased activity group, and 0.52 (0.11, 2.41) for the increased activity group. The relative risk of CHD mortality was 6.92 (2.05, 23.34) for the sedentary-no change group, 2.40 (0.55, 10.51) for the decreased activity group, and 1.58 (0.26, 9.65) for the increased activity group. The relative risk for reinfarction was 2.50 (1.52, 4.10) for the sedentary-no change group, 2.26 (1.24, 4.12) for the decreased activity group, and 0.52 (0.21, 1.32) for the increased activity group. Finally, the relative risk for receipt of a revascularization procedure was 0.65 (0.39, 1.07) for the sedentary-no change group, 0.45 (0.22, 0.92) for the decreased activity group, and 1.01 (0.51, 2.02) for the increased activity group. No interactions were observed for ethnicity or severity of first MI. These results are consistent with the hypothesis that moderate physical activity is independently associated with a lower risk of all-cause mortality, CHD mortality, and reinfarction, but not revascularization, among Mexican-American and non-Hispanic white, female and male, first MI patients. These results also support the current recommendation that physical activity plays an important role in the secondary prevention of CHD. ^
Resumo:
Volunteers are the most important resource for non-profit sport clubs seeking to bolster their viability (e.g. sporting programs). Although many people do voluntary work in sport clubs, stable voluntary engagement can no longer be granted. This difficulty is confirmed by existing research across various European countries. From a club management point of view, a detailed understanding of how to attract volunteers and retain them in the long term is becoming a high priority. The purpose of this study is (1) to analyse the influence of individual characteristics and corresponding organisational conditions on volunteering in sports clubs as well as (2) to examine the decision-making processes in relation to implement effective strategies for recruiting volunteers. For the first perspective a multi-level framework for the investigation of the factors of voluntary engagement in sports clubs is developed. The individual and context factors are estimated in different multi-level models based on a sample of n = 1,434 sport club members from 36 sport clubs in Switzerland. Results indicate that volunteering is not just an outcome of individual characteristics such as lower workloads, higher income, children belonging to the sport club, longer club memberships, or a strong commitment to the club. It is also influenced by club-specific structural conditions; volunteering is more probable in rural sports clubs whereas growth-oriented goals in clubs have a destabilising effect. Concerning decision-making processes an in-depth analysis of recruitment practices for volunteers was conducted in nine selected sport clubs (case study design) based on the garbage can model. Results show that the decision-making processes are generally characterised by a reactive approach in which dominant actors try to handle personnel problems of recruitment in the administration and sport domains through routine formal committee work and informal networks. In addition, it proved possible to develop a typology that deliver an overview of different decision-making practices in terms of the specific interplay of the relevant components of process control (top-down vs. bottom-up) and problem processing (situational vs. systematic). Based on the findings some recommendations for volunteer management in sport clubs are worked out.
Resumo:
Despite an increased scientific interest in the relatively new phenomenon of large-scale land acquisition (LSLA), data on processes on the local level remain sparse and superficial. However, knowledge about the concrete implementation of LSLA projects and the different impacts they have on the heterogeneous group of project affected people is indispensable for a deepened understanding of the phenomenon. In order to address this research gap, a team of two anthropologists and a human geographer conducted in-depth fieldwork on the LSLA project of Swiss based Addax Bioenergy in Sierra Leone. After the devastating civil war, the Sierra Leonean government created favourable conditions for foreign investors willing to lease large areas of land and to bring “development” to the country. Being one of the numerous investing companies, Addax Bioenergy has leased 57’000 hectares of land to develop a sugarcane plantation and an ethanol factory to produce biofuel for the export to the European market. Based on participatory observation, qualitative interview techniques and a network analysis, the research team aimed a) at identifying the different actors that were necessary for the implementation of this project on a vertical level and b) exploring various impacts of the project in the local context of two villages on a horizontal level. The network analysis reveals a complex pattern of companies, institutions, nongovernmental organisations and prominent personalities acting within a shifting technological and discursive framework linking global scales to a unique local context. Findings from the latter indicate that affected people initially welcomed the project but now remain frustrated since many promises and expectations have not been fulfilled. Although some local people are able to benefit from the project, the loss of natural resources that comes along with the land lease affects livelihoods of vulnerable groups – especially women and land users – considerably. However, this research doesn’t only disclose impacts on local people’s previous lives but also addresses strategies they adopt in the newly created situation that has opened up alternative spaces for renegotiations of power and legitimatisation. Therewith, this explorative study reveals new aspects of LSLA that have not been considered adequately by the investing company nor by the general academic discourse on LSLA.
Resumo:
The medical education community is working-across disciplines and across the continuum-to address the current challenges facing the medical education system and to implement strategies to improve educational outcomes. Educational technology offers the promise of addressing these important challenges in ways not previously possible. The authors propose a role for virtual patients (VPs), which they define as multimedia, screen-based interactive patient scenarios. They believe VPs offer capabilities and benefits particularly well suited to addressing the challenges facing medical education. Well-designed, interactive VP-based learning activities can promote the deep learning that is needed to handle the rapid growth in medical knowledge. Clinically oriented learning from VPs can capture intrinsic motivation and promote mastery learning. VPs can also enhance trainees' application of foundational knowledge to promote the development of clinical reasoning, the foundation of medical practice. Although not the entire solution, VPs can support competency-based education. The data created by the use of VPs can serve as the basis for multi-institutional research that will enable the medical education community both to better understand the effectiveness of educational interventions and to measure progress toward an improved system of medical education.
Resumo:
The potential impact of periodontal disease, a suspected risk factor for systemic diseases, presents challenges for health promotion and disease prevention strategies. This study examined clinical, microbiological, and immunological factors in a disease model to identify potential biomarkers that may be useful in predicting the onset and severity of both inflammatory and destructive periodontal disease. This project used an historical cohort design based on data obtained from 47 adult, female nonhuman primates followed over a 6-year period for 5 unique projects where the ligature-induced model of periodontitis was utilized. Standardization of protocols for sample collection allowed for comparison over time. Bleeding and pocket depth measures were selected as the dependent variables of relevance to humans based upon the literature and historical observations. Exposure variables included supragingival plaque, attachment level, total bacteria, black-pigmented bacteria, Gram-negative and Gram-positive bacteria, total IgG and IgA in crevicular fluid, specific IgG antibody in both crevicular fluid and serum, and IgG antibody to four select pathogenic microorganisms. Three approaches were used to analyze the data from this study. The first approach tested for differences in the means of the response variables within the group and among longitudinal observations within the group at each time point. The second approach examined the relationship among the clinical, microbiological, and immunological variables using correlation coefficients and stratified analyses. Multivariable models using GEE for repeated measures were produced as a predictive description of the induction and progression of gingivitis and periodontal disease. The multivariable models for bleeding (gingivitis) include supragingival plaque, total bacteria and total IgG while the second also contains supragingival plaque, Gram-positive bacteria, and total IgG. Two multivariable models emerged for periodontal disease. One multivariable model contains plaque, total bacteria, total IgG and attachment level. The second model includes black-pigmented bacteria, total bacteria, antibody to Campylobacter rectus, and attachment level. Utilization of the nonhuman primate model to prospectively examine causal hypotheses can provide a focus for human research on the mechanisms of progression from health to gingivitis to periodontitis. Ultimately, causal theories can guide strategies to prevent disease initiation and reduce disease severity. ^
Resumo:
Coronary perfusion with thrombolytic therapy and selective reperfusion by percutaneous transluminal coronary angioplasty (PTCA) were examined in the Corpus Christi Heart Project, a population-based surveillance program for hospitalized acute myocardial infarction (MI) patients in a biethnic community of Mexican-Americans (MAs) and non-Hispanic whites (NHWs). Results were based on 250 (12.4%) patients who received thromobolytic therapy in a cohort of 2011 acute MI cases. Out of these 107 (42.8%) underwent PTCA with a mean follow-up of 25 months. There were 186 (74.4%) men and 64 (25.6%) women; 148 (59.2%) were NHWs, 86 (34.4%) were MAs. Thrombolysis and PTCA were performed less frequently in women than in men, and less frequently in MAs than in NHWs.^ According to the coronary reperfusion interventions used, patients were divided in two groups, those that received no-PTCA (57.2%) and the other that underwent PTCA (42.8%) after thrombolysis. The case-fatality rate was higher in no-PTCA patients than in the PTCA (7.7% versus 5.6%), as was mortality at one year (16.2% versus 10.5%). Reperfusion was successful in 48.0% in the entire cohort and (51.4% versus 45.6%) in the PTCA and no-PTCA groups. Mortality in the successful reperfusion patients was 5.0% compared to 22.3% in the unsuccessful reperfusion group (p = 0.00016, 95% CI: 1.98-11.6).^ Cardiac catheterization was performed in 86.4% thrombolytic patients. Severe stenosis ($>$75%) obstruction was present most commonly in the left descending artery (52.8%) and in the right coronary artery (52.8%). The occurrence of adverse in-hospital clinical events was higher in the no-PTCA as compared to the PTCA and catheterized patients with the exception of reperfusion arrythmias (p = 0.140; Fisher's exact test p = 0.129).^ Cox regression analysis was used to study the relationship between selected variables and mortality. Apart from successful reperfusion, age group (p = 0.028, 95% CI: 2.1-12.42), site of acute MI index (p = 0.050) and ejection-fraction (p = 0.052) were predictors of long-term survival. The ejection-fraction in the PTCA group was higher than (median 78% versus 53%) in the no-PTCA group. Assessed by logistic regression analysis history of high cholesterol ($>$200mg/dl) and diabetes mellites did have significant prognostic value (p = 0.0233; p = 0.0318) in long-term survival irrespective of treatment status.^ In conclusion, the results of this study support the idea that the use of PTCA as a selective intervention following thrombolysis improves survival of patients with acute MI. The use of PTCA in this setting appears to be safe. However, we can not exclude the possibility that some of these results may have occurred due to the exclusion from PTCA of high risk patients (selection bias). ^
Resumo:
Se presenta una experiencia educativa en el ámbito de la adquisición de competencias relacionadas con la dirección de proyectos. Alumnos de tres universidades y tres titulaciones distintas colaboran en la realización de un proyecto conjunto como instrumento conductor del proceso de enseñanzaaprendizaje. El objetivo es valorar la idoneidad de un enfoque multidisciplinar de colaboración a distancia basado en la metodología Project Based Learning en el actual contexto de cambio de paradigma educativo. La experiencia resulta innovadora y es utilizada para definir una rúbrica que permita medir un determinado número de competencias relacionadas con la ingeniería de proyectos y la dirección de proyectos de ingeniería. Un sistema software facilita la integración de las métricas definidas y simplifica los procesos de supervisión de la adquisición de competencias.
Resumo:
This paper presents a blended learning approach and a study evaluating instruction in a software engineering-related course unit as part of an undergraduate engineering degree program in computing. In the past, the course unit had a lecture-based format. In view of student underachievement and the high course unit dropout rate, a distance-learning system was deployed, where students were allowed to choose between a distance-learning approach driven by a moderate constructivist instructional model or a blended-learning approach. The results of this experience are presented, with the aim of showing the effectiveness of the teaching/learning system deployed compared to the lecture-based system previously in place. The grades earned by students under the new system, following the distance-learning and blended-learning courses, are compared statistically to the grades attained in earlier years in the traditional face-to-face classroom (lecture-based) learning.
Resumo:
En este proyecto se estudian y analizan las diferentes técnicas de procesado digital de señal aplicadas a acelerómetros. Se hace uso de una tarjeta de prototipado, basada en DSP, para realizar las diferentes pruebas. El proyecto se basa, principalmente, en realizar filtrado digital en señales provenientes de un acelerómetro en concreto, el 1201F, cuyo campo de aplicación es básicamente la automoción. Una vez estudiadas la teoría de procesado y las características de los filtros, diseñamos una aplicación basándonos sobre todo en el entorno en el que se desarrollaría una aplicación de este tipo. A lo largo del diseño, se explican las diferentes fases: diseño por ordenador (Matlab), diseño de los filtros en el DSP (C), pruebas sobre el DSP sin el acelerómetro, calibración del acelerómetro, pruebas finales sobre el acelerómetro... Las herramientas utilizadas son: la plataforma Kit de evaluación 21-161N de Analog Devices (equipado con el entorno de desarrollo Visual DSP 4.5++), el acelerómetro 1201F, el sistema de calibración de acelerómetros CS-18-LF de Spektra y los programas software MATLAB 7.5 y CoolEditPRO 2.0. Se realizan únicamente filtros IIR de 2º orden, de todos los tipos (Butterworth, Chebyshev I y II y Elípticos). Realizamos filtros de banda estrecha, paso-banda y banda eliminada, de varios tipos, dentro del fondo de escala que permite el acelerómetro. Una vez realizadas todas las pruebas, tanto simulaciones como físicas, se seleccionan los filtros que presentan un mejor funcionamiento y se analizan para obtener conclusiones. Como se dispone de un entorno adecuado para ello, se combinan los filtros entre sí de varias maneras, para obtener filtros de mayor orden (estructura paralelo). De esta forma, a partir de filtros paso-banda, podemos obtener otras configuraciones que nos darán mayor flexibilidad. El objetivo de este proyecto no se basa sólo en obtener buenos resultados en el filtrado, sino también de aprovechar las facilidades del entorno y las herramientas de las que disponemos para realizar el diseño más eficiente posible. In this project, we study and analize digital signal processing in order to design an accelerometer-based application. We use a hardware card of evaluation, based on DSP, to make different tests. This project is based in design digital filters for an automotion application. The accelerometer type is 1201F. First, we study digital processing theory and main parameters of real filters, to make a design based on the application environment. Along the application, we comment all the different steps: computer design (Matlab), filter design on the DSP (C language), simulation test on the DSP without the accelerometer, accelerometer calibration, final tests on the accelerometer... Hardware and software tools used are: Kit of Evaluation 21-161-N, based on DSP, of Analog Devices (equiped with software development tool Visual DSP 4.5++), 1201-F accelerometer, CS-18-LF calibration system of SPEKTRA and software tools MATLAB 7.5 and CoolEditPRO 2.0. We only perform 2nd orden IIR filters, all-type : Butterworth, Chebyshev I and II and Ellyptics. We perform bandpass and stopband filters, with very narrow band, taking advantage of the accelerometer's full scale. Once all the evidence, both simulations and physical, are finished, filters having better performance and analyzed and selected to draw conclusions. As there is a suitable environment for it, the filters are combined together in different ways to obtain higher order filters (parallel structure). Thus, from band-pass filters, we can obtain many configurations that will give us greater flexibility. The purpose of this project is not only based on good results in filtering, but also to exploit the facilities of the environment and the available tools to make the most efficient design possible.
Resumo:
La intensa relación de las infotecnologías con el ámbito educativo no es algo nuevo. Ha ido pasando por diferentes etapas marcadas por uno u otro modelo para el proceso de enseñanza-aprendizaje: tele-enseñanza o educación a distancia, Computer-Based Learning (CBL), E-Learning, Blended Learning o B-Learning son algunos de ellos. En cada caso se han incorporando diferentes tecnologías, desde las cintas magnéticas de audio y vídeo hasta los portátiles, las tabletas y las pizarras electrónicas, pasando por la vídeoconferencia o la mensajería instantánea. Hoy hablamos de E-Learning 2.0 (Downes, 2005) y Technology-Enhanced Learning (TEL). Todos esos modelos y sus metáforas asociadas han ido integrando, además de las diferentes capacidades tecnologías disponibles, distintas teorías pedagógicas, empezando por las tradicionalmente conocidas en la literatura del ámbito de la psicología educativa: el conductismo, el constructivismo o el constructivismo social. En la tabla 1 puede encontrar el lector esa asociación sintética, conjeturando con la definición de los roles de enseñante y aprendiz en cada modelo. Los cambios de “paradigma” –que habitualmente obvian la naturaleza original de este término para generalizarlo de forma poco rigurosa- anunciados y demandados en el ámbito educativo durante décadas se articulaban en (Barr y Tagg, 1995) alrededor de elementos como la misión y los objetivos de las instituciones educativas, la estructuración de los procesos educativos, su coste y productividad, los roles de los diferentes actores involucrados, la definición teórica del proceso de enseñanza-aprendizaje o las métricas de tal proceso. Downes (2005) lo resume de forma muy sintética con la siguiente afirmación (la traducción es mía): “el modelo de E-Learning que lo define en términos de unos contenidos, producidos por los editores, organizados y estructurados en cursos y consumidos por los estudiantes, se está dando la vuelta. En lo que se refiere al contenido, es mucho más probable que sea usado antes que “leído” y, en cualquier caso, es mucho más probable que sea producido por los propios estudiantes que por los autores especializados en la producción de cursos. En lo que se refiere a la estructura, es más probable que se parezca más a un idioma o una conversación que a un manual o libro de texto”. La irrupción en la escena tecnológica de la Web 2.0 como fenómeno social, sociotécnico en los términos de (Fumero, Roca y Sáez Vacas, 2007), ha hecho que se recuperen antiguas ambiciones teóricas asociadas a algunas de aquellas teorías clásicas, especialmente las que tienen que ver con el constructivismo cognitivo de J. Piaget (1964) y el constructivismo social de L. Vygotsky (1978). Esas teorías, enriquecidas con apuestas más atrevidas como el “conectivismo” (Siemens, 2004), han dado lugar al relanzamiento de modelos pedagógicos como el aprendizaje auto-gestionado o auto-dirigido, con sus matices de formulación (Self-Managed vs. Self-Directed Learning) que se han ido complementando a lo largo del tiempo con modelos de intervención asistidos, basados en un proceso de “andamiaje” o ‘scaffolding’ (véase en el capítulo 3, bajo el epígrafe “Psicología educativa para ingenieros”). Hoy podemos ver cómo, mientras se empieza a consolidar la reorganización del escenario institucional de la Educación Superior en Europa, tras el agotamiento de todos los plazos y las prórrogas contempladas por el acuerdo de Bolonia para su implementación –véase, por ejemplo, (Ortega, 2005) y su reflexión acerca de los “ingenieros creativos” en relación con esta reforma- se ha vuelto a plantear la implantación de procesos educativos basados en el aprendizaje informal (frente al formal y dando lugar a la definición del aprendizaje “no formal”), procesos que realmente se implementan como experiencias de aprendizaje mutuo (peer learning), en comunidad y ayudados por unas infotecnologías que, a pesar de su característica “cotidianeidad” (véase en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana”) siguen arrastrando el atributo de “educativas”. Evidentemente, la “tecnificación” de las instituciones de enseñanza superior ha ido consolidando algunos elementos tecnológicos que hoy son estándares de facto, como por ejemplo los sistemas integrados de gestión conocidos por sus siglas anglosajonas, LMS (Learning Management Systems). Los enormes esfuerzos, organizativos y técnicos, de integración que se han ido desarrollando en ese sentido –véase por ejemplo en (Aguirre, 2012)- han permanecido un tanto insensibles al desarrollo paralelo que, animados por la proliferación de herramientas más ricas y accesibles, llevaban a cabo los usuarios (profesores y alumnos; enseñantes y aprendices) que, manteniendo algún tipo de relación con una de esas instituciones (véase el escenario a que dan lugar en la figura 4) hacían un uso creativo de las tecnologías que la Red ponía a su alcance. En el escenario actual –aun predominando la excitación tecnológica- han acabado encontrándose ambas corrientes, generando un nuevo espacio de incertidumbre (léase de oportunidades) en el que se encuentran las soluciones establecidas, en forma de LMS, con las primeras formulaciones de esas combinaciones creativas de herramientas, metodologías y modelos, también conocidos como entornos personales de aprendizaje (Personal Learning Environments, PLE), que han revitalizado otras propuestas tecnológicas, como los e-Portfolios, o pedagógicas, como los contratos de aprendizaje (véase su aplicación en el caso de estudio del proyecto iCamp, en el capítulo 4). Es en ese escenario y desde una perspectiva interdisciplinar, híbrida, mestiza y conciliadora, donde tiene sentido plantear, como objeto de un trabajo de investigación consistente, la consolidación de un modelo que nos ayude a contextualizar la situación de cambio infotecnológico, organizativo y social a la que nos enfrentamos y que nos guíe en su instrumentalización para afrontar “situaciones de complejidad” similares que, sin duda, tendremos que abordar en el medio plazo. Esto me lleva a contemplar el problema desde una perspectiva suficientemente amplia, pero con un foco bien definido sobre los procesos educativos –de enseñanza y aprendizaje- en el ámbito de la Educación Superior y, específicamente, en lo referente a la formación de los infoprofesionales. Un escenario en el que se dan cita necesariamente la Tecnología Educativa y la Web 2.0 como fenómeno sociotécnico y que me llevan al análisis de modelos de intervención basados en lo que se conoce como “software social” –en sentido amplio, considerando herramientas, tecnologías y metodologías-, ensayados en ese ámbito extendido a la capacitación y la formación profesionales. Se establece, por tanto, como escenario del trabajo de investigación –y ámbito para el diseño de aquellas intervenciones- el de las organizaciones educativas, aplicando la definición sintética que recoge el propio Fernando Sáez Vacas (FSV) de la reingeniería de procesos (la negrita y las anotaciones, entre paréntesis, son mías), “que consiste en reinventar la forma de desarrollar las operaciones de la empresa (institución educativa, universitaria por ejemplo), partiendo de nuevos enfoques muy orientados a las necesidades de los clientes (los aprendices o estudiantes), con rotura de las tradicionales formas organizativas verticales y del desempeño humano y un uso masivo de las modernas tecnologías de la información y de la comunicación”; y que se aplicarán de acuerdo con la integración de los elementos metodológicos y conceptuales, que conformarán las bases de una SocioTecnología de la Información y Cultura (STIC) y que hunden sus raíces en la complejidad y la sistémica (véase en el Prontuario). El objetivo genérico que se planteaba en la propuesta original de tesis doctoral era ambicioso: “desarrollar y potenciar las bases de un ‘movimiento’ de I+D+i (+d) –con “d” minúscula de difusión, divulgación, diseminación-, sobre socioinfotecnocultura enfocado en el contexto de este trabajo específicamente en su difusión educativa y principalmente en el ámbito de la Educación Superior” y para la formación de los infoprofesionales. El objetivo específico del mismo era el de “diseñar un (conjunto) instrumental cognitivo básico, aunque relativamente complejo y denso en su formulación, para los infoprofesionales, considerados como agentes activos de la infotecnología con visión y aplicación social”. La tesis de partida es que existe –en palabras de FSV- la necesidad “de desarrollar educativamente los conocimientos y modelos socioinfotecnoculturales para nutrir una actitud en principio favorable a los progresos infotecnológicos, pero encauzada por una mentalidad “abierta, positiva, crítica, activa y responsable” y orientar con la mayor profundidad posible a los infoprofesionales y, en un grado razonable, a los infociudadanos hacia usos positivos desde puntos de vista humanos y sociales”. Justificar, documentar y caracterizar esa necesidad latente –y en muchos aspectos patente en el actual escenario educativo- será parte importante del trabajo; así como elaborar los elementos necesarios que ofrezcan coherencia y consistencia suficientes al marco conceptual de esa nueva “socioinfotecnocultura” que en la formulación adoptada aquí será el marco tecnocultural básico de una SocioTecnología de la Información y Cultura (STIC), debiendo integrar esos elementos en el proceso educativo de enseñanza-aprendizaje de tal manera que puedan ser objeto de diseño y experimentación, particularizándolo sobre los infoprofesionales en primera instancia, aunque dentro de un proyecto amplio para el desarrollo y promoción social de una STIC. Mi planteamiento aquí, si bien incorpora elementos y modelos considerados previamente en algunos de mis trabajos de análisis, investigación, experimentación y diseminación realizados a lo largo del periodo de formación –modelos de intervención desarrollados en el proyecto iCamp, ampliamente documentados en (Fiedler, 2006) o (Fiedler y Kieslinger, 2007) y comentados en el capítulo 4-, en gran parte, por simple coherencia, estará constituido por elementos propios y/o adaptados de FSV que constituirán el marco tecnocultural de una teoría general de la STIC, que está en la base de este planteamiento. La asimilación en términos educativos de ese marco tecnocultural supondrá un esfuerzo considerable de reingeniería y se apoyará en el circuito cognitivo individual ampliado de “información-esfuerzo-conocimiento-esfuerzo-acción” que se recoge en el Prontuario (figura 34) y que parte de (Sáez Vacas, 1991a). La mejor forma de visualizar la formulación de ese proceso educativo es ponerlo en los términos del modelo OITP (Organización, Individuos, Tecnologías y Procesos) tal y como se ilustra en el Prontuario (figura 25) y que se puede encontrar descrito brevemente por su autor en (Sáez Vacas, 1995), de la misma forma que se planteaba la experiencia INTL 2.0 en (Sáez Vacas, Fumero et al., 2007) y que es objeto de análisis en el capítulo 5. En este caso, el plano que atraviesa el Proceso (educativo) será el marco tecnocultural de nuestra STIC; la Organización será, en genérico, el ámbito institucional de la Educación Superior y, en concreto, el dedicado a la formación de los infoprofesionales –entendidos en el sentido amplio que se planteaba en (Sáez Vacas, 1983b)-, que serán los Individuos, la componente (I) del modelo OITP. Este trabajo de tesis doctoral es uno de los resultados del proyecto de investigación propuesto y comprometido con esos objetivos, que se presenta aquí como un “proyecto tecnocultural” más amplio (véase el epígrafe homónimo en el capítulo 1). Un resultado singular, por lo que representa en el proceso de formación y acreditación del investigador que lo suscribe. En este sentido, este trabajo constituye, por un lado, la base de un elemento divulgativo que se sumará a los esfuerzos de I+D+i+d (véase textículo 3), recogidos en parte como resultados de la investigación; mientras que, por el otro lado, incorpora elementos metodológicos teóricos originales que contribuyen al objetivo genérico planteado en la propuesta de tesis, además de constituir una parte importante de los procesos de instrumentalización, recogidos en parte en los objetivos específicos de la propuesta, que en este entregable formarán parte de líneas futuras de trabajo, que se presentan en el capítulo 6 de conclusiones y discusión de resultados. Dentro de esos elementos metodológicos, teóricos, resulta especialmente relevante –en términos de los objetivos planteados originalmente-, la simplificación instrumental de las aportaciones teóricas previas, que han sido fruto del esfuerzo de análisis sistemático e implementación de diferentes intervenciones en el ámbito educativo, que se centran específicamente en el proyecto iCamp (véase en el capítulo 4) y la experiencia INTL 2.0 (véase en el capítulo 5, junto a otras experiencias instrumentales en la UPM). Esa simplificación, como elaboración teórica y proceso de modelización, se realiza extrayendo elementos de la validación teórica y experimental, que de alguna forma proporcionan los casos de estudio (capítulos 4 y 5), para incorporarlos como argumentos en la consolidación de un enfoque tecnocultural que está en la base de la construcción de una SocioTecnología de la Información y Cultura (STIC) consistente, basada en el sistemismo aplicado en diferentes situaciones de complejidad y que requerirán de una inter/multidisciplinariedad que vaya más allá de la simple “yuxtaposición” de especialidades que conocemos en nuestra actual Universidad (me refiero, con mayúscula, a la institución universitaria en toda su extensión). Esa será la base para el diseño y la construcción de experiencias educativas, basadas en el generalismo sistémico, para infoprofesionales (véase en el capítulo 1) en particular e infociudadanos en general, que nos permitirán “cimentar, con suficientes garantías, un cierto nivel de humanismo en el proceso de construcción de una sociedad de la información y del conocimiento”. En el caso de iCamp pudimos experimentar, desde un enfoque (véase en el capítulo 4) basado en diseño (Design-based Research, DbR), con tres elementos que se pueden trasladar fácilmente al concepto de competencias –o incluso en su implementación funcional, como habilidades o capacidades instrumentales percibidas, léase ‘affordances’- y que introducen tres niveles de complejidad asociados (véase, en el Prontuario, el modelo de tres niveles de complejidad), a saber el aprendizaje auto-dirigido (complejidad individual), la colaboración (complejidad sistémica) y la construcción de una red de aprendizaje (complejidad sociotécnica). Esa experimentación nos llevó a evolucionar el propio concepto de entorno personal de aprendizaje (PLE, Personal Learning Environment), partiendo de su concepción originalmente tecnológica e instrumental, para llegar a una concepción más amplia y versátil desde el punto de vista de la intervención, basada en una visión “ecológica” de los sistemas abiertos de aprendizaje (véase en el capítulo 3). En el caso de las experiencias en la UPM (capítulo 5), el caso singular de INTL 2.0 nos muestra cómo el diseño basado en la sistémica aplicada a problemas (léase situaciones de complejidad específicas) no estructurados, como los procesos de enseñanza-aprendizaje, dan lugar a intervenciones coherentes con esa visión ecológica basada en la teoría de la actividad y con los elementos comunes de la psicología educativa moderna, que parte del constructivismo social de L. Vygotsky (1978). La contraposición de ese caso con otras realizaciones, centradas en la configuración instrumental de experiencias basadas en la “instrucción” o educación formal, debe llevarnos al rediseño –o al menos a la reformulación- de ciertos componentes ya consolidados en ese tipo de formación “institucionalizada” (véase en el capítulo 5), como pueden ser el propio curso, unidad académica de programación incuestionable, los procedimientos de acreditación, certificación y evaluación, ligados a esa planificación temporal de “entrega” de contenidos y la conceptualización misma del “aula” virtual como espacio para el intercambio en la Red y fuera de ella. Todas esas observaciones (empíricas) y argumentaciones (teóricas) que derivan de la situación de complejidad específica que aquí nos ocupa sirven, a la postre –tal y como requiere el objetivo declarado de este trabajo de investigación- para ir “sedimentando” unas bases sólidas de una teoría general de la SocioTecnología de la Información y Cultura (STIC) que formen parte de un marco tecnocultural más amplio que, a su vez, servirá de guía para su aplicación en otras situaciones de complejidad, en ámbitos distintos. En este sentido, aceptando como parte de ese marco tecnocultural las características de convivencialidad y cotidianeidad (véase, en el Prontuario el epígrafe “Tecnologías para la VIda Cotidiana, TVIC”) de una “infotecnología-uso” (modelo de las cinco subculturas infotecnológicas, también recogido en el Prontuario), consideraremos como aportaciones relevantes (véase capítulo 2): 1) la argumentación sociotécnica del proceso de popularización de la retórica informática del cambio de versión, de la que deriva el fenómeno de la Web 2.0; 2) el papel estelar del móvil inteligente y su capacidad para transformar las capacidades percibidas para la acción dentro del Nuevo Entorno Tecnosocial (NET), especialmente en la situación de complejidad que nos ocupa, que ya desarrollaran Rodríguez Sánchez, Sáez Vacas y García Hervás (2010) dentro del mismo marco teórico que caracterizamos aquí como enfoque STIC; 3) y la existencia de una cierta “inteligencia tecnosocial”, que ya conjeturara FSV en (Sáez Vacas, 2011d) y que cobra cada vez más relevancia por cuanto que resulta coherente con otros modelos consolidados, como el de las inteligencias múltiples de Gardner (2000), así como con las observaciones realizadas por otros autores en relación con la aparición de nuevos alfabetismos que conformarían “una nueva generación de inteligencia” (Fumero y Espiritusanto, 2011). En rigor, el método científico –entiéndase este trabajo como parte de un proceso de investigación tecnocientífica- implica el desarrollo de una componente dialéctica asociada a la presentación de resultados; aunque, evidentemente, la misma se apoya en una actitud crítica para la discusión de los resultados aportados, que debe partir, necesariamente, como condición sine qua non de un profundo escepticismo debidamente informado. Es ese el espíritu con el que se ha afrontado la redacción de este documento, que incluye, en el capítulo 6, una serie de argumentos específicamente destinados a plantear esa discusión de resultados a partir de estas aportaciones que he vertido sintéticamente en este resumen, que no persigue otra cosa que motivar al lector para adentrarse en la lectura de este texto al completo, tarea que requiere de un esfuerzo personal dirigido (véase el epígrafe “Cómo leer este texto” en el índice) que contará con elementos de apoyo, tanto hipertextuales (Fumero, 2012a y 2012b) como textuales, formando parte del contenido de este documento entregable de tesis doctoral (véase el Prontuario, o el Texticulario).
Resumo:
Ideas concerning problem-based learning (PBL) developed after running different experiences in different Spanish Universities, are discussed. The driver for introducing PBL has been the requirement for studying Mathematics by the Engineering students. A methodology hybrid of problem-based learning for Mathematics in Engineering studies is proposed. The model is a combination of formal lectures, practical and laboratory sessions with autonomous small projects.
Resumo:
Area, launched in 1999 with the Bologna Declaration, has bestowed such a magnitude and unprecedented agility to the transformation process undertaken by European universities. However, the change has been more profound and drastic with regards to the use of new technologies both inside and outside the classroom. This article focuses on the study and analysis of the technology’s history within the university education and its impact on teachers, students and teaching methods. All the elements that have been significant and innovative throughout the history inside the teaching process have been analyzed, from the use of blackboard and chalk during lectures, the use of slide projectors and transparent slides, to the use of electronic whiteboards and Internet nowadays. The study is complemented with two types of surveys that have been performed among teachers and students during the school years 1999 - 2011 in the School of Civil Engineering at the Polytechnic University of Madrid. The pros and cons of each of the techniques and methodologies used in the learning process over the last decades are described, unfolding how they have affected the teacher, who has evolved from writing on a whiteboard to project onto a screen, the student, who has evolved from taking handwritten notes to download information or search the Internet, and the educational process, that has evolved from the lecture to acollaborative learning and project-based learning. It is unknown how the process of learning will evolve in the future, but we do know the consequences that some of the multimedia technologies are having on teachers, students and the learning process. It is our goal as teachers to keep ourselves up to date, in order to offer the student adequate technical content, while providing proper motivation through the use of new technologies. The study provides a forecast in the evolution of multimedia within the classroom and the renewal of the education process, which in our view, will set the basis for future learning process within the context of this new interactive era.
Resumo:
Este proyecto tiene por objetivo la realización de un análisis comparativo de la normativa española existente para el cálculo de la carga de hundimiento de cimentaciones mediante pilotes, viendo el contenido de cada una de ellas y aplicándolo a un caso práctico. Inicialmente se realiza un planteamiento general del modo de cálculo de la carga de hundimiento de los pilotes desde el punto de vista estático. A continuación se recoge la formulación existente en el Código Técnico de la Edificación (CTE), en las Recomendaciones para Obras Marítimas y Portuarios (ROM 05-05) y en la Guía de Cimentaciones en Obras de Carretera (GCOC) viendo de donde se extraen las fórmulas empleadas en ellas. Para pasar a realizar un análisis comparativo de ellas con la ayuda de distintos gráficos y viendo la relación que presentan unos códigos con otros tanto para suelos granulares como cohesivos y pilotes hincados y excavados, que es lo que distinguen los tres códigos generalmente. Por último, se realiza un análisis comparativo de los resultados obtenidos para la cimentación de tres viaductos de la autovía Noroeste de Murcia realizando un análisis económico de esta cimentación. ABSTRACT The aim of this project is to develop a comparative analysis of the actual Spanish regulations for the calculation of sinking’s load of foundation design based on timber piles, observing the contents of each and every one of them an applying it to a real and practical situation. To begin with, a general proposal is made from calculation the sinking load of the timber piles from the static point of view. Next, the actual formulation is gathering in “Código Técnico de la Edificación” (CTE), “Recomendaciones para Obras Marítimas y Portuarias” and “Guía de Cimentaciones en Obras de Carretera”, observing where the applied formulas are calculated from. Thereupon, a coparativeanalysis of them is carry out with the help of different graphics and facing the connections from some codes to anothers, not only for granular but for cohesive surface, and for drilling and digging out piles, that’s what generally distinguishes among for three codes. Finally, a comparative analysis of obtained results is carry out for the foundation of the three viaducts of Murcia’s NorthWest motorway, accomplishing economical analysis of this foundation.