1000 resultados para Estrategias de resolución de problemas
Resumo:
Este libro, Problemas de Matemáticas, junto con otros dos, Problemas de Geometría y Problemas de Geometría Analítica y Diferencial, están dedicados a la presentación y resolución de problemas que se planteaban hace unas décadas, en la preparación para ingreso en las carreras de ingeniería técnica superior. Incluye 1578 problemas, de los que 848 se refieren al Álgebra (operaciones algebraicas, divisibilidad, combinatoria, determinantes, ecuaciones e inecuaciones, fracciones continuas, números complejos, límites, sucesiones y series, y algunos sobre vectores y mecánica), 175 a la Trigonometría (plana y esférica), 282 al Cálculo diferencial (funciones de una variable, y de dos o más variables), 246 al Cálculo integral (integrales, integrales definidas, integrales en el campo de dos o más variables y ecuaciones diferenciales) y 27 a la Estadística. Esta tercera edición de Problemas de Matemáticas tiene por objeto su puesta a disposición de la Escuela de Ingenieros de Minas de la Universidad Politécnica de Madrid.
Resumo:
Este libro, Problemas de Geometría, junto con otros dos, Problemas de Matemáticas y Problemas de Geometría Analítica y Diferencial, están dedicados a la presentación y resolución de problemas que se planteaban hace unas décadas, en la preparación para ingreso en las carreras de ingeniería técnica superior. Incluye 744 problemas que se presentan en dos grandes grupos: • Geometría del plano, con 523 problemas referentes a lugares geométricos, rectas, ángulos, triángulos y su construcción, cuadriláteros y otros polígonos, circunferencia, cónicas y áreas. • Geometría del espacio, con 221 problemas referentes a lugares geométricos, planos, diedros, cuerpos, áreas, volúmenes y geometría descriptiva. Además se incluyen en el anexo, 25 problemas para su resolución por los lectores. Esta segunda edición de Problemas de Geometría tiene por objeto su puesta a disposición de la Escuela de Ingenieros de Minas de la Universidad Politécnica de Madrid.
Resumo:
Este libro, Problemas de Geometría Analítica y Diferencial, junto con otros dos, Problemas de Matemáticas y Problemas de Geometría, están dedicados a la presentación y resolución de problemas que se planteaban hace unas décadas, en la preparación para ingreso en las carreras de ingeniería técnica superior. Incluye 907 problemas, de los que 707 se refieren a la geometría analítica y 200 a la geometría diferencial. Los correspondientes a la geometría analítica se reparten entre la geometría del plano, con 491 problemas (elementos, circunferencia, lugares geométricos, cónicas, curvas), y la del espacio, con 216 problemas (elementos, lugares geométricos, cuádricas, otras superficies y curvas). Los referentes a la geometría diferencial se reparten entre los correspondientes al plano, con 123 problemas, y los correspondientes al espacio, con 77 problemas. Esta segunda edición de Problemas de Geometría Analítica y Diferencial tiene por objeto su puesta a disposición de la Escuela de Ingenieros de Minas de la Universidad Politécnica de Madrid.
Resumo:
Dentro de los estudios de Ingeniería, las asignaturas que se ocupan de la capacidad de desarrollar programas de ordenador presentan algunas particularidades que las hacen especialmente interesantes a la hora de aplicar instrumentos de evaluación no tradicionales. Estas características son: (a) el resultado del aprendizaje es estrictamente una competencia, (b) el ejercicio profesional de esta competencia se realiza usualmente en equipo y (c) el proceso de evaluación puede ser más objetivo que en otras materias. Como consecuencia de la aplicación del EEES se están aplicando nuevas metodologías docentes y de estrategias de evaluación a estas asignaturas y resulta relevante conocer qué diferencias, si existen, introducen en el proceso de aprendizaje de este tipo de materias. El presente trabajo contrasta la aplicación de dos metodologías docentes y dos instrumentos de evaluación en dos grupos de la misma asignatura. Uno de los grupos ha seguido una metodología docente a distancia apoyada en una plataforma de e-learning, con contenidos docentes en formato electrónico, tutorías virtuales, un foro de comunicaciones, ejercicios de autoevaluación,trabajos individuales y trabajos en grupo. El otro grupo comparte los mismos contenidos docentes pero sigue una metodología que se basa en la impartición de clases presenciales de tipo magistral y clases prácticas de resolución de problemas y en la que se realiza un proyecto en equipo que se entrega en tres hitos. En ambos casos se ha utilizado una rúbrica por parte del profesor para evaluar los trabajos y otra por parte del alumno para valorar la actividad y competencia trabajo en equipo. Además se ha realizado un examen tradicional aunque sin efecto en la calificación final del alumno como referencia de comparación. En este sentido se muestra la experiencia en el empleo de la rúbrica en el contexto de la docencia en Ingeniería, y, en este caso, respecto de un instrumento tradicional como es una prueba de evaluación escrita.
Resumo:
Esta comunicación tiene como fundamento el demostrar la importancia de las singularidades geométricas para la resolución de sistemas que impliquen condiciones peculiares de contorno. No es necesario a estas alturas, romper ninguna lanza a favor de los métodos numéricos de discretización del contorno para el tratamiento de problemas frente a los métodos de discretización del dominio. Con todo, el simple hecho de ser un procedimiento numérico conlleva ciertas peculiaridades o problemas de difícil soslayo, pero también pueden presentar serias ventajas basadas en los fundamentos del método. En esta comunicación se pretende hacer constancia no solo de la importancia de este método, palpablemente demostrada en las referencias consignadas, sino algunas de las ventajas que puede proporcionar la resolución de problemas que impliquen potencial, como por ejemplo la transmisión de calor en régimen permanente, y que han sido demostradas para problemas de filtraciones por ejemplo, puestos de manifiesto en este artículo.
Resumo:
Esta comunicación, fruto de una investigación entre dos universidades, española y brasileña, presenta un análisis comparado de formas empresariales orientadas a la resolución de problemas sociales en diferentes partes del mundo: la empresa social en países emergentes de tradición anglosajona, la economía social en Europa y el emprendimiento social en América Latina.
Resumo:
Los fundamentos de la Teoría de la Decisión Bayesiana proporcionan un marco coherente en el que se pueden resolver los problemas de toma de decisiones. La creciente disponibilidad de ordenadores potentes está llevando a tratar problemas cada vez más complejos con numerosas fuentes de incertidumbre multidimensionales; varios objetivos conflictivos; preferencias, metas y creencias cambiantes en el tiempo y distintos grupos afectados por las decisiones. Estos factores, a su vez, exigen mejores herramientas de representación de problemas; imponen fuertes restricciones cognitivas sobre los decisores y conllevan difíciles problemas computacionales. Esta tesis tratará estos tres aspectos. En el Capítulo 1, proporcionamos una revisión crítica de los principales métodos gráficos de representación y resolución de problemas, concluyendo con algunas recomendaciones fundamentales y generalizaciones. Nuestro segundo comentario nos lleva a estudiar tales métodos cuando sólo disponemos de información parcial sobre las preferencias y creencias del decisor. En el Capítulo 2, estudiamos este problema cuando empleamos diagramas de influencia (DI). Damos un algoritmo para calcular las soluciones no dominadas en un DI y analizamos varios conceptos de solución ad hoc. El último aspecto se estudia en los Capítulos 3 y 4. Motivado por una aplicación de gestión de embalses, introducimos un método heurístico para resolver problemas de decisión secuenciales. Como muestra resultados muy buenos, extendemos la idea a problemas secuenciales generales y cuantificamos su bondad. Exploramos después en varias direcciones la aplicación de métodos de simulación al Análisis de Decisiones. Introducimos primero métodos de Monte Cario para aproximar el conjunto no dominado en problemas continuos. Después, proporcionamos un método de Monte Cario basado en cadenas de Markov para problemas con información completa con estructura general: las decisiones y las variables aleatorias pueden ser continuas, y la función de utilidad puede ser arbitraria. Nuestro esquema es aplicable a muchos problemas modelizados como DI. Finalizamos con un capítulo de conclusiones y problemas abiertos.---ABSTRACT---The foundations of Bayesian Decisión Theory provide a coherent framework in which decisión making problems may be solved. With the advent of powerful computers and given the many challenging problems we face, we are gradually attempting to solve more and more complex decisión making problems with high and multidimensional uncertainty, múltiple objectives, influence of time over decisión tasks and influence over many groups. These complexity factors demand better representation tools for decisión making problems; place strong cognitive demands on the decison maker judgements; and lead to involved computational problems. This thesis will deal with these three topics. In recent years, many representation tools have been developed for decisión making problems. In Chapter 1, we provide a critical review of most of them and conclude with recommendations and generalisations. Given our second query, we could wonder how may we deal with those representation tools when there is only partial information. In Chapter 2, we find out how to deal with such a problem when it is structured as an influence diagram (ID). We give an algorithm to compute nondominated solutions in ID's and analyse several ad hoc solution concepts.- The last issue is studied in Chapters 3 and 4. In a reservoir management case study, we have introduced a heuristic method for solving sequential decisión making problems. Since it shows very good performance, we extend the idea to general problems and quantify its goodness. We explore then in several directions the application of simulation based methods to Decisión Analysis. We first introduce Monte Cario methods to approximate the nondominated set in continuous problems. Then, we provide a Monte Cario Markov Chain method for problems under total information with general structure: decisions and random variables may be continuous, and the utility function may be arbitrary. Our scheme is applicable to many problems modeled as IDs. We conclude with discussions and several open problems.
Resumo:
La presente Tesis Doctoral aborda la introducción de la Partición de Unidad de Bernstein en la forma débil de Galerkin para la resolución de problemas de condiciones de contorno en el ámbito del análisis estructural. La familia de funciones base de Bernstein conforma un sistema generador del espacio de funciones polinómicas que permite construir aproximaciones numéricas para las que no se requiere la existencia de malla: las funciones de forma, de soporte global, dependen únicamente del orden de aproximación elegido y de la parametrización o mapping del dominio, estando las posiciones nodales implícitamente definidas. El desarrollo de la formulación está precedido por una revisión bibliográfica que, con su punto de partida en el Método de Elementos Finitos, recorre las principales técnicas de resolución sin malla de Ecuaciones Diferenciales en Derivadas Parciales, incluyendo los conocidos como Métodos Meshless y los métodos espectrales. En este contexto, en la Tesis se somete la aproximación Bernstein-Galerkin a validación en tests uni y bidimensionales clásicos de la Mecánica Estructural. Se estudian aspectos de la implementación tales como la consistencia, la capacidad de reproducción, la naturaleza no interpolante en la frontera, el planteamiento con refinamiento h-p o el acoplamiento con otras aproximaciones numéricas. Un bloque importante de la investigación se dedica al análisis de estrategias de optimización computacional, especialmente en lo referente a la reducción del tiempo de máquina asociado a la generación y operación con matrices llenas. Finalmente, se realiza aplicación a dos casos de referencia de estructuras aeronáuticas, el análisis de esfuerzos en un angular de material anisotrópico y la evaluación de factores de intensidad de esfuerzos de la Mecánica de Fractura mediante un modelo con Partición de Unidad de Bernstein acoplada a una malla de elementos finitos. ABSTRACT This Doctoral Thesis deals with the introduction of Bernstein Partition of Unity into Galerkin weak form to solve boundary value problems in the field of structural analysis. The family of Bernstein basis functions constitutes a spanning set of the space of polynomial functions that allows the construction of numerical approximations that do not require the presence of a mesh: the shape functions, which are globally-supported, are determined only by the selected approximation order and the parametrization or mapping of the domain, being the nodal positions implicitly defined. The exposition of the formulation is preceded by a revision of bibliography which begins with the review of the Finite Element Method and covers the main techniques to solve Partial Differential Equations without the use of mesh, including the so-called Meshless Methods and the spectral methods. In this context, in the Thesis the Bernstein-Galerkin approximation is subjected to validation in one- and two-dimensional classic benchmarks of Structural Mechanics. Implementation aspects such as consistency, reproduction capability, non-interpolating nature at boundaries, h-p refinement strategy or coupling with other numerical approximations are studied. An important part of the investigation focuses on the analysis and optimization of computational efficiency, mainly regarding the reduction of the CPU cost associated with the generation and handling of full matrices. Finally, application to two reference cases of aeronautic structures is performed: the stress analysis in an anisotropic angle part and the evaluation of stress intensity factors of Fracture Mechanics by means of a coupled Bernstein Partition of Unity - finite element mesh model.
Resumo:
habilidades de comprensión y resolución de problemas. Tanto es así que se puede afirmar con rotundidad que no existe el método perfecto para cada una de las etapas de desarrollo y tampoco existe el modelo de ciclo de vida perfecto: cada nuevo problema que se plantea es diferente a los anteriores en algún aspecto y esto hace que técnicas que funcionaron en proyectos anteriores fracasen en los proyectos nuevos. Por ello actualmente se realiza un planteamiento integrador que pretende utilizar en cada caso las técnicas, métodos y herramientas más acordes con las características del problema planteado al ingeniero. Bajo este punto de vista se plantean nuevos problemas. En primer lugar está la selección de enfoques de desarrollo. Si no existe el mejor enfoque, ¿cómo se hace para elegir el más adecuado de entre el conjunto de los existentes? Un segundo problema estriba en la relación entre las etapas de análisis y diseño. En este sentido existen dos grandes riesgos. Por un lado, se puede hacer un análisis del problema demasiado superficial, con lo que se produce una excesiva distancia entre el análisis y el diseño que muchas veces imposibilita el paso de uno a otro. Por otro lado, se puede optar por un análisis en términos del diseño que provoca que no cumpla su objetivo de centrarse en el problema, sino que se convierte en una primera versión de la solución, lo que se conoce como diseño preliminar. Como consecuencia de lo anterior surge el dilema del análisis, que puede plantearse como sigue: para cada problema planteado hay que elegir las técnicas más adecuadas, lo que requiere que se conozcan las características del problema. Para ello, a su vez, se debe analizar el problema, eligiendo una técnica antes de conocerlo. Si la técnica utiliza términos de diseño entonces se ha precondicionado el paradigma de solución y es posible que no sea el más adecuado para resolver el problema. En último lugar están las barreras pragmáticas que frenan la expansión del uso de métodos con base formal, dificultando su aplicación en la práctica cotidiana. Teniendo en cuenta todos los problemas planteados, se requieren métodos de análisis del problema que cumplan una serie de objetivos, el primero de los cuales es la necesidad de una base formal, con el fin de evitar la ambigüedad y permitir verificar la corrección de los modelos generados. Un segundo objetivo es la independencia de diseño: se deben utilizar términos que no tengan reflejo directo en el diseño, para que permitan centrarse en las características del problema. Además los métodos deben permitir analizar problemas de cualquier tipo: algorítmicos, de soporte a la decisión o basados en el conocimiento, entre otros. En siguiente lugar están los objetivos relacionados con aspectos pragmáticos. Por un lado deben incorporar una notación textual formal pero no matemática, de forma que se facilite su validación y comprensión por personas sin conocimientos matemáticos profundos pero al mismo tiempo sea lo suficientemente rigurosa para facilitar su verificación. Por otro lado, se requiere una notación gráfica complementaria para representar los modelos, de forma que puedan ser comprendidos y validados cómodamente por parte de los clientes y usuarios. Esta tesis doctoral presenta SETCM, un método de análisis que cumple estos objetivos. Para ello se han definido todos los elementos que forman los modelos de análisis usando una terminología independiente de paradigmas de diseño y se han formalizado dichas definiciones usando los elementos fundamentales de la teoría de conjuntos: elementos, conjuntos y relaciones entre conjuntos. Por otro lado se ha definido un lenguaje formal para representar los elementos de los modelos de análisis – evitando en lo posible el uso de notaciones matemáticas – complementado con una notación gráfica que permite representar de forma visual las partes más relevantes de los modelos. El método propuesto ha sido sometido a una intensa fase de experimentación, durante la que fue aplicado a 13 casos de estudio, todos ellos proyectos reales que han concluido en productos transferidos a entidades públicas o privadas. Durante la experimentación se ha evaluado la adecuación de SETCM para el análisis de problemas de distinto tamaño y en sistemas cuyo diseño final usaba paradigmas diferentes e incluso paradigmas mixtos. También se ha evaluado su uso por analistas con distinto nivel de experiencia – noveles, intermedios o expertos – analizando en todos los casos la curva de aprendizaje, con el fin de averiguar si es fácil de aprender su uso, independientemente de si se conoce o no alguna otra técnica de análisis. Por otro lado se ha estudiado la capacidad de ampliación de modelos generados con SETCM, para comprobar si permite abordar proyectos realizados en varias fases, en los que el análisis de una fase consista en ampliar el análisis de la fase anterior. En resumidas cuentas, se ha tratado de evaluar la capacidad de integración de SETCM en una organización como la técnica de análisis preferida para el desarrollo de software. Los resultados obtenidos tras esta experimentación han sido muy positivos, habiéndose alcanzado un alto grado de cumplimiento de todos los objetivos planteados al definir el método.---ABSTRACT---Software development is an inherently complex activity, which requires specific abilities of problem comprehension and solving. It is so difficult that it can even be said that there is no perfect method for each of the development stages and that there is no perfect life cycle model: each new problem is different to the precedent ones in some respect and the techniques that worked in other problems can fail in the new ones. Given that situation, the current trend is to integrate different methods, tools and techniques, using the best suited for each situation. This trend, however, raises some new problems. The first one is the selection of development approaches. If there is no a manifestly single best approach, how does one go about choosing an approach from the array of available options? The second problem has to do with the relationship between the analysis and design phases. This relation can lead to two major risks. On one hand, the analysis could be too shallow and far away from the design, making it very difficult to perform the transition between them. On the other hand, the analysis could be expressed using design terminology, thus becoming more a kind of preliminary design than a model of the problem to be solved. In third place there is the analysis dilemma, which can be expressed as follows. The developer has to choose the most adequate techniques for each problem, and to make this decision it is necessary to know the most relevant properties of the problem. This implies that the developer has to analyse the problem, choosing an analysis method before really knowing the problem. If the chosen technique uses design terminology then the solution paradigm has been preconditioned and it is possible that, once the problem is well known, that paradigm wouldn’t be the chosen one. The last problem consists of some pragmatic barriers that limit the applicability of formal based methods, making it difficult to use them in current practice. In order to solve these problems there is a need for analysis methods that fulfil several goals. The first one is the need of a formal base, which prevents ambiguity and allows the verification of the analysis models. The second goal is design-independence: the analysis should use a terminology different from the design, to facilitate a real comprehension of the problem under study. In third place the analysis method should allow the developer to study different kinds of problems: algorithmic, decision-support, knowledge based, etc. Next there are two goals related to pragmatic aspects. Firstly, the methods should have a non mathematical but formal textual notation. This notation will allow people without deep mathematical knowledge to understand and validate the resulting models, without losing the needed rigour for verification. Secondly, the methods should have a complementary graphical notation to make more natural the understanding and validation of the relevant parts of the analysis. This Thesis proposes such a method, called SETCM. The elements conforming the analysis models have been defined using a terminology that is independent from design paradigms. Those terms have been then formalised using the main concepts of the set theory: elements, sets and correspondences between sets. In addition, a formal language has been created, which avoids the use of mathematical notations. Finally, a graphical notation has been defined, which can visually represent the most relevant elements of the models. The proposed method has been thoroughly tested during the experimentation phase. It has been used to perform the analysis of 13 actual projects, all of them resulting in transferred products. This experimentation allowed evaluating the adequacy of SETCM for the analysis of problems of varying size, whose final design used different paradigms and even mixed ones. The use of the method by people with different levels of expertise was also evaluated, along with the corresponding learning curve, in order to assess if the method is easy to learn, independently of previous knowledge on other analysis techniques. In addition, the expandability of the analysis models was evaluated, assessing if the technique was adequate for projects organised in incremental steps, in which the analysis of one step grows from the precedent models. The final goal was to assess if SETCM can be used inside an organisation as the preferred analysis method for software development. The obtained results have been very positive, as SETCM has obtained a high degree of fulfilment of the goals stated for the method.
Resumo:
Esta tesis doctoral aborda el problema de la falta de un protocolo que conecte las elevadas y variadas expectativas formales que plantea la arquitectura singular respecto de la luz natural con las distintas herramientas de cálculo y sus métricas asociadas disponibles. La pregunta que la tesis responde es la siguiente “¿Es posible definir un protocolo que ordene las decisiones de diseño y cálculo en la resolución de los problemas de luz natural en la arquitectura singular en forma de procesos, de modo suficientemente genérico y operativo, creando conocimiento útil sobre el problema de que se trate en cada etapa del mismo?” Metodológicamente se desarrolla en dos ciclos de investigación enlazados: primero se DEFINE de modo científico el protocolo y luego se EVALÚA SU APLICABILIDAD. La construcción del protocolo se resuelve utilizando el método inductivo a partir de un corpus previo de problemas de luz natural ya resueltos por el autor. Son analizados de modo sistemático y aplicando diversas estrategias de reducción y síntesis. conducen a un enunciado inicial del protocolo. Una vez enunciado el protocolo, que se denomina DAYLIGHTING CANVAS, se valora su la aplicabilidad mediante experimentación directa, que se realiza a través de tres experiencias diferentes. En la primera evaluamos su aplicabilidad en un problema representativo, en la segunda su aplicabilidad para resolución de problemas planteados de modo aleatorio, y por último su aplicabilidad en el caso de ser empleado por diferentes autores. ABSTRACT The Ph.D. thesis address the lack of a protocol capable to link the higher expectations regarding daylighting of the singular architecture practice with the available daylighting calculation tools and metrics. The thesis question is as follows: “Is it possible to define a protocol capable to arrange the design and calculation decisions needed to be made to solve a daylighting problem for a singular architecture project, as a process, in a way as generic as operational, by building daylighting related knowledge in each step of it?” Methodologically the research is developed in two linked stages: first the protocol is scientifically DEFINED and then its APPLICABILITY is tested. The protocol is built up by using the inductive method over a group of previously solved daylighting projects provided by the thesis author. Those projects has been systematically analyzed by applying some reduction and synthesis strategies, which leads to a preliminary protocol formulation. Once the protocol is fully formulated under the name of “DAYLIGHTING CANVAS”, its applicability is assessed by direct experimentation, done through three different experiments. In the first one the applicability to a complex problem is assessed; in the second one its applicability to non predicted daylighting problems; and finally its applicability for different users.
Resumo:
La preparación previa del alumnado que cursa la asignatura de Fundamentos Físicos en primer curso de grado implantado en la Escuela Politécnica Superior de la Universidad de Alicante, es muy heterogénea. Además, se da la circunstancia que en los últimos cursos alrededor de un 50% del alumnado no ha cursado nunca una asignatura de física anteriormente, aunque esta situación depende del grado concreto. En este trabajo presentamos un análisis de los resultados obtenidos en el curso 14-15 en dos grupos teóricos de Fundamentos Físicos de la Informática a lo largo del curso. Nuestro objetivo es mejorar la metodología de la asignatura en actividades como cursos de iniciación, distribución homogénea del alumnado en los grupos teóricos, o adaptación de la guía docente al contexto particular de cada grupo. Otro aspecto que trabaja la red es el desarrollo de materiales para el autoaprendizaje de la física. Nuestro objetivo es facilitar que el alumnado pueda prepararse la asignatura de Fundamentos Físicos utilizando estos materiales. Entre ellos destacamos la elaboración de libros de resolución de problemas y la elaboración de blogs educativos.
Resumo:
En esta experiencia docente se pone en práctica una forma diferente de llevar a cabo las clases prácticas de algunas asignaturas de matemáticas de primer curso de la Facultad de Ciencias de la Universidad de Alicante. El objetivo es sustituir las habituales clases prácticas, donde el profesor realiza los ejercicios en la pizarra, por la resolución de problemas por parte de los alumnos incorporando además otras estrategias docentes; es decir, además de las hojas de ejercicios que el profesor prepara para los alumnos, los docentes preparan unas actividades prácticas para que sean realizadas en clase por los estudiantes, en grupos reducidos y guiados por el profesor. Estas actividades son puntuadas por el tutor y, tras ser devueltas a los alumnos, éstos deberán observar y analizar sus errores con la ayuda extra de las tutorías presenciales y virtuales. Con este método se consigue una mayor interacción entre alumno y profesor, un estudio continuo de la asignatura y una constante evaluación del profesor al alumno y del alumno a la asignatura.
Resumo:
Inspirados por las estrategias de detección precoz aplicadas en medicina, proponemos el diseño y construcción de un sistema de predicción que permita detectar los problemas de aprendizaje de los estudiantes de forma temprana. Partimos de un sistema gamificado para el aprendizaje de Lógica Computacional, del que se recolectan masivamente datos de uso y, sobre todo, resultados de aprendizaje de los estudiantes en la resolución de problemas. Todos estos datos se analizan utilizando técnicas de Machine Learning que ofrecen, como resultado, una predicción del rendimiento de cada alumno. La información se presenta semanalmente en forma de un gráfico de progresión, de fácil interpretación pero con información muy valiosa. El sistema resultante tiene un alto grado de automatización, es progresivo, ofrece resultados desde el principio del curso con predicciones cada vez más precisas, utiliza resultados de aprendizaje y no solo datos de uso, permite evaluar y hacer predicciones sobre las competencias y habilidades adquiridas y contribuye a una evaluación realmente formativa. En definitiva, permite a los profesores guiar a los estudiantes en una mejora de su rendimiento desde etapas muy tempranas, pudiendo reconducir a tiempo los posibles fracasos y motivando a los estudiantes.
Resumo:
El presente proyecto tiene por finalidad investigar los diferentes procesos de aprendizaje e interacciones que tienen lugar través del desarrollo y aplicaciones de estrategias innovadoras en ambientes mediados por las TIC en el ámbito de la Biología, la Física y la Química. Esta propuesta se llevará a cabo a través de cuatro componentes articuladas que se integran a través de su marco teórico y en su utilización en la práctica áulica. El primero de ellos se refiere al desarrollo, aplicación y evaluación de materiales que involucran diferentes procesos centrados en la modelización. Proponemos identificar, adaptar y aplicar una serie de recursos tecnológicos usados en la modelización. Se investigarán distintos aspectos generando dimensiones y categorías de análisis que permitan caracterizarlos. Dentro de ellos se usarán las simulaciones para la enseñanza la Física, específicamente se tratará de identificar las dificultades que presentan los estudiantes al resolver problemas aplicando las Leyes de Newton y generar una propuesta didáctica que incluya una simulación Applet Java para el aprendizaje de este contenido con su correspondiente evaluación. Otro recurso tecnológico que se estudiará tiene que ver con las animaciones llevadas a cabo por computadora. Se utilizará la estrategia Stopmotion para el aprendizaje de diferentes aspectos de la división celular en Biología, con alumnos de escuelas secundaria, investigando los aprendizajes y las producciones realizadas por estudiantes que trabajan de manera no tradicional. También se propone el uso de dos laboratorios virtuales con alumnos del profesorado en Biología, lo que permite comprender conceptos que habitualmente requieren experimentación fáctica, uno para la identificación de ADN a través de electroforesis en gel y el otro para la contaminación del agua. Se propone generar las guías de laboratorio basada en resolución de problemas a investigar la innovación a través de encuestas y entrevistas. Se investigarán el impacto de este recurso, las actitudes de los estudiantes frente a esta estrategia y sus aprendizajes. También se investigará la aplicación de un video juego educativo Kokori en 3D, de distribución gratuita, libre cuyo objetivo es poner en evidencia la comprensión de los procesos metabólicos de las células. Se aplicará a docentes de formación inicial analizando la interacción con los saberes de los estudiantes a través de situaciones en un escenario lúdico. Toda la investigación de esta componente estará centrada en la caracterización de los materiales, su evaluación, los aprendizajes con procesos de modelización. La segunda componente investiga las características que presentan las argumentaciones que se abordan en los procesos de lectura y escritura que se promueven cuando se trabaja con las TIC. Se analizarán las producciones escritas realizadas por docentes y estudiantes en las redes sociales y otros materiales desarrollados y aplicados en la componente anterior. El tercer componente se refiere al estudio de la interacción y comunicación que se promueva entre los participantes de los trabajos virtuales y de las redes sociales que intervienen, tales como Facebook y Twiter. Se considerará las dimensiones, categorías e indicadores que dan cuanta de los proceso de comunicación en estos entornos. El último componente, es el análisis de los procesos y negociaciones respecto de los enunciados, como las premisas que representan el conocimiento, que se ponen en juego en distintas propuestas elaboradas por los futuros profesores de biología en recursos como la Webquest. El enfoque metodológico usado integra técnicas y procedimientos cuantitativos y cualitativos. La contribución teórica permitirá caracterizar diferentes aspectos de la enseñanza de las ciencias naturales introduciendo TIC y como aporte novedoso se espera consolidar una red de comunicaciones entre los docentes, los estudiantes y los investigadores involucrados en el proyecto.
Resumo:
La estrategia de acción educativa, realmente funcional y adaptada, de los adolescentes con Síndrome de Down se puede resumir en los siguientes pilares fundamentales: 1. Aprender a aprender. Es decir, enseñar a manejarse en diferentes estrategias de aprendizaje: proyectos de trabajo, investigación, resolución de problemas, actividades secuenciadas con recursos variados. 2. La forma de enseñar contenidos concretos también tiene que estar enfocada a esta misma funcionalidad: no enseñar basándose en un enfoque conceptual, es decir, enseñar mediante la construcción de conceptos, sino basándose en experiencias previas del alumno, en la motivación y en la necesidad. 3. Y sobrevolando todo ello, hemos de incluir en todo momento el desarrollo práctico de la enseñanza de actitudes y valores. Son los que les van a convertir en ciudadanos autosuficientes y responsables.