1000 resultados para Estrategias de resolución de problemas
Resumo:
La computación molecular es una disciplina que se ocupa del diseño e implementación de dispositivos para el procesamiento de información sobre un sustrato biológico, como el ácido desoxirribonucleico (ADN), el ácido ribonucleico (ARN) o las proteínas. Desde que Watson y Crick descubrieron en los años cincuenta la estructura molecular del ADN en forma de doble hélice, se desencadenaron otros descubrimientos, como las enzimas de restricción o la reacción en cadena de la polimerasa (PCR), contribuyendo de manera determinante a la irrupción de la tecnología del ADN recombinante. Gracias a esta tecnología y al descenso vertiginoso de los precios de secuenciación y síntesis del ADN, la computación biomolecular pudo abandonar su concepción puramente teórica. El trabajo presentado por Adleman (1994) logró resolver un problema de computación NP-completo (El Problema del Camino de Hamilton dirigido) utilizando únicamente moléculas de ADN. La gran capacidad de procesamiento en paralelo ofrecida por las técnicas del ADN recombinante permitió a Adleman ser capaz de resolver dicho problema en tiempo polinómico, aunque a costa de un consumo exponencial de moléculas de ADN. Utilizando algoritmos de fuerza bruta similares al utilizado por Adleman se logró resolver otros problemas NP-completos, como por ejemplo el de Satisfacibilidad de Fórmulas Lógicas / SAT (Lipton, 1995). Pronto se comprendió que la computación biomolecular no podía competir en velocidad ni precisión con los ordenadores de silicio, por lo que su enfoque y objetivos se centraron en la resolución de problemas con aplicación biomédica (Simmel, 2007), dejando de lado la resolución de problemas clásicos de computación. Desde entonces se han propuesto diversos modelos de dispositivos biomoleculares que, de forma autónoma (sin necesidad de un bio-ingeniero realizando operaciones de laboratorio), son capaces de procesar como entrada un sustrato biológico y proporcionar una salida también en formato biológico: procesadores que aprovechan la extensión de la polimerasa (Hagiya et al., 1997), autómatas que funcionan con enzimas de restricción (Benenson et al., 2001) o con deoxiribozimas (Stojanovic et al., 2002), o circuitos de hibridación competitiva (Yurke et al., 2000). Esta tesis presenta un conjunto de modelos de dispositivos de ácidos nucleicos capaces de implementar diversas operaciones de computación lógica aprovechando técnicas de computación biomolecular (hibridación competitiva del ADN y reacciones enzimáticas) con aplicaciones en diagnóstico genético. El primer conjunto de modelos, presentados en el Capítulo 5 y publicados en Sainz de Murieta and Rodríguez-Patón (2012b), Rodríguez-Patón et al. (2010a) y Sainz de Murieta and Rodríguez-Patón (2010), define un tipo de biosensor que usa hebras simples de ADN para codificar reglas sencillas, como por ejemplo "SI hebra-ADN-1 Y hebra-ADN-2 presentes, ENTONCES enfermedad-B". Estas reglas interactúan con señales de entrada (ADN o ARN de cualquier tipo) para producir una señal de salida (también en forma de ácido nucleico). Dicha señal de salida representa un diagnóstico, que puede medirse mediante partículas fluorescentes técnicas FRET) o incluso ser un tratamiento administrado en respuesta a un conjunto de síntomas. El modelo presentado en el Capítulo 5, publicado en Rodríguez-Patón et al. (2011), es capaz de ejecutar cadenas de resolución sobre fórmulas lógicas en forma normal conjuntiva. Cada cláusula de una fórmula se codifica en una molécula de ADN. Cada proposición p se codifica asignándole una hebra simple de ADN, y la correspondiente hebra complementaria a la proposición ¬p. Las cláusulas se codifican incluyendo distintas proposiciones en la misma hebra de ADN. El modelo permite ejecutar programas lógicos de cláusulas Horn aplicando múltiples iteraciones de resolución en cascada, con el fin de implementar la función de un nanodispositivo autónomo programable. Esta técnica también puede emplearse para resolver SAP sin ayuda externa. El modelo presentado en el Capítulo 6 se ha publicado en publicado en Sainz de Murieta and Rodríguez-Patón (2012c), y el modelo presentado en el Capítulo 7 se ha publicado en (Sainz de Murieta and Rodríguez-Patón, 2013c). Aunque explotan métodos de computación biomolecular diferentes (hibridación competitiva de ADN en el Capítulo 6 frente a reacciones enzimáticas en el 7), ambos modelos son capaces de realizar inferencia Bayesiana. Funcionan tomando hebras simples de ADN como entrada, representando la presencia o la ausencia de un indicador molecular concreto (una evidencia). La probabilidad a priori de una enfermedad, así como la probabilidad condicionada de una señal (o síntoma) dada la enfermedad representan la base de conocimiento, y se codifican combinando distintas moléculas de ADN y sus concentraciones relativas. Cuando las moléculas de entrada interaccionan con las de la base de conocimiento, se liberan dos clases de hebras de ADN, cuya proporción relativa representa la aplicación del teorema de Bayes: la probabilidad condicionada de la enfermedad dada la señal (o síntoma). Todos estos dispositivos pueden verse como elementos básicos que, combinados modularmente, permiten la implementación de sistemas in vitro a partir de sensores de ADN, capaces de percibir y procesar señales biológicas. Este tipo de autómatas tienen en la actualidad una gran potencial, además de una gran repercusión científica. Un perfecto ejemplo fue la publicación de (Xie et al., 2011) en Science, presentando un autómata biomolecular de diagnóstico capaz de activar selectivamente el proceso de apoptosis en células cancerígenas sin afectar a células sanas.
Resumo:
En este articulo se resumen las principales ideas relacionadas con la resolución de problemas elípticos mediante fórmulas de representación. El uso de una familia de funciones interpolantes jerarquizadas permite el establecimiento de un sistema de resolución autoadaptable a un nivel de exactitud prefijado. Se incluye también una comparación descriptiva con el método de los elementos finitos. La extracción de una mejor solución sin refinar la malla se obtiene en el Método de los Elementos de Contorno, gracias a la aplicación de la fórmula de representación para puntos de contorno. Ello permite diseñar una estrategia de indicadores y estimadores que mejora la eficacia de intentos anteriores y permite controlar el desarrollo de la solución tanto en las versiones p como en la h o mixtos.
Resumo:
En este artículo se resumen las principales ideas relacionadas con la resolución de problemas elípticos mediante fórmulas de representación. El uso de una familia de funciones interpolantes jerarquizadas permite el establecimiento de un sistema de resolución autoadaptable a un nivel de exactitud prefijado. Se incluye también una comparación descriptiva con el método de los elementos finitos.
Resumo:
El comportamiento mecánico del hormigón sigue siendo un problema no resuelto en cuanto a la modelización según las teorias de la mecánica del continuo, a pesar de tratarse de un material ampliamente extendido en su uso. Una de las facetas más caracteristicas de su comportamiento, la fisuración, representa tal vez el aspecto más dificil de tratar en los modelos bi y tridimensionales. En este articulo se describe un modelo propuesto de comportamiento que salva el compromiso entre complejidad y aplicabilidad: La fisuración es considerada como un deterioro del material -daño, tal vez- y su orientación no es registrada en la historia; al igual que ocurre en la Teoria de la Plasticidad, existe un trabajo de fisuración que sirve para medir el deterioro existente. El modelo es además compatible con la plasticidad como tal, tipica del comportamiento a compresión del hormigón. Dicho modelo, junto con una versión modificada del método de longitud de arco para resolución de problemas no lineales, es implementado y utilizado para la resolución de algunos ejemplos.
Resumo:
La propuesta de unión y trabajo colectivo es una característica frecuente en proyectos de desarrollo rural. Sin embargo, el proceso por el cual las personas asumen sus ventajas no siempre es exitoso, y al terminar el proyecto se vuelve a la situación de partida. La facilitación estimula la acción colectiva a través de la adquisición de habilidades y actitudes personales desempeñadas en un grupo de trabajo. Además de la realización de una tarea común, la facilitación pretende crear relaciones y vínculos de confianza en el grupo, que permitan a sus componentes actuar conjuntamente en la resolución de problemas. Este proceso ha sido estudiado en cuatro grupos de trabajo creados desde diferentes proyectos de la provincia de Cuenca, España. A través del análisis de los grupos, se ha identificado el papel de líder que el facilitador tiene en las fases iniciales de formación del grupo. Durante el desarrollo del trabajo en grupo, las personas afirman haber adquirido competencias necesarias para la continuidad del trabajo conjunto cuando el proyecto y el facilitador desaparecen. Sin embargo en otros casos, estas competencias no se traspasan adecuadamente dificultando la sostenibilidad del grupo.
Resumo:
La Teoría de Plasticidad es el nombre con que se designa a_ la disciplina de la Física que estudia el estado de un cuerpo deformado irreversiblemente, constituyendo la continuación de la bien establecida "Teoría de la Elasticidad". La Teoría de Plasticidad tiene como punto de partida los resultados experimentales sobre el comportamiento macroscópico de materiales sometidos a deformación, principalmente metales, y como objetivos fundamentales de la Teoría: primero, proveer de una descripción de las relaciones tensión-deformación para un material que se encuentra en estado elastoplástico, que explique en la forma mas aproximada posible los resultados experimentales, y segundo desarrollar técnicas de solución para la consecución de la distribución de tensiones en cuerpos permanentemente deformados. En definitiva, el comportamiento plástico de un material está caracterizado por una deformación, en parte irreversible, independiente del tiempo, que comienza a plantearse sólo cuando se ha - conseguido un cierto "nivel de tensión" determinado, nivel que puede variar con el estado de deformación inicial del material, de acuerdo con los resultados experimentales (efecto Bauschinger y endurecimiento por deformación). De acuerdo con ello, en general, son necesarios cuatro requisitos para la formación de una teoría que modele la deformación elastoplástica. Estos son: 1) .- Unas relaciones explícitas entre cargas, tensiones, deformaciones y movimientos que describan el comportamiento del material bajo condiciones elásticas, es decir antes del comienzo de la deformación,plástica. Estas relaciones se plantearán en el primer capítulo. 2) .- Un criterio de plastificación que defina los límites del comportamiento elástico, indicando el nivel de tensión a partir del cual comienza el flujo plástico. Algunos de estos criterios y su definición matemática se plantearán en el capítulo II. 3) .- Una relación entre tensión y deformación después del comienzo del flujo plástico, es decir cuando las deformaciones tienen ambas componentes,elástica y plástica. Este será el objeto del capítulo III. 4).- Un criterio de endurecimiento por deformación que defina la variación de la tensión de límite elástico. Varios de estos criterios se verán en los capítulos IV y V. Una vez establecida la Teoría se realizarán una serie de aplicaciones importantes a materiales especiales como son el suelo (capítulo VII) y hormigón (capítulo VIII), para terminar con el estudio de algunos métodos de resolución de problemas plásticos con ordenador (F.E.M y B.I.E.M) en los últimos capítulos. Citaremos a continuación, muy brevemente, las hipótesis que se plantean en las teorías de plasticidad más comunes, y que se tendrán en cuenta a partir de ahora, siempre que específicamente no se indique lo contrario. a).- Isotropía del material: Las propiedades de éste no varían con la dirección; b) .- Incompresibilidad debido a las dsformaciones plásticas: No hay cambio de volumen como consecuencia de las deformaciones plásticas; e).- Las deformaciones elásticas son pequeñas comparadas con las deformaciones plásticas. Por último, y a título de comentario, diremos que en realidad es absolutamente falso el referirse a "la" Teoría de la Plasticidad, ya que existen varias de estas teorías, y más aún, una multiplicidad enorme en la forma de aplicarlas a los distintos problemas. En cuanto a la resolución de problemas en régimen plástico, y si bien hasta hace relativamente poco tiempo la forma usual de resolver problemas de este tipo era a través de la teoría de líneas de deslizamiento, ya hoy se han desarrollado una gran cantidad de técnicas numéricas, encaminadas a la resolución de problemas con ordenador, siendo naturalmente, ésta última línea más moderna la que se seguirá en los siguientes capítulos. Para empezar, se dará una breve reseña histórica del desarrollo de las teorías de plasticidad, para pasar en el resto del capítulo, a recordar la forma, que para el medio contínuo ideal, tienen las leyes del movimiento, así como los artificios que permiten hablar de esfuerzos interiores al medio en estudio y fijar su solución espacio-temporal, para un material elástico, como una introducción fundamental al estado plástico, y que al mismo tiempo puede servir como índice de la notación a utilizar en el resto.
Resumo:
Esta tesis constituye un gran avance en el conocimiento del estudio y análisis de inestabilidades hidrodinámicas desde un punto de vista físico y teórico, como consecuencia de haber desarrollado innovadoras técnicas para la resolución computacional eficiente y precisa de la parte principal del espectro correspondiente a los problemas de autovalores (EVP) multidimensionales que gobiernan la inestabilidad de flujos con dos o tres direcciones espaciales inhomogéneas, denominados problemas de estabilidad global lineal. En el contexto del trabajo de desarrollo de herramientas computacionales presentado en la tesis, la discretización mediante métodos de diferencias finitas estables de alto orden de los EVP bidimensionales y tridimensionales que se derivan de las ecuaciones de Navier-Stokes linealizadas sobre flujos con dos o tres direcciones espaciales inhomogéneas, ha permitido una aceleración de cuatro órdenes de magnitud en su resolución. Esta mejora de eficiencia numérica se ha conseguido gracias al hecho de que usando estos esquemas de diferencias finitas, técnicas eficientes de resolución de problemas lineales son utilizables, explotando el alto nivel de dispersión o alto número de elementos nulos en las matrices involucradas en los problemas tratados. Como más notable consecuencia cabe destacar que la resolución de EVPs multidimensionales de inestabilidad global, que hasta la fecha necesitaban de superordenadores, se ha podido realizar en ordenadores de sobremesa. Además de la solución de problemas de estabilidad global lineal, el mencionado desarrollo numérico facilitó la extensión de las ecuaciones de estabilidad parabolizadas (PSE) lineales y no lineales para analizar la inestabilidad de flujos que dependen fuertemente en dos direcciones espaciales y suavemente en la tercera con las ecuaciones de estabilidad parabolizadas tridimensionales (PSE-3D). Precisamente la capacidad de extensión del novedoso algoritmo PSE-3D para el estudio de interacciones no lineales de los modos de estabilidad, desarrollado íntegramente en esta tesis, permite la predicción de transición en flujos complejos de gran interés industrial y por lo tanto extiende el concepto clásico de PSE, el cuál ha sido empleado exitosamente durante las pasadas tres décadas en el mismo contexto para problemas de capa límite bidimensional. Típicos ejemplos de flujos incompresibles se han analizado en este trabajo sin la necesidad de recurrir a restrictivas presuposiciones usadas en el pasado. Se han estudiado problemas vorticales como es el caso de un vórtice aislado o sistemas de vórtices simulando la estela de alas, en los que la homogeneidad axial no se impone y así se puede considerar la difusión viscosa del flujo. Además, se ha estudiado el chorro giratorio turbulento, cuya inestabilidad se utiliza para mejorar las características de funcionamiento de combustores. En la tesis se abarcan adicionalmente problemas de flujos compresibles. Se presenta el estudio de inestabilidad de flujos de borde de ataque a diferentes velocidades de vuelo. También se analiza la estela formada por un elemento rugoso aislado en capa límite supersónica e hipersónica, mostrando excelentes comparaciones con resultados obtenidos mediante simulación numérica directa. Finalmente, nuevas inestabilidades se han identificado en el flujo hipersónico a Mach 7 alrededor de un cono elíptico que modela el vehículo de pruebas en vuelo HIFiRE-5. Los resultados comparan favorablemente con experimentos en vuelo, lo que subraya aún más el potencial de las metodologías de análisis de estabilidad desarrolladas en esta tesis. ABSTRACT The present thesis constitutes a step forward in advancing the frontiers of knowledge of fluid flow instability from a physical point of view, as a consequence of having been successful in developing groundbreaking methodologies for the efficient and accurate computation of the leading part of the spectrum pertinent to multi-dimensional eigenvalue problems (EVP) governing instability of flows with two or three inhomogeneous spatial directions. In the context of the numerical work presented in this thesis, the discretization of the spatial operator resulting from linearization of the Navier-Stokes equations around flows with two or three inhomogeneous spatial directions by variable-high-order stable finite-difference methods has permitted a speedup of four orders of magnitude in the solution of the corresponding two- and three-dimensional EVPs. This improvement of numerical performance has been achieved thanks to the high-sparsity level offered by the high-order finite-difference schemes employed for the discretization of the operators. This permitted use of efficient sparse linear algebra techniques without sacrificing accuracy and, consequently, solutions being obtained on typical workstations, as opposed to the previously employed supercomputers. Besides solution of the two- and three-dimensional EVPs of global linear instability, this development paved the way for the extension of the (linear and nonlinear) Parabolized Stability Equations (PSE) to analyze instability of flows which depend in a strongly-coupled inhomogeneous manner on two spatial directions and weakly on the third. Precisely the extensibility of the novel PSE-3D algorithm developed in the framework of the present thesis to study nonlinear flow instability permits transition prediction in flows of industrial interest, thus extending the classic PSE concept which has been successfully employed in the same context to boundary-layer type of flows over the last three decades. Typical examples of incompressible flows, the instability of which was analyzed in the present thesis without the need to resort to the restrictive assumptions used in the past, range from isolated vortices, and systems thereof, in which axial homogeneity is relaxed to consider viscous diffusion, as well as turbulent swirling jets, the instability of which is exploited in order to improve flame-holding properties of combustors. The instability of compressible subsonic and supersonic leading edge flows has been solved, and the wake of an isolated roughness element in a supersonic and hypersonic boundary-layer has also been analyzed with respect to its instability: excellent agreement with direct numerical simulation results has been obtained in all cases. Finally, instability analysis of Mach number 7 ow around an elliptic cone modeling the HIFiRE-5 flight test vehicle has unraveled flow instabilities near the minor-axis centerline, results comparing favorably with flight test predictions.
Resumo:
Los lenguajes de programación son el idioma que los programadores usamos para comunicar a los computadores qué queremos que hagan. Desde el lenguaje ensamblador, que traduce una a una las instrucciones que interpreta un computador hasta lenguajes de alto nivel, se ha buscado desarrollar lenguajes más cercanos a la forma de pensar y expresarse de los humanos. Los lenguajes de programación lógicos como Prolog utilizan a su vez el lenguaje de la lógica de 1er orden de modo que el programador puede expresar las premisas del problema que se quiere resolver sin preocuparse del cómo se va a resolver dicho problema. La resolución del problema se equipara a encontrar una deducción del objetivo a alcanzar a partir de las premisas y equivale a lo que entendemos por la ejecución de un programa. Ciao es una implementación de Prolog (http://www.ciao-lang.org) y utiliza el método de resolución SLD, que realiza el recorrido de los árboles de decisión en profundidad(depth-first) lo que puede derivar en la ejecución de una rama de busqueda infinita (en un bucle infinito) sin llegar a dar respuestas. Ciao, al ser un sistema modular, permite la utilización de extensiones para implementar estrategias de resolución alternativas como la tabulación (OLDT). La tabulación es un método alternativo que se basa en memorizar las llamadas realizadas y sus respuestas para no repetir llamadas y poder usar las respuestas sin recomputar las llamadas. Algunos programas que con SLD entran en un bucle infinito, gracias a la tabulación dán todas las respuestas y termina. El modulo tabling es una implementación de tabulación mediante el algoritmo CHAT. Esta implementación es una versión beta que no tiene implementado un manejador de memoria. Entendemos que la gestión de memoria en el módulo de tabling tiene gran importancia, dado que la resolución con tabulación permite reducir el tiempo de computación (al no repetir llamadas), aumentando los requerimientos de memoria (para guardar las llamadas y las respuestas). Por lo tanto, el objetivo de este trabajo es implementar un mecanismo de gestión de la memoria en Ciao con el módulo tabling cargado. Para ello se ha realizado la implementación de: Un mecanismo de captura de errores que: detecta cuando el computador se queda sin memoria y activa la reinicialización del sitema. Un procedimiento que ajusta los punteros del modulo de tabling que apuntan a la WAM tras un proceso de realojo de algunas de las áreas de memoria de la WAM. Un gestor de memoria del modulo de tabling que detecta c realizar una ampliación de las áreas de memoria del modulo de tabling, realiza la solicitud de más memoria y realiza el ajuste de los punteros. Para ayudar al lector no familiarizado con este tema, describimos los datos que Ciao y el módulo de tabling alojan en las áreas de memoria dinámicas que queremos gestionar. Los casos de pruebas desarrollados para evaluar la implementación del gestor de memoria, ponen de manifiesto que: Disponer de un gestor de memoria dinámica permite la ejecución de programas en un mayor número de casos. La política de gestión de memoria incide en la velocidad de ejecución de los programas. ---ABSTRACT---Programming languages are the language that programmers use in order to communicate to computers what we want them to do. Starting from the assembly language, which translates one by one the instructions to the computer, and arriving to highly complex languages, programmers have tried to develop programming languages that resemble more closely the way of thinking and communicating of human beings. Logical programming languages, such as Prolog, use the language of logic of the first order so that programmers can express the premise of the problem that they want to solve without having to solve the problem itself. The solution to the problem is equal to finding a deduction of the objective to reach starting from the premises and corresponds to what is usually meant as the execution of a program. Ciao is an implementation of Prolog (http://www.ciao-lang.org) and uses the method of resolution SLD that carries out the path of the decision trees in depth (depth-frist). This can cause the execution of an infinite searching branch (an infinite loop) without getting to an answer. Since Ciao is a modular system, it allows the use of extensions to implement alternative resolution strategies, such as tabulation (OLDT). Tabulation is an alternative method that is based on the memorization of executions and their answers, in order to avoid the repetition of executions and to be able to use the answers without reexecutions. Some programs that get into an infinite loop with SLD are able to give all the answers and to finish thanks to tabulation. The tabling package is an implementation of tabulation through the algorithm CHAT. This implementation is a beta version which does not present a memory handler. The management of memory in the tabling package is highly important, since the solution with tabulation allows to reduce the system time (because it does not repeat executions) and increases the memory requirements (in order to save executions and answers). Therefore, the objective of this work is to implement a memory management mechanism in Ciao with the tabling package loaded. To achieve this goal, the following implementation were made: An error detection system that reveals when the computer is left without memory and activate the reinizialitation of the system. A procedure that adjusts the pointers of the tabling package which points to the WAM after a process of realloc of some of the WAM memory stacks. A memory manager of the tabling package that detects when it is necessary to expand the memory stacks of the tabling package, requests more memory, and adjusts the pointers. In order to help the readers who are not familiar with this topic, we described the data which Ciao and the tabling package host in the dynamic memory stacks that we want to manage. The test cases developed to evaluate the implementation of the memory manager show that: A manager for the dynamic memory allows the execution of programs in a larger number of cases. Memory management policy influences the program execution speed.
Resumo:
El método de los elementos finitos ha encontrado numerosas aplicaciones en la resolución de problemas de tipo estructural. No obstante sus posibilidades son mucho más amplias, como se pone de manifiesto en la aplicación que en el siguiente artículo se hace de dicho método al trazado de carreteras, de interés en casos específicos, como el tratamiento de problemas de optimización.
Resumo:
Existen numerosas situaciones en la Técnica para las que es preciso resolver problemas de condiciones iniciales y contorno con una elevada exigencia de continuidad en las soluciones. Algunos ejemplos no exhaustivos se citan a continuación: flexión de vigas y placas en el análisis de las estructuras, problemas de láminas, topografía, trazado de vías de comunicación, definición geométrica de estructuras o reconocimiento caligráfico. Para ello se utilia el método de los elementos finitos que constituye en la actualidad una técnica matemática de discretización bien establecida . Su eficiencia se manifiesta en particular en la resolución de problemas de contorno planteados en su formulación débil y en los problemas de determinación de extrema les de funcionales.
Resumo:
Este artículo explora cómo se puede usar el aprendizaje por indagación en la enseñanza de las matemáticas. En las matemáticas hace años que se emplea bajo múltiples formas: aprendizaje por resolución de problemas, el método Moore, aprendizaje por proyectos, aprendizaje orientado al proceso, entre otros. En la música, a la luz de nuestro más leal conocimiento, parece que apenas está implantado.
Resumo:
El presente trabajo muestra los resultados de una investigación sobre el desarrollo y evaluación de competencias transversales en asignaturas obligatorias de matemáticas, en las titulaciones de grado de Informática en las universidades públicas españolas. Concretamente, se ha hecho una selección, basada en la literatura, de seis competencias genéricas y se ha analizado el tratamiento que se les da en las guías de aprendizaje de estas asignaturas. Como resultado del trabajo, se ha comprobado que efectivamente estas seis competencias tienen una presencia importante en las guías de aprendizaje analizadas y que la más tratada de ellas es la de Resolución de Problemas. También se ha comprobado que el 75% de las guías contemplan el uso de software matemático y plataformas virtuales y que prácticamente todas proponen actividades de evaluación distintas a los exámenes tradicionales, si bien éstos siguen teniendo un peso importante.
Resumo:
La implantación de los nuevos grados en la Universidad Politécnica de Madrid ha supuesto la reducción del número de créditos destinados a las asignaturas básicas. En las titulaciones anteriores se dedicaban numerosas horas prácticas de matemáticas a la resolución de problemas en el aula por parte de los alumnos, con el apoyo de profesores y materiales. Estas tutorías colectivas tienen difícil encaje en nuestras nuevas titulaciones, dado que las asignaturas de matemáticas no sólo se han reducido en número de créditos, sino que también se ha reducido el número de horas presenciales de trabajo de los alumnos para facilitar su aprendizaje autónomo. Nuestro objetivo es, pues, conciliar una disminución de las horas presenciales con el aprendizaje autónomo, manteniendo las clases participativas de titulaciones anteriores. Para ello, hemos recurrido a nuestra experiencia previa de la enseñanza no presencial: los Cursos Masivos Online en Abierto (MOOC). En ellos, la clase magistral se desmenuza en vídeos y presentaciones cortas, de unos pocos minutos de duración, las llamadas píldoras educativas, al final de las cuales el alumno tiene que responder a unas pocas preguntas que muestren que ha captado las ideas que se desea transmitir.
Resumo:
En este artículo se sintetizan avances en la literatura relacionados con demandas, precios y costes del agua en distintos sectores, y el papel que los métodos y modelos económicos pueden jugar en el diseño de instrumentos y políticas eficientes para la gestión del agua en el nuevo contexto institucional definido por la DMA. Se analiza de forma específica la contribución de la Economía en la gestión del agua en la agricultura y en el uso urbano, y los distintos métodos para determinar el valor económico del agua en el medio ambiente. Tras esto se presenta el estado del arte de modelos que integran oferta y demanda a escala de cuenca acoplando hidrología, gestión y economía (modelos hidroeconómicos), y diversas aplicaciones a la resolución de problemas de gestión de recursos hídricos. Concluimos con un análisis de tendencias y retos futuros en el papel de los modelos y el análisis económico en la gestión de los recursos hídricos.
Resumo:
Como ya es conocido, los profesores de Matemáticas utilizamos los ejemplos como recursos de aprendizaje para enseñar algún contenido matemático concreto, de modo que las generalizaciones y abstracciones sean más fácilmente entendidas por los alumnos, pasando de lo concreto a lo abstracto, como otra forma de enseñar y practicar en Matemáticas. Esta metodología de trabajo se ve potenciada por el uso de dispositivos móviles llamados mobile-learning (m-learning) o educación móvil (educación-m), en español. Siguiendo esta línea de trabajo, se ha realizado el workshop de cónicas que se presenta en este artículo, empleando estas nuevas tecnologías (TIC) y con el objetivo de desarrollar aprendizajes activos en Geometría a través de la resolución de problemas en los primeros cursos de Grado en las ingenierías. ABSTRACT: As it is already known, math teachers, use examples as learning resources, to teach some specific math contents, so that generalizations and abstractions are more easily understood by students, from concrete to abstract, as another way of Mathematics teaching and training. This methodology is enhanced by the use of mobile devices, called mobile-learning (m-learning) o “educación móvil” (educación-m), in Spanish. Following this strategy, the workshop of conic sections shown in this paper has been carried out, using these new technologies (ICT) and in order to develop active learning in Geometry through problem-solving at the first years of engineering degrees.