1000 resultados para secuencias didácticas
Resumo:
Fil: López, Aldana. Universidad Nacional de La Plata. Facultad de Humanidades y Ciencias de la Educación; Argentina.
Resumo:
En el séptimo trabajo de investigación, se intenta visibilizar las decisiones curriculares y las configuraciones didácticas que asumen los profesores expertos en las clases de Educación Física en la escuela secundaria. Compartimos con Litwin (2005), que en su intención de construir una didáctica desde la práctica, incorpora la idea de configuración, para el análisis de los problemas del conocimiento en el aula. "Configuración Didáctica es la manera particular que despliega el docente para favorecer los procesos de construcción del conocimiento". Desde esa perspectiva y con la intención de comprender estos procesos, se analiza la presencia de estilos, modos y códigos comunicacionales, relaciones vinculares y en síntesis, significados y sentidos que los docentes le imprimen a sus prácticas, al momento de enseñar Educación Física en la Escuela Secundaria. La intención de indagar en la tarea del docente; implica la observación de una multiplicidad de variables a través de las cuales, interviene sobre una realidad con la intención de enseñar. Y la razón de hacerlo, sería tratar de comprender la naturaleza de la acción pedagógica y el reconocimiento de la intencionalidad que supone la acción de enseñar
Resumo:
The important technological advances experienced along the last years have resulted in an important demand for new and efficient computer vision applications. On the one hand, the increasing use of video editing software has given rise to a necessity for faster and more efficient editing tools that, in a first step, perform a temporal segmentation in shots. On the other hand, the number of electronic devices with integrated cameras has grown enormously. These devices require new, fast, and efficient computer vision applications that include moving object detection strategies. In this dissertation, we propose a temporal segmentation strategy and several moving object detection strategies, which are suitable for the last generation of computer vision applications requiring both low computational cost and high quality results. First, a novel real-time high-quality shot detection strategy is proposed. While abrupt transitions are detected through a very fast pixel-based analysis, gradual transitions are obtained from an efficient edge-based analysis. Both analyses are reinforced with a motion analysis that allows to detect and discard false detections. This analysis is carried out exclusively over a reduced amount of candidate transitions, thus maintaining the computational requirements. On the other hand, a moving object detection strategy, which is based on the popular Mixture of Gaussians method, is proposed. This strategy, taking into account the recent history of each image pixel, adapts dynamically the amount of Gaussians that are required to model its variations. As a result, we improve significantly the computational efficiency with respect to other similar methods and, additionally, we reduce the influence of the used parameters in the results. Alternatively, in order to improve the quality of the results in complex scenarios containing dynamic backgrounds, we propose different non-parametric based moving object detection strategies that model both background and foreground. To obtain high quality results regardless of the characteristics of the analyzed sequence we dynamically estimate the most adequate bandwidth matrices for the kernels that are used in the background and foreground modeling. Moreover, the application of a particle filter allows to update the spatial information and provides a priori knowledge about the areas to analyze in the following images, enabling an important reduction in the computational requirements and improving the segmentation results. Additionally, we propose the use of an innovative combination of chromaticity and gradients that allows to reduce the influence of shadows and reflects in the detections.
Resumo:
En las últimas décadas, el cognitivismo ha realizado una importante contribución al desarrollo de las competencias comunicativas de los estudiantes de lenguas extranjeras. Por una parte, ha ofrecido un soporte teórico mediante la determinación de los estilos y de las estrategias de aprendizaje para obtener, almacenar y utilizar la información (O´Malley, 1987; Chamot, 1990; O´Malley y Chamot, 1990). Por otra, ha proporcionado pruebas empíricas de que la percepción de la metáfora tiene un efecto positivo en la adquisición de lenguas y facilita el empleo de estrategias de extensión metafórica (Low, 2008; Littlemore, 2004). Este estudio propone un marco teórico para mejorar el proceso de enseñanza/aprendizaje que combina ambos aspectos, ya que asume que la metáfora es un componente fundamental de la cognición que posibilita la integración de conceptos nuevos en campos de conocimiento ya existentes. Por ello, con el propósito de crear recursos didácticos en los que se apliquen estrategias metafóricas, se ha elaborado un listado de metáforas de imagen y de metáforas conceptuales tomadas de la base de datos METACITEC. Se presenta la propuesta metodológica validada por los resultados de encuestas y por la observación en el aula.
Resumo:
La escara miocárdica constituye el sustrato arritmogénico de los pacientes con TV isquémica. Los mapas de intensidad de señal (IS) obtenidos a partir de mágenes de realce tardío (RT) pueden ser una alternativa no invasiva a los mapas electroanatómicos para estudiar la arquitectura de la escara. El objetivo de este trabajo es describir las características de las escaras observadas en los pacientes (p) con TV isquémicas.
Resumo:
El Trabajo de Fin de Grado aborda el tema del Descubrimiento de Conocimiento en series numéricas temporales, abordando el análisis de las mismas desde el punto de vista de la semántica de las series. La gran mayoría de trabajos realizados hasta la fecha en el campo del análisis de series temporales proponen el análisis numérico de los valores de la serie, lo que permite obtener buenos resultados pero no ofrece la posibilidad de formular las conclusiones de forma que se puedan justificar e interpretar los resultados obtenidos. Por ello, en este trabajo se pretende crear una aplicación que permita realizar el análisis de las series temporales desde un punto de vista cualitativo, en contraposición al tradicional método cuantitativo. De esta forma, quedarán recogidos todos los elementos relevantes de la serie temporal que puedan servir de estudio en un futuro. Para abordar el objetivo propuesto se plantea un mecanismo para extraer de la serie temporal la información que resulta de interés para su análisis. Para poder hacerlo, primero se formaliza el conjunto de comportamientos relevantes del dominio, que serán los símbolos a mostrar en la salida de la aplicación. Así, el método que se ha diseñado e implementado transformará una serie temporal numérica en una secuencia simbólica que recoge toda la semántica de la serie temporal de partida y resulta más intuitiva y fácil de interpretar. Una vez que se dispone de un mecanismo para transformar las series numéricas en secuencias simbólicas, se pueden plantear todas las tareas de análisis sobre dichas secuencias de símbolos. En este trabajo, aunque no se entra en este post-análisis de estas series, sí se plantean distintos campos en los que se puede avanzar en el futuro. Por ejemplo, se podría hacer una medida de la similitud entre dos secuencias simbólicas como punto de partida para la tarea de comparación o la creación de modelos de referencia para análisis posteriores de las series temporales. ---ABSTRACT---This Final-year Project deals with the topic of Knowledge Discovery in numerical time series, addressing time series analysis from the viewpoint of the semantics of the series. Most of the research conducted to date in the field of time series analysis recommends analysing the values of the series numerically. This provides good results but prevents the conclusions from being formulated to allow justification and interpretation of the results. Thus, the purpose of this project is to create an application that allows the analysis of time series, from a qualitative point of view rather than a quantitative one. This way, all the relevant elements of the time series will be gathered for future studies. The design of a mechanism to extract the information that is of interest from the time series is the first step towards achieving the proposed objective. To do this, all the key behaviours in the domain are set, which will be the symbols shown in the output. The designed and implemented method transforms a numerical time series into a symbolic sequence that takes in all the semantics of the original time series and is more intuitive and easier to interpret. Once a mechanism for transforming the numerical series into symbolic sequences is created, the symbolic sequences are ready for analysis. Although this project does not cover a post-analysis of these series, it proposes different fields in which research can be done in the future. For instance, comparing two different sequences to measure the similarities between them, or the creation of reference models for further analysis of time series.
Resumo:
Our paper is a brief historical study of aqueous solutions of potassium iodide and iodine. It also analyzes why, in Biology and Medicine, these solutions are known as Lugol reactive. Moreover, we study their use for educational purposes to deepen in various topics such as redox reactions and the relationship between solubility and bond types.
Resumo:
Este Proyecto Fin de Carrera pretende desarrollar una serie de unidades didácticas orientadas a mejorar el aprendizaje de la teoría de procesado digital de señales a través de la aplicación práctica. Con tal fin, se han diseñado una serie de prácticas que permitan al alumno alcanzar un apropiado nivel de conocimiento de la asignatura, la adquisición de competencias y alcanzar los resultados de aprendizaje previstos. Para desarrollar el proyecto primero se ha realizado una selección apropiada de los contenidos de la teoría de procesado digital de señales en relación con los resultados de aprendizaje esperados, seguidamente se han diseñado y validado unas prácticas basadas en un entorno de trabajo basado en MATLAB y DSP, y por último se ha redactado un manual de laboratorio que combina una parte teórica con su práctica correspondiente. El objetivo perseguido con la realización de estas prácticas es alcanzar un equilibrio teórico/práctico que permita sacar el máximo rendimiento de la asignatura desde el laboratorio, trabajando principalmente con el IDE Code Composer Studio junto con un kit de desarrollo basado en un DSP. ABSTRACT. This dissertation intends to develop some lessons oriented to improve about the digital signal processing theory. In order to get this objective some practices have been developed to allow to the students to achieve an appropriate level of knowledge of the subject, acquire skills and achieve the intended learning outcomes. To develop the project firstly it has been made an appropriate selection of the contents of the digital signal processing theory related with the expected results. After that, five practices based in a work environment based on Matlab and DSP have been designed and validated, and finally a laboratory manual has been drafted that combines the theoretical part with its corresponding practice. The objective with the implementation of these practices is to achieve a theoretical / practical balance to get the highest performance to the subject from the laboratory working mainly with the Code Composer Studio IDE together a development kit based on DSP.
Resumo:
Este proyecto fín de carrera describe el desarrollo de un sistema de estimación de mapas de profundidad densos a partir de secuencias reales de vídeo 3D. Está motivado por la necesidad de utilizar la información de profundidad de un vídeo estéreo para calcular las oclusiones en el módulo de inserción de objetos sintéticos interactivos desarrollado en el proyecto ImmersiveTV. En el receptor 3DTV, el sistema debe procesar en tiempo real secuencias estéreo de escenas reales en alta resolución con formato Side-by-Side. Se analizan las características del contenido para conocer los problemas a enfrentar. Obtener un mapa de profundidad denso mediante correspondencia estéreo (stereo matching) permite calcular las oclusiones del objeto sintético con la escena. No es necesario que el valor de disparidad asignado a cada píxel sea preciso, basta con distinguir los distintos planos de profundidad ya que se trabaja con distancias relativas. La correspondencia estéreo exige que las dos vistas de entrada estén alineadas. Primero se comprueba si se deben rectificar y se realiza un repaso teórico de calibración y rectificación, resumiendo algunos métodos a considerar en la resolución del problema. Para estimar la profundidad, se revisan técnicas de correspondencia estéreo densa habituales, seleccionando un conjunto de implementaciones con el fin de valorar cuáles son adecuadas para resolver el problema, incluyendo técnicas locales, globales y semiglobales, algunas sobre CPU y otras para GPU; modificando algunas para soportar valores negativos de disparidad. No disponer de ground truth de los mapas de disparidad del contenido real supone un reto que obliga a buscar métodos indirectos de comparación de resultados. Para una evaluación objetiva, se han revisado trabajos relacionados con la comparación de técnicas de correspondencia y entornos de evaluación existentes. Se considera el mapa de disparidad como error de predicción entre vistas desplazadas. A partir de la vista derecha y la disparidad de cada píxel, puede reconstruirse la vista izquierda y, comparando la imagen reconstruida con la original, se calculan estadísticas de error y las tasas de píxeles con disparidad inválida y errónea. Además, hay que tener en cuenta la eficiencia de los algoritmos midiendo la tasa de cuadros por segundo que pueden procesar. Observando los resultados, atendiendo a los criterios de maximización de PSNR y minimización de la tasa de píxeles incorrectos, se puede elegir el algoritmo con mejor comportamiento. Como resultado, se ha implementado una herramienta que integra el sistema de estimación de mapas de disparidad y la utilidad de evaluación de resultados. Trabaja sobre una imagen, una secuencia o un vídeo estereoscópico. Para realizar la correspondencia, permite escoger entre un conjunto de algoritmos que han sido adaptados o modificados para soportar valores negativos de disparidad. Para la evaluación, se ha implementado la reconstrucción de la vista de referencia y la comparación con la original mediante el cálculo de la RMS y PSNR, como medidas de error, además de las tasas de píxeles inválidos e incorrectos y de la eficiencia en cuadros por segundo. Finalmente, se puede guardar las imágenes (o vídeos) generados como resultado, junto con un archivo de texto en formato csv con las estadísticas para su posterior comparación.
Resumo:
In this paper the first stage of implementation of digital content is presented through a website, that includes OS issues. Currently students at the Technological University of the Valle of Toluca (UTVT) represents a high degree of learning difficulty in this area. Then academic staff develops this project, in collaboration with the Technological University of the Suroeste of Guanajuato (UTSOE), which aims to improve the teaching-learning and make teaching practices incorporating TIC provide students with a tool to promote their interest. Through the interactivity offered by the web, the student to achieve strengthening further their knowledge and actively participate, which has easy access to information, where distance and time is not a constraint, in addition to have an effective view of the concepts needed to acquire the skills and the ability to self-regulate their learning. For the development of project is used methodologies of the software engineering and technologies web for design.
Resumo:
El accidente de pérdida de refrigerante (LOCA) en un reactor nuclear es uno de los accidentes Base de Diseño más preocupantes y estudiados desde el origen del uso de la tecnología de fisión en la industria productora de energía. El LOCA ocupa, desde el punto de vista de los análisis de seguridad, un lugar de vanguardia tanto en el análisis determinista (DSA) como probabilista (PSA), cuya diferenciada perspectiva ha ido evolucionando notablemente en lo que al crédito a la actuación de las salvaguardias y las acciones del operador se refiere. En la presente tesis se aborda el análisis sistemático de de las secuencias de LOCA por pequeña y mediana rotura en diferentes lugares de un reactor nuclear de agua a presión (PWR) con fallo total de Inyección de Seguridad de Alta Presión (HPSI). Tal análisis ha sido desarrollado en base a la metodología de Análisis Integrado de Seguridad (ISA), desarrollado por el Consejo de Seguridad Nuclear (CSN) y consistente en la aplicación de métodos avanzados de simulación y PSA para la obtención de Dominios de Daño, que cuantifican topológicamente las probabilidades de éxito y daño en función de determinados parámetros inciertos. Para la elaboración de la presente tesis, se ha hecho uso del código termohidráulico TRACE v5.0 (patch 2), avalado por la NRC de los EEUU como código de planta para la simulación y análisis de secuencias en reactores de agua ligera (LWR). Los objetivos del trabajo son, principalmente: (1) el análisis exhaustivo de las secuencias de LOCA por pequeña-mediana rotura en diferentes lugares de un PWR de tres lazos de diseño Westinghouse (CN Almaraz), con fallo de HPSI, en función de parámetros de gran importancia para los transitorios, tales como el tamaño de rotura y el tiempo de retraso en la respuesta del operador; (2) la obtención y análisis de los Dominios de Daño para transitorios de LOCA en PWRs, de acuerdo con la metodología ISA; y (3) la revisión de algunos de los resultados genéricos de los análisis de seguridad para secuencias de LOCA en las mencionadas condiciones. Los resultados de la tesis abarcan tres áreas bien diferenciadas a lo largo del trabajo: (a) la fenomenología física de las secuencias objeto de estudio; (b) las conclusiones de los análisis de seguridad practicados a los transitorios de LOCA; y (c) la relevancia de las consecuencias de las acciones humanas por parte del grupo de operación. Estos resultados, a su vez, son de dos tipos fundamentales: (1) de respaldo del conocimiento previo sobre el tipo de secuencias analizado, incluido en la extensa bibliografía examinada; y (2) hallazgos en cada una de las tres áreas mencionadas, no referidos en la bibliografía. En resumidas cuentas, los resultados de la tesis avalan el uso de la metodología ISA como método de análisis alternativo y sistemático para secuencias accidentales en LWRs. ABSTRACT The loss of coolant accident (LOCA) in nuclear reactors is one of the most concerning and analized accidents from the beginning of the use of fission technology for electric power production. From the point of view of safety analyses, LOCA holds a forefront place in both Deterministic (DSA) and Probabilistic Safety Analysis (PSA), which have significantly evolved from their original state in both safeguard performance credibility and human actuation. This thesis addresses a systematic analysis of small and medium LOCA sequences, in different places of a nuclear Pressurized Water Reactor (PWR) and with total failure of High Pressure Safety Injection (HPSI). Such an analysis has been grounded on the Integrated Safety Assessment (ISA) methodology, developed by the Spanish Nuclear Regulatory Body (CSN). ISA involves the application of advanced methods of simulation and PSA for obtaining Damage Domains that topologically quantify the likelihood of success and damage regarding certain uncertain parameters.TRACE v5.0 (patch 2) code has been used as the thermalhydraulic simulation tool for the elaboration of this work. Nowadays, TRACE is supported by the US NRC as a plant code for the simulation and analysis of sequences in light water reactors (LWR). The main objectives of the work are the following ones: (1) the in-depth analysis of small and medium LOCA sequences in different places of a Westinghouse three-loop PWR (Almaraz NPP), with failed HPSI, regarding important parameters, such as break size or delay in operator response; (2) obtainment and analysis of Damage Domains related to LOCA transients in PWRs, according to ISA methodology; and (3) review some of the results of generic safety analyses for LOCA sequences in those conditions. The results of the thesis cover three separated areas: (a) the physical phenomenology of the sequences under study; (b) the conclusions of LOCA safety analyses; and (c) the importance of consequences of human actions by the operating crew. These results, in turn, are of two main types: (1) endorsement of previous knowledge about this kind of sequences, which is included in the literature; and (2) findings in each of the three aforementioned areas, not reported in the reviewed literature. In short, the results of this thesis support the use of ISA-like methodology as an alternative method for systematic analysis of LWR accidental sequences.
Resumo:
Este trabajo presenta el desarrollo de una aplicación destinada al análisis de secuencias de imágenes para la detección de movimiento en la escena. Se trata de un campo importante de la Visión Artificial, con múltiples aplicaciones entre las que se encuentra la videovigilancia con fines de seguridad, el control de tráfico, el movimiento de personas o el seguimiento y localización de objetos entre otras muchas. Para ello se utilizan métodos de análisis como son el de Lucas-Kanade y Gauss-Seidel, que obtienen el denominado flujo óptico. Este describe el movimiento que ha tenido lugar entre las imágenes y su fundamento estriba en la determinación de las variables espaciales y temporales en las imágenes, siendo precisamente la variable temporal la que introduce el concepto fundamental para el análisis del movimiento a partir de las imágenes captadas en diferentes instantes de tiempo dentro de la secuencia analizada. Para el desarrollo de la aplicación se han utilizado técnicas propias del tratamiento de la Visión Artificial, así como la metodología proporcionada por la Ingeniería del Software. Así, se ha realizado una especificación de requisitos, se ha elaborado y seguido un plan de proyecto y se ha realizado un análisis de alto nivel, que se materializa en el correspondiente diseño e implementación, junto con las pruebas de verificación y validación, obviamente adaptados en todos los casos a las dimensiones del proyecto, pero que establecen claramente los planteamientos básicos para el desarrollo de una aplicación a nivel empresarial. La aplicación planteada se enmarca perfectamente dentro del paradigma, hoy en día en pleno auge, conocido como el Internet de las Cosas (IoT). El IoT permite la intercomunicación entre dispositivos remotos, de forma que mediante la correspondiente comunicación a través de conexiones a Internet es posible obtener datos remotos para su posterior análisis, bien en nodos locales o en la nube, como concepto íntimamente relacionado con el IoT. Este es el caso de la aplicación que se presenta, de suerte que los métodos de procesamiento de las imágenes pueden aplicarse localmente o bien transmitir las mismas para su procesamiento en nodos remotos.
Resumo:
Este artículo analiza diferentes experiencias docentes que tienen como finalidad el aprendizaje de la robótica en el mundo universitario. Estas experiencias se plasman en el desarrollo de varios cursos y asignaturas sobre robótica que se imparten en la Universidad de Alicante. Para el desarrollo de estos cursos, los autores han empleado varias plataformas educativas, algunas de implementación propia, otras de libre distribución y código abierto. El objetivo de estos cursos es enseñar el diseño e implementación de soluciones robóticas a diversos problemas que van desde el control, programación y manipulación de brazos robots de ámbito industrial hasta la construcción y/o programación de mini-robots con carácter educativo. Por un lado, se emplean herramientas didácticas de última generación como simuladores y laboratorios virtuales que flexibilizan el uso de brazos robots y, por otro lado, se hace uso de competiciones y concursos para motivar al alumno haciendo que ponga en práctica las destrezas aprendidas, mediante la construcción y programación de mini-robots de bajo coste.
Resumo:
El alarmante descenso del número de alumnos que estudian química en bachillerato hace necesaria la búsqueda de herramientas para recuperar los niveles de finales de la pasada década. Los autores proponen algunas estrategias, aplicables en todos los niveles de enseñanza no universitaria, que van desde experiencias de laboratorio para alumnos de primaria, hasta la creación de una serie de personajes de ficción, que intervienen en los enunciados de los problemas de química, poner a disposición de los alumnos colecciones de problemas resueltos y la participación en pruebas como las olimpiadas de química.
Resumo:
En el presente trabajo se muestran los resultados obtenidos a partir de una metodología de seguimiento de poblaciones de flora rara, endémica o amenazada –concretamente la cistácea Helianthemum caput-felis Boiss. en el litoral sur de la provincia de Alicante- con el fin de constatar extinciones recientes de estas especies mediante la utilización combinada de Sistemas de Información Geográfica (SIG), Sistemas de Posicionamiento Global (GPS) y la aplicación Google Earth. Finalmente se reflexiona, a partir de la experiencia de trabajo con la especie referida, sobre las ventajas que puede significar esta última aplicación a la hora de difundir los datos y facilitar así la gestión y conservación de la flora y sus hábitats.