851 resultados para Tematización de un esquema
Resumo:
El presente trabajo surge en el marco de la labor que vengo desarrollando en el espacio del Curso Introductorio a las Carreras de Psicología de la Facultad de Psicología de la Universidad Nacional de La Plata, particularmente desde el año 2007 a la fecha. La propuesta toma como ejes centrales el abordaje del conocimiento psicológico desde una perspectiva histórica y el trabajo grupal como estrategia de enseñanza, aprendizaje y formación. La organización y desarrollo del curso conlleva la configuración de un dispositivo de formación que propicia el desarrollo profesional docente tanto de los Licenciados y/o Profesores en Psicología que asumen el rol de profesores como de los estudiantes avanzados de las carreras que se incorporan al mismo en calidad de ayudantes alumnos. Se considera que las instancias contempladas en ese dispositivo favorecen los procesos de reflexión sobre la experiencia, necesarios en la construcción del conocimiento profesional. Esto implica pensar que la profesionalización, en el caso del docente universitario, requiere no sólo la preparación en relación a los conocimientos disciplinares sino también la apropiación de conocimientos pedagógicos que le permitan analizar sus propias prácticas y mejorarlas. Entre las actividades contempladas para ello se proponen: encuentros sistemáticos del equipo docente, trabajo en colaboración entre profesores y ayudantes alumnos en torno a la planificación y desarrollo de la enseñanza, autoevaluación de las propias prácticas. Respecto a ésta última, cada año se solicita a cada integrante del equipo docente, que elabore una reflexión escrita, una narrativa en la que delimite los obstáculos enfrentados a la hora de asumir y desempeñar el rol docente, los modos de abordaje y/o superación de los mismos y la identificación de los aspectos facilitadores. Ello bajo el supuesto de que dicha actividad posibilita la presentación y representación narrada de la propia experiencia, permitiendo una toma de distancia que da lugar a la asunción de una posición más crítica, en un proceso de reconstrucción de las formas de actuar y ser en el aula. En esta oportunidad me centraré en la experiencia de tres docentes, con diferentes trayectorias en el marco del Curso Introductorio, focalizando en las narrativas que a modo de autoevaluación elaboraron tras el desarrollo del Curso 2011. La metodología corresponde al enfoque cualitativo e incorpora aspectos que hacen tanto a los diseños narrativos (recolección de experiencias para su análisis) como a la investigación-acción (resolución de problemas concretos y mejoramiento de las prácticas). La autoevaluación permite tomar distancia de la práctica para trabajar sobre ella. Dicha actividad da cuenta, por un lado de la capacidad de objetivar las acciones realizadas, focalizando en las posibilidades y limitaciones al tiempo que evidencia la posición asumida por el docente en relación a la misma (Palou de Maté, 1998). La posibilidad de volver sobre los episodios protagonizados en situación de enseñar, a partir de: una preocupación, una duda, la identificación con lo que le sucedió a un compañero, la elaboración de una respuesta a la consigna propuesta para la autoevaluación, abre a la posibilidad de que la propia práctica se constituya en objeto de reflexión. La problematización, tematización y significación producto de la objetivación de las propias prácticas, potenciadas en el espacio de trabajo grupal, promueven la articulación e integración de saberes y por ende el desarrollo profesional docente
Resumo:
En esta Tesis Doctoral se aborda la utilización de filtros de difusión no lineal para obtener imágenes constantes a trozos como paso previo al proceso de segmentación. En una primera parte se propone un formulación intrínseca para la ecuación de difusión no lineal que proporcione las condiciones de diseño necesarias sobre los filtros de difusión. A partir del marco teórico propuesto, se proporciona una nueva familia de difusividades; éstas son obtenidas a partir de técnicas de difusión no lineal relacionadas con los procesos de difusión regresivos. El objetivo es descomponer la imagen en regiones cerradas que sean homogéneas en sus niveles de grises sin contornos difusos. Asimismo, se prueba que la función de difusividad propuesta satisface las condiciones de un correcto planteamiento semi-discreto. Esto muestra que mediante el esquema semi-implícito habitualmente utilizado, realmente se hace un proceso de difusión no lineal directa, en lugar de difusión inversa, conectando con proceso de preservación de bordes. Bajo estas condiciones establecidas, se plantea un criterio de parada para el proceso de difusión, para obtener imágenes constantes a trozos con un bajo coste computacional. Una vez aplicado todo el proceso al caso unidimensional, se extienden los resultados teóricos, al caso de imágenes en 2D y 3D. Para el caso en 3D, se detalla el esquema numérico para el problema evolutivo no lineal, con condiciones de contorno Neumann homogéneas. Finalmente, se prueba el filtro propuesto para imágenes reales en 2D y 3D y se ilustran los resultados de la difusividad propuesta como método para obtener imágenes constantes a trozos. En el caso de imágenes 3D, se aborda la problemática del proceso previo a la segmentación del hígado, mediante imágenes reales provenientes de Tomografías Axiales Computarizadas (TAC). En ese caso, se obtienen resultados sobre la estimación de los parámetros de la función de difusividad propuesta. This Ph.D. Thesis deals with the case of using nonlinear diffusion filters to obtain piecewise constant images as a previous process for segmentation techniques. I have first shown an intrinsic formulation for the nonlinear diffusion equation to provide some design conditions on the diffusion filters. According to this theoretical framework, I have proposed a new family of diffusivities; they are obtained from nonlinear diffusion techniques and are related with backward diffusion. Their goal is to split the image in closed contours with a homogenized grey intensity inside and with no blurred edges. It has also proved that the proposed filters satisfy the well-posedness semi-discrete and full discrete scale-space requirements. This shows that by using semi-implicit schemes, a forward nonlinear diffusion equation is solved, instead of a backward nonlinear diffusion equation, connecting with an edgepreserving process. Under the conditions established for the diffusivity and using a stopping criterion I for the diffusion time, I have obtained piecewise constant images with a low computational effort. The whole process in the one-dimensional case is extended to the case where 2D and 3D theoretical results are applied to real images. For 3D, develops in detail the numerical scheme for nonlinear evolutionary problem with homogeneous Neumann boundary conditions. Finally, I have tested the proposed filter with real images for 2D and 3D and I have illustrated the effects of the proposed diffusivity function as a method to get piecewise constant images. For 3D I have developed a preprocess for liver segmentation with real images from CT (Computerized Tomography). In this case, I have obtained results on the estimation of the parameters of the given diffusivity function.
Resumo:
El peaje urbano ha demostrado ser una de las medidas más efectivas a la hora de promover un cambio en el reparto modal, como ha quedado demostrado en diversas ciudades como Londres o Estocolmo. Los efectos, no obstante, son muy diferentes según el esquema de peaje implantado, pudiendo incluso provocar efectos adversos en algunas zonas. En el contexto de las políticas de tarificación de carreteras, el peaje urbano debe ser tratado de forma diferente debido a sus características específicas. Las áreas urbanas y metropolitanas son las más afectadas por la congestión, y a su vez son dónde se realizan la mayor parte de los desplazamientos diarios, muy sensibles a la implantación de un peaje debido a su frecuencia. En este caso, se ha definido una metodología para analizar la implantación de un peaje urbano tipo cordón en la ciudad de Madrid. Para ello, se ha utilizado un modelo de transporte que comprende toda la región de Madrid, tanto la red viaria como la red de transporte público, lo cual permite analizar los efectos no sólo en el área de estudio sino en el conjunto de la región. Los resultados se han analizado en términos del cambio modal, tiempo de viaje y coste para los usuarios.
Resumo:
Se presentan las mejoras introducidas en un código de transporte de radiación acoplada a la hidrodinámica llamado ARWEN para el estudio de sistemas en el rango de física de alta densidad de energía (High Energy Density Physics). Los desarrollos introducidos se basan en las siguientes áreas: ít>,~ Ecuaciones de estado: se desarrolla una nueva metodología mediante la cual es posible ajustar los resultados de un modelo simple de ecuaciones de estado como QEOS a datos experimentales y resultados de AIMD. Esta metodología tiene carácter general para poder ser aplicada en gran cantidad de materuales de interés y amplia la flexibilidad de ajuste de los métodos de los que ha partido como base este trabajo. En segundo lugar, se ha desarrollado una librería para la gestión de tablas de datos de ecuaciones de estado que también incluye la gestión de tablas con datos de opacidades y de ionización. Esta nueva librería extiende las capacidades de la anterior al tener llamadas más específicas que aceleran los cálculos, y posibilidad de uso de varias tablas a la vez. Solver de difusión: se ha desarrollado un nuevo paquete para resolver la ecuación de difusión que se aplicará a la conducción de calor dentro del plasma. El método anterior no podía ser ejecutado en paralelo y producía resultados dependientes de la resolución de la malla, mientras que este método es paralelizable y además obtiene una solución con mejor convergencia, lo que supone una solución que no depende del refinamiento del mallado. Revisión del paquete de radiación: en primer lugar se ha realizado una revisión de la implementación del modelo de radiación descubriendo varios errores que han sido depurados. También se ha incluido la nueva librería de gestión de tablas de opacidades que permiten la obtención de las propiedades ópticas del plasma en multigrupos de energía. Por otra parte se ha extendido el cálculo de los coeficientes de transporte al esquema multimaterial que ha introducido David Portillo García en el paquete hidrodinámico del código de simulación. Por último se ha revisado el esquema de resolución del transporte y se ha modificado para hacerlo paralelizable. • Se ha implementado un paquete de trazado de rayos para deposición láser que extiende la utilidad del anterior al ser en 3D y poder utilizar entonces diferentes configuraciones. • Una vez realizadas todas estas tareas se ha aplicado el código ARWEN al estudio de la astrofísica de laboratorio simulando los experimentos llevados a cabo en la instalación PALS por Chantal Stehlé acerca de ondas de choque radiativas. Se han comparado los resultados experimentales frente a las predicciones del código ARWEN obteniéndose una gran concordancia en la velocidad de la onda de choque generada y en las dimensiones del precursor. El código de simulación sobre el que se ha trabajado, junto con los desarrollos aportados por otros investigadores durante la realización de esta tesis, ha permitido participar en colaboraciones con laboratorios de Francia o Japón y se han producido resultados científicos publicados basados en el trabajo descrito en esta tesis. ABSTRACT Improvements in radiation hydrodynamic code ARWEN for the study of systems in the range of physics high energy density (High Energy Density Physics) are presented. The developments introduced are based on the following áreas: • Equations of state: a new methodology was developed to adjust the results of a simple Equation of State model like QEOS to experimental data and results of AIMD. This methodology can be applied to a large amount of materials and it increases the flexibility and range of the previous methods used as basis for this work. Also a new computer library has been developed to manage data tables of thermodynamic properties as well as includes the management of opacity and ionization data tables. This new library extends the capabilities of the previous one with more specific routines, and the possibility of using múltiple tables for several materials. • Diffusion solver: a new package has been developed to solve the diffusion equation applied to the heat conduction of the plasma. The previous method is not parallelizable and it produced mesh dependent results, while this new package can be executed in parallel and achieves a more converged solution that does not depend on the refinement of the mesh. • Radiation package: the check of the radiation model rose several bugs in the implementation that had been removed. The new computer library for EOS managing includes capabilities to store opacity tables for multigroups of energy. Moreover the transport coefficients calculations have been extended for the new multimaterial hydrodynamic package developed by David Portillo García. Also the solving methodology for the transport equation has been modified to make the code run in parallel. • A new ray tracing package has been introduced to extend the previous one to 3D. Once all these tasks has been implemented, the ARWEN code has been applied to study laboratory astrophysics systems. Simulations have been done in order to reproduce the results of the experiments carried out in PALS facility by Chantal Stehlé in radiative shock production. Experimental results are in cióse agreement to the ARWEN estimations of the speed of the shock wave and the length of the precursor. The simulation code used in this thesis, including the work done in ARWEN by other colleagues at the time of this research, allowed the collaboration with other research institution in France and Japan and some of the results presented in this thesis have been published in scientific journals.
Resumo:
El esquema actual que existe en el ámbito de la normalización y el diseño de nuevos estándares de codificación de vídeo se está convirtiendo en una tarea difícil de satisfacer la evolución y dinamismo de la comunidad de codificación de vídeo. El problema estaba centrado principalmente en poder explotar todas las características y similitudes entre los diferentes códecs y estándares de codificación. Esto ha obligado a tener que rediseñar algunas partes comunes a varios estándares de codificación. Este problema originó la aparición de una nueva iniciativa de normalización dentro del comité ISO/IEC MPEG, llamado Reconfigurable Video Coding (RVC). Su principal idea era desarrollar un estándar de codificación de vídeo que actualizase e incrementase progresivamente una biblioteca de los componentes, aportando flexibilidad y la capacidad de tener un código reconfigurable mediante el uso de un nuevo lenguaje orientado a flujo de Actores/datos denominado CAL. Este lenguaje se usa para la especificación de la biblioteca estándar y para la creación de instancias del modelo del decodificador. Más tarde, se desarrolló un nuevo estándar de codificación de vídeo denominado High Efficiency Video Coding (HEVC), que actualmente se encuentra en continuo proceso de actualización y desarrollo, que mejorase la eficiencia y compresión de la codificación de vídeo. Obviamente se ha desarrollado una visión de HEVC empleando la metodología de RVC. En este PFC, se emplean diferentes implementaciones de estándares empleando RVC. Por ejemplo mediante los decodificadores Mpeg 4 Part 2 SP y Mpeg 4 Part 10 CBP y PHP así como del nuevo estándar de codificación HEVC, resaltando las características y utilidad de cada uno de ellos. En RVC los algoritmos se describen mediante una clase de actores que intercambian flujos de datos (tokens) para realizar diferentes acciones. El objetivo de este proyecto es desarrollar un programa que, partiendo de los decodificadores anteriormente mencionados, una serie de secuencia de vídeo en diferentes formatos de compresión y una distribución estándar de los actores (para cada uno de los decodificadores), sea capaz de generar diferentes distribuciones de los actores del decodificador sobre uno o varios procesadores del sistema sobre el que se ejecuta, para conseguir la mayor eficiencia en la codificación del vídeo. La finalidad del programa desarrollado en este proyecto es la de facilitar la realización de las distribuciones de los actores sobre los núcleos del sistema, y obtener las mejores configuraciones posibles de una manera automática y eficiente. ABSTRACT. The current scheme that exists in the field of standardization and the design of new video coding standards is becoming a difficult task to meet the evolving and dynamic community of video encoding. The problem was centered mainly in order to exploit all the features and similarities between different codecs and encoding standards. This has forced redesigning some parts common to several coding standards. This problem led to the emergence of a new initiative for standardization within the ISO / IEC MPEG committee, called Reconfigurable Video Coding (RVC). His main idea was to develop a video coding standard and gradually incrementase to update a library of components, providing flexibility and the ability to have a reconfigurable code using a new flow -oriented language Actors / data called CAL. This language is used for the specification of the standard library and to the instantiation model decoder. Later, a new video coding standard called High Efficiency Video Coding (HEVC), which currently is in continuous process of updating and development, which would improve the compression efficiency and video coding is developed. Obviously has developed a vision of using the methodology HEVC RVC. In this PFC, different implementations using RVC standard are used. For example, using decoders MPEG 4 Part 2 SP and MPEG 4 Part 10 CBP and PHP and the new coding standard HEVC, highlighting the features and usefulness of each. In RVC, the algorithms are described by a class of actors that exchange streams of data (tokens) to perform different actions. The objective of this project is to develop a program that, based on the aforementioned decoders, a series of video stream in different compression formats and a standard distribution of actors (for each of the decoders), is capable of generating different distributions decoder actors on one or more processors of the system on which it runs, to achieve greater efficiency in video coding. The purpose of the program developed in this project is to facilitate the realization of the distributions of the actors on the cores of the system, and get the best possible settings automatically and efficiently.
Resumo:
En este artículo se presenta el modelado y análisis de un sistema de teloperación bilateral no lineal de n grados de libertad controlado por convergencia de estado. Se considera que el operador humano aplica una fuerza constante sobre el manipulador local mientras realiza la tarea. Además, la interacción entre el manipulador remoto y el entorno se considera pasiva. La comunicación entre el sitio local y remoto se realiza mediante un canal de comunicación con retardo de tiempo. El análisis presentado en este artículo considerada que éste es variable. En este artículo también se demuestra la estabilidad del sistema utilizando la teoría de Lyapunov-Krasovskii demostrándose que el esquema de control por convergencia de estado para el caso con retardo de tiempo variable asegura la estabilidad del sistema de teleoperación no lineal. También se muestra experimentalmente que, para el caso de protocolos de comunicación fiables, el esquema propuesto garantiza que se logra la coordinación posición local-remoto.
Resumo:
El presente trabajo propone un procedimiento a través del cual un razonador evalúa la información de una base de datos y la clasifica de forma automática en conceptos, relaciones, roles y atributos. Esta clasificación se desarrolla mediante un procedimiento dividido en dos métodos: primero, un Algoritmo de migración el cual genera una ontología con los elementos del esquema relacional de la base de datos. El segundo método es la Estrategia de clasificación de la información, esta consiste en una serie de consultas SPARQL mediante las que se clasifica la información de la base de datos.---ABSTRACT---This paper proposes a method by which a reasoner evaluates information from a database and automatically classifies in concepts, relationships, roles and attributes. This classification is developed through a procedure divided into two methods: first, a migration algorithm which generates an ontology with elements of relational schema database. The second method is the strategy classification of information, this is a series of SPARQL queries through that classified using the information the database.
Resumo:
Este trabajo fin de grado versa sobre el diseño y simulación del elemento radiante de una antena impresa con polarización circular, operativa en la banda Ka de frecuencias (18 – 31 GHz) para un sistema de comunicaciones entre aviones y satélites. Su principal característica es que la antena está formada por placas de circuito impreso apiladas. En las placas superiores se sitúan los elementos radiantes, mientras que en las capas internas se diseñan las líneas de transmisión, que forman la alimentación del array. Como elementos radiantes se ha recurrido a la tecnología de parches apilados, para conseguir un ancho de banda relativamente alto en una estructura multicapa de dieléctricos plásticos. Para excitarlos se han desarrollado dos tipos de red de alimentación, para comprobar con cuál se obtiene una mejor respuesta. Los tipos que se usan son: mediante sonda coaxial y por línea de transmisión, concretamente stripline. Respecto a la polarización circular del elemento (en tecnología stripline), se desarrolla una red de polarización haciendo uso de una doble alimentación y un híbrido 90º. Entre los elementos de este tipo de estructuras se produce un fuerte acoplo. Para reducir el efecto de este acoplo, se realiza un análisis optimizando el diseño
Resumo:
Se describe someramente el procedimiento de colocación por fondeo de una tubería de polietileno en un emisario submarino. El problema estructural se plantea en grandes movimientos pero con material elástico y deformaciones pequeñas. Se estudian las distintas acciones actuales: peso propio, inundación del tubo, oleaje, corriente marina, tiro de arrastre y modificaciones del esquema estructural. Algunas de las acciones anteriores son de persecución (follower forces) y por lo tanto, generalmente no son conservativas. Por otra parte, se establecen las pertinentes condiciones de contorno, algunas no lineales con carácter unilateral como es la representada por la existencia del fondo marino. Se determinan los esfuerzos y movimientos en las distintas etapas de un proceso de inmersión del emisario, desde su posición inicial de flotación hasta su colocación en el fondo del mar. El modelo presentado se aplica al estudio de unos casos simples de colocación del emisario en el lecho marino.
Resumo:
En la actualidad se está desarrollando la electrónica para el diseño de sistemas de conversión de potencia de alta frecuencia, que reduce notablemente el peso y el ruido de los dispositivos convertidores y aumenta a su vez la densidad de potencia sin afectar negativamente al rendimiento, coste o fiabilidad de dichos dispositivos. La disciplina que se encarga de investigar y crear estos sistemas es la electrónica de potencia. Este documento recoge la metodología empleada para el diseño, análisis y simulación de un convertidor DC/DC de 10 kW de aplicación aeronáutica. Este dispositivo forma parte de un proyecto en el que colaboran el Centro de Electrónica Industrial de la Universidad Politécnica de Madrid (CEI - UPM) y las empresas Indra y Airbus. Su objetivo es el diseño y construcción de un rectificador trifásico que proporcione una salida continua de 28 V y 10 kW de potencia. Durante su aplicación final, se dispondrá de dos dispositivos idénticos al diseñado en este proyecto, aportando cada uno de ellos 5 kW, sin embargo, debido a la importancia en seguridad en las aplicaciones aeronáuticas, cada rectificador debe ser capaz de aportar 10 kW de potencia en caso de fallo en uno de ellos. En primer lugar, este trabajo explica el diseño elegido para dicho convertidor, que sigue una topología Dual Active Bridge (DAB), en creciente interés para el desarrollo de dispositivos de potencia en alta frecuencia por sus mejoras en eficiencia y densidad de potencia. Esta topología consiste en dos puentes completos de dispositivos de conmutación, en este caso MOSFET, con un transformador entre medias diseñado para proporcionar la tensión de salida deseada. La topología ha sido modificada para satisfacer especificaciones del proyecto y cumplir las expectativas del diseño preliminar, que se centra en la transición suave de corriente en el transformador, siendo clave el diseño de un filtro resonante en serie con el transformador que proporciona una corriente senoidal con valor nulo en los instantes de conmutación de los MOSFET. Una vez introducida la topología, el siguiente capítulo se centra en el procedimiento de selección de componentes internos del convertidor: destacando el análisis de condensadores y MOSFET. Para su selección, se han estudiado las exigencias eléctricas en los puntos en los que estarán instalados, conociendo así las tensiones y corrientes que deberán soportar. Para asegurar un diseño seguro, los componentes han sido seleccionados de forma que durante su funcionamiento se les exija como máximo el 70% de sus capacidades eléctricas y físicas. Además, a partir de los datos aportados por los fabricantes ha sido posible estimar las pérdidas durante su funcionamiento. Este proyecto tiene un enfoque de aplicación aeronáutica, lo que exige un diseño robusto y seguro, que debe garantizar una detección rápida de fallos, de modo que sea capaz de aislar la anomalía de forma eficaz y no se propague a otros componentes del dispositivo. Para asegurarlo, se ha realizado la selección de sensores de tensión y corriente, que permiten la detección de fallos y la monitorización del convertidor. Al final de este apartado se muestra el esquema de alimentación, se analiza el consumo de los MOSFET y los sensores y se recopilan las pérdidas estimadas por los componentes internos del convertidor. Una vez terminado el diseño y selección de componentes, se muestran las simulaciones realizadas para prever el comportamiento del convertidor. Se presenta el modelo construido y las modificaciones instaladas para las diferentes simulaciones. Se destacan el diseño del regulador que introduce la entrada de corriente del convertidor para analizar su arranque, la construcción de una máquina de estados para analizar la detección de tensiones y corrientes fuera del intervalo correspondiente del correcto funcionamiento, y el modelo de MOSFET para simular los fallos posibles en estos dispositivos. También se analiza la influencia de la oscilación de la carga en los valores de tensión y en la resonancia del convertidor. Tras la simulación del equipo se describen las pruebas realizadas en los componentes magnéticos construidos dentro del periodo de elaboración de este trabajo: el transformador y la bobina externa, diseñada para mejorar el filtro resonante. La etapa final de este trabajo se ha centrado en la elaboración de un código de generación de señales PWM que controlen el funcionamiento de los MOSFET. Para esto se ha programado una tarjeta de control del procesador digital de señales (DSP)Delfino (TMS320F28335) instalado en una placa de experimentación (TMS320C2000), desarrollado por la empresa Texas Instruments, que facilita el acceso a los terminales GPIO y ADC del DSP durante el desarrollo del código, anexo a este documento.
Resumo:
El gobierno abierto se ha convertido en un nuevo modelo de política pública que sitúa la transparencia, la participación y la colaboración ciudadana como ejes primordiales para la acción política. El gobierno abierto fomenta que las administraciones y los gobiernos afronten el reto de recuperar la legitimidad y la confianza de la población a través de la transparencia y la responsabilidad, así como mediante la generación de espacios de intercambio y participación que promuevan la inteligencia colaborativa. Desde hace más de una década, el concepto de gobierno abierto ha formado parte de los estudios de Ciencias Políticas en relación a la transparencia, la participación, la modernización de la administración pública y el gobierno electrónico. Sin embargo, no fue hasta 2009 cuando alcanzó su máxima notoriedad debido a la presentación del Memorando sobre Transparencia y Gobierno Abierto presentado por el Presidente de los Estados Unidos, Barack Obama, como punto de partida orientado a cerrar la brecha existente entre el pueblo americano y su gobierno. Poco después, un pequeño grupo de países (Indonesia, México, Noruega, Filipinas, Sudáfrica y Reino Unido, bajo el liderazgo de Brasil y los EE.UU.) crearon la Alianza para el Gobierno Abierto u Open Government Partnership (OGP) una iniciativa destinada a mejorar la rendición de cuentas, la transparencia y la participación gracias a las oportunidades que brinda las nuevas tecnologías y la web 2.0. A partir de ese momento, el gobierno abierto entró a formar parte de la agenda internacional, ofreciendo prácticas y conocimientos en red basados en un nuevo esquema de relación entre gobierno y ciudadanía a través del uso de las nuevas tecnologías...
Resumo:
El objetivo de esta investigación fue estudiar cómo aprenden estudiantes para profesores de educación secundaria a analizar la enseñanza de las matemáticas como un aspecto del desarrollo de su competencia docente. Para ello, analizamos la estructura argumentativa de una discusión en línea entre estudiantes para profesores de enseñanza secundaria cuando están identificando e interpretando aspectos de la comunicación matemática como un rasgo característico de la enseñanza de las matemáticas. Para realizar el análisis, usamos el esquema de un argumento de Toulmin y centramos nuestra atención en cómo los estudiantes para profesor establecían la relación entre las conclusiones y los datos y cómo usaban las garantías. Los resultados muestran tres características de las estructuras argumentativas generadas por los estudiantes para profesor en un debate en línea que determinan oportunidades para el aprendizaje de la competencia docente “mirar con sentido” la enseñanza de las matemáticas: refinar garantías para apoyar una conclusión, discutir sobre cómo se debe establecer una conclusión para que sea admitida, y poner en duda las conclusiones.
Resumo:
El objetivo de este estudio es analizar la influencia del esquema aditivo en el desarrollo del razonamiento proporcional en estudiantes de educación secundaria. 558 estudiantes de educación secundaria respondieron a un cuestionario de problemas proporcionales y no proporcionales. Los resultados indican (i) que la capacidad de los estudiantes en identificar las relaciones proporcionales en los problemas proporcionales no implica necesariamente que sean capaces de identificar correctamente las relaciones aditivas en los problemas no proporcionales y viceversa; y (ii) que el tipo de relación multiplicativa entre las cantidades (entera o no entera) influía en el nivel de éxito en la resolución de los problemas proporcionales y no proporcionales.
Resumo:
Presentamos una descomposición genética del concepto de recta tangente vista como una trayectoria hipotética de aprendizaje. Para generar esta descomposición genética se ha realizado un análisis histórico de la génesis del concepto, un análisis de libros de texto de Bachillerato, una síntesis de los resultados de las investigaciones sobre la comprensión de la recta tangente y hemos tenido en cuenta los resultados de un cuestionario respondido por alumnos de Bachillerato. La descomposición genética integra las perspectivas analítica local y geométrica como medio para favorecer la tematización del esquema de recta tangente.
Resumo:
Este novedoso y original trabajo de investigación pretende asentar una primera base que permita el examen riguroso de la construcción de un personaje en concreto. Este estudio aborda la presentación sobre la actual Reina de España, Letizia Ortiz, a partir de la producción de noticias por parte de los periodistas y de los medios de comunicación, que realizan los periódicos ABC y El País, además de la revista semanal Hola, en un determinado periodo, que abarca desde septiembre a diciembre del 2014. Todo ello, elaborando un modelo que debiera combinar los enfoques de la economía política, desde la visión estructural, y de los estudios culturales, en un marco analítico textual. El objetivo es desentrañar el esquema de un poliedro, teniendo en cuenta en el proceso, tanto la producción como la importancia del “canal”, es decir, del mensaje y su soporte.