27 resultados para modelo físico
Resumo:
El atrio incorporado en los edificios ha sido un recurso espacial que tempranamente se difundió a nivel global, siendo adoptado por las distintas arquitecturas locales en gran parte del mundo. Su masificación estuvo favorecida primero por la rápida evolución de la tecnología del acero y el vidrio, a partir del siglo XIX, y en segundo termino por el posterior desarrollo del hormigón armado. Otro aspecto que explica tal aceptación en la arquitectura contemporánea, es de orden social y radica en la llamativa cavidad del espacio describiendo grandes dimensiones y favoreciendo con ello, el desarrollo de una multiplicidad de usos en su interior que antes eran impensados. Al interior del atrio, la luz natural es clave en las múltiples vivencias que alberga y sea tal vez la condición ambiental más valorada, ya que entrega una sensación de bienestar al conectarnos visualmente con el ambiente natural. Por esta razón de acuerdo al método hipotético deductivo, se evaluaron los efectos de la configuración geométrica, la cubierta y la orientación en el desempeño de la iluminación natural en la planta baja, a partir un modelo extraído desde el inventario de los edificios atrio construidos en Santiago de Chile, en los últimos 30 años que fue desarrollado en el capitulo 2. El análisis cuantitativo de los edificios inventariados se elaboró en el capítulo 3, considerando las dimensiones de los atrios. Simultáneamente fueron clasificados los aspectos constructivos, los materiales y las características del ambiente interior de cada edificio. En esta etapa además, fueron identificadas las variables de estudio de las proporciones geométricas de la cavidad del atrio con los coeficientes de aspecto de las proporciones, en planta (PAR), en corte (SAR) y de la cavidad según (WI), (AR) y (RI). Del análisis de todos estos parámetros se extrajo el modelo de prueba. El enfoque del estudio del capítulo 4 fue la iluminación natural, se revisaron los conceptos y el comportamiento en el atrio, a partir de un modelo físico construido a escala para registro de la iluminancia bajo cielo soleado de la ciudad. Más adelante se construyó el modelo en ambiente virtual, relacionando las variables determinadas por la geometría de la cavidad y el cerramiento superior; examinándose de esta manera distintas transparencias, proporciones de apertura, en definitiva se evaluó un progresivo cerramiento de las aberturas, verificando el ingreso de la luz y disponibilidad a nivel de piso con la finalidad, de proveer lineamientos útiles en una primera etapa del diseño arquitectónico. Para el análisis de la iluminación natural se revisaron diferentes métodos de cálculo con el propósito de evaluar los niveles de iluminancia en un plano horizontal al interior del atrio. El primero de ellos fue el Factor de Luz Día (FLD) que corresponde, a la proporción de la iluminancia en un punto de evaluación interior respecto, la cantidad proveniente del exterior bajo cielo nublado, a partir de la cual se obtuvo resultados que revelaron la alta luminosidad del cielo nublado de la ciudad. Además fueron evaluadas las recientes métricas dinámicas que dan cuenta, de la cantidad de horas en las cuales de acuerdo a los extensos registros meteorológico de la ciudad, permitieron obtener el porcentajes de horas dentro de las cuales se cumplió el estándar de iluminancia requerido, llamado autonomía lumínica (DA) o mejor aún se permanece dentro de un rango de comodidad visual en el interior del atrio referido a la iluminancia diurna útil (UDI). En el Capítulo 5 se exponen los criterios aplicados al modelo de estudio y cada una de las variantes de análisis, además se profundizó en los antecedentes y procedencia de las fuentes de los registros climáticos utilizados en las simulaciones llevadas a cabo en el programa Daysim operado por Radiance. Que permitieron evaluar el desempeño lumínico y la precisión, de cada uno de los resultados para comprobar la disponibilidad de iluminación natural a través de una matriz. En una etapa posterior se discutieron los resultados, mediante la comparación de los datos logrados según cada una de las metodologías de simulación aplicada. Finalmente se expusieron las conclusiones y futuras lineas de trabajo, las primeras respecto el dominio del atrio de cuatro caras, la incidencia del control de cerramiento de la cubierta y la relación establecida con la altura; indicando en lo específico que las mediciones de iluminancia bajo el cielo soleado de verano, permitieron aclarar, el uso de la herramienta de simulación y método basado en el clima local, que debido a su reciente desarrollo, orienta a futuras líneas de trabajo profundizando en la evaluación dinámica de la iluminancia contrastado con monitorización de casos. ABSTRACT Atriums incorporated into buildings have been a spatial resource that quickly spread throughout the globe, being adopted by several local architecture methods in several places. Their widespread increase was highly favored, in the first place, with the rapid evolution of steel and glass technologies since the nineteen century, and, in second place, by the following development of reinforced concrete. Another issue that explains this success into contemporary architecture is associated with the social approach, and it resides in the impressive cavity that describes vast dimensions, allowing the development of multiple uses in its interior that had never been considered before. Inside the atrium, daylight it is a key element in the many experiences that involves and it is possibly the most relevant environmental factor, since it radiates a feeling of well-being by uniting us visually with the natural environment. It is because of this reason that, following the hypothetical deductive method, the effects in the performance of daylight on the floor plan were evaluated considering the geometric configuration, the deck and orientation factors. This study was based in a model withdrawn from the inventory of atrium buildings that were constructed in Santiago de Chile during the past thirty years, which will be explained later in chapter 2. The quantitative analysis of the inventory of those buildings was elaborated in chapter 3, considering the dimensions of the atriums. Simultaneously, several features such as construction aspects, materials and environmental qualities were identified inside of each building. At this stage, it were identified the variables of the geometric proportions of the atrium’s cavity with the plan aspect ratio of proportions in first plan (PAR), in section (SAR) and cavity according to well index (WI), aspect ratio (AR) and room index (RI). An experimental model was obtained from the analysis of all the mentioned parameters. The main focus of the study developed in chapter 4 is daylight. The atrium’s concept and behavior were analyzed from a physical model built under scale to register the illuminances under clear, sunny sky of the city. Later on, this physical model was built in a virtual environment, connecting the variables determined by the geometry of the cavity and the superior enclosure, allowing the examination of transparencies and opening proportions. To summarize, this stage consisted on evaluating a progressive enclosure of the openings, checking the access of natural light and its availability at the atrium floor, in an effort to provide useful guidelines during the first stage of the architectural design. For the analysis of natural lighting, several calculations methods were used in order to determine the levels of illuminances in a horizontal plane inside of the atrium. The first of these methods is the Daylight Factor (DF), which consists in the proportion of light in an evaluation interior place with the amount of light coming from the outside in a cloudy day. Results determined that the cloudy sky of the city has high levels of luminosity. In addition, the recent dynamic metrics were evaluated which reflects the hours quantity. According to the meteorological records of the city’s climate, the standard of illuminance- a standard measure called Daylight Autonomy (DA) – was met. This is even better when the results stay in the line of visual convenience within the atrium, which is referred to as Useful Daylight Illuminance (UDI). In chapter 5, it was presented the criteria applied to the study model and on each of the variants of the analysis. Moreover, the information of the climate records used for the simulations - carried out in the Daysim program managed by Radiance – are detailed. These simulations allowed the observation of the daylight performance and the accuracy of each of the results to confirm the availability of natural light through a matrix. In a later stage, the results were discussed comparing the collected data in each of the methods of simulation used. Finally, conclusions and further discussion are presented. Overall, the four side atrium’s domain and the effect of the control of the cover’s enclosure. Specifically, the measurements of the daylight under summer’s clear, sunny sky allowing clarifying the use of the simulation tool and the method based on the local climate. This method allows defining new and future lines of work deepening on the dynamic of the light in contrast with the monitoring of the cases.
Resumo:
La fractura de metales dúctiles como el acero suele explicarse a partir de la hipótesis de nucleación, crecimiento y coalescencia de microhuecos. A partir de esta teoría, se han desarrollado diversos modelos numéricos, entre los que el modelo de Gurson y sus variantes son los más extendidos. Dichos modelos reproducen matemáticamente el fenómeno físico de crecimiento de huecos resultando en un desarrollo progresivo del daño en el interior del material durante un ensayo de tracción. En estos modelos, el daño comienza a desarrollarse en fases muy tempranas del ensayo, incluso anteriores a la carga máxima. Ensayos realizados por los autores parecen indicar, sin embargo, que en el caso de barras de acero eutéctico empleado en la fabricación de alambres de pretensado, el daño originado en el interior del material como consecuencia del crecimiento de microhuecos sólo es apreciable en un estado muy avanzado del ensayo, momentos antes de producirse la rotura. Además, desde hace décadas se conoce que la triaxialidad de tensiones tiene una fuerte influencia sobre la rotura de los materiales. En este trabajo se presenta un modelo de rotura para elementos de acero sometidos a tracción, basado en un comportamiento cohesivo del material y que contempla el valor de la triaxialidad de tensiones, diferente en cada punto de la sección crítica de rotura. The fracture of ductile materials, such as steel, is usually explained with the theory of nucleation, growth and coalescence of microvoids. Based on this theory, many numerical models have been developed, with a special mention to Gurson-type models. These models simulate mathematically the physical growth of microvoids, leading to a progressive development of the internal damage that takes place during a tensile test. In these models, the damage starts to develop in very early stages of the test. Tests carried out by the authors seem to point out that, in the case of eutectoid steel bars used for manufacturing prestressing steel wires, the internal damage that takes place as a result of the growth of microvoids is only noticeable in a very advanced state of the test. In addition to this, it is known that the stress triaxiality has a strong influence over the fracture of ductile materials. This work presents a fracture model for steel specimens in a tensile test, based on a cohesive behaviour and taking into account the effect of stress triaxiality, which is different in every point of the fracture plane.
Resumo:
La fractura de metales dúctiles como el acero suele explicarse a partir de la hipótesis de nucleación, crecimiento y coalescencia de microhuecos. A partir de esta teoría, se han desarrollado diversos modelos numéricos, entre los que el modelo de Gurson y sus variantes son los más extendidos. Dichos modelos reproducen matemáticamente el fenómeno físico de crecimiento de huecos resultando en un desarrollo progresivo del daño en el interior del material durante un ensayo de tracción. En estos modelos, el daño comienza a desarrollarse en fases muy tempranas del ensayo, incluso anteriores a la carga máxima. Ensayos realizados por los autores parecen indicar, sin embargo, que en el caso de barras de acero eutéctico empleado en la fabricación de alambres de pretensado, el daño originado en el interior del material como consecuencia del crecimiento de microhuecos sólo es apreciable en un estado muy avanzado del ensayo, momentos antes de producirse la rotura. Además, desde hace décadas se conoce que la triaxialidad de tensiones tiene una fuerte influencia sobre la rotura de los materiales. En este trabajo se presenta un modelo de rotura para elementos de acero sometidos a tracción, basado en un comportamiento cohesivo del material y que contempla el valor de la triaxialidad de tensiones, diferente en cada punto de la sección crítica de rotura. The fracture of ductile materials, such as steel, is usually explained with the theory of nucleation, growth and coalescence of microvoids. Based on this theory, many numerical models have been developed, with a special mention to Gurson-type models. These models simulate mathematically the physical growth of microvoids, leading to a progressive development of the internal damage that takes place during a tensile test. In these models, the damage starts to develop in very early stages of the test. Tests carried out by the authors seem to point out that, in the case of eutectoid steel bars used for manufacturing prestressing steel wires, the internal damage that takes place as a result of the growth of microvoids is only noticeable in a very advanced state of the test. In addition to this, it is known that the stress triaxiality has a strong influence over the fracture of ductile materials. This work presents a fracture model for steel specimens in a tensile test, based on a cohesive behaviour and taking into account the effect of stress triaxiality, which is different in every point of the fracture plane.
Resumo:
Este artículo estudia la evolución de un modelo de vivienda prefabricada en madera, ejemplificada en la casita de verano que construye Konrad Wachsmann para Albert Einstein en 1929 en Caputh, cerca de Potsdam. El físico deseaba construirse un "lugar de descanso", eligiendo la construcción en madera por su facilidad y rapidez de montaje, adaptabilidad, calidez y para que armonizara mejor con el medio ambiente en el paraje donde se insertaba. Konrad Wachsmann, que trabajaba para la firma de viviendas prefabricadas en madera "Christoph&Unmack A.G." le presentará un modelo prefabricado moderno. Esta tipología, que había evolucionado desde los diseños iniciales "nórdico escandinavos", pasando por el "jugendstil", hasta introducir un nuevo lenguaje de líneas puras, cubierta plana, y grandes ventanales iniciado por Poelzig, será ligeramente modificada por Einstein, que finalmente adjudica el encargo. Ayudado por Einstein a trasladarse a EEUU, Konrad Wachsmann continuará allí la labor de investigación sobre vivienda prefabricada junto con Walter Gropius, que dará como resultado el "General Panel System" y sus conocidas "Packaged Houses". A HOUSE FOR EINSTEIN: KONRAD WACHSMANN AND THE EVOLUTION OF A PREFABRICATED WOODEN HOUSING MODEL FROM " CHRISTOPH & UNMACK A.G." TO "GENERAL PANEL SYSTEM". This article studies the evolution of a prefabricated wooden housing model, exemplified in the summer house built by Konrad Wachsmann for Albert Einstein in 1929, in Caputh, near Potsdam. The Physician wanted to build a "resting house", choosing a wood construction because of its easy and fast assembly, adaptability, warmth and harmony with the environment where it would be inserted. Konrad Wachsmann, who worked for the wooden prefabricated houses firm "Christoph & Unmack AG", proposed Einstein a modern prefabricated wood model. This typology, which had evolved from the initial "Nordic Scandinavian" and "Jugendstil" designs to a new modern language initiated by Poelzig (with clean lines, flat roof, and large windows) will be slightly modified by Einstein, that finally hired the construction of the house. Aided by Einstein to move to USA, Konrad Wachsmann continued there his research work about prefabricated houses with Walter Gropius, giving as a results the "General Panel System" and the popular "Packaged Houses".
Resumo:
Las probetas cilíndricas fabricadas con materiales metálicos de elevada ductilidad, como el aluminio o el cobre, sometidas a tracción suelen presentar una rotura comúnmente denominada rotura en copa y cono, debido a su geometría. Este tipo de rotura se reproduce numéricamente con éxito mediante el modelo de Gurson-Tvergaard- Needleman, cuya formulación matemática se basa en el fenómeno físico de nucleación, crecimiento y coalescencia de microhuecos. A diferencia de dichos materiales, las barras de acero perlítico, material con una ductilidad apreciable, presentan un frente de rotura plano que no puede simularse correctamente con los modelos antes mencionados, apareciendo una región interior de daño que, en principio, también puede atribuirse a un fenómeno de nucleación y crecimiento de microhuecos, mientras que en el exterior aparece una zona cuya micrografía permite asociar su rotura a un mecanismo de clivaje. En trabajos anteriores los autores han presentado un elemento de intercara cohesivo dependiente de la triaxialidad de tensiones que, incorporado a un código de elementos finitos, permite reproducir de forma razonable el daño que se desarrolla en la región interior mencionada. En este trabajo se presentan los resultados de una campaña experimental que permite validar el modelo desarrollado. Para ello, se ensayan probetas de diferentes diámetros y se comparan los resultados con los obtenidos numéricamente, empleando tres bases extensométricas diferentes en cada uno de los diámetros. Los resultados numéricos se ajustan razonablemente bien a los obtenidos experimentalmente.The cylindrical specimens made of high-ductility metallic materials, such as aluminium and copper, usually fail showing a fracture surface commonly known as cup-cone fracture because of its shape. This type of fracture is successfully reproduced using the Gurson-Tvergaard-Needleman model, which is based on the physical process of nucleation, growth and coalescence of microvoids. Unlike these materials, pearlitic steel bars, which are considerably ductile, show a flat fracture surface that cannot be correctly reproduced with the aforementioned models. In this flat fracture surface, a dark region can be observed in the centre of the specimen, which is the result of a process of nucleation and growth of microvoids, while in the rest of the fracture surface a different region can be identified, which a micrographic study reveals to be the result of a process of cleavage. In previous works, the authors presented a triaxiality-dependent cohesive interface element that, implemented in a finite element code, can reproduce in a reasonably accurate manner the damage that takes place in the dark region mentioned before. The results of an experimental campaign designed to validate the model are presented in this paper. For it, different diameter specimens are tested and these results are compared to those obtained with the numerical models, using three different initial lengths for the strain. Numerical results agree reasonably well with those obtained experimentally.
Resumo:
Las probetas cilíndricas fabricadas con materiales metálicos de elevada ductilidad, como el aluminio o el cobre, sometidas a tracción suelen presentar una rotura comúnmente denominada rotura en copa y cono, debido a su geometría. Este tipo de rotura se reproduce numéricamente con éxito mediante el modelo de Gurson-Tvergaard- Needleman, cuya formulación matemática se basa en el fenómeno físico de nucleación, crecimiento y coalescencia de microhuecos. A diferencia de dichos materiales, las barras de acero perlítico, material con una ductilidad apreciable, presentan un frente de rotura plano que no puede simularse correctamente con los modelos antes mencionados, apareciendo una región interior de daño que, en principio, también puede atribuirse a un fenómeno de nucleación y crecimiento de microhuecos, mientras que en el exterior aparece una zona cuya micrografía permite asociar su rotura a un mecanismo de clivaje. En trabajos anteriores los autores han presentado un elemento de intercara cohesivo dependiente de la triaxialidad de tensiones que, incorporado a un código de elementos finitos, permite reproducir de forma razonable el daño que se desarrolla en la región interior mencionada. En este trabajo se presentan los resultados de una campaña experimental que permite validar el modelo desarrollado. Para ello, se ensayan probetas de diferentes diámetros y se comparan los resultados con los obtenidos numéricamente, empleando tres bases extensométricas diferentes en cada uno de los diámetros. Los resultados numéricos se ajustan razonablemente bien a los obtenidos experimentalmente.The cylindrical specimens made of high-ductility metallic materials, such as aluminium and copper, usually fail showing a fracture surface commonly known as cup-cone fracture because of its shape. This type of fracture is successfully reproduced using the Gurson-Tvergaard-Needleman model, which is based on the physical process of nucleation, growth and coalescence of microvoids. Unlike these materials, pearlitic steel bars, which are considerably ductile, show a flat fracture surface that cannot be correctly reproduced with the aforementioned models. In this flat fracture surface, a dark region can be observed in the centre of the specimen, which is the result of a process of nucleation and growth of microvoids, while in the rest of the fracture surface a different region can be identified, which a micrographic study reveals to be the result of a process of cleavage. In previous works, the authors presented a triaxiality-dependent cohesive interface element that, implemented in a finite element code, can reproduce in a reasonably accurate manner the damage that takes place in the dark region mentioned before. The results of an experimental campaign designed to validate the model are presented in this paper. For it, different diameter specimens are tested and these results are compared to those obtained with the numerical models, using three different initial lengths for the strain. Numerical results agree reasonably well with those obtained experimentally.
Resumo:
Este artículo estudia la evolución del modelo de vivienda prefabricada en madera que construye Konrad Wachsmann para Einstein en 1929 en Caputh, cerca de Potsdam. El físico deseaba construirse un "lugar de descanso", eligiendo la construcción en madera por su facilidad y rapidez de montaje, adaptabilidad, calidez y para que armonizara mejor con el medio ambiente. Wachsmann, que trabajaba para la firma "Christoph & Unmack A.G." le presentará un modelo prefabricado moderno. Esta tipología, evolucionada desde los diseños "nórdico-escandinavo" y "jugendstil", hasta introducir un nuevo lenguaje de líneas puras, cubierta plana, y grandes ventanales, será ligeramente modificada por Einstein, que finalmente adjudica el encargo. Wachsmann continuará la labor de investigación sobre vivienda prefabricada junto con Gropius en EEUU, que dará como resultado el "General Panel System" y sus conocidas "Packaged Houses".
Resumo:
Esta tesis contiene una investigación detallada sobre las características y funcionamiento de las máquinas de medición por visión. El objetivo fundamental es modelar su comportamiento y dotarlas de trazabilidad metrológica bajo cualquier condición de medida. Al efecto, se ha realizado un exhaustivo análisis de los elementos que conforman su cadena de medición, a saber: sistema de iluminación, estructura, lentes y objetivos, cámara, software de tratamiento de imágenes y software de cálculo. Se han definido modelos físico-matemáticos, de desarrollo propio, capaces de simular con fiabilidad el comportamiento de los elementos citados, agrupados, a efectos de análisis numérico, en dos subsistemas denominados: de visión y mecánico. Se han implementado procedimientos de calibración genuinos para ambos subsistemas mediante el empleo de patrones ópticos. En todos los casos se ha podido determinar la incertidumbre asociada a los diferentes parámetros involucrados, garantizando la trazabilidad metrológica de los resultados. Los distintos modelos desarrollados han sido implementados en Matlab®. Se ha verificado su validez empleando valores sintéticos obtenidos a partir de simulaciones informáticas y también con imágenes reales capturadas en el laboratorio. El estudio experimental y validación definitiva de los resultados se ha realizado en el Laboratorio de Longitud del Centro Español de Metrología y en el Laboratorio de Metrología Dimensional de la ETS de Ingeniería y Diseño Industrial de la UPM. Los modelos desarrollados se han aplicado a dos máquinas de medición por visión de diferentes características constructivas y metrológicas. Empleando dichas máquinas se han medido distintas piezas, pertenecientes a los ámbitos mecánico y oftalmológico. Los resultados obtenidos han permitido la completa caracterización dimensional de dichas piezas y la determinación del cumplimiento de las especificaciones metrológicas en todos los casos, incluyendo longitudes, formas y ángulos. ABSTRACT This PhD thesis contains a detailed investigation of characteristics and performance of the optical coordinate measurement machines. The main goal is to model their behaviour and provide metrological traceability to them under any measurement conditions. In fact, a thorough analysis of the elements which form the measuring chain, i.e.: lighting system, structure, lenses and objectives, camera, image processing software and coordinate metrology software has conducted. Physical-mathematical models, of self-developed, able to simulate with reliability the behavior of the above elements, grouped, for the purpose of numerical analysis, in two subsystems called: “vision subsystem” and “mechanical subsystem”, have been defined. Genuine calibration procedures for both subsystems have been implemented by use of optical standards. In all cases, it has been possible to determine the uncertainty associated with the different parameters involved, ensuring metrological traceability of results. Different developed models have been implemented in Matlab®. Their validity has been verified using synthetic values obtained from computer simulations and also with real images captured in laboratory. The experimental study and final validation of the results was carried out in the Length Laboratory of “Centro Español de Metrología” and Dimensional Metrology Laboratory of the “Escuela Técnica Superior de Ingeniería y Diseño Industrial” of the UPM. The developed models have been applied to two optical coordinate measurement machines with different construction and metrological characteristics. Using such machines, different parts, belonging to the mechanical and ophthalmologist areas, have been measured. The obtained results allow the full dimensional characterization of such parts and determination of compliance with metrological specifications in all cases, including lengths, shapes and angles.
Resumo:
Introducción. La obesidad puede definirse como una enfermedad metabólica crónica de origen multifactorial, lo que provoca trastornos o problemas físicos y psicológicos a la persona, con patologías asociadas que limitan la esperanza de vida y deterioran la calidad de la misma, siendo determinante para sus áreas sociales y laborales. Este trastorno metabólico crónico se caracteriza por una acumulación excesiva de energía en el cuerpo en forma de grasa, lo que lleva a un aumento de peso con respecto al valor esperado por sexo, edad y altura. La gestión y el tratamiento de la obesidad tienen objetivos más amplios que la pérdida de peso e incluyen la reducción del riesgo y la mejora de la salud. Estos pueden ser alcanzados por la pérdida modesta de peso (es decir, 10.5% del peso corporal inicial), la mejora del contenido nutricional de la dieta y un modesto incremento en la actividad física y condición física. La dieta es uno de los métodos más populares para perder peso corporal. El ejercicio es otra alternativa para perder peso corporal. El aumento de ejercicio provoca un desequilibrio cuando se mantiene la ingesta calórica. También tiene ventajas, como la mejora del tono muscular, la capacidad cardiovascular, fuerza y flexibilidad, aumenta el metabolismo basal y mejora el sistema inmunológico. Objetivos. El objetivo de esta tesis es contribuir en un estudio de intervención para aclarar la evolución del peso corporal durante una intervención de dieta y ejercicio. Para ello, se evaluaron los efectos de la edad, sexo, índice de masa corporal inicial y el tipo de tratamiento en las tendencias de pérdida de peso. Otro objetivo de la tesis era crear un modelo de regresión lineal múltiple capaz de predecir la pérdida de peso corporal después del periodo de intervención. Y, por último, determinar el efecto sobre la composición corporal (peso corporal, índice de masa corporal, la masa grasa, y la masa libre de grasa) de las diferentes intervenciones basadas en ejercicios (fuerza, resistencia, resistencia combinada con fuerza, y las recomendaciones de actividad física (grupo control)) en combinación con dieta de adultos con sobrepeso y obesidad, después de la intervención, así como los cambios de la composición corporal 3 años más tarde. Diseño de la investigación. Los datos empleados en el análisis de esta tesis son parte del proyecto “Programas de Nutrición y Actividad Física para el tratamiento de la obesidad” (PRONAF). El proyecto PRONAF es un estudio clínico sobre programas de nutrición y actividad física para el sobrepeso y la obesidad, desarrollado en España durante varios años de intervención. Fue diseñado, en parte, para comparar diferentes tipos de intervención, con el objetivo de evaluar su impacto en las dinámicas de pérdida de peso, en personas con sobrepeso y obesidad. Como diseño experimental, el estudio se basó en una restricción calórica, a la que, en algunos casos, se le añadió un protocolo de entrenamiento (fuerza, resistencia, o combinado, en igualdad de volumen e intensidad). Las principales variables para la investigación que comprende esta tesis fueron: el peso corporal y la composición corporal (masa grasa y masa libre de grasa). Conclusiones. En esta tesis, para los programas de pérdida de peso en personas con sobrepeso y obesidad con un 25-30% de la restricción calórica, el peso corporal se redujo significativamente en ambos sexos, sin tener en cuenta la edad y el tipo de tratamiento seguido. Según los resultados del estudio, la pérdida de peso realizada por un individuo (hombre o mujer) durante los seis meses puede ser representada por cualquiera de las cinco funciones (lineal, potencial, exponencial, logarítmica y cuadrática) en ambos sexos, siendo la cuadrática la que tiende a representarlo mejor. Además, se puede concluir que la pérdida de peso corporal se ve afectada por el índice de masa corporal inicial y el sexo, siendo mayor para las personas obesas que para las de sobrepeso, que muestran diferencias entre sexos sólo en la condición de sobrepeso. Además, es posible calcular el peso corporal final de cualquier participante involucrado en una intervención utilizando la metodología del proyecto PRONAF sólo conociendo sus variables iniciales de composición corporal. Además, los cuatro tipos de tratamientos tuvieron resultados similares en cambios en la composición corporal al final del período de intervención, con la única excepción de la masa libre de grasa, siendo los grupos de entrenamiento los que la mantuvieron durante la restricción calórica. Por otro lado, sólo el grupo combinado logra mantener la reducción de la masa grasa (%) 3 años después del final de la intervención. ABSTRACT Introduction. Obesity can be defined as a chronic metabolic disease from a multifactorial origin, which leads to physical and psychological impacts to the person, with associated pathologies that limit the life expectancy and deteriorate the quality of it, being determinant for the social and labor areas of the person. This chronic metabolic disorder is characterized by an excessive accumulation of energy in the body as fat, leading to increased weight relative to the value expected by sex, age and height. The management and treatment of obesity have wider objectives than weight loss alone and include risk reduction and health improvement. These may be achieved by modest weight loss (i.e. 5–10% of initial body weight), improved nutritional content of the diet and modest increases in physical activity and fitness. Weight loss through diet is one of the most popular approaches to lose body weight. Exercise is another alternative to lose body weight. The increase of exercise causes an imbalance when the caloric intake is maintained. It also has advantages such as improved muscle tone, cardiovascular fitness, strength and flexibility, increases the basal metabolism and improves immune system. Objectives. The aim of this thesis is to contribute with an interventional study to clarify the evolution of the body weight during a diet and exercise intervention. For this, the effects of age, sex, initial body mass index and type of treatment on weight loss tendencies were evaluated. Another objective of the thesis was to create a multiple linear regression model able to predict the body weight loss after the intervention period. And, finally, to determine the effect upon body composition (body weight, body mass index, fat mass, and fat-free mass of different exercise-based interventions (strength, endurance, combined endurance and strength, and physical activity recommendations group (control group)) combined with diet in overweight and obese adults, after intervention as well as body composition changes 3 years later. Research Design. The data used in the analysis of this thesis are part of the project "Programs of Nutrition and Physical Activity for the treatment of obesity" (PRONAF). The PRONAF project is a clinical trial program about nutrition and physical activity for overweight and obesity, developed in Spain for several years of intervention. It was designed, in part, to compare different types of intervention, in order to assess their impact on the dynamics of weight loss in overweight and obese people. As experimental design, the study was based on caloric restriction, which, in some cases, added a training protocol (strength, endurance, or combined in equal volume and intensity). The main research variables comprising this thesis were: body weight and body composition outcomes (fat mass and fat-free mass). Conclusions. In this thesis, for weight loss programs in overweight and obese people with 25-30% of caloric restriction, the body weight was significantly decreased in both sexes, regardless the age and type of followed treatment. According to the results of the study, the weight loss performed by an individual (male or female) during six months can be represented by any of the five functions (linear, power law, exponential, logarithmic and quadratic) in both sexes, being the quadratic one which tends to represent it better. In addition, it can be concluded that the body weight loss is affected by the initial body mass index and sex condition, being greater for the obese people than for the overweight one, showing differences between sexes only in the overweight condition. Moreover, it is possible to calculate the final body weight of any participant engaged in an intervention using the PRONAF Project methodology only knowing their initial body composition variables. Furthermore, the four types of treatments had similar results on body composition changes at the end of the intervention period, with the only exception of fat-free mass, being the training groups the ones that maintained it during the caloric restriction. On the other hand, only the combined group achieved to maintain the fat mass (%) reduced 3 years after the end of the intervention.
Resumo:
La informática teórica es una disciplina básica ya que la mayoría de los avances en informática se sustentan en un sólido resultado de esa materia. En los últimos a~nos debido tanto al incremento de la potencia de los ordenadores, como a la cercanía del límite físico en la miniaturización de los componentes electrónicos, resurge el interés por modelos formales de computación alternativos a la arquitectura clásica de von Neumann. Muchos de estos modelos se inspiran en la forma en la que la naturaleza resuelve eficientemente problemas muy complejos. La mayoría son computacionalmente completos e intrínsecamente paralelos. Por este motivo se les está llegando a considerar como nuevos paradigmas de computación (computación natural). Se dispone, por tanto, de un abanico de arquitecturas abstractas tan potentes como los computadores convencionales y, a veces, más eficientes: alguna de ellas mejora el rendimiento, al menos temporal, de problemas NPcompletos proporcionando costes no exponenciales. La representación formal de las redes de procesadores evolutivos requiere de construcciones, tanto independientes, como dependientes del contexto, dicho de otro modo, en general una representación formal completa de un NEP implica restricciones, tanto sintácticas, como semánticas, es decir, que muchas representaciones aparentemente (sintácticamente) correctas de casos particulares de estos dispositivos no tendrían sentido porque podrían no cumplir otras restricciones semánticas. La aplicación de evolución gramatical semántica a los NEPs pasa por la elección de un subconjunto de ellos entre los que buscar los que solucionen un problema concreto. En este trabajo se ha realizado un estudio sobre un modelo inspirado en la biología celular denominado redes de procesadores evolutivos [55, 53], esto es, redes cuyos nodos son procesadores muy simples capaces de realizar únicamente un tipo de mutación puntual (inserción, borrado o sustitución de un símbolo). Estos nodos están asociados con un filtro que está definido por alguna condición de contexto aleatorio o de pertenencia. Las redes están formadas a lo sumo de seis nodos y, teniendo los filtros definidos por una pertenencia a lenguajes regulares, son capaces de generar todos los lenguajes enumerables recursivos independientemente del grafo subyacente. Este resultado no es sorprendente ya que semejantes resultados han sido documentados en la literatura. Si se consideran redes con nodos y filtros definidos por contextos aleatorios {que parecen estar más cerca a las implementaciones biológicas{ entonces se pueden generar lenguajes más complejos como los lenguajes no independientes del contexto. Sin embargo, estos mecanismos tan simples son capaces de resolver problemas complejos en tiempo polinomial. Se ha presentado una solución lineal para un problema NP-completo, el problema de los 3-colores. Como primer aporte significativo se ha propuesto una nueva dinámica de las redes de procesadores evolutivos con un comportamiento no determinista y masivamente paralelo [55], y por tanto todo el trabajo de investigación en el área de la redes de procesadores se puede trasladar a las redes masivamente paralelas. Por ejemplo, las redes masivamente paralelas se pueden modificar de acuerdo a determinadas reglas para mover los filtros hacia las conexiones. Cada conexión se ve como un canal bidireccional de manera que los filtros de entrada y salida coinciden. A pesar de esto, estas redes son computacionalmente completas. Se pueden también implementar otro tipo de reglas para extender este modelo computacional. Se reemplazan las mutaciones puntuales asociadas a cada nodo por la operación de splicing. Este nuevo tipo de procesador se denomina procesador splicing. Este modelo computacional de Red de procesadores con splicing ANSP es semejante en cierto modo a los sistemas distribuidos en tubos de ensayo basados en splicing. Además, se ha definido un nuevo modelo [56] {Redes de procesadores evolutivos con filtros en las conexiones{ , en el cual los procesadores tan solo tienen reglas y los filtros se han trasladado a las conexiones. Dicho modelo es equivalente, bajo determinadas circunstancias, a las redes de procesadores evolutivos clásicas. Sin dichas restricciones el modelo propuesto es un superconjunto de los NEPs clásicos. La principal ventaja de mover los filtros a las conexiones radica en la simplicidad de la modelización. Otras aportaciones de este trabajo ha sido el dise~no de un simulador en Java [54, 52] para las redes de procesadores evolutivos propuestas en esta Tesis. Sobre el término "procesador evolutivo" empleado en esta Tesis, el proceso computacional descrito aquí no es exactamente un proceso evolutivo en el sentido Darwiniano. Pero las operaciones de reescritura que se han considerado pueden interpretarse como mutaciones y los procesos de filtrado se podrían ver como procesos de selección. Además, este trabajo no abarca la posible implementación biológica de estas redes, a pesar de ser de gran importancia. A lo largo de esta tesis se ha tomado como definición de la medida de complejidad para los ANSP, una que denotaremos como tama~no (considerando tama~no como el número de nodos del grafo subyacente). Se ha mostrado que cualquier lenguaje enumerable recursivo L puede ser aceptado por un ANSP en el cual el número de procesadores está linealmente acotado por la cardinalidad del alfabeto de la cinta de una máquina de Turing que reconoce dicho lenguaje L. Siguiendo el concepto de ANSP universales introducido por Manea [65], se ha demostrado que un ANSP con una estructura de grafo fija puede aceptar cualquier lenguaje enumerable recursivo. Un ANSP se puede considerar como un ente capaz de resolver problemas, además de tener otra propiedad relevante desde el punto de vista práctico: Se puede definir un ANSP universal como una subred, donde solo una cantidad limitada de parámetros es dependiente del lenguaje. La anterior característica se puede interpretar como un método para resolver cualquier problema NP en tiempo polinomial empleando un ANSP de tama~no constante, concretamente treinta y uno. Esto significa que la solución de cualquier problema NP es uniforme en el sentido de que la red, exceptuando la subred universal, se puede ver como un programa; adaptándolo a la instancia del problema a resolver, se escogerín los filtros y las reglas que no pertenecen a la subred universal. Un problema interesante desde nuestro punto de vista es el que hace referencia a como elegir el tama~no optimo de esta red.---ABSTRACT---This thesis deals with the recent research works in the area of Natural Computing {bio-inspired models{, more precisely Networks of Evolutionary Processors first developed by Victor Mitrana and they are based on P Systems whose father is Georghe Paun. In these models, they are a set of processors connected in an underlying undirected graph, such processors have an object multiset (strings) and a set of rules, named evolution rules, that transform objects inside processors[55, 53],. These objects can be sent/received using graph connections provided they accomplish constraints defined at input and output filters processors have. This symbolic model, non deterministic one (processors are not synchronized) and massive parallel one[55] (all rules can be applied in one computational step) has some important properties regarding solution of NP-problems in lineal time and of course, lineal resources. There are a great number of variants such as hybrid networks, splicing processors, etc. that provide the model a computational power equivalent to Turing machines. The origin of networks of evolutionary processors (NEP for short) is a basic architecture for parallel and distributed symbolic processing, related to the Connection Machine as well as the Logic Flow paradigm, which consists of several processors, each of them being placed in a node of a virtual complete graph, which are able to handle data associated with the respective node. All the nodes send simultaneously their data and the receiving nodes handle also simultaneously all the arriving messages, according to some strategies. In a series of papers one considers that each node may be viewed as a cell having genetic information encoded in DNA sequences which may evolve by local evolutionary events, that is point mutations. Each node is specialized just for one of these evolutionary operations. Furthermore, the data in each node is organized in the form of multisets of words (each word appears in an arbitrarily large number of copies), and all the copies are processed in parallel such that all the possible events that can take place do actually take place. Obviously, the computational process just described is not exactly an evolutionary process in the Darwinian sense. But the rewriting operations we have considered might be interpreted as mutations and the filtering process might be viewed as a selection process. Recombination is missing but it was asserted that evolutionary and functional relationships between genes can be captured by taking only local mutations into consideration. It is clear that filters associated with each node allow a strong control of the computation. Indeed, every node has an input and output filter; two nodes can exchange data if it passes the output filter of the sender and the input filter of the receiver. Moreover, if some data is sent out by some node and not able to enter any node, then it is lost. In this paper we simplify the ANSP model considered in by moving the filters from the nodes to the edges. Each edge is viewed as a two-way channel such that the input and output filters coincide. Clearly, the possibility of controlling the computation in such networks seems to be diminished. For instance, there is no possibility to loose data during the communication steps. In spite of this and of the fact that splicing is not a powerful operation (remember that splicing systems generates only regular languages) we prove here that these devices are computationally complete. As a consequence, we propose characterizations of two complexity classes, namely NP and PSPACE, in terms of accepting networks of restricted splicing processors with filtered connections. We proposed a uniform linear time solution to SAT based on ANSPFCs with linearly bounded resources. This solution should be understood correctly: we do not solve SAT in linear time and space. Since any word and auxiliary word appears in an arbitrarily large number of copies, one can generate in linear time, by parallelism and communication, an exponential number of words each of them having an exponential number of copies. However, this does not seem to be a major drawback since by PCR (Polymerase Chain Reaction) one can generate an exponential number of identical DNA molecules in a linear number of reactions. It is worth mentioning that the ANSPFC constructed above remains unchanged for any instance with the same number of variables. Therefore, the solution is uniform in the sense that the network, excepting the input and output nodes, may be viewed as a program according to the number of variables, we choose the filters, the splicing words and the rules, then we assign all possible values to the variables, and compute the formula.We proved that ANSP are computationally complete. Do the ANSPFC remain still computationally complete? If this is not the case, what other problems can be eficiently solved by these ANSPFCs? Moreover, the complexity class NP is exactly the class of all languages decided by ANSP in polynomial time. Can NP be characterized in a similar way with ANSPFCs?
Resumo:
La mecanización de las labores del suelo es la causa, por su consumo energético e impacto directo sobre el medio ambiente, que más afecta a la degradación y pérdida de productividad de los suelos. Entre los factores de disminución de la productividad se deben considerar la compactación, la erosión, el encostramiento y la pérdida de estructura. Todo esto obliga a cuidar el manejo agrícola de los suelos tratando de mejorar las condiciones del suelo y elevar sus rendimientos sin comprometer aspectos económicos, ecológicos y ambientales. En el presente trabajo se adecuan los parámetros constitutivos del modelo de Drucker Prager Extendido (DPE) que definen la fricción y la dilatancia del suelo en la fase de deformación plástica, para minimizar los errores en las predicciones durante la simulación de la respuesta mecánica de un Vertisol mediante el Método de Elementos Finitos. Para lo cual inicialmente se analizaron las bases teóricas que soportan este modelo, se determinaron las propiedades y parámetros físico-mecánicos del suelo requeridos como datos de entrada por el modelo, se determinó la exactitud de este modelo en las predicciones de la respuesta mecánica del suelo, se estimaron mediante el método de aproximación de funciones de Levenberg-Marquardt los parámetros constitutivos que definen la trayectoria de la curva esfuerzo-deformación plástica. Finalmente se comprobó la exactitud de las predicciones a partir de las adecuaciones realizadas al modelo. Los resultados permitieron determinar las propiedades y parámetros del suelo, requeridos como datos de entrada por el modelo, mostrando que su magnitud está en función su estado de humedad y densidad, además se obtuvieron los modelos empíricos de estas relaciones exhibiendo un R2>94%. Se definieron las variables que provocan las inexactitudes del modelo constitutivo (ángulo de fricción y dilatancia), mostrando que las mismas están relacionadas con la etapa de falla y deformación plástica. Finalmente se estimaron los valores óptimos de estos ángulos, disminuyendo los errores en las predicciones del modelo DPE por debajo del 4,35% haciéndelo adecuado para la simulación de la respuesta mecánica del suelo investigado. ABSTRACT The mechanization using farming techniques is one of the main factors that affects the most the soil, causing its degradation and loss of productivity, because of its energy consumption and direct impact on the environment. Compaction, erosion, crusting and loss of structure should be considered among the factors that decrease productivity. All this forces the necessity to take care of the agricultural-land management trying to improve soil conditions and increase yields without compromising economic, ecological and environmental aspects. The present study was aimed to adjust the parameters of the Drucker-Prager Extended Model (DPE), defining friction and dilation of soil in plastic deformation phase, in order to minimize the error of prediction when simulating the mechanical response of a Vertisol through the fine element method. First of all the theoretic fundamentals that withstand the model were analyzed. The properties and physical-mechanical parameters of the soil needed as input data to initialize the model, were established. And the precision of the predictions for the mechanical response of the soil was assessed. Then the constitutive parameters which define the path of the plastic stress-strain curve were estimated through Levenberg-Marquardt method of function approximations. Lastly the accuracy of the predictions from the adequacies made to the model was tested. The results permitted to determine those properties and parameters of the soil, needed in order to initialize the model. It showed that their magnitude is in function of density and humidity. Moreover, the empirical models from these relations were obtained: R2>94%. The variables producing inaccuracies in the constitutive model (angle of repose and dilation) were defined, and there was showed that they are linked with the plastic deformation and rupture point. Finally the optimal values of these angles were established, obtaining thereafter error values for the DPE model under 4, 35%, and making it suitable for the simulation of the mechanical response of the soil under study.
Resumo:
A pesar de los innegables beneficios físicos y psicosociales que la práctica de actividad física tiene para la población en las últimas décadas se observa un importante descenso en el nivel de práctica de actividad física durante la adolescencia. La Educación Física (EF) es una asignatura presente en las primeras etapas educativas de los currículums de todos los países y supone para la población infantil y adolescente, durante el periodo de escolarización obligatoria, un entorno de contacto cotidiano con la actividad física y deportiva lo que explica el creciente interés que existe por investigar en este contexto y extraer conclusiones que puedan ayudar a revertir el proceso de progresivo abandono de la práctica en estas edades. El presente trabajo se centra en un periodo, la adolescencia, especialmente sensible al abandono de la práctica de actividad física. Apoyándonos en tres de los marcos teóricos más importantes de los últimos años - Teoría de Metas de Logro, Teoría de la Autodeterminación y Teoría del Flow - hemos realizado un diseño con tres estudios complementarios que nos permitan avanzar en el conocimiento de las variables que afectan a esta realidad. En el primero de los estudios, en el que participaron 3990 estudiantes de EF de España, Argentina, Colombia y Ecuador con edades comprendidas entre 12 y 18 años, se fijaron como objetivos el establecimiento de perfiles motivacionales en estudiantes de EF considerando las orientaciones motivacionales, la motivación intrínseca y el flow disposicional; la comprobación de la posible estabilidad de los perfiles establecidos en cuatro países diferentes; y el análisis de la relación entre los perfiles motivacionales establecidos con la práctica de actividad física realizada en la actualidad y la intención de ser activo en el futuro. Los resultados revelaron la existencia de tres perfiles motivacionales en los estudiantes: perfil de motivación baja-moderada, perfil de motivación de alta motivación con bajo ego y perfil de alta motivación. Se encontraron similitudes en los perfiles motivacionales obtenidos en los cuatro países analizados, sugiriéndose la posibilidad de que la lengua materna compartida pueda ser una variable de influencia en la existencia de patrones conductuales similares. La orientación al ego resultó ser un elemento diferenciador en la relación de los dos perfiles que mostraron niveles más altos de motivación intrínseca, flow disposicional y orientación a la tarea con las variables de práctica. Mayores niveles de orientación al ego determinaron mayores valores de práctica e intención de práctica. En el segundo estudio, en el que participaron 365 estudiantes de EF de España, Argentina y Colombia con edades comprendidas entre 12 y 16 años, se testó un modelo explicativo de la intención de ser físicamente activo en el futuro en estudiantes de EF poco motivados introduciendo el flow disposicional como variable explicativa junto a las orientaciones motivacionales y la motivación intrínseca. El modelo de ecuaciones estructurales testado muestra que tanto la orientación al ego como la orientación a la tarea y la motivación intrínseca predijeron el flow disposicional. No se encontró un efecto significativo de la orientación a la tarea sobre la motivación intrínseca, ni de esta sobre la intención de práctica de AFD en el futuro. El flow disposicional resultó ser un mediador entre ambas orientaciones motivacionales y dicha intención, adquiriendo un papel relevante en la predicción de la intención de realizar actividad física en el futuro en los sujetos con poca motivación hacia la clase de EF. En el último estudio, con una muestra de 53 estudiantes de EF pertenecientes a dos clases de segundo curso de ESO con edades comprendidas entre 13 y 15 años, se analizó el efecto de una intervención de apoyo a las NPB sobre la satisfacción de las mismas, la motivación intrínseca, la disposición a experimentar flow y la intención de ser físicamente activo en el futuro; estudiándose también el efecto de la misma sobre ciertas variables presentes en el proceso de enseñanza-aprendizaje tales como la diversión, el aprendizaje y el gusto hacia el contenido y la metodología empleada. La intervención resultó efectiva en la mejora de todas las variables motivacionales analizadas a excepción de la satisfacción de la necesidad de relaciones sociales, variable que podría ser más difícilmente modificable en tanto que los grupos de clase suelen permanecer estables a lo largo de esta etapa educativa. Los alumnos de la condición experimental presentaron niveles más elevados de diversión, aprendizaje y gusto hacia el contenido y la metodología empleada. ABSTRACT Despite the undeniable physical and psychological benefits that physical activity has on health, a significant drop in the level of physical activity during adolescence has been observed over the last few decades. Physical education (PE) is present in the early stages of educational curricula of all countries, creating an environment in which children and adolescents can maintain daily contact with sport and physical activity during the period of compulsory education. There is thus a growing interest in research within this context, helping to draw conclusions aimed at reversing the progressive decline of physical activity in this age bracket. The work presented here focuses on adolescence – a period particularly sensitive when faced with declining rates of physical activity. Relying on three of the most important recent theoretical frameworks – Achievement Goal Theory, Self-Determination Theory and Flow Theory – we have carried out a design using three complementary studies that allow us to advance the understanding of variables affecting this reality. The first two studies employ a correlational methodology while the third follows a quasi-experimental design. The objectives of the first study, with the participation of 3990 PE students aged 12 to 18 from Spain, Argentina, Colombia and Ecuador, were: a) to establish motivational profiles in physical education students taking into consideration motivational orientations, intrinsic motivation and dispositional flow; b) to check the possible stability of the established profiles in the four countries; and c) to analyze the relationship between motivational profiles and both current levels of physical activity and intention to be physically active in the future. Results revealed the existence of three motivational profiles: low-moderate motivation profile, high motivation and low ego profile and high motivation profile. Similarities were found across the four countries, which presents the possibility that sharing the same mother tongue might influence the existence of similar behavioral patterns. Amongst the profiles that showed the highest levels of intrinsic motivation, dispositional flow and task orientation with practice variables, ego orientation became apparent as a differentiating element. Higher levels of ego orientation correlated with higher levels both in current level of physical activity and intention to be physically active in the future. In the second study, with the participation of 365 PE students aged 12 to 16 from Spain, Argentina and Colombia, an explanatory model of the intention to be physically active within the low-moderate motivation profile was tested, including dispositional flow as an influence variable together with motivational orientations and intrinsic motivation. The structural model equation in the low-moderate motivation profile shows some differences with respect to findings of similar studies using heterogeneous samples in motivational profiles. It was found that ego orientation, task orientation and intrinsic motivation predicted dispositional flow. No significant effects of task orientation on intrinsic motivation, or of intrinsic motivation on intention to be physically active in the future were found. Dispositional flow emerged as a mediator between both motivational orientations and intention, acquiring an important role in the prediction of future intentions to be physically active in adolescents who show low levels of motivation towards physical education. In the last of the three studies, with the participation of 53 PE students drawn from two classes in the second year of secondary education aged 13 to 15, the effect of an intervention to support basic psychological needs was tested against the satisfaction of these needs, intrinsic motivation, disposition to experience flow and intention to be physically active in the future. Alongside this, the aforementioned intervention was tested on certain variables present in the teaching-learning process such as fun, learning and taste for the activity and methodology. Supportive intervention was effective in improving all the motivational variables, except for the satisfaction of the relatedness variable, which may be more difficult to modify as class groups tend to remain stable throughout this educational state. Students in the experimental condition showed higher levels of fun, learning and taste for the content and methodology.