17 resultados para Núcleos de significación motriz
em Universidad Politécnica de Madrid
Resumo:
Uno de los objetivos del Proyecto europeo NURISP (NUclear Reactor Integrated Platform) del 7º Programa Marco es avanzar en la simulación de reactores de agua ligera mediante el acoplamiento de códigos best-estimate que profundicen en la física de núcleo, termohidráulica bifásica y comportamiento del combustible [1]. Uno de estos códigos es COBAYA3, código de difusión 3D en multigrupos pin-by-pin desarrollado en la UPM, que requiere de librerías de secciones eficaces homogeneizadas a nivel de la barrita de combustible.
Resumo:
La tendencia más extendida actualmente para el análisis tridimensional de núcleos PWR se basa en la utilización de códigos de difusión en multigrupos. Uno de ellos es el código COBAYA3, desarrollado en el Departamento de Ingeniería Nuclear de la Universidad Politécnica de Madrid. Estos códigos emplean como datos de entrada librerías de parámetros equivalentes homogeneizados (secciones eficaces y factores de discontinuidad), que dependen, entre otros, de las variables locales en el reactor (temperatura del combustible, temperatura del moderador, densidad del moderador y concentración de boro). Típicamente, esos parámetros se pre-generan para cada tipo de elemento con un código de transporte determinista..
Resumo:
Mostraremos los resultados obtenidos en la búsqueda de las condiciones de crecimiento óptimas para que las propiedades magnéticas de aleaciones de CoP sean las adecuadas para utilizarlas como núcleos de sensores. Demostraremos que utilizando una densidad de corriente adecuada en el proceso de electrodeposición, es posible obtener aleaciones formadas por capas ferromagnéticas de distinta composición que presentan anisotropía en el plano y un campo coercitivo comparable al de las aleaciones producidas por enfriamiento ultrarrápido. Como ánodos empleamos láminas de cobalto de 1 mm de espesor y una pureza del 99.95%. Como sustratos utilizamos tanto láminas de Cu como sustratos fabricados por sputtering. Durante la electrodeposición se ha utilizado la agitación del electrolito y la vibración del cátodo para facilitar el desprendimiento de las burbujas de H2 que se generan durante el proceso. De esta forma se han obtenido las monocapas controlando los dos parámetros siguientes: la densidad de corriente y el tiempo de aplicación de la misma. Por otro lado, para las multicapas se han aplicado pulsos de corriente donde se han tenido que controlar la duración de los pulsos y la intensidad de los mismos.
Resumo:
El objetivo del proyecto ha sido desarrollar una funcionalización de las secciones eficaces nodales en multigrupos para códigos tridimensionales de núcleos de agua a presión. Se ha estudiado la dependencia de las secciones eficaces con las condiciones locales de operación: temperatura del combustible, temperatura del moderador, densidad del moderador y concentración de boro. Y se ha desarrollado un modelo que permite determinar las secciones eficaces en función de dichas variables operacionales. De esta forma, pueden reproducirse en el cálculo nodal 3D valores precisos de las secciones eficaces para la resolución de la ecuación de difusión en multigrupos. Se consigue así evitar el uso de ingentes librerías de secciones eficaces pregeneradas para todas las posibles combinaciones de condiciones de operación. Este estudio se ha realizado a nivel de elemento combustible, analizando las diferencias y similitudes con la funcionalización requerida a nivel de celda, estudiándose igualmente condensaciones en distintos números de grupos de energía para obtener una librería de tamaño óptimo. Las actividades desarrolladas han sido: i) utilización de un código de transporte determinista para obtener secciones eficaces homogeneizadas a nivel de elemento; ii) desarrollo de un procedimiento para la generación de todos los parámetros al cambiar las condiciones de operación y análisis de la variación de las secciones eficaces al cambiar dichas condiciones, estudiando los posibles efectos cruzados; iii) una vez finalizado el estudio de la funcionalización de los parámetros con las variables locales, se ha valorado esta librería mediante cálculos con el código de difusión 3D COBAYA3.
Resumo:
La presente tesis doctoral se centra en el estudio de dos yacimientos de macrorrestos fosiles vegetales, en especial maderas en diferentes estados de conservacion, y su interpretacion dentro del contexto del Neogeno Iberico. En primer lugar se detallan los objetivos del trabajo y los antecedentes del mismo. A continuacion, se describen detalladamente los dos yacimientos estudiados y se exponen las tecnicas empleadas de acuerdo con los diferentes tipos de materiales. Mas tarde se identifican taxonomicamente todos los restos hallados en los mismos. En el mismo capitulo de resultados se aplica el Metodo de Coexistencia sobre los principales yacimientos neogenos de la peninsula Iberica, para la estimacion de valores climaticos y se elabora un modelo de evolucion climatica para este periodo. Por ultimo, se discuten los resultados obtenidos, estableciendo una hipotesis de composicion y estructura de los bosques que vivieron en el tiempo en el que se depositaron los restos estudiados, se comparan con los datos obtenidos por otros autores y se combinan estos resultados con los datos del modelo de clima para reconstruir una sintesis de la evolucion de la vegetacion de la Peninsula durante el Periodo Neogeno y Gelasiense. Abstract This PhD thesis is based on the study of two different sites of vegetal fossil remains, specially wood in different preservation states, and their meaning in Iberian Neogene context. First of all, the objectives of the work and previous records are explained thoroughly. Secondly, the two deposits are described in detail, as well as the techniques used, according to different types of materials. Later on, all the samples found in each one are identified. In the same chapter of results, the “Coexistence Approach” is applied on the main Neogen sites of the Iberian Peninsula to estimate climatic intervals, and a model of climatic evolution for this period is built. Finally, the achieved results are discussed, setting an hypothesis about the composition and structure of the forests that lived in the time when the studied samples were settled. These results are then compared with the data gathered by different authors, and related to the data of the climatic model, to make a synthesis of the evolution of the vegetation in the Iberian Peninsula, during Neogene and Gelasian.
Resumo:
El presente Trabajo Fin de Master (TFM) está inserto dentro del Programa Sepahua-Agua que Energía Sin Fronteras (ESF) desarrolla a petición de la Municipalidad peruana de Sepahua, Ucayali. El TFM es el proyecto de instalación domiciliaria y saneamiento de la primera fase de dicho programa. El Programa Sepahua-Agua surge por la preocupación de los habitantes rurales y de la municipalidad de Sepahua por la calidad del agua que tienen, tanto por el acceso al agua potable como del tratamiento de sus residuos, y que es la causante de los problemas de desnutrición infantil que la población está padeciendo. Ante la falta de capacitación técnica para resolver el problema la municipalidad de Sepahua solicitó ayuda a la ONG española ESF, que ya había trabajado en esta localidad ayudando a la Misión Dominica de El Rosario de Sepahua y que actúa de contraparte en el programa. El programa se divide en dos fases: la primera se centra en aportar una solución de agua y saneamiento para cuatro barrios ribereños de la Villa de Sepahua: San Fernando, Santa Elena, San Felipe y Santa Rosa. La segunda fase buscará la posibilidad de ofrecer a otras comunidades de la ribera del Río Urubamba el proyecto realizado en la primera fase como una solución ejecutable. La primera fase del programa empezó hace año y medio. Tras unos meses de estudio de la situación desde Madrid, se entendió como imprescindible mandar a dos técnicos para que realizaran la toma de datos necesaria para poder seguir adelante. Los dos voluntarios de ESF que fuimos a trabajar en terreno somos también alumnos del Master en Tecnología para el Desarrollo Humano y la Cooperación. Durante la estancia de seis meses se alcanzaron los siguientes resultados: una descripción topográfica de la zona del proyecto, ubicando cada vivienda de los Barrios Ribereños, sus instalaciones de agua y saneamiento actuales, las quebradas o manantes de la zona y los pozos existentes; un análisis del agua y obtención del caudal de las quebradas que se vieron como posibles captaciones; un diagnóstico de la situación actual respecto al agua y saneamiento en los Barrios Ribereños; una identificación social para conocer las peculiaridades sobre su organización social, el manejo del agua que tienen en cada barrio, su cultura del agua, sus prácticas higiénicas y el nivel de salud en el que viven; un taller de diseño con la población para conocer su opinión sobre las futuras instalaciones que se construirán en las viviendas. Con estos datos se ha podido elaborar el diseño de la solución técnica para los cuatro barrios ribereños que consiste en: una captación de agua; su acumulación y reserva en depósitos; la distribución de agua ya tratada y clorada en cada domicilio; un Núcleo Húmedo de Higiene en cada vivienda como instalación domiciliaria; el saneamiento de cada uno de esos Núcleos Húmedos de Higiene. A su vez durante la primera fase también se realizarán los siguientes trabajos: la ejecución de la solución técnica; formación de la población para que adquieran los conocimientos que les ayuden a tener conciencia de la importancia de las buenas prácticas de higiene y cuiden y obtengan el mejor uso posible de su nueva instalación; una estrategia de sostenibilidad como propuesta de administración, operación y mantenimiento teniendo en cuenta a los pobladores de los barrios; una estrategia de implementación del sistema; el monitoreo y la evaluación del proyecto ejecutado por parte de ESF. En resumen, el presente TFM se centra en el proyecto de la primera fase que consiste en: los Núcleos Húmedos de Higiene como instalación domiciliaria; el saneamiento de estos núcleos; los demás aspectos relativos a los Núcleos Húmedos de Higiene como su mantenimiento, control, buen uso por parte de la población… El proyecto de captación, reserva, cloración y distribución del agua, también presentes en la primera fase del programa, son tratados en el TFM de Alba Gómez Calvo, alumna también del Master en Tecnología para el Desarrollo Humano y la Cooperación. Ambos TFM se complementan entre si y conjuntamente forman la primera fase del Programa Sepahua-Agua.
Resumo:
Se presenta este artículo con el ánimo de enumerar y estudiar diferentes algoritmos que tratan la generalización de datos cartográficos vectoriales de zonas urbanas, debido a que en ellas se concentran la mayoría de los conflictos que se pueden encontrar en los procesos de generalización cartográfica. A pesar de que la generalización es uno de los procedimientos más difíciles de automatizar, existen herramientas que implementan estos algoritmos y ofrecen resultados satisfactorios, aunque ninguna de ellas es capaz de automatizar por completo el proceso de generalización. A continuación, se incluyen las pruebas realizadas al respecto, describiendo y analizando los resultados obtenidos, estableciendo una comparativa con trabajos realizados por diferentes autores. Se concluye el documento valorando los posibles trabajos futuros para solventar la problemática de la generalización cartográfica. Este estudio se encuentra en el marco del proyecto CENIT España Virtual. Abstract: This article is focused in studying different algorithms about generalization of vector map data from urban areas, because most of the conflicts in the processes of cartographic generalization are concentrated in these areas. Although generalization is one of the most difficult processes to automate, there are tools that implement these algorithms and provide satisfactory results. However,none of them can automate the process of generalization completely. Then tests in describing and analyzing the results are included, establishing a comparison with works of various authors. The document concludes by assessing the possible future works to solve the problem of cartographic generalization. This study is within the CENIT project España Virtual.
Resumo:
En este estudio se exploró y analizó el comportamiento visual de un grupo de porteros expertos de fútbol sala con el objetivo de comprobar cómo el tipo de respuesta motriz solicitada influía en su comportamiento visual. Participaron 4 porteros a los que se les presentó un total de 48 clips de vídeo en una pantalla a tamaño real, bajo dos condiciones de respuesta: con movimiento de parada y sin movimiento de parada. Se registró su mirada con el pupilómetro ASL Mobile Eye durante dos condiciones de tiro de penalti. Se analizó la mirada en el intervalo de -250 a 205 ms en torno al disparo. Los resultados mostraron que cuando respondían con la acción habitual de parada, solo se encontraron fijaciones en la mitad de los casos, estas fijaciones eran de corta duración y localizadas principalmente en la zona del suelo justo enfrente del balón. Por el contrario, cuando se mantenían en posición estática, su mirada se dirigía hacia la zona entre el balón y la pierna de apoyo, empleando fijaciones de una duración más larga. Se puede concluir que el comportamiento visual fue diferente entre las dos condiciones como resultado de la adaptación a las demandas espacio-temporales específicas de cada condición, ya que el grado de movimiento en la respuesta solicitada tuvo influencia en el comportamiento visual asociado.
Resumo:
El esquema actual que existe en el ámbito de la normalización y el diseño de nuevos estándares de codificación de vídeo se está convirtiendo en una tarea difícil de satisfacer la evolución y dinamismo de la comunidad de codificación de vídeo. El problema estaba centrado principalmente en poder explotar todas las características y similitudes entre los diferentes códecs y estándares de codificación. Esto ha obligado a tener que rediseñar algunas partes comunes a varios estándares de codificación. Este problema originó la aparición de una nueva iniciativa de normalización dentro del comité ISO/IEC MPEG, llamado Reconfigurable Video Coding (RVC). Su principal idea era desarrollar un estándar de codificación de vídeo que actualizase e incrementase progresivamente una biblioteca de los componentes, aportando flexibilidad y la capacidad de tener un código reconfigurable mediante el uso de un nuevo lenguaje orientado a flujo de Actores/datos denominado CAL. Este lenguaje se usa para la especificación de la biblioteca estándar y para la creación de instancias del modelo del decodificador. Más tarde, se desarrolló un nuevo estándar de codificación de vídeo denominado High Efficiency Video Coding (HEVC), que actualmente se encuentra en continuo proceso de actualización y desarrollo, que mejorase la eficiencia y compresión de la codificación de vídeo. Obviamente se ha desarrollado una visión de HEVC empleando la metodología de RVC. En este PFC, se emplean diferentes implementaciones de estándares empleando RVC. Por ejemplo mediante los decodificadores Mpeg 4 Part 2 SP y Mpeg 4 Part 10 CBP y PHP así como del nuevo estándar de codificación HEVC, resaltando las características y utilidad de cada uno de ellos. En RVC los algoritmos se describen mediante una clase de actores que intercambian flujos de datos (tokens) para realizar diferentes acciones. El objetivo de este proyecto es desarrollar un programa que, partiendo de los decodificadores anteriormente mencionados, una serie de secuencia de vídeo en diferentes formatos de compresión y una distribución estándar de los actores (para cada uno de los decodificadores), sea capaz de generar diferentes distribuciones de los actores del decodificador sobre uno o varios procesadores del sistema sobre el que se ejecuta, para conseguir la mayor eficiencia en la codificación del vídeo. La finalidad del programa desarrollado en este proyecto es la de facilitar la realización de las distribuciones de los actores sobre los núcleos del sistema, y obtener las mejores configuraciones posibles de una manera automática y eficiente. ABSTRACT. The current scheme that exists in the field of standardization and the design of new video coding standards is becoming a difficult task to meet the evolving and dynamic community of video encoding. The problem was centered mainly in order to exploit all the features and similarities between different codecs and encoding standards. This has forced redesigning some parts common to several coding standards. This problem led to the emergence of a new initiative for standardization within the ISO / IEC MPEG committee, called Reconfigurable Video Coding (RVC). His main idea was to develop a video coding standard and gradually incrementase to update a library of components, providing flexibility and the ability to have a reconfigurable code using a new flow -oriented language Actors / data called CAL. This language is used for the specification of the standard library and to the instantiation model decoder. Later, a new video coding standard called High Efficiency Video Coding (HEVC), which currently is in continuous process of updating and development, which would improve the compression efficiency and video coding is developed. Obviously has developed a vision of using the methodology HEVC RVC. In this PFC, different implementations using RVC standard are used. For example, using decoders MPEG 4 Part 2 SP and MPEG 4 Part 10 CBP and PHP and the new coding standard HEVC, highlighting the features and usefulness of each. In RVC, the algorithms are described by a class of actors that exchange streams of data (tokens) to perform different actions. The objective of this project is to develop a program that, based on the aforementioned decoders, a series of video stream in different compression formats and a standard distribution of actors (for each of the decoders), is capable of generating different distributions decoder actors on one or more processors of the system on which it runs, to achieve greater efficiency in video coding. The purpose of the program developed in this project is to facilitate the realization of the distributions of the actors on the cores of the system, and get the best possible settings automatically and efficiently.
Resumo:
En el presente artículo se realiza una reflexión sobre la noción de competencia motriz desde que en 1995 apareciera en el ámbito de la educación física. Su inclusión en el lenguaje educativo se ha visto favorecida tanto por su uso en los ámbitos laborales e industriales como por su identificación con la capacitación adquirida por los sujetos para el desempeño de una actividad profesional. No sería exagerado decir que vivimos un verdadero Enfoque Competencia. En la actualidad siguen estando vigentes las misma preguntas que sobre esta noción se plantearon los pioneros en su uso:¿Qué significa ser competente?, ¿De qué manera ad¬quieren los escolares su competen¬cia?, ¿Cómo cambia?, ¿Cómo contribuye la escuela a cultivar esta competencia? o ¿Cómo analizar el fenómeno de falta de competencia?. En el presente artículo se reflexiona sobre estas cuestiones.
Resumo:
Un pensamiento habitual entre los profesionales del mundo del fútbol es que los penaltis son una lotería, a pesar de que numerosos estudios empíricos que demuestran lo contrario. En este estudio se presenta una completa revisión de los estudios realizados en torno a la acción de penalti en el fútbol. El documento se articula en tres apartados principales: cómo aumentar las opciones del portero, cómo aumentar las opciones del tirador y por último, cómo aumentar las opciones del equipo en las tandas. En cada uno de los apartados se revisan cómo interactúan tres factores influyentes en el rendimiento de los penaltis desde una perspectiva holística: el componente perceptivo-motor, el análisis probabilístico, y el componente psicológico. Si existe un punto en común entre todos los estudios consultados es precisamente el énfasis que ponen los autores en la recomendación de entrenamiento de estas acciones. Por lo tanto, se concluye que los penaltis no son una lotería sino que deben entrenarse de forma adecuada para mejorar los resultados. En este sentido, el presente artículo podría resultar útil a la hora de programar entrenamiento ya que presenta un resumen de los principales hallazgos de la investigación en penaltis de fútbol.
Resumo:
En el presente artículo se discuten tres corrientes teóricas alter-nativas al cognitivismo, para explicar el desarrollo hacia la pericia en el ám-bito del aprendizaje y del control motor en deporte, haciendo especial énfa-sis en el enactivismo. En la primera parte se tratan las principales nociones de la psicología ecológica, como la regulación del movimiento, la percep-ción directa o la reciprocidad entre percepción y acción. A continuación se explican las principales aportaciones de la teoría de los sistemas dinámicos a la comprensión de la coordinación del movimiento, de la emergencia de la motricidad y de la interacción de las diferentes variables o restricciones. En el siguiente apartado, se expone el enfoque enactivo como una extensión conceptual proveniente de las ciencias cognitivas y que trasciende a los otros paradigmas. Desde esta orientación, se aboga por una fusión entre el cuerpo y la mente del deportista que es indisociable al medio ambiente y que se opone al dualismo y reduccionismo imperante. Por último, se pre-sentan algunas directrices y aplicaciones de investigaciones enactivas que en la actualidad están en pleno desarrollo. Palabras clave: Enactivismo; cognición; acoplamiento información-movimiento; post-cognitivismo; deporte; pericia.