22 resultados para García Gradual, Carlos
em Universidad Politécnica de Madrid
Study of rapid ionisation for simulation of soft X-ray lasers with the 2D hydro-radiative code ARWEN
Resumo:
We present our fast ionisation routine used to study transient softX-raylasers with ARWEN, a two-dimensional hydrodynamic code incorporating adaptative mesh refinement (AMR) and radiative transport. We compute global rates between ion stages assuming an effective temperature between singly-excited levels of each ion. A two-step method is used to obtain in a straightforward manner the variation of ion populations over long hydrodynamic time steps. We compare our model with existing theoretical results both stationary and transient, finding that the discrepancies are moderate except for large densities. We simulate an existing Molybdenum Ni-like transient softX-raylaser with ARWEN. Use of the fast ionisation routine leads to a larger increase in temperature and a larger gain zone than when LTE datatables are used.
Resumo:
Este trabajo describe un sistema desarrollado para evaluar la utilidad de las técnicas de aprendizaje basadas en explicaciones aplicadas a la comprensión de textos. Como punto de partida se toma la salida de un sistema de análisis que produce expresiones en lógica de predicados. El sistema de comprensión integra varios módulos, de entre los que destacan el primero, que construye modelos causales para los enunciados y acciones que componen la entrada –manteniendo un conjunto de esquemas estereotípicos candidatos para construir una explicación–, y el modulo de aprendizaje, que determina cuándo un cierto plan observado es interesante y reúne los requisitos para ser añadido como nuevo esquema para la comprensión de futuras narraciones.
Resumo:
Interpretación de la utilidad de los análisis para hongos fitopatógenos en suelos y sustratos para usos agrícolas
Resumo:
Definir el riesgo de rotura de un aneurisma, se considera un factor básico para elegir el momento adecuado de la intervención quirúrgica. Uno de los parámetros clásico utilizados es el diámetro del aneurisma (Ley de la Place). Sin embargo, otro factor mecánico como es el cociente entre la tensión máxima que soporta la pared (depende del diámetro de la aorta y de la morfología) y de la resistencia del material (pared de la aorta) es un elemento poco conocido. La razón estriba en comparar aortas “sanas” con “patológicas”. Este estudio lo hemos realizado en colaboración con el Departamento de Ciencias de Materiales de la Universidad Politécnica de Madrid
Resumo:
La diabetes mellitus es una enfermedad que se caracteriza por la nula o insuficiente producción de insulina, o la resistencia del organismo a la misma. La insulina es una hormona que ayuda a que la glucosa (por ejemplo la obtenida a partir de los alimentos ingeridos) llegue a los tejidos periféricos y al sistema nervioso para suministrar energía. Hoy en día la tecnología actual permite abordar el desarrollo del llamado “páncreas endocrino artificial”, que consta de un sensor continuo de glucosa subcutánea, una bomba de infusión subcutánea de insulina y un algoritmo de control en lazo cerrado que calcule la dosis de insulina requerida por el paciente en cada momento, según la medida de glucosa obtenida por el sensor y según unos objetivos. El mayor problema que presentan los sistemas de control en lazo cerrado son los retardos, el sensor de glucosa subcutánea mide la glucosa del líquido intersticial, que representa la que hubo en la sangre un tiempo atrás, por tanto, un cambio en los niveles de glucosa en la sangre, debidos por ejemplo, a una ingesta, tardaría un tiempo en ser detectado por el sensor. Además, una dosis de insulina suministrada al paciente, tarda un tiempo aproximado de 20-30 minutos para la llegar a la sangre. Para evitar trabajar en la medida que sea posible con estos retardos, se intenta predecir cuál será el nivel de glucosa en un futuro próximo, para ello se utilizara un predictor de glucosa subcutánea, con la información disponible de glucosa e insulina. El objetivo del proyecto es diseñar una metodología para estimar el valor futuro de los niveles de glucosa obtenida a partir de un sensor subcutáneo, basada en la identificación recursiva del sistema glucorregulatorio a través de modelos lineales y determinando un horizonte de predicción óptimo de trabajo y analizando la influencia de la insulina en los resultados de la predicción. Se ha implementado un predictor paramétrico basado en un modelo autorregresivo ARX que predice con mejor precisión y con menor RMSE que un predictor ZOH a un horizonte de predicción de treinta minutos. Utilizar información relativa a la insulina no tiene efecto en la predicción. El preprocesado, postprocesado y el tratamiento de la estabilidad tienen un efecto muy beneficioso en la predicción. Diabetes mellitusis a group of metabolic diseases in which a person has high blood sugar, either because the body does not produce enough insulin, or because cells do not respond to the insulin produced. The insulin is a hormone that helps the glucose to reach to outlying tissues and the nervous system to supply energy. Nowadays, the actual technology allows raising the development of the “artificial endocrine pancreas”. It involves a continuous glucose sensor, an insulin bump, and a full closed loop algorithm that calculate the insulin units required by patient at any time, according to the glucose measure obtained by the sensor and any target. The main problem of the full closed loop systems is the delays, the glucose sensor measures the glucose in the interstitial fluid that represents the glucose was in the blood some time ago. Because of this, a change in the glucose in blood would take some time to be detected by the sensor. In addition, insulin units administered by a patient take about 20-30 minutes to reach the blood stream. In order to avoid this effect, it will try to predict the glucose level in the near future. To do that, a subcutaneous glucose predictor is used to predict the future glucose with the information about insulin and glucose. The goal of the proyect is to design a method in order to estimate the future valor of glucose obtained by a subcutaneous sensor. It is based on the recursive identification of the regulatory system through the linear models, determining optimal prediction horizon and analyzing the influence of insuline on the prediction results. A parametric predictor based in ARX autoregressive model predicts with better precision and with lesser RMSE than ZOH predictor in a thirty minutes prediction horizon. Using the relative insulin information has no effect in the prediction. The preprocessing, the postprocessing and the stability treatment have many advantages in the prediction.
Resumo:
La enfermedad fúngica de la punta negra del trigo se caracteriza por provocar en las semillas afectadas un oscurecimiento de la zona del embrión que en ocasiones puede extenderse hacia la hendidura central dejando el grano completamente ennegrecido. Su incidencia en el cultivo de trigo es extremadamente variable y depende en gran medida de las condiciones ambientales, así pues, condiciones de alta humedad pueden incrementar a punta negra. Su presencia en el trigo duro repercute en el rendimiento semolero. Además la pasta elaborada a partir de semilla enferma presenta manchas negras y adquiere color y olor desagradable. Esta enfermedad es poco conocida a nivel europeo, sin embargo existen numerosos estudios para conocer su etiología y los factores que afectan a su aparición en países como Nueva Zelanda, Australia, Estados Unidos o Canadá. El presente trabajo pretende dar a conocer esta patología en España, determinando la influencia del riego, el abonado nitrogenado y la variedad cultivada en la incidencia de la enfermedad. Para ello se ha contado con un diseño experimental basado en 10 cultivares sembrados en parcelas con dos tratamientos de riego y dos de abonado nitrogenado. El análisis de las semillas infectadas en cámara húmeda y medios de cultivo PDA y K reveló 12 géneros fúngicos diferentes, de los cuales Alternaria alternata y Fusarium proliferatum estaban presentes en todas las muestras. El estudio del riego y abonado nitrogenado mostró diferencias significativas en la incidencia de punta negra pero fueron los 10 cultivares incluidos en el ensayo los que mayor importancia cobraron desde el punto de vista de la aparición de la enfermedad. El genotipo resultó determinante a la hora de establecer los niveles de afectación ya que las muestras encuadradas botánicamente como Triticum turgidum subsp. Turgidum convar. Turgidum presentaron una mayor susceptibilidad. las prueas de patogenicidd con los tres principales hongos asociados a la punta negra dieron resultados negativos para la germinación-nascencia de las plántulas de trigo duro inoculadas.
Resumo:
La fusariosis del cuello y de las raíces del tomate ("mancha chocolate"), causada por el hongo F. o. f. sp. radicis-lycopersici, es una micosis cada vez más extendida en los cultivos de tomate de las provincias de Almería y Granada. Su gravedad es alta, llegando a alcanzar al 78% de las plantas en algún invernadero con cultivo sobre fibra de coco. Ante esta situación, se estimó necesario evaluar la resistencia de patrones utilizados para injertar variedades de tomate. Así, 16 patrones fueron valorados frente a una cepa muy patógena del hongo. Los patrones fueron:CLXTPG01, AR9704, AR97015, AR97009, Morgan, Spirit, Herman, Armstrong, Arnold, Big Power, Emperador, 61-071, Montezuma, Beaufort, Multifort, Maxifort, Tovi Star y Alegro. Dos ensayos sobre plantas en estado de 6-8 hojas verdaderas bien formadas, mostraron que todos los patrones expresaron una resistencia completa, exceptuando los denominados CLXTPG01 y AR97015. Entendemos que esta información es necesaria debidio a la escasa disponibilidad.
Resumo:
La razón de este proyecto, es la de desarrollar el módulo de cursos de la plataforma de Massive Online Open Courses (MOOCs), CloudRoom. Dicho módulo está englobado en una arquitectura orientada a servicios (SOA) y en una infraestructura de Cloud Computing utilizando Amazon Web Services (AWS). Nuestro objetivo es el de diseñar un Software as a Service (SaaS) robusto con las cualidades que a un producto de este tipo se le estiman: alta disponibilidad, alto rendimiento, gran experiencia de usuario y gran extensibilidad del sistema. Para lograrlo, se llevará a cabo la integración de las últimas tendencias tecnológicas dentro del desarrollo de sistemas distribuidos como Neo4j, Node.JS, Servicios RESTful, CoffeeScript. Todo esto siguiendo un estrategia de desarrollo PLAN-DO-CHECK utilizando Scrum y prácticas de metodologías ágiles. ---ABSTRACT---The reason of this Project is to develop the courses‟ module of CloudRoom, a Massive Online Open Courses platform. This module is encapsulated in a service-oriented architecture (SOA) based on a Cloud Computing infrastructure built on Amazon Web Services (AWS). Our goal is to design a robust Software as a Service (SaaS) with the qualities that are estimated in a product of this type: high availability, high performance, great user experience and great extensibility of the system. In order to address this, we carry out the integration of the latest technology trends in the development of distributed systems: Neo4j, Node.JS, RESTful Services and CoffeeScript. All of this, following a development strategy PLAN-DO-CHECK, using Scrum and practices of agile methodologies.
Resumo:
Se comenzó el trabajo recabando información sobre los distintos enfoques que se le había dado a la anotación a lo largo del tiempo, desde anotación de imágenes a mano, pasando por anotación de imágenes utilizando características de bajo nivel, como color y textura, hasta la anotación automática. Tras entrar en materia, se procedió a estudiar artículos relativos a los diferentes algoritmos utilizados para la anotación automática de imágenes. Dado que la anotación automática es un campo bastante abierto, hay un gran numero de enfoques. Teniendo las características de las imágenes en particular en las que se iba a centrar el proyecto, se fueron descartando los poco idoneos, bien por un coste computacional elevado, o porque estaba centrado en un tipo diferente de imágenes, entre otras cosas. Finalmente, se encontró un algoritmo basado en formas (Active Shape Model) que se consideró que podría funcionar adecuadamente. Básicamente, los diferentes objetos de la imagen son identicados a partir de un contorno base generado a partir de imágenes de muestra, siendo modicado automáticamente para cubrir la zona deseada. Dado que las imágenes usadas son todas muy similares en composición, se cree que puede funcionar bien. Se partió de una implementación del algoritmo programada en MATLAB. Para empezar, se obtuvieron una serie de radiografías del tórax ya anotadas. Las imágenes contenían datos de contorno para ambos pulmones, las dos clavículas y el corazón. El primer paso fue la creación de una serie de scripts en MATLAB que permitieran: - Leer y transformar las imágenes recibidas en RAW, para adaptarlas al tamaño y la posición de los contornos anotados - Leer los archivos de texto con los datos de los puntos del contorno y transformarlos en variables de MATLAB - Unir la imagen transformada con los puntos y guardarla en un formato que la implementación del algoritmo entendiera. Tras conseguir los ficheros necesarios, se procedió a crear un modelo para cada órgano utilizando para el entrenamiento una pequeña parte de las imágenes. El modelo obtenido se probó con varias imágenes de las restantes. Sin embargo, se encontro bastante variación dependiendo de la imagen utilizada y el órgano detectado. ---ABSTRACT---The project was started by procuring information about the diferent approaches to image annotation over time, from manual image anotation to automatic annotation. The next step was to study several articles about the diferent algorithms used for automatic image annotation. Given that automatic annotation is an open field, there is a great number of approaches. Taking into account the features of the images that would be used, the less suitable algorithms were rejected. Eventually, a shape-based algorithm (Active Shape Model) was found. Basically, the diferent objects in the image are identified from a base contour, which is generated from training images. Then this contour is automatically modified to cover the desired area. Given that all the images that would be used are similar in object placement, the algorithm would probably work nicely. The work started from a MATLAB implementation of the algorithm. To begin with, a set of chest radiographs already annotated were obtained. These images came with contour data for both lungs, both clavicles and the heart. The first step was the creation of a series of MATLAB scripts to join the RAW images with the annotation data and transform them into a format that the algorithm could read. After obtaining the necessary files, a model for each organ was created using part of the images for training. The trained model was tested on several of the reimaining images. However, there was much variation in the results from one image to another. Generally, lungs were detected pretty accurately, whereas clavicles and the heart gave more problems. To improve the method, a new model was trained using half of the available images. With this model, a significant inprovement of the results can be seen.
Resumo:
En los últimos años la sociedad está experimentando una serie de cambios. Uno de estos cambios es la datificación (“datafication” en inglés). Este término puede ser definido como la transformación sistemática de aspectos de la vida cotidiana de las personas en datos procesados por ordenadores. Cada día, a cada minuto y a cada segundo, cada vez que alguien emplea un dispositivo digital,hay datos siendo guardados en algún lugar. Se puede tratar del contenido de un correo electrónico pero también puede ser el número de pasos que esa persona ha caminado o su historial médico. El simple almacenamiento de datos no proporciona un valor añadido por si solo. Para extraer conocimiento de los datos, y por tanto darles un valor, se requiere del análisis de datos. La ciencia de los datos junto con el análisis de datos se está volviendo cada vez más popular. Hoy en día, se pueden encontrar millones de web APIs estadísticas; estas APIs ofrecen la posibilidad de analizar tendencias o sentimientos presentes en las redes sociales o en internet en general. Una de las redes sociales más populares, Twitter, es pública. Cada mensaje, o tweet, publicado puede ser visto por cualquier persona en el mundo, siempre y cuando posea una conexión a internet. Esto hace de Twitter un medio interesante a la hora de analizar hábitos sociales o perfiles de consumo. Es en este contexto en que se engloba este proyecto. Este trabajo, combinando el análisis estadístico de datos y el análisis de contenido, trata de extraer conocimiento de tweets públicos de Twitter. En particular tratará de establecer si el género es un factor influyente en las relaciones entre usuarios de Twitter. Para ello, se analizará una base de datos que contiene casi 2.000 tweets. En primer lugar se determinará el género de los usuarios mediante web APIs. En segundo lugar se empleará el contraste de hipótesis para saber si el género influye en los usuarios a la hora de relacionarse con otros usuarios. Finalmente se construirá un modelo estadístico para predecir el comportamiento de los usuarios de Twitter en relación a su género.
Resumo:
A medida que la sociedad avanza, la cantidad de datos almacenados en sistemas de información y procesados por las aplicaciones y servidores software se eleva exponencialmente. Además, las nuevas tecnologías han confiado su desarrollo en la red internacionalmente conectada: Internet. En consecuencia, se han aprovechado las conexiones máquina a máquina (M2M) mediante Internet y se ha desarrollado el concepto de "Internet de las Cosas", red de dispositivos y terminales donde cualquier objeto cotidiano puede establecer conexiones con otros objetos o con un teléfono inteligente mediante los servicios desplegados en dicha red. Sin embargo, estos nuevos datos y eventos se deben procesar en tiempo real y de forma eficaz, para reaccionar ante cualquier situación. Así, las arquitecturas orientadas a eventos solventan la comprensión del intercambio de mensajes en tiempo real. De esta forma, una EDA (Event-Driven Architecture) brinda la posibilidad de implementar una arquitectura software con una definición exhaustiva de los mensajes, notificándole al usuario los hechos que han ocurrido a su alrededor y las acciones tomadas al respecto. Este Trabajo Final de Grado se centra en el estudio de las arquitecturas orientadas a eventos, contrastándolas con el resto de los principales patrones arquitectónicos. Esta comparación se ha efectuado atendiendo a los requisitos no funcionales de cada uno, como, por ejemplo, la seguridad frente a amenazas externas. Asimismo, el objetivo principal es el estudio de las arquitecturas EDA (Event-Driven Architecture) y su relación con la red de Internet de las Cosas, que permite a cualquier dispositivo acceder a los servicios desplegados en esa red mediante Internet. El objeto del TFG es observar y verificar las ventajas de esta arquitectura, debido a su carácter de tipo inmediato, mediante el envío y recepción de mensajes en tiempo real y de forma asíncrona. También se ha realizado un estudio del estado del arte de estos patrones de arquitectura software, así como de la red de IoT (Internet of Things) y sus servicios. Por otro lado, junto con este TFG se ha desarrollado una simulación de una EDA completa, con todos sus elementos: productores, consumidores y procesador de eventos complejo, además de la visualización de los datos. Para ensalzar los servicios prestados por la red de IoT y su relación con una arquitectura EDA, se ha implementado una simulación de un servicio personalizado de Tele-asistencia. Esta prueba de concepto ha ayudado a reforzar el aprendizaje y entender con más precisión todo el conocimiento adquirido mediante el estudio teórico de una EDA. Se ha implementado en el lenguaje de programación Java, mediante las soluciones de código abierto RabbitMQ y Esper, ayudando a su unión el estándar AMQP, para completar correctamente la transferencia.
Resumo:
Los servicios telemáticos han transformando la mayoría de nuestras actividades cotidianas y ofrecen oportunidades sin precedentes con características como, por ejemplo, el acceso ubicuo, la disponibilidad permanente, la independencia del dispositivo utilizado, la multimodalidad o la gratuidad, entre otros. No obstante, los beneficios que destacan en cuanto se reflexiona sobre estos servicios, tienen como contrapartida una serie de riesgos y amenazas no tan obvios, ya que éstos se nutren de y tratan con datos personales, lo cual suscita dudas respecto a la privacidad de las personas. Actualmente, las personas que asumen el rol de usuarios de servicios telemáticos generan constantemente datos digitales en distintos proveedores. Estos datos reflejan parte de su intimidad, de sus características particulares, preferencias, intereses, relaciones sociales, hábitos de consumo, etc. y lo que es más controvertido, toda esta información se encuentra bajo la custodia de distintos proveedores que pueden utilizarla más allá de las necesidades y el control del usuario. Los datos personales y, en particular, el conocimiento sobre los usuarios que se puede extraer a partir de éstos (modelos de usuario) se han convertido en un nuevo activo económico para los proveedores de servicios. De este modo, estos recursos se pueden utilizar para ofrecer servicios centrados en el usuario basados, por ejemplo, en la recomendación de contenidos, la personalización de productos o la predicción de su comportamiento, lo cual permite a los proveedores conectar con los usuarios, mantenerlos, involucrarlos y en definitiva, fidelizarlos para garantizar el éxito de un modelo de negocio. Sin embargo, dichos recursos también pueden utilizarse para establecer otros modelos de negocio que van más allá de su procesamiento y aplicación individual por parte de un proveedor y que se basan en su comercialización y compartición con otras entidades. Bajo esta perspectiva, los usuarios sufren una falta de control sobre los datos que les refieren, ya que esto depende de la voluntad y las condiciones impuestas por los proveedores de servicios, lo cual implica que habitualmente deban enfrentarse ante la disyuntiva de ceder sus datos personales o no acceder a los servicios telemáticos ofrecidos. Desde el sector público se trata de tomar medidas que protejan a los usuarios con iniciativas y legislaciones que velen por su privacidad y que aumenten el control sobre sus datos personales, a la vez que debe favorecer el desarrollo económico propiciado por estos proveedores de servicios. En este contexto, esta tesis doctoral propone una arquitectura y modelo de referencia para un ecosistema de intercambio de datos personales centrado en el usuario que promueve la creación, compartición y utilización de datos personales y modelos de usuario entre distintos proveedores, al mismo tiempo que ofrece a los usuarios las herramientas necesarias para ejercer su control en cuanto a la cesión y uso de sus recursos personales y obtener, en su caso, distintos incentivos o contraprestaciones económicas. Las contribuciones originales de la tesis son la especificación y diseño de una arquitectura que se apoya en un proceso de modelado distribuido que se ha definido en el marco de esta investigación. Éste se basa en el aprovechamiento de recursos que distintas entidades (fuentes de datos) ofrecen para generar modelos de usuario enriquecidos que cubren las necesidades específicas de terceras entidades, considerando la participación del usuario y el control sobre sus recursos personales (datos y modelos de usuario). Lo anterior ha requerido identificar y caracterizar las fuentes de datos con potencial de abastecer al ecosistema, determinar distintos patrones para la generación de modelos de usuario a partir de datos personales distribuidos y heterogéneos y establecer una infraestructura para la gestión de identidad y privacidad que permita a los usuarios expresar sus preferencias e intereses respecto al uso y compartición de sus recursos personales. Además, se ha definido un modelo de negocio de referencia que sustenta las investigaciones realizadas y que ha sido particularizado en dos ámbitos de aplicación principales, en concreto, el sector de publicidad en redes sociales y el sector financiero para la implantación de nuevos servicios. Finalmente, cabe destacar que las contribuciones de esta tesis han sido validadas en el contexto de distintos proyectos de investigación industrial aplicada y también en el marco de proyectos fin de carrera que la autora ha tutelado o en los que ha colaborado. Los resultados obtenidos han originado distintos méritos de investigación como dos patentes en explotación, la publicación de un artículo en una revista con índice de impacto y diversos artículos en congresos internacionales de relevancia. Algunos de éstos han sido galardonados con premios de distintas instituciones, así como en las conferencias donde han sido presentados. ABSTRACT Information society services have changed most of our daily activities, offering unprecedented opportunities with certain characteristics, such as: ubiquitous access, permanent availability, device independence, multimodality and free-of-charge services, among others. However, all the positive aspects that emerge when thinking about these services have as counterpart not-so-obvious threats and risks, because they feed from and use personal data, thus creating concerns about peoples’ privacy. Nowadays, people that play the role of user of services are constantly generating digital data in different service providers. These data reflect part of their intimacy, particular characteristics, preferences, interests, relationships, consumer behavior, etc. Controversy arises because this personal information is stored and kept by the mentioned providers that can use it beyond the user needs and control. Personal data and, in particular, the knowledge about the user that can be obtained from them (user models) have turned into a new economic asset for the service providers. In this way, these data and models can be used to offer user centric services based, for example, in content recommendation, tailored-products or user behavior, all of which allows connecting with the users, keeping them more engaged and involved with the provider, finally reaching customer loyalty in order to guarantee the success of a business model. However, these resources can be used to establish a different kind of business model; one that does not only processes and individually applies personal data, but also shares and trades these data with other entities. From that perspective, the users lack control over their referred data, because it depends from the conditions imposed by the service providers. The consequence is that the users often face the following dilemma: either giving up their personal data or not using the offered services. The Public Sector takes actions in order to protect the users approving, for example, laws and legal initiatives that reinforce privacy and increase control over personal data, while at the same time the authorities are also key players in the economy development that derives from the information society services. In this context, this PhD Dissertation proposes an architecture and reference model to achieve a user-centric personal data ecosystem that promotes the creation, sharing and use of personal data and user models among different providers, while offering users the tools to control who can access which data and why and if applicable, to obtain different incentives. The original contributions obtained are the specification and design of an architecture that supports a distributed user modelling process defined by this research. This process is based on leveraging scattered resources of heterogeneous entities (data sources) to generate on-demand enriched user models that fulfill individual business needs of third entities, considering the involvement of users and the control over their personal resources (data and user models). This has required identifying and characterizing data sources with potential for supplying resources, defining different generation patterns to produce user models from scattered and heterogeneous data, and establishing identity and privacy management infrastructures that allow users to set their privacy preferences regarding the use and sharing of their resources. Moreover, it has also been proposed a reference business model that supports the aforementioned architecture and this has been studied for two application fields: social networks advertising and new financial services. Finally, it has to be emphasized that the contributions obtained in this dissertation have been validated in the context of several national research projects and master thesis that the author has directed or has collaborated with. Furthermore, these contributions have produced different scientific results such as two patents and different publications in relevant international conferences and one magazine. Some of them have been awarded with different prizes.
Resumo:
Se presenta un trabajo teórico-práctico que aborda el campo de la planificación y periodización del entrenamiento desde la óptica del deporte de la natación como desarrollo de las competencias del graduado en ciencias del deporte. La primera parte (capitulo 3) se centra en hacer una síntesis de las bases teóricas de la periodización del entrenamiento en cuanto a lo que a métodos y modelos se refiere, siempre que estos sean válidos para el deporte de la natación. A continuación, y con una concepción global ya creada, se pasa a llevar al campo práctico ese conocimiento en un ámbito más concreto como es el rendimiento y entrenamiento deportivo en la natación de nivel nacional (capitulo 4). Ésta parte práctica es la parte principal del trabajo en la que se ha supuesto un caso y un contexto que puede ser bastante común y de interés para esta especialidad (capitulo 5), un nadador de nivel nacional, para analizar cuál sería la mejor manera de desarrollar una temporada para conseguir los mayores progresos a nivel de rendimiento deportivo, a través de un programa de entrenamiento deportivo anual (capitulo 6).
Resumo:
La tesis doctoral “La construcción de la transparencia. Museo de Arte Contemporáneo del Siglo 21 de Kanazawa / SANAA” estudia, desde diferentes perspectivas, esta obra de los arquitectos japoneses Kazuyo Sejima + Ryue Nishizawa / SANAA. El museo, proyectado y construido entre 1999 y 2004, supone un referente arquitectónico de gran relevancia en el cambio de siglo, y está considerado un manifiesto construido en el que resuenan ecos culturales y sociales de su época. La investigación toma como constante el Museo del Siglo 21 de Kanazawa y a través de él se realizan una serie de miradas transversales a modo de narrativas interconectadas. Estas visiones múltiples colaboran, a través de las relaciones que se producen entre ellas, a generar un entendimiento global de esta obra y sus efectos sobre la cultura arquitectónica contemporánea. La tesis se estructura en dos partes: la primera estudia de manera analítica la obra en su contexto cultural, el proceso de proyecto y el edificio construido. La segunda parte propone una triple lectura interpretativa del edificio en relación a temas de especial relevancia para el proyecto y al modelo de espacio que constituye, tomando de nuevo como constante la noción de transparencia. La tesis partirá de la interpretación que hace del museo su directora artística Yuko Hasegawa, cuya colaboración activa durante el proceso de diseño resultó de gran relevancia para el resultado final. Hasegawa define la obra como la materialización de una situación cultural característica del nuevo siglo basada en tres conceptos: La Coexistencia, la Consciencia y la Inteligencia Colectiva. A partir de dichas ideas entenderemos la transparencia no sólo desde el punto de vista de las cualidades físicas y materiales del espacio sino también, desde una perspectiva más amplia: como estrategia utilizada para clarificar la organización funcional del edificio y las relaciones entre sus partes como posición política, catalizadora del espacio público; la producción de consciencia a través de la experiencia del arte y la arquitectura; y como medio de representación y generación de una identidad colectiva basada en la visibilidad mediática. Las conclusiones de esta investigación, extraídas de las confluencias y puntos de intersección de las diferentes miradas transversales proyectadas sobre la obra, determinan una clara voluntad por parte de los arquitectos de construir un espacio donde lo público se entiende como el ensamblaje de diferentes individualidades. De manera similar al proceso de proyecto, la multiplicidad y las relaciones entre elementos autónomos generan un consciencia colectiva del espacio donde, a través de la organización programática, la construcción y el uso de los materiales y la luz, la arquitectura tiene la voluntad de desvanecerse para ofrecer protagonismo a sus usuarios y a las relaciones y encuentros que se producen entre ellos y con el espacio que habitan. ABSTRACT The PhD thesis “The construction of transparency. 21st Century Museum of Contemporary Art in Kanazawa / SANAA” studies, from different perspectives, this work, realized by Japanese architects Kazuyo Sejima + Ryue Nishizawa / SANAA. The museum, designed and built between 1999 and 2004, had a huge relevance as an architectural referent in the swift of the century, being considered a built manifesto that echoes the culture and society of its time. The research takes as a constant the 21st Century Museum in Kanazawa and it is studied throughout a series of transversal readings as interconnected narratives. These multiple approaches and the relations among them, help to generate a global understanding of the building and its effects on contemporary architectural culture. The dissertation is structured in two parts: the first one studies from an analytical perspective the project in its cultural context, the process of design and the built work. The second part proposes a triple interpretative reading of the building in relation to topics that are especially relevant for the project and the spatial model that it constitutes, taking again the notion of transparency as a constant concept. The thesis departs from the interpretation expressed by the artistic director of the museum, Yuko Hasegawa, whose active collaboration during the design process had special relevance for the final result. She defines the work as the materialization of the cultural context of the new century based in three concepts: Co-existence, Consciousness and Collective Intelligence. From these concepts we will understand transparency, not only from the point of view of the physical and material qualities of the space, but also from a broader perspective: as an strategy used to clarify the functional organization of the building and the relation of its parts as political stand that catalyzes the public space; the production of consciousness based on the experience of art and architecture; and as a method of representation and construction of a collective identity based in the media visibility. The conclusions of this research -extracted from the confluences and intersections of the different transversal readings projected on the work- determine a clear intention by the architects to build a space where the public is understood as an assembly of different individualities. In a similar way as it happens in the design process, the multiplicity of relations between autonomous elements generate a collective consciousness of the space. Throughout the programmatic organization, the construction and the use of light and materials, the architecture has the will of disappearance to yield protagonist the users and the relations and encounters that happen among them and the space they inhabit.
Resumo:
En 1997 se produjeron grandes inundaciones sobre la ciudad de Écija, donde se puso de manifiesto la necesidad de reforzar las medidas de laminación de la cuenca del río Genil. El causante de las inundaciones fue la cuenca intermedia entre el embalse de Iznájar y Écija, ya que éste no vertió ni desaguó caudal alguno durante el episodio tormentoso. Ante esta situación la Confederación Hidrográfica del Guadalquivir redacto el "Proyecto de Defensa de Écija ante Inundaciones", que contempla la ejecución de una corta en el río Genil y la construcción de sendos diques de defensa en ambas márgenes del río. Además de un canal recreativo en la margen izquierda. Dicho proyecto, ya ejecutado, supone una mejora cualitativa en la defensa de la ciudad ante el riesgo de inundaciones, sin embargo la actuación debe completarse con la construcción de la Presa en el Río Genil, a fin de alcanzar unos adecuados niveles de garantías