32 resultados para deficiencies
Condicionantes de la adherencia y anclaje en el refuerzo de muros de fábrica con elementos de fibras
Resumo:
Es cada vez más frecuente la rehabilitación de patrimonio construido, tanto de obras deterioradas como para la adecuación de obras existentes a nuevos usos o solicitaciones. Se ha considerado el estudio del refuerzo de obras de fábrica ya que constituyen un importante número dentro del patrimonio tanto de edificación como de obra civil (sistemas de muros de carga o en estructuras principales porticadas de acero u hormigón empleándose las fábricas como cerramiento o distribución con elementos autoportantes). A la hora de reparar o reforzar una estructura es importante realizar un análisis de las deficiencias, caracterización mecánica del elemento y solicitaciones presentes o posibles; en el apartado 1.3 del presente trabajo se refieren acciones de rehabilitación cuando lo que se precisa no es refuerzo estructural, así como las técnicas tradicionales más habituales para refuerzo de fábricas que suelen clasificarse según se trate de refuerzos exteriores o interiores. En los últimos años se ha adoptado el sistema de refuerzo de FRP, tecnología con origen en los refuerzos de hormigón tanto de elementos a flexión como de soportes. Estos refuerzos pueden ser de láminas adheridas a la fábrica soporte (SM), o de barras incluidas en rozas lineales (NSM). La elección de un sistema u otro depende de la necesidad de refuerzo y tipo de solicitación predominante, del acceso para colocación y de la exigencia de impacto visual. Una de las mayores limitaciones de los sistemas de refuerzo por FRP es que no suele movilizarse la resistencia del material de refuerzo, produciéndose previamente fallo en la interfase con el soporte con el consecuente despegue o deslaminación; dichos fallos pueden tener un origen local y propagarse a partir de una discontinuidad, por lo que es preciso un tratamiento cuidadoso de la superficie soporte, o bien como consecuencia de una insuficiente longitud de anclaje para la transferencia de los esfuerzos en la interfase. Se considera imprescindible una caracterización mecánica del elemento a reforzar. Es por ello que el trabajo presenta en el capítulo 2 métodos de cálculo de la fábrica soporte de distintas normativas y también una formulación alternativa que tiene en cuenta la fábrica histórica ya que su caracterización suele ser más complicada por la heterogeneidad y falta de clasificación de sus materiales, especialmente de los morteros. Una vez conocidos los parámetros resistentes de la fábrica soporte es posible diseñar el refuerzo; hasta la fecha existe escasa normativa de refuerzos de FRP para muros de fábrica, consistente en un protocolo propuesto por la ACI 440 7R-10 que carece de mejoras por tipo de anclaje y aporta valores muy conservadores de la eficacia del refuerzo. Como se ha indicado, la problemática principal de los refuerzos de FRP en muros es el modo de fallo que impide un aprovechamiento óptimo de las propiedades del material. Recientemente se están realizando estudios con distintos métodos de anclaje para estos refuerzos, con lo que se incremente la capacidad última y se mantenga el soporte ligado al refuerzo tras la rotura. Junto con sistemas de anclajes por prolongación del refuerzo (tanto para láminas como para barras) se han ensayado anclajes con llaves de cortante, barras embebidas, o anclajes mecánicos de acero o incluso de FRP. Este texto resume, en el capítulo 4, algunas de las campañas experimentales llevadas a cabo entre los años 2000 y 2013 con distintos anclajes. Se observan los parámetros fundamentales para medir la eficacia del anclajes como son: el modo de fallo, el incremento de resistencia, y los desplazamientos que permite observar la ductilidad del refuerzo; estos datos se analizan en función de la variación de: tipo de refuerzo incluyéndose el tipo de fibra y sistema de colocación, y tipo de anclaje. Existen también parámetros de diseño de los propios anclajes. En el caso de barras embebidas se resumen en diámetro y material de la barra, acabado superficial, dimensiones y forma de la roza, tipo de adhesivo. En el caso de anclajes de FRP tipo pasador la caracterización incluye: tipo de fibra, sistema de fabricación del anclajes y diámetro del mismo, radio de expansión del abanico, espaciamiento longitudinal de anclajes, número de filas de anclajes, número de láminas del refuerzo, longitud adherida tras el anclaje; es compleja la sistematización de resultados de los autores de las campañas expuestas ya que algunos de estos parámetros varían impidiendo la comparación. El capítulo 5 presenta los ensayos empleados para estas campañas de anclajes, distinguiéndose entre ensayos de modo I, tipo tracción directa o arrancamiento, que servirían para sistemas NSM o para cuantificar la resistencia individual de anclajes tipo pasador; ensayos de modo II, tipo corte simple, que se asemeja más a las condiciones de trabajo de los refuerzos. El presente texto se realiza con objeto de abrir una posible investigación sobre los anclajes tipo pasador, considerándose que junto con los sistemas de barra embebida son los que permiten una mayor versatilidad de diseño para los refuerzos de FRP y siendo su eficacia aún difícil de aislar por el número de parámetros de diseño. Rehabilitation of built heritage is becoming increasingly frequent, including repair of damaged works and conditioning for a new use or higher loads. In this work it has been considered the study of masonry wall reinforcement, as most buildings and civil works have load bearing walls or at least infilled masonry walls in concrete and steel structures. Before repairing or reinforcing an structure, it is important to analyse its deficiencies, its mechanical properties and both existing and potential loads; chapter 1, section 4 includes the most common rehabilitation methods when structural reinforcement is not needed, as well as traditional reinforcement techniques (internal and external reinforcement) In the last years the FRP reinforcement system has been adopted for masonry walls. FRP materials for reinforcement were initially used for concrete pillars and beams. FRP reinforcement includes two main techniques: surface mounted laminates (SM) and near surface mounted bars (NSM); one of them may be more accurate according to the need for reinforcement and main load, accessibility for installation and aesthetic requirements. One of the main constraints of FRP systems is not reaching maximum load for material due to premature debonding failure, which can be caused by surface irregularities so surface preparation is necessary. But debonding (or delamination for SM techniques) can also be a consequence of insufficient anchorage length or stress concentration. In order to provide an accurate mechanical characterisation of walls, chapter 2 summarises the calculation methods included in guidelines as well as alternative formulations for old masonry walls as historic wall properties are more complicated to obtain due to heterogeneity and data gaps (specially for mortars). The next step is designing reinforcement system; to date there are scarce regulations for walls reinforcement with FRP: ACI 440 7R-10 includes a protocol without considering the potential benefits provided by anchorage devices and with conservative values for reinforcement efficiency. As noted above, the main problem of FRP masonry walls reinforcement is failure mode. Recently, some authors have performed studies with different anchorage systems, finding that these systems are able to delay or prevent debonding . Studies include the following anchorage systems: Overlap, embedded bars, shear keys, shear restraint and fiber anchors. Chapter 4 briefly describes several experimental works between years 2000 and 2013, concerning different anchorage systems. The main parameters that measure the anchorage efficiency are: failure mode, failure load increase, displacements (in order to evaluate the ductility of the system); all these data points strongly depend on: reinforcement system, FRP fibers, anchorage system, and also on the specific anchorage parameters. Specific anchorage parameters are a function of the anchorage system used. The embedded bar system have design variables which can be identified as: bar diameter and material, surface finish, groove dimensions, and adhesive. In FRP anchorages (spikes) a complete design characterisation should include: type of fiber, manufacturing process, diameter, fan orientation, anchor splay width, anchor longitudinal spacing and number or rows, number or FRP sheet plies, bonded length beyond anchorage devices,...the parameters considered differ from some authors to others, so the comparison of results is quite complicated. Chapter 5 includes the most common tests used in experimental investigations on bond-behaviour and anchorage characterisation: direct shear tests (with variations single-shear and double-shear), pullout tests and bending tests. Each of them may be used according to the data needed. The purpose of this text is to promote further investigation of anchor spikes, accepting that both FRP anchors and embedded bars are the most versatile anchorage systems of FRP reinforcement and considering that to date its efficiency cannot be evaluated as there are too many design uncertainties.
Resumo:
Antecedentes Europa vive una situación insostenible. Desde el 2008 se han reducido los recursos de los gobiernos a raíz de la crisis económica. El continente Europeo envejece con ritmo constante al punto que se prevé que en 2050 habrá sólo dos trabajadores por jubilado [54]. A esta situación se le añade el aumento de la incidencia de las enfermedades crónicas, relacionadas con el envejecimiento, cuyo coste puede alcanzar el 7% del PIB de un país [51]. Es necesario un cambio de paradigma. Una nueva manera de cuidar de la salud de las personas: sustentable, eficaz y preventiva más que curativa. Algunos estudios abogan por el cuidado personalizado de la salud (pHealth). En este modelo las prácticas médicas son adaptadas e individualizadas al paciente, desde la detección de los factores de riesgo hasta la personalización de los tratamientos basada en la respuesta del individuo [81]. El cuidado personalizado de la salud está asociado a menudo al uso de las tecnologías de la información y comunicación (TICs) que, con su desarrollo exponencial, ofrecen oportunidades interesantes para la mejora de la salud. El cambio de paradigma hacia el pHealth está lentamente ocurriendo, tanto en el ámbito de la investigación como en la industria, pero todavía no de manera significativa. Existen todavía muchas barreras relacionadas a la economía, a la política y la cultura. También existen barreras puramente tecnológicas, como la falta de sistemas de información interoperables [199]. A pesar de que los aspectos de interoperabilidad están evolucionando, todavía hace falta un diseño de referencia especialmente direccionado a la implementación y el despliegue en gran escala de sistemas basados en pHealth. La presente Tesis representa un intento de organizar la disciplina de la aplicación de las TICs al cuidado personalizado de la salud en un modelo de referencia, que permita la creación de plataformas de desarrollo de software para simplificar tareas comunes de desarrollo en este dominio. Preguntas de investigación RQ1 >Es posible definir un modelo, basado en técnicas de ingeniería del software, que represente el dominio del cuidado personalizado de la salud de una forma abstracta y representativa? RQ2 >Es posible construir una plataforma de desarrollo basada en este modelo? RQ3 >Esta plataforma ayuda a los desarrolladores a crear sistemas pHealth complejos e integrados? Métodos Para la descripción del modelo se adoptó el estándar ISO/IEC/IEEE 42010por ser lo suficientemente general y abstracto para el amplio enfoque de esta tesis [25]. El modelo está definido en varias partes: un modelo conceptual, expresado a través de mapas conceptuales que representan las partes interesadas (stakeholders), los artefactos y la información compartida; y escenarios y casos de uso para la descripción de sus funcionalidades. El modelo fue desarrollado de acuerdo a la información obtenida del análisis de la literatura, incluyendo 7 informes industriales y científicos, 9 estándares, 10 artículos en conferencias, 37 artículos en revistas, 25 páginas web y 5 libros. Basándose en el modelo se definieron los requisitos para la creación de la plataforma de desarrollo, enriquecidos por otros requisitos recolectados a través de una encuesta realizada a 11 ingenieros con experiencia en la rama. Para el desarrollo de la plataforma, se adoptó la metodología de integración continua [74] que permitió ejecutar tests automáticos en un servidor y también desplegar aplicaciones en una página web. En cuanto a la metodología utilizada para la validación se adoptó un marco para la formulación de teorías en la ingeniería del software [181]. Esto requiere el desarrollo de modelos y proposiciones que han de ser validados dentro de un ámbito de investigación definido, y que sirvan para guiar al investigador en la búsqueda de la evidencia necesaria para justificarla. La validación del modelo fue desarrollada mediante una encuesta online en tres rondas con un número creciente de invitados. El cuestionario fue enviado a 134 contactos y distribuido en algunos canales públicos como listas de correo y redes sociales. El objetivo era evaluar la legibilidad del modelo, su nivel de cobertura del dominio y su potencial utilidad en el diseño de sistemas derivados. El cuestionario incluía preguntas cuantitativas de tipo Likert y campos para recolección de comentarios. La plataforma de desarrollo fue validada en dos etapas. En la primera etapa se utilizó la plataforma en un experimento a pequeña escala, que consistió en una sesión de entrenamiento de 12 horas en la que 4 desarrolladores tuvieron que desarrollar algunos casos de uso y reunirse en un grupo focal para discutir su uso. La segunda etapa se realizó durante los tests de un proyecto en gran escala llamado HeartCycle [160]. En este proyecto un equipo de diseñadores y programadores desarrollaron tres aplicaciones en el campo de las enfermedades cardio-vasculares. Una de estas aplicaciones fue testeada en un ensayo clínico con pacientes reales. Al analizar el proyecto, el equipo de desarrollo se reunió en un grupo focal para identificar las ventajas y desventajas de la plataforma y su utilidad. Resultados Por lo que concierne el modelo que describe el dominio del pHealth, la parte conceptual incluye una descripción de los roles principales y las preocupaciones de los participantes, un modelo de los artefactos TIC que se usan comúnmente y un modelo para representar los datos típicos que son necesarios formalizar e intercambiar entre sistemas basados en pHealth. El modelo funcional incluye un conjunto de 18 escenarios, repartidos en: punto de vista de la persona asistida, punto de vista del cuidador, punto de vista del desarrollador, punto de vista de los proveedores de tecnologías y punto de vista de las autoridades; y un conjunto de 52 casos de uso repartidos en 6 categorías: actividades de la persona asistida, reacciones del sistema, actividades del cuidador, \engagement" del usuario, actividades del desarrollador y actividades de despliegue. Como resultado del cuestionario de validación del modelo, un total de 65 personas revisó el modelo proporcionando su nivel de acuerdo con las dimensiones evaluadas y un total de 248 comentarios sobre cómo mejorar el modelo. Los conocimientos de los participantes variaban desde la ingeniería del software (70%) hasta las especialidades médicas (15%), con declarado interés en eHealth (24%), mHealth (16%), Ambient Assisted Living (21%), medicina personalizada (5%), sistemas basados en pHealth (15%), informática médica (10%) e ingeniería biomédica (8%) con una media de 7.25_4.99 años de experiencia en estas áreas. Los resultados de la encuesta muestran que los expertos contactados consideran el modelo fácil de leer (media de 1.89_0.79 siendo 1 el valor más favorable y 5 el peor), suficientemente abstracto (1.99_0.88) y formal (2.13_0.77), con una cobertura suficiente del dominio (2.26_0.95), útil para describir el dominio (2.02_0.7) y para generar sistemas más específicos (2_0.75). Los expertos también reportan un interés parcial en utilizar el modelo en su trabajo (2.48_0.91). Gracias a sus comentarios, el modelo fue mejorado y enriquecido con conceptos que faltaban, aunque no se pudo demonstrar su mejora en las dimensiones evaluadas, dada la composición diferente de personas en las tres rondas de evaluación. Desde el modelo, se generó una plataforma de desarrollo llamada \pHealth Patient Platform (pHPP)". La plataforma desarrollada incluye librerías, herramientas de programación y desarrollo, un tutorial y una aplicación de ejemplo. Se definieron cuatro módulos principales de la arquitectura: el Data Collection Engine, que permite abstraer las fuentes de datos como sensores o servicios externos, mapeando los datos a bases de datos u ontologías, y permitiendo interacción basada en eventos; el GUI Engine, que abstrae la interfaz de usuario en un modelo de interacción basado en mensajes; y el Rule Engine, que proporciona a los desarrolladores un medio simple para programar la lógica de la aplicación en forma de reglas \if-then". Después de que la plataforma pHPP fue utilizada durante 5 años en el proyecto HeartCycle, 5 desarrolladores fueron reunidos en un grupo de discusión para analizar y evaluar la plataforma. De estas evaluaciones se concluye que la plataforma fue diseñada para encajar las necesidades de los ingenieros que trabajan en la rama, permitiendo la separación de problemas entre las distintas especialidades, y simplificando algunas tareas de desarrollo como el manejo de datos y la interacción asíncrona. A pesar de ello, se encontraron algunos defectos a causa de la inmadurez de algunas tecnologías empleadas, y la ausencia de algunas herramientas específicas para el dominio como el procesado de datos o algunos protocolos de comunicación relacionados con la salud. Dentro del proyecto HeartCycle la plataforma fue utilizada para el desarrollo de la aplicación \Guided Exercise", un sistema TIC para la rehabilitación de pacientes que han sufrido un infarto del miocardio. El sistema fue testeado en un ensayo clínico randomizado en el cual a 55 pacientes se les dio el sistema para su uso por 21 semanas. De los resultados técnicos del ensayo se puede concluir que, a pesar de algunos errores menores prontamente corregidos durante el estudio, la plataforma es estable y fiable. Conclusiones La investigación llevada a cabo en esta Tesis y los resultados obtenidos proporcionan las respuestas a las tres preguntas de investigación que motivaron este trabajo: RQ1 Se ha desarrollado un modelo para representar el dominio de los sistemas personalizados de salud. La evaluación hecha por los expertos de la rama concluye que el modelo representa el dominio con precisión y con un balance apropiado entre abstracción y detalle. RQ2 Se ha desarrollado, con éxito, una plataforma de desarrollo basada en el modelo. RQ3 Se ha demostrado que la plataforma es capaz de ayudar a los desarrolladores en la creación de software pHealth complejos. Las ventajas de la plataforma han sido demostradas en el ámbito de un proyecto de gran escala, aunque el enfoque genérico adoptado indica que la plataforma podría ofrecer beneficios también en otros contextos. Los resultados de estas evaluaciones ofrecen indicios de que, ambos, el modelo y la plataforma serán buenos candidatos para poderse convertir en una referencia para futuros desarrollos de sistemas pHealth. ABSTRACT Background Europe is living in an unsustainable situation. The economic crisis has been reducing governments' economic resources since 2008 and threatening social and health systems, while the proportion of older people in the European population continues to increase so that it is foreseen that in 2050 there will be only two workers per retiree [54]. To this situation it should be added the rise, strongly related to age, of chronic diseases the burden of which has been estimated to be up to the 7% of a country's gross domestic product [51]. There is a need for a paradigm shift, the need for a new way of caring for people's health, shifting the focus from curing conditions that have arisen to a sustainable and effective approach with the emphasis on prevention. Some advocate the adoption of personalised health care (pHealth), a model where medical practices are tailored to the patient's unique life, from the detection of risk factors to the customization of treatments based on each individual's response [81]. Personalised health is often associated to the use of Information and Communications Technology (ICT), that, with its exponential development, offers interesting opportunities for improving healthcare. The shift towards pHealth is slowly taking place, both in research and in industry, but the change is not significant yet. Many barriers still exist related to economy, politics and culture, while others are purely technological, like the lack of interoperable information systems [199]. Though interoperability aspects are evolving, there is still the need of a reference design, especially tackling implementation and large scale deployment of pHealth systems. This thesis contributes to organizing the subject of ICT systems for personalised health into a reference model that allows for the creation of software development platforms to ease common development issues in the domain. Research questions RQ1 Is it possible to define a model, based on software engineering techniques, for representing the personalised health domain in an abstract and representative way? RQ2 Is it possible to build a development platform based on this model? RQ3 Does the development platform help developers create complex integrated pHealth systems? Methods As method for describing the model, the ISO/IEC/IEEE 42010 framework [25] is adopted for its generality and high level of abstraction. The model is specified in different parts: a conceptual model, which makes use of concept maps, for representing stakeholders, artefacts and shared information, and in scenarios and use cases for the representation of the functionalities of pHealth systems. The model was derived from literature analysis, including 7 industrial and scientific reports, 9 electronic standards, 10 conference proceedings papers, 37 journal papers, 25 websites and 5 books. Based on the reference model, requirements were drawn for building the development platform enriched with a set of requirements gathered in a survey run among 11 experienced engineers. For developing the platform, the continuous integration methodology [74] was adopted which allowed to perform automatic tests on a server and also to deploy packaged releases on a web site. As a validation methodology, a theory building framework for SW engineering was adopted from [181]. The framework, chosen as a guide to find evidence for justifying the research questions, imposed the creation of theories based on models and propositions to be validated within a scope. The validation of the model was conducted as an on-line survey in three validation rounds, encompassing a growing number of participants. The survey was submitted to 134 experts of the field and on some public channels like relevant mailing lists and social networks. Its objective was to assess the model's readability, its level of coverage of the domain and its potential usefulness in the design of actual, derived systems. The questionnaires included quantitative Likert scale questions and free text inputs for comments. The development platform was validated in two scopes. As a small-scale experiment, the platform was used in a 12 hours training session where 4 developers had to perform an exercise consisting in developing a set of typical pHealth use cases At the end of the session, a focus group was held to identify benefits and drawbacks of the platform. The second validation was held as a test-case study in a large scale research project called HeartCycle the aim of which was to develop a closed-loop disease management system for heart failure and coronary heart disease patients [160]. During this project three applications were developed by a team of programmers and designers. One of these applications was tested in a clinical trial with actual patients. At the end of the project, the team was interviewed in a focus group to assess the role the platform had within the project. Results For what regards the model that describes the pHealth domain, its conceptual part includes a description of the main roles and concerns of pHealth stakeholders, a model of the ICT artefacts that are commonly adopted and a model representing the typical data that need to be formalized among pHealth systems. The functional model includes a set of 18 scenarios, divided into assisted person's view, caregiver's view, developer's view, technology and services providers' view and authority's view, and a set of 52 Use Cases grouped in 6 categories: assisted person's activities, system reactions, caregiver's activities, user engagement, developer's activities and deployer's activities. For what concerns the validation of the model, a total of 65 people participated in the online survey providing their level of agreement in all the assessed dimensions and a total of 248 comments on how to improve and complete the model. Participants' background spanned from engineering and software development (70%) to medical specialities (15%), with declared interest in the fields of eHealth (24%), mHealth (16%), Ambient Assisted Living (21%), Personalized Medicine (5%), Personal Health Systems (15%), Medical Informatics (10%) and Biomedical Engineering (8%) with an average of 7.25_4.99 years of experience in these fields. From the analysis of the answers it is possible to observe that the contacted experts considered the model easily readable (average of 1.89_0.79 being 1 the most favourable scoring and 5 the worst), sufficiently abstract (1.99_0.88) and formal (2.13_0.77) for its purpose, with a sufficient coverage of the domain (2.26_0.95), useful for describing the domain (2.02_0.7) and for generating more specific systems (2_0.75) and they reported a partial interest in using the model in their job (2.48_0.91). Thanks to their comments, the model was improved and enriched with concepts that were missing at the beginning, nonetheless it was not possible to prove an improvement among the iterations, due to the diversity of the participants in the three rounds. From the model, a development platform for the pHealth domain was generated called pHealth Patient Platform (pHPP). The platform includes a set of libraries, programming and deployment tools, a tutorial and a sample application. The main four modules of the architecture are: the Data Collection Engine, which allows abstracting sources of information like sensors or external services, mapping data to databases and ontologies, and allowing event-based interaction and filtering, the GUI Engine, which abstracts the user interface in a message-like interaction model, the Workow Engine, which allows programming the application's user interaction ows with graphical workows, and the Rule Engine, which gives developers a simple means for programming the application's logic in the form of \if-then" rules. After the 5 years experience of HeartCycle, partially programmed with pHPP, 5 developers were joined in a focus group to discuss the advantages and drawbacks of the platform. The view that emerged from the training course and the focus group was that the platform is well-suited to the needs of the engineers working in the field, it allowed the separation of concerns among the different specialities and it simplified some common development tasks like data management and asynchronous interaction. Nevertheless, some deficiencies were pointed out in terms of a lack of maturity of some technological choices, and for the absence of some domain-specific tools, e.g. for data processing or for health-related communication protocols. Within HeartCycle, the platform was used to develop part of the Guided Exercise system, a composition of ICT tools for the physical rehabilitation of patients who suffered from myocardial infarction. The system developed using the platform was tested in a randomized controlled clinical trial, in which 55 patients used the system for 21 weeks. The technical results of this trial showed that the system was stable and reliable. Some minor bugs were detected, but these were promptly corrected using the platform. This shows that the platform, as well as facilitating the development task, can be successfully used to produce reliable software. Conclusions The research work carried out in developing this thesis provides responses to the three three research questions that were the motivation for the work. RQ1 A model was developed representing the domain of personalised health systems, and the assessment of experts in the field was that it represents the domain accurately, with an appropriate balance between abstraction and detail. RQ2 A development platform based on the model was successfully developed. RQ3 The platform has been shown to assist developers create complex pHealth software. This was demonstrated within the scope of one large-scale project, but the generic approach adopted provides indications that it would offer benefits more widely. The results of these evaluations provide indications that both the model and the platform are good candidates for being a reference for future pHealth developments.
Resumo:
La teca (Tectona grandis L.f.) ha sido tradicionalmente considerada como una madera preciosa en los países del SE Asiático, de donde es originaria, pero durante las últimas décadas ha alcanzado especial relevancia en el sector internacional de las maderas tropicales duras de buena calidad. La especie ha sido ampliamente establecida en América Central, donde tiene una gran importancia socioeconómica, tanto por el impacto de las grandes empresas multinacionales que gestionan grandes plantaciones en la región, como por el gran número de pequeños y medianos propietarios que han elegido esta especie para reforestar sus tierras. Pese a la gran importancia de esta especie, se ha desarrollado relativamente poca investigación acerca de su nutrición y de la gestión del suelo necesaria para su establecimiento y mantenimiento en condiciones sostenibles y productivas. En la presente Tesis Doctoral, tras realizar una amplia revisión bibliográfica, se caracterizan los suelos y la nutrición de las plantaciones de teca en América Central y se proponen varias herramientas para la mejora de su gestión. Las plantaciones de teca de América Central presentan habitualmente deficiencias de K y P, además de algunos problemas de acidez ocasionales. Estos se originan, principalmente, por la mala selección de sitio que se realizó en las últimas dos décadas del siglo XX y por el establecimiento de plantaciones de teca por pequeños propietarios en terrenos que no tienen características propicias para la especie. Además, estos problemas comunes relativos a la baja disponibilidad de P y de K en el suelo son causantes de las relativamente bajas concentraciones foliares de estos elementos (0,88±0,07% K y 0,16±0,04% P) encontradas en plantaciones de teca características de la región. Se presentan varios modelos estadísticos que permiten a los gestores: (a) usarlos como referencia para la interpretación de análisis foliares, ya que ofrecen valores que se consideran característicos de plantaciones de teca con un buen estado nutricional; (b) estimar la cantidad de nutrientes acumulados en la biomasa aérea de sus plantaciones y, sobre todo, su extracción a través de la madera en un aprovechamiento forestal, bien sea una clara o la corta final. La gran acumulación de N, P y K en plantaciones de teca ha de ser considerada como un factor fundamental en su gestión. Además, P y K adquieren mayor relevancia aún ya que su extracción del sistema a través de la madera y su escasa disponibilidad en los suelos hacen que se presente un importante desequilibrio que pone en riesgo la sostenibilidad del sistema. En ese sentido, cambiar la época de cosecha, de la actual (en Enero-Mayo) a Septiembre o Diciembre, puede reducir entre un 24 y un 28% la salida de N asociada a la extracción de madera, un 29% la de P y entre un 14 y un 43% la de K. Se estima que la concentración foliar de P es un factor limitante de la productividad de plantaciones de teca en América Central, proponiéndose un nivel crítico de 0,125%. Además, la teca presenta una tolerancia muy baja a suelos salinos, tendencia que no había sido señalada hasta el momento, siendo muy alta la probabilidad de que la plantación tenga un crecimiento lento o muy lento cuando la Saturación de Na es mayor de 1,1%. Por otro lado, se confirma que K es uno de los elementos clave en la nutrición de las plantaciones de teca en la región centroamericana, proponiéndose un nivel crítico provisional de 3,09% para la Saturación de K, por encima del cual es muy probable que la plantación tenga un crecimiento muy alto. Se ha comprobado que las técnicas estadísticas de análisis multivariante pueden ser usadas como herramientas para agrupar los rodales en base a sus similitudes en cuanto a la fertilidad del suelo y mejorar así el diseño de planes de fertilización en plantaciones con una superficie relativamente grande. De esta manera, se pueden ajustar planes de fertilización más eficientes a escala de grupos de rodales, como un primer paso hacia la selvicultura de precisión, intensificando y diversificando la gestión en función de las diferencias edáficas. Finalmente, aunque los análisis foliares y de suelos indiquen la existencia de deficiencias nutricionales, la fertilización de las plantaciones no siempre va a producir efectos positivos sobre su crecimiento si no se diseña adecuadamente teniendo en cuenta varios factores que pueden estar influyendo negativamente en dicha respuesta, como la densidad de las plantaciones (sinergias con la programación de los clareos y claras) y la elección de la dosis y del producto a aplicar (habitualmente dosis bajas de N-P-K en lugar de incluir otros nutrientes como Mg, B y Zn o usar otros productos como micorrizas, biofertilizantes etc…). ABSTRACT Teak (Tectona grandis L.f.) has been traditionally considered as a precious wood in SE Asia, where it is indigenous. However, during recent decades the species has reached worldwide relevance in the tropical high quality hardwood sector. Teak has been widely established in Central America, where it has become a key species in the forest sector due to its socioeconomic impact, either because of the big-scale plantations of transnational companies and the abundant small-scale plantations established by many farmers. Despite the relevance of the species, little research has been carried out regarding its soil fertility and nutrition management, a key issue both for sustainability and productivity. The present Thesis performs a literature review to this respect, characterize the soil fertility and the nutrition of teak plantations of Central America and propose several management tools. Soil deficiencies of K and P are usually found in teak plantations in Central America, in addition to occasional acidity problems. These problems are mainly derived of (a) a poor site selection performed during 80s and 90s; and (b) small-scale plantations by farmers in sites which are not adequate for the species. These common soil fertility problems related with P and K soil availability are probably the cause of the relatively low P and K foliar concentration (0,88±0,07% K y 0,16±0,04% P) found in representative teak plantations of the region. Several statistical models are proposed, which allow forest managers to: (a) use them as a reference for foliar analysis interpretation, as they show values considered as representative for teak plantations with an adequate nutritional status in the region; (b) estimate the amount of nutrients accumulated in the aerial biomass of the plantations and, especially, the amount of them which are extracted from the systems as wood is harvested in thinning or final clearcuts. The accumulation of N, P and K result in a key factor for teak management in the region. This turns out to be especially relevant for the P and K because their high output rate by timber extraction and the low soil availability result in an important unbalance which constitutes a risk regarding the sustainability of the system. To this respect, modifying the harvesting time from the usual right now (January-May, business as usual scenario) to September or December (proposed alternatives) can reduce between 24 and 28% the N output associated to timber extraction, 29% the P output and between 14 and 43% the K. Foliar P concentration is a main limiting factor for teak plantations productivity in Central America and a 0.125% critical level is proposed. In addition, the results show a very low tolerance for soil salinity, tendency which was not previously reported. Hence, the probability of teak plantations to have low or very low Site Index is high when Na Saturation is higher than 1.1%. On the other hand, K is confirmed as one of the key nutrients regarding teak nutrition in Central America and a 3.09% provisional critical level is proposed for K Saturation; when values are above this level the probability of having very high Site Index is high. Multivariate statistical analyses have been successfully tested to be used as tools to group forest stands according to their soil fertility similarities. Hence, more efficient fertilization plans can be designed for each group of stands, intensifying and diversifying nutritional management according to soil fertility differences. This methodology, which is considered as a first step towards precision forestry, is regarded as helpful tool to design fertilization plans in big scale plantations. Finally, even though foliar and soil analysis would point out some nutritional deficiencies in a forest stand, the results show how the fertilization is not always going to have a positive effect over forest growth if it is not adequately designed. Some factors have been identified as determinants of tree response to fertilization: density (synergisms between fertilization and thinning scheduling) and the appropriate selection of dosages and product (usually low dosages are applied and N-P-K is preferred instead of applying other nutrients such as Mg, B or Zn or using other alternatives such as mycorrhizas or biofertilizers).
Resumo:
According to the World Health Organization in recent years (2009-2010) was increased the number of infants who received neonatal care of various kinds. Neonatal recovery newborn further manifested in various embodiments, neurological and somatic problems. Young parents with a child with disabilities infants (HIA) pay more attention to their health and lesser to extent speech and mental development of the baby. Early detection of deficiencies in language acquisition, timely remedial and preventive effects in the most sensitive periods of its development significantly increase the efficiency of full or partial compensation of different options of development. Therefore, the present trend in modern domestic and outdoor speech therapy is of particular relevance.
Resumo:
El sistema portuario español movió en el año 2013 aproximadamente 458,54 millones de toneladas, 13,8 millones de TEUs, con un total de 131.128 buques que accedieron a puerto para el conjunto de las 28 Autoridades Portuarias. Con el 62% de las exportaciones y el 86% de las importaciones realizadas por vía marítima, una rentabilidad del 2,34 %, muy cerca del objetivo del 2,5 % de rentabilidad media annual establecida legalmente, y una cifra de negocios aproximada de 1.028 millones de euros equivalentes al 1,1 % del PIB que genera un empleo directo e indirecto vinculado de 145.000 personas, concluimos que estamos hablando de un sector estratégico para la economía del país. Desde hace décadas, en muchos puertos del mundo se han venido desarrollando terminales “hub” o de concentración y distribución de cargas. Las navieras concentran entre este tipo de terminales sus líneas transoceánicas con buques de enormes dimensiones y capacidad de carga para producir los tránsitos de contenedores desde estas líneas a otras líneas llamadas “feeder”, con buques de menor tamaño que enlazan el “hub” con los puertos de su área marítima de influencia. La excepcional ubicación geoestratégica de España, con aproximadamente ocho mil kilómetros de costa, ha originado que los puertos españoles de mayor dimensión aspiren a incorporarse a esta red marítima internacional de contenedores y determina que en nuestro sistema portuario los movimientos de contenedores de tránsito tengan gran importancia. Sin embargo, la crisis económica ha tenido un efecto decisivo en el sector marítimo, determinando una lucha feroz entre todos los puertos, nacionales e internacionales, por captar este tipo de tráficos, lo que origina una búsqueda de las compañías navieras de puertos cada vez más eficientes en términos calidad/coste del servicio. La entrada en vigor del Texto Refundido de la Ley de Puertos y la piedra angular de su reforma, la Ley 33/2010, plantea como objetivo principal la mejora de la competitividad del sistema portuario español y liderar su recuperación, ofreciendo unas condiciones de entorno favorables a los puertos españoles que acaben por incentivar la captación de tráficos e inversión privada a través de una oferta de servicios e infraestructura de calidad y a precios competitivos que consoliden su posición dentro del tráfico marítimo mundial. Surge, por tanto, la conveniencia de investigar la influencia de las medidas propuestas por dicha norma legal y las soluciones ofrecidas a las demandas de un sector considerado estratégico para la economía del país, y cuya resolución se considera imprescindible para consolidar su recuperación. Por eso, se han analizado los aspectos más importantes de la reforma mediante la realización de un resumen ejecutivo y se ha estudiado la influencia de las medidas que incorpora desde el punto de vista de tres factores, que previamente se han considerado como fundamentales para la recuperación del sistema portuario español, y que históricamente habían sido demandados por el mismo, como son, en primer lugar, un progresivo sistema de flexibilización tributaria que permitiera a los puertos españoles ganar en términos de competitividad respecto a otros modelos portuarios mucho más flexibles en materia tarifaria, en segundo lugar, una necesaria liberalización del régimen de prestación de los servicios portuarios que posibilite el libre acceso a cualquier interesado en su prestación y, en último lugar, el progresivo abaratamiento de los costes inherentes a dichos servicios, fundamentalmente la manipulación de mercancías. Con posterioridad se ha investigado el trámite parlamentario al que se ha sometido la ley, fruto del enorme consenso alcanzado entre las dos principales fuerzas políticas del país, que determinó que se presentaran más de 700 enmiendas al proyecto original, y en algunos casos, se ha prestado especial atención a determinadas enmiendas que se consideran, en opinión de este investigador, novedosas y aventuradas, razón por la cual quizás no fueron incorporadas definitivamente al texto legal. Y se han analizado las principales demandas y aportaciones extraídas de la Sesión Informativa sobre la tramitación del entonces proyecto de ley ofrecida por la Comisión de Fomento del Congreso de los Diputados a los principales representantes del sector, comunidad portuaria, universidad y sindicatos. Siendo conscientes de la incidencia que tiene el servicio portuario de manipulación de mercancías en el paso de la mercancía por el puerto, se ha hecho una referencia concreta al peculiar régimen jurídico y laboral del personal vinculado al servicio. Avanzamos que las características de la relación laboral especial, y su peculiar régimen jurídico, con una dualidad de relaciones laborales, tiene una influencia decisiva en la nómina del trabajador que se repercute en los usuarios del servicio, fundamentalmente el naviero y el operador de la terminal, que en definitiva, incide en la competitividad del puerto. Y se ha constatado el auge aperturista de numerosas legislaciones portuarias europeas, prestando especial atención al proyecto frustrado de liberalización de los servicios portuarios en la Unión Europea de la conocida como Directiva Loyola de Palacio del año 2003 y al Libro Blanco de Transportes del año 2011. Así como a las deficiencias advertidas por el Dictamen de la Comisión Europea de fecha 27/09/2012 en relación al régimen jurídico del servicio portuario de manipulación de mercancías, que lo considera disconforme y contrario con las normas de libertad de establecimiento en Europa y que amenaza con una previsible reforma unilateral de la legislación portuaria española, a instancias europeas. Bajo este planteamiento, se ha procedido a analizar el marco de prestación de dichos servicios desde el punto de vista de la propia comunidad portuaria. Inicialmente, a través de un estudio de fuerzas de la competitividad del sector de los servicios portuarios en el sistema portuario español que nos permitirá trazar un mapa estratégico del mismo a través del “Modelo de las Cinco Fuerzas de Porter” concluyendo, que el poder de los prestadores de servicios portuarios como proveedores de los mismos, fundamentalmente en la manipulación de mercancías, es máximo, con un único colectivo, los estibadores portuarios, que al amparo de la normativa legal vigente tienen la exclusividad de su prestación. Dichas circunstancias restan competitividad al sistema frente a alternativas portuarias más flexibles y desincentivan la inversión privada. Y, en segundo lugar, mediante un proceso participativo en distintas encuestas sobre el modelo legislativo y sobre el marco formativo del sector con los propios agentes afectados dentro de la comunidad portuaria, desde la triple perspectiva de la vertiente pública que representan las Autoridades Portuarias, como gestores de las infraestructuras, la vertiente privada que representan los usuarios y prestadores de servicios, como principal cliente del puerto y desde el punto de vista de la propia mano de obra portuaria materializada en la representación sindical de dichos trabajadores. Los resultados nos permitirán concluir, respectivamente, la incidencia del servicio portuario mercancía por el puerto, por representar más de la mitad de los costes. Así como la aspiración de los trabajadores adscritos a dicho servicio de consolidar un título formativo que unifique y potencie su capacitación profesional, circunstancia esta última, también demandada por toda comunidad portuaria. Analizadas las conclusiones extraídas en cada una de las líneas de investigación se han detectado una serie de ineficiencias dentro del mismo que dicho marco regulador no ha sabido resolver, por lo que se ha considerado la conveniencia de formular, como herramienta de ayuda a gestores del sistema portuario español, una relación de medidas que, en opinión de este investigador, se consideran necesarias para mejorar el régimen de prestación de los servicios portuarios y se ha propuesto un borrador de modificación del actual Texto Refundido que pueda servir de base para materializar una futura reforma legal. Las conclusiones obtenidas en la investigación deben sentar las bases de una profunda reflexión sobre la necesidad de encaminar, como alternativa a una previsible modificación a instancias europeas, una reforma legal que decididamente apueste por la competitividad del sistema portuario español desde el punto de vista de la liberalización de servicios, el abaratamiento de los costes de la estiba y la necesaria profesionalización de los trabajadores adscritos al servicio portuario de manipulación de mercancías. During 2013 the Spanish Port System moved nearly 458,54 million tons of freight, 13,8 million TEUs, involving a total of 131.128 ships for the 28 existing Port Authorities. With 62% of exports and 86% of imports made through sea transportation, a 2,34% profit, close to the 2,5% average annual profit goal legally established, revenues of 1.028 million € equivalent to a 1.1% of Spain’s GDP and a figure of 145.000 people a directly or indirectly employed we can conclude that maritime industry is undoubtedly one of the strategic and key sectors for the country’s economy. Since several decades many ports in the world have been increasingly developing “Hub” terminals, those which concentrate and distribute freight. Shipping companies place among these type of terminals their transoceanic sea liners along with huge dimension & capacity ships to make the container transit from these liners to other called “feeder” which are smaller freight ships that connect the “hub” with the ports within its maritime area of influence. Spain’s exceptional geostrategic location with over 8.000 km of coastline has originated that those big dimension Spanish ports aspire to become a part of a container international maritime network which also determines that transit container move is key within our port system. Nevertheless the economic crisis has had a decisive impact on the maritime sector originating a fierce battle between all ports, national and international ones, all of them fight against each other to catch this type of maritime traffic which triggers an ongoing shipping companies search in cost/service quality efficient ports. The cornerstone of the Restated Text of Port Law is Law 33/2010, which lays out as main goal the Spanish Port System competitiveness improvement and lead its recovery offering favorable environment conditions to Spanish ports which help encourage maritime traffic attraction and private investment through a wide offer of services, quality of infrastructure and competitive prices which can consolidate its positioning within the world’s maritime traffic. It is therefore key to investigate the influence of the measures proposed by the above mentioned law and also the solutions offered to the demands of a sector which is considered strategic for the country’s economy and which solution is essential to consolidate the recovery. It is because of this that the most important aspects of the reform have been analyzed through the making of an executive summary and it has also been studied the influence of the measures it includes from the point of view of three factors which have previously been considered as key for the Spanish port system recovery. The system has historically demanded a progressive tax flexibility, which would permit Spanish ports be more competitive compared to other port models much more flexible in rates, a necessary liberalization of the port service provision regime and last but not least, to cut the price of costs related to those services, mainly freight handling. Following this, the parliamentary process of the law has also been studied as a consequence of the vast consensus reached by the main political forces in the country which clearly determined that more than 700 amendments to the original project were presented. In some cases the focus has been on amendments which are adventurous and new, reason why they were finally not included to the final legal text. Being well aware of the importance that freight handling procedure has, I have made a specific reference to the legal and working framework of those employees related to this service. We conclude that the special working relationship, its different legal regime, along with the working relationship dualism has a big impact and decisive influence over the worker’s salary which also affects service users, mainly shipowners and terminal operators, having a bad effect on the port’s competitiveness. The above confirms the new opening trend of main European port laws with special attention to the frustrated European Union port services liberalization project, also known as Directive Loyola de Palacio (2003) and the White Paper on Transports (2011). It is important to highlight that the European Commission has also observed several deficiencies with regard to the freight handling port service Law Regime being in disagreement with it, considering it is against the free establishment rules in Europe. The Commission is likely to present a unilateral reform to the Spanish Port Law. Under this approach the service provision framework is being analyzed from the Port Community point of view. Initially the analysis will focus on the study of the competition forces within the port services industry in Spain, this will allow us to draw up an strategic map through “Porter’s Five Forces Model” concluding that the power of port services providers as freight handlers is maximum, with an only collective, stevedores, which has the exclusivity for their services. All these circumstances not only decrease the system’s competitiveness versus other more flexible but also restrain private investments. Secondly, through a participating procedure in different surveys about the legislative model and about the training framework with the affected agents within the port community, there is a triple perspective: Public point of view represented by Port Authorities as infrastructure managers, Private point of view represented by users and service suppliers as main Port’s customer and finally, port workforce, represented by union leaders. Results will let us conclude that freight handling service is the most critical port service and represents more than half of the costs. This service related workers aspire to obtain a training certificate that unifies and boosts their professional role which is also chased by the entire port community. Once conclusions have been analyzed for all research lines, several deficiencies have been found and the regulatory framework hasn’t yet been able to solve them, it has therefore been a series of necessary measures that help improve the port services provision regime. A new proposal to the Restated Law Text has been drafted as the first step to embrace a future legal reform. Conclusions obtained on the research should set the new basis of a deep reflection about the need to bent on a new legal reform which firmly bets on Spanish port system competitiveness from three key points of view, service liberalization, ship load cost reduction and professionalization of freight handling related workers.
Resumo:
Empirical Software Engineering (ESE) replication researchers need to store and manipulate experimental data for several purposes, in particular analysis and reporting. Current research needs call for sharing and preservation of experimental data as well. In a previous work, we analyzed Replication Data Management (RDM) needs. A novel concept, called Experimental Ecosystem, was proposed to solve current deficiencies in RDMapproaches. The empirical ecosystem provides replication researchers with a common framework that integrates transparently local heterogeneous data sources. A typical situation where the Empirical Ecosystem is applicable, is when several members of a research group, or several research groups collaborating together, need to share and access each other experimental results. However, to be able to apply the Empirical Ecosystem concept and deliver all promised benefits, it is necessary to analyze the software architectures and tools that can properly support it.
Resumo:
Context: Empirical Software Engineering (ESE) replication researchers need to store and manipulate experimental data for several purposes, in particular analysis and reporting. Current research needs call for sharing and preservation of experimental data as well. In a previous work, we analyzed Replication Data Management (RDM) needs. A novel concept, called Experimental Ecosystem, was proposed to solve current deficiencies in RDM approaches. The empirical ecosystem provides replication researchers with a common framework that integrates transparently local heterogeneous data sources. A typical situation where the Empirical Ecosystem is applicable, is when several members of a research group, or several research groups collaborating together, need to share and access each other experimental results. However, to be able to apply the Empirical Ecosystem concept and deliver all promised benefits, it is necessary to analyze the software architectures and tools that can properly support it.
Resumo:
El presente trabajo consistió en el desarrollo de una intervención nutricional a largo plazo llevada a cabo con jugadores profesionales de baloncesto, en función al cumplimiento de las recomendaciones nutricionales, con los siguientes dos objetivos: 1) valorar los cambios que dicha intervención produce sobre las prácticas nutricionales diarias de estos deportistas y 2) conocer la influencia de las modificaciones nutricionales producidas sobre la tasa de percepción del esfuerzo por sesión (RPE-Sesión) y la fatiga, a lo largo de una temporada competitiva, tanto para entrenamientos como partidos oficiales. Los objetivos del estudio se fundamentan en: 1) la numerosa evidencia científica que muestra la inadecuación de los hábitos nutricionales de los jugadores de baloncesto y otros deportistas respecto a las recomendaciones nutricionales; 2) el hecho ampliamente reconocido en la literatura especializada de que una ingesta nutricional óptima permite maximizar el rendimiento deportivo (a nivel físico y cognitivo), promoviendo una rápida recuperación y disminuyendo el riesgo de enfermedades y lesiones deportivas. No obstante, pocos estudios han llevado a cabo una intervención nutricional a largo plazo para mejorar los hábitos alimentarios de los deportistas y ninguno de ellos fue realizado con jugadores de baloncesto; 3) la elevada correlación entre la percepción del esfuerzo (RPE) y variables fisiológicas relacionadas al desarrollo de un ejercicio (por ej.: frecuencia cardíaca, consumo máximo de oxígeno o lactato sanguíneo) y los múltiples estudios que muestran la atenuación de la RPE durante la realización del ejercicio mediante una ingesta puntual de nutrientes, (especialmente de hidratos de carbono) aunque ninguno fue desarrollado en baloncesto; 4) el estudio incipiente de la relación entre la ingesta nutricional y la RPE-Sesión, siendo éste un método validado en baloncesto y otros deportes de equipo como indicador de la carga de trabajo interna, el rendimiento deportivo y la intensidad del ejercicio realizado; 5) el hecho de que la fatiga constituye uno de los principales factores influyentes en la percepción del esfuerzo y puede ser retrasada y/o atenuada mediante la ingesta de carbohidratos, pudiendo disminuir consecuentemente la RPE-Sesión y la carga interna del esfuerzo físico, potenciando el rendimiento deportivo y las adaptaciones inducidas por el entrenamiento; 6) la reducida evidencia acerca del comportamiento de la RPE-Sesión ante la modificación de la ingesta de nutrientes, encontrándose sólo un estudio llevado a cabo en baloncesto y 7) la ausencia de investigaciones acerca de la influencia que puede tener la mejora del patrón nutricional de los jugadores sobre la RPE-Sesión y la fatiga, desconociéndose si la adecuación de los hábitos nutricionales conduce a una disminución de estas variables en el largo plazo para todos los entrenamientos y partidos oficiales a nivel profesional. Por todo esto, este trabajo comienza con una introducción que presenta el marco teórico de la importancia y función de la nutrición en el deporte, así como de las recomendaciones nutricionales actuales a nivel general y para baloncesto. Además, se describen las intervenciones nutricionales llevadas a cabo previamente con otros deportistas y las consecuentes modificaciones sobre el patrón alimentario, coincidiendo este aspecto con el primer objetivo del presente estudio. Posteriormente, se analiza la RPE, la RPE-Sesión y la fatiga, focalizando el estudio en la relación de dichas variables con la carga de trabajo físico, la intensidad del entrenamiento, el rendimiento deportivo y la recuperación post ejercicio. Finalmente, se combinan todos los aspectos mencionados: ingesta nutricional, RPE percepción del esfuerzo y fatiga, con el fin de conocer la situación actual del estudio de la relación entre dichas variables, conformando la base del segundo objetivo de este estudio. Seguidamente, se exponen y fundamentan los objetivos antes mencionados, para dar lugar después a la explicación de la metodología utilizada en el presente estudio. Ésta consistió en un diseño de estudios de caso, aplicándose una intervención nutricional personalizada a tres jugadores de baloncesto profesional (cada jugador = un estudio de caso; n = 1), con el objetivo de adecuar su ingesta nutricional en el largo plazo a las recomendaciones nutricionales. A su vez, se analizó la respuesta individual de cada uno de los casos a dicha intervención para los dos objetivos del estudio. Para ello, cada jugador completó un registro diario de alimentos (7 días; pesada de alimentos) antes, durante y al final de la intervención. Además, los sujetos registraron diariamente a lo largo del estudio la RPE-Sesión y la fatiga en entrenamientos físicos y de balón y en partidos oficiales de liga, controlándose además en forma cuantitativa otras variables influyentes como el estado de ánimo y el sueño. El análisis de los datos consistió en el cálculo de los estadísticos descriptivos para todas las variables, la comparación de la ingesta en los diferentes momentos evaluados con las recomendaciones nutricionales y una comparación de medias no paramétrica entre el período pre intervención y durante la intervención con el test de Wilcoxon (medidas repetidas) para todas las variables. Finalmente, se relacionaron los cambios obtenidos en la ingesta nutricional con la percepción del esfuerzo y la fatiga y la posible influencia del estado de ánimo y el sueño, a través de un estudio correlacional (Tau_b de Kendall). Posteriormente, se presentan los resultados obtenidos y la discusión de los mismos, haciendo referencia a la evidencia científica relacionada que se encuentra publicada hasta el momento, la cual facilitó el análisis de la relación entre RPE-Sesión, fatiga y nutrición a lo largo de una temporada. Los principales hallazgos y su correspondiente análisis, por lo tanto, pueden resumirse en los siguientes: 1) los tres jugadores de baloncesto profesional presentaron inicialmente hábitos nutricionales inadecuados, haciendo evidente la necesidad de un nutricionista deportivo dentro del cuerpo técnico de los equipos profesionales; 2) las principales deficiencias correspondieron a un déficit pronunciado de energía e hidratos de carbono, que fueron reducidas con la intervención nutricional; 3) la ingesta excesiva de grasa total, ácidos grasos saturados, etanol y proteínas que se halló en alguno/s de los casos, también se adecuó a las recomendaciones después de la intervención; 4) la media obtenida durante un período de la temporada para la RPE-Sesión y la fatiga de entrenamientos, podría ser disminuida en un jugador individual mediante el incremento de su ingesta de carbohidratos a largo plazo, siempre que no existan alteraciones psico-emocionales relevantes; 5) el comportamiento de la RPE-Sesión de partidos oficiales no parece estar influido por los factores nutricionales modificados en este estudio, dependiendo más de la variación de elementos externos no controlables, intrínsecos a los partidos de baloncesto profesional. Ante estos resultados, se pudo observar que las diferentes características de los jugadores y las distintas respuestas obtenidas después de la intervención, reforzaron la importancia de utilizar un diseño de estudio de casos para el análisis de los deportistas de élite y, asimismo, de realizar un asesoramiento nutricional personalizado. Del mismo modo, la percepción del esfuerzo y la fatiga de cada jugador evolucionaron de manera diferente después de la intervención nutricional, lo cual podría depender de las diferentes características de los sujetos, a nivel físico, psico-social, emocional y contextual. Por ello, se propone que el control riguroso de las variables cualitativas que parecen influir sobre la RPE y la fatiga a largo plazo, facilitaría la comprensión de los datos y la determinación de factores desconocidos que influyen sobre estas variables. Finalmente, al ser la RPE-Sesión un indicador directo de la carga interna del entrenamiento, es decir, del estrés psico-fisiológico experimentado por el deportista, la posible atenuación de esta variable mediante la adecuación de los hábitos nutricionales, permitiría aplicar las cargas externas de entrenamiento planificadas, con menor estrés interno y mejor recuperación entre sesiones, disminuyendo también la sensación de fatiga, a pesar del avance de la temporada. ABSTRACT This study consisted in a long-term nutritional intervention carried out with professional basketball players according to nutritional recommendations, with the following two main objectives: 1) to evaluate the changes produced by the intervention on daily nutritional practices of these athletes and 2) to determine the influence of long term nutritional intake modifications on the rate of perceived exertion per session (Session-RPE) and fatigue, throughout a competitive season for training as well as competition games. These objectives are based on: 1) much scientific evidence that shows an inadequacy of the nutritional habits of basketball players and other athletes regarding nutritional recommendations; 2) the fact widely recognized in the scientific literature that an optimal nutrition allows to achieve the maximum performance of an athlete (both physically and cognitively), promoting fast recovery and decreasing risks of sports injuries and illnesses. However, only few studies carried out a long term nutritional intervention to improve nutritional practices of athletes and it could not be found any research with basketball players; 3) the high correlation between the rate of perceived exertion (RPE) and physiological variables related to the performance of physical exercise (e.g.: heart rate, maximum consumption of oxygen or blood lactate) and multiple studies showing the attenuation of RPE during exercise due to the intake of certain nutrients (especially carbohydrates), while none of them was developed in basketball; 4) correlation between nutritional intake and Session-RPE has been recently studied for the first time. Session-RPE method has been validated in basketball players and other team sports as an indicator of internal workload, sports performance and exercise intensity; 5) fatigue is considered one of the main influential factor on RPE and sport performance. It has also been observed that carbohydrates intake may delay or mitigate the onset of fatigue and, thus, decrease the perceived exertion and the internal training load, which could improve sports performance and training-induced adaptations; 6) there are few studies evaluating the influence of nutrient intake on Session-RPE and only one of them has been carried out with basketball players. Moreover, it has not been analyzed the possible effects of the adequacy of players’ nutritional habits through a nutritional intervention on Session-RPE and fatigue, variables that could be decreased for all training session and competition games because of an improvement of daily nutritional intake. Therefore, this work begins with an introduction that provides the conceptual framework of this research focused on the key role of nutrition in sport, as well as on the current nutritional recommendations for athletes and specifically for basketball players. In addition, previous nutritional interventions carried out with other athletes are described, as well as consequential modifications on their food pattern, coinciding with the first objective of the present study. Subsequently, RPE, Session-RPE and fatigue are analyzed, with focus on their correlation with physical workload, training intensity, sports performance and recovery. Finally, all the aforementioned aspects (nutritional intake, RPE and fatigue) were combined in order to know the current status of the relation between each other, this being the base for the second objective of this study. Subsequently, the objectives mentioned above are explained, continuing with the explanation of the methodology used in the study. The methodology consisted of a case-study design, carrying out a long term nutritional intervention with three professional basketball players (each player = one case study; n = 1), in order to adapt their nutritional intake to nutritional recommendations. At the same time, the individual response of each player to the intervention was analyzed for the two main objectives of the study. Each player completed a food diary (7 days; weighing food) in three moments: before, during and at the end of the intervention. In addition, the Session-RPE and fatigue were daily recorded throughout the study for all trainings (training with ball and resistance training) and competition games. At the same time, other potentially influential variables such as mood state and sleeping were daily controlled throughout the study. Data analysis consisted in descriptive statistics calculation for all the variables of the study, the comparison between nutritional intake (evaluated at different times) and nutritional recommendations and a non-parametric mean comparison between pre intervention and during intervention periods was made by Wilcoxon test (repeated measurements) for all variables too. Finally, the changes in nutritional intake, mood state and sleeping were correlated with the perceived exertion and fatigue through correctional study (Tau_b de Kendall). After the methodology, the study results and the associated discussion are presented. The discussion is based on the current scientific evidence that contributes to understand the relation between Session-RPE, fatigue and nutrition throughout the competitive season. The main findings and results analysis can be summarized as follows: 1) the three professional basketball players initially had inadequate nutritional habits and this clearly shows the need of a sports nutritionist in the coaching staff of professional teams; (2) the major deficiencies of the three players’ diet corresponded to a pronounced deficit of energy intake and carbohydrates consumption which were reduced with nutritional intervention; (3) the excessive intake of total fat, saturated fatty acids, ethanol and protein found in some cases were also adapted to the recommendations after the intervention; (4) Session-RPE mean and fatigue of a certain period of the competition season, could be decreased in an individual player by increasing his carbohydrates intake in the long term, if there are no relevant psycho-emotional disorders; (5) the behavior of the Session-RPE in competition games does not seem to be influenced by the nutritional factors modified in this study. They seem to depend much more on the variation of external non-controllable factors associated with the professional basketball games. Given these results, the different characteristics of each player and the diverse responses observed after the intervention in each individual for all the variables, reinforced the importance of the use of a case study design for research with elite athletes as well as personalized nutritional counselling. In the same way, the different responses obtained for RPE and fatigue in the long term for each player due to modification of nutritional habits, show that there is a dependence of such variables on the physical, psychosocial, emotional and contextual characteristics of each player. Therefore it is proposed that the rigorous control of the qualitative variables that seem to influence the RPE and fatigue in the long term, may facilitate the understanding of data and the determination of unknown factors that could influence these variables. Finally, because Session-RPE is a direct indicator of the internal load of training (psycho-physiological stress experienced by the athlete), the possible attenuation of Session-RPE through the improvement in nutritional habits, would allow to apply the planned external loads of training with less internal stress and better recovery between sessions, with a decrease in fatigue, despite of the advance of the season.
Resumo:
El agotamiento, la ausencia o, simplemente, la incertidumbre sobre la cantidad de las reservas de combustibles fósiles se añaden a la variabilidad de los precios y a la creciente inestabilidad en la cadena de aprovisionamiento para crear fuertes incentivos para el desarrollo de fuentes y vectores energéticos alternativos. El atractivo de hidrógeno como vector energético es muy alto en un contexto que abarca, además, fuertes inquietudes por parte de la población sobre la contaminación y las emisiones de gases de efecto invernadero. Debido a su excelente impacto ambiental, la aceptación pública del nuevo vector energético dependería, a priori, del control de los riesgos asociados su manipulación y almacenamiento. Entre estos, la existencia de un innegable riesgo de explosión aparece como el principal inconveniente de este combustible alternativo. Esta tesis investiga la modelización numérica de explosiones en grandes volúmenes, centrándose en la simulación de la combustión turbulenta en grandes dominios de cálculo en los que la resolución que es alcanzable está fuertemente limitada. En la introducción, se aborda una descripción general de los procesos de explosión. Se concluye que las restricciones en la resolución de los cálculos hacen necesario el modelado de los procesos de turbulencia y de combustión. Posteriormente, se realiza una revisión crítica de las metodologías disponibles tanto para turbulencia como para combustión, que se lleva a cabo señalando las fortalezas, deficiencias e idoneidad de cada una de las metodologías. Como conclusión de esta investigación, se obtiene que la única estrategia viable para el modelado de la combustión, teniendo en cuenta las limitaciones existentes, es la utilización de una expresión que describa la velocidad de combustión turbulenta en función de distintos parámetros. Este tipo de modelos se denominan Modelos de velocidad de llama turbulenta y permiten cerrar una ecuación de balance para la variable de progreso de combustión. Como conclusión también se ha obtenido, que la solución más adecuada para la simulación de la turbulencia es la utilización de diferentes metodologías para la simulación de la turbulencia, LES o RANS, en función de la geometría y de las restricciones en la resolución de cada problema particular. Sobre la base de estos hallazgos, el crea de un modelo de combustión en el marco de los modelos de velocidad de la llama turbulenta. La metodología propuesta es capaz de superar las deficiencias existentes en los modelos disponibles para aquellos problemas en los que se precisa realizar cálculos con una resolución moderada o baja. Particularmente, el modelo utiliza un algoritmo heurístico para impedir el crecimiento del espesor de la llama, una deficiencia que lastraba el célebre modelo de Zimont. Bajo este enfoque, el énfasis del análisis se centra en la determinación de la velocidad de combustión, tanto laminar como turbulenta. La velocidad de combustión laminar se determina a través de una nueva formulación capaz de tener en cuenta la influencia simultánea en la velocidad de combustión laminar de la relación de equivalencia, la temperatura, la presión y la dilución con vapor de agua. La formulación obtenida es válida para un dominio de temperaturas, presiones y dilución con vapor de agua más extenso de cualquiera de las formulaciones previamente disponibles. Por otra parte, el cálculo de la velocidad de combustión turbulenta puede ser abordado mediante el uso de correlaciones que permiten el la determinación de esta magnitud en función de distintos parámetros. Con el objetivo de seleccionar la formulación más adecuada, se ha realizado una comparación entre los resultados obtenidos con diversas expresiones y los resultados obtenidos en los experimentos. Se concluye que la ecuación debida a Schmidt es la más adecuada teniendo en cuenta las condiciones del estudio. A continuación, se analiza la importancia de las inestabilidades de la llama en la propagación de los frentes de combustión. Su relevancia resulta significativa para mezclas pobres en combustible en las que la intensidad de la turbulencia permanece moderada. Estas condiciones son importantes dado que son habituales en los accidentes que ocurren en las centrales nucleares. Por ello, se lleva a cabo la creación de un modelo que permita estimar el efecto de las inestabilidades, y en concreto de la inestabilidad acústica-paramétrica, en la velocidad de propagación de llama. El modelado incluye la derivación matemática de la formulación heurística de Bauwebs et al. para el cálculo de la incremento de la velocidad de combustión debido a las inestabilidades de la llama, así como el análisis de la estabilidad de las llamas con respecto a una perturbación cíclica. Por último, los resultados se combinan para concluir el modelado de la inestabilidad acústica-paramétrica. Tras finalizar esta fase, la investigación se centro en la aplicación del modelo desarrollado en varios problemas de importancia para la seguridad industrial y el posterior análisis de los resultados y la comparación de los mismos con los datos experimentales correspondientes. Concretamente, se abordo la simulación de explosiones en túneles y en contenedores, con y sin gradiente de concentración y ventilación. Como resultados generales, se logra validar el modelo confirmando su idoneidad para estos problemas. Como última tarea, se ha realizado un analisis en profundidad de la catástrofe de Fukushima-Daiichi. El objetivo del análisis es determinar la cantidad de hidrógeno que explotó en el reactor número uno, en contraste con los otros estudios sobre el tema que se han centrado en la determinación de la cantidad de hidrógeno generado durante el accidente. Como resultado de la investigación, se determinó que la cantidad más probable de hidrogeno que fue consumida durante la explosión fue de 130 kg. Es un hecho notable el que la combustión de una relativamente pequeña cantidad de hidrogeno pueda causar un daño tan significativo. Esta es una muestra de la importancia de este tipo de investigaciones. Las ramas de la industria para las que el modelo desarrollado será de interés abarca la totalidad de la futura economía de hidrógeno (pilas de combustible, vehículos, almacenamiento energético, etc) con un impacto especial en los sectores del transporte y la energía nuclear, tanto para las tecnologías de fisión y fusión. ABSTRACT The exhaustion, absolute absence or simply the uncertainty on the amount of the reserves of fossil fuels sources added to the variability of their prices and the increasing instability and difficulties on the supply chain are strong incentives for the development of alternative energy sources and carriers. The attractiveness of hydrogen in a context that additionally comprehends concerns on pollution and emissions is very high. Due to its excellent environmental impact, the public acceptance of the new energetic vector will depend on the risk associated to its handling and storage. Fromthese, the danger of a severe explosion appears as the major drawback of this alternative fuel. This thesis investigates the numerical modeling of large scale explosions, focusing on the simulation of turbulent combustion in large domains where the resolution achievable is forcefully limited. In the introduction, a general description of explosion process is undertaken. It is concluded that the restrictions of resolution makes necessary the modeling of the turbulence and combustion processes. Subsequently, a critical review of the available methodologies for both turbulence and combustion is carried out pointing out their strengths and deficiencies. As a conclusion of this investigation, it appears clear that the only viable methodology for combustion modeling is the utilization of an expression for the turbulent burning velocity to close a balance equation for the combustion progress variable, a model of the Turbulent flame velocity kind. Also, that depending on the particular resolution restriction of each problem and on its geometry the utilization of different simulation methodologies, LES or RANS, is the most adequate solution for modeling the turbulence. Based on these findings, the candidate undertakes the creation of a combustion model in the framework of turbulent flame speed methodology which is able to overcome the deficiencies of the available ones for low resolution problems. Particularly, the model utilizes a heuristic algorithm to maintain the thickness of the flame brush under control, a serious deficiency of the Zimont model. Under the approach utilized by the candidate, the emphasis of the analysis lays on the accurate determination of the burning velocity, both laminar and turbulent. On one side, the laminar burning velocity is determined through a newly developed correlation which is able to describe the simultaneous influence of the equivalence ratio, temperature, steam dilution and pressure on the laminar burning velocity. The formulation obtained is valid for a larger domain of temperature, steam dilution and pressure than any of the previously available formulations. On the other side, a certain number of turbulent burning velocity correlations are available in the literature. For the selection of the most suitable, they have been compared with experiments and ranked, with the outcome that the formulation due to Schmidt was the most adequate for the conditions studied. Subsequently, the role of the flame instabilities on the development of explosions is assessed. Their significance appears to be of importance for lean mixtures in which the turbulence intensity remains moderate. These are important conditions which are typical for accidents on Nuclear Power Plants. Therefore, the creation of a model to account for the instabilities, and concretely, the acoustic parametric instability is undertaken. This encloses the mathematical derivation of the heuristic formulation of Bauwebs et al. for the calculation of the burning velocity enhancement due to flame instabilities as well as the analysis of the stability of flames with respect to a cyclic velocity perturbation. The results are combined to build a model of the acoustic-parametric instability. The following task in this research has been to apply the model developed to several problems significant for the industrial safety and the subsequent analysis of the results and comparison with the corresponding experimental data was performed. As a part of such task simulations of explosions in a tunnel and explosions in large containers, with and without gradient of concentration and venting have been carried out. As a general outcome, the validation of the model is achieved, confirming its suitability for the problems addressed. As a last and final undertaking, a thorough study of the Fukushima-Daiichi catastrophe has been carried out. The analysis performed aims at the determination of the amount of hydrogen participating on the explosion that happened in the reactor one, in contrast with other analysis centered on the amount of hydrogen generated during the accident. As an outcome of the research, it was determined that the most probable amount of hydrogen exploding during the catastrophe was 130 kg. It is remarkable that the combustion of such a small quantity of material can cause tremendous damage. This is an indication of the importance of these types of investigations. The industrial branches that can benefit from the applications of the model developed in this thesis include the whole future hydrogen economy, as well as nuclear safety both in fusion and fission technology.
Resumo:
El extenso legado edificado que constituyen las construcciones históricas de fábrica de adobe distribuidas por toda la península encuentra en la región de Aveiro (Portugal) su máxima expresión, tanto desde el punto de vista cuantitativo, un 30% de los edificios existentes en la región, como tipológico, compuesto por un amplio conjunto de diferentes construcciones (edificios residenciales, edificios militares, iglesias, escuelas, teatros, naves industriales, etc.), muchos de los cuales de reconocido valor histórico, arquitectónico y patrimonial. Tras la gradual desaparición del empleo de la fábrica de adobe como técnica constructiva, durante la segunda mitad del siglo XX, la necesaria conservación y/o rehabilitación de los edificios remanentes no se ha tenido en cuenta. Como consecuencia de esta actitud generalizada de pasividad continuada, se verifica el estado actual de deterioro y de daño acusado que presentan una gran parte de estas construcciones, del cual ha resultado el panorama presente de abandono y ruina en el que se encuentran muchas de ellas. Por regla general, la solución adoptada para afrontar el estado actual de los edificios en estas condiciones suele ser la demolición. No obstante lo anterior, en los últimos años, se viene produciendo en el seno de los diferentes agentes que intervienen en la toma de decisiones sobre estos edificios un interés creciente en su preservación, promoviendo la rehabilitación de los mismos. Empieza de este modo a cobrar importancia la necesidad de desarrollar estrategias de intervención que posibiliten alargar la vida útil de estas estructuras, permitiendo, por un lado, establecer metodologías de análisis de sus condiciones de seguridad, que posibiliten determinar las medidas de actuación necesarias para el aseguramiento de las mismas frente a las acciones existentes y, en su caso, a la incorporación de nuevas solicitaciones debidas a cambios de uso o ampliaciones, así como, dando respuesta a los principales mecanismo de daño a los que se encuentran sujetas. Tratándose de estructuras que fueron construidas utilizando técnicas y materiales escasamente estudiados y entre tanto abandonados, se hace también necesario, y con carácter previo a lo anterior, acometer un estudio e investigación multidisciplinares que permitan su caracterización y comprensión, y la par establecer un diagnóstico sobre los principales agentes y procesos patológicos que promueven el deterioro de las mismas. En este contexto, el estudio llevado a cabo tuvo como objetivos ampliar el conocimiento e investigación acerca de las propiedades y parámetros resistentes de las fábricas históricas de adobe, así como, analizar los principales mecanismos de daño asociados a las mismas, a la luz del el estado actual de estas construcciones, y su repercusión en el comportamiento resistente de las fábricas –con especial énfasis para la influencia del agua–. De este modo, se pretendió construir una base de resultados que, por un lado, pueda servir de soporte a intervenciones de rehabilitación y/o consolidación de estas estructuras – permitiendo de forma ágil y a partir de datos y recursos de cálculo expeditos la evaluación de los niveles de seguridad en las fábricas–, y por otro, el estudio de soluciones de mejora o corrección de deficiencias en su comportamiento estructural. The vast edified legacy composed of the historical adobe load-bearing walls which can be found spread all over the Iberian peninsula has, in the region of Aveiro (Portugal), its maximum expression, both from a quantitative point of view (around 30% of the local construction) and a typological point of view, including a considerable number of different types of constructions (residential buildings, military buildings, churches, industrial buildings, etc.), most of which have a recognized high historical, architectural and patrimonial value. The conservation and/or rehabilitation of many of these edifications has been neglected, since its gradual abandonment as constructive technique during the second half of the 20th century. As a consequence of this posture of general passivity, it is nowadays visible the state of pronounced damage manifested by great part of these constructions, which has been leading to their abandonment and state of ruin. In most cases, the option for demolition has been the solution found to face the actual state of these constructions. However, in recent years, a growing interest in the preservation and maintenance of the adobe constructions has become visible by the envolved parties, with the obvious consequence of rehabilitation. By so, it becomes mandatory to develop strategies of intervention that, through rehabilitation, are able to extend the useful life of the existing structures, allowing on one hand, to establish methodologies to analyze their safety state and determine the actions needed to ensure their protection against existing pressures and, when applicable, the occurrence of new demands due to changes of use or extensions, and on the other hand, to give response to the main damage mechanisms to which these structures are exposed. Because these structures were built using not very well know techniques and materials, which have been, in the meantime, abandoned, it is now crucial that these are object of a previous phase of study and multidisciplinary investigation, essential not only to their characterization and comprehension, but also to the diagnosis of the main pathological processes that affect them. In this context, the present study had as main goal to develop the analysis and knowledge regarding the properties and resistant parameters of the adobe masonry as well as bringing to the light of day the actual state of the existing adobe constructions, making evident the main damage mechanisms by which they are affected and analyzing, through their occurrence, the vulnerability of the mentioned properties and resistant parameters. By so, it was objective of the present study the development of a result database which on one hand, supports the execution of rehabilitation interventions and/or strengthening of these constructions and, on other hand, allows the development of improvement solutions in the mechanical characteristics of the adobe masonry which permit corrections of deficiencies in their structural behavior with a special emphasis on the influence of water. Thus, a database of results was developed. Its goal is, on one hand, to support the rehabilitation or consolidation interventions on these structures - allowing for a quick analysis of the safety state of the adobe walls from expedite data and calculus resources and, on the other hand, to study improvement or correction solutions of their structural behavior.
Resumo:
Objetivo: Este Trabajo Fin de Máster (TFM) analiza la importancia de la información poblacional en el análisis de datos de experimentos en IS. Por otro lado se intenta abordar un estudio sobre las posibles metodologías que se pueden usar para realizar dicho análisis. Contexto: El análisis se realiza sobre los resultados de un experimento llevado a cabo por el Grupo de Investigación de IS empírica de la UPM, cuyo objetivo es analizar el impacto que tiene el uso de TDD (Test Driven Development) sobre la calidad y la productividad del desarrollo software en comparación con el desarrollo tradicional TLD. Método de Investigación: Se analizan ocho variables demográficas frente a tres variables respuesta. Las metodologías o técnicas de análisis que se revisan son la Dicotomización, la Correlación de Pearson, la regresión lineal múltiple y la stepwise regression. Resultados: No se encuentran evidencias claras para afirmar que las variables demográficas influyen en los resultados de los experimentos. No obstante los resultados no son del todo concluyentes y queda abierta la investigación a realizarse con una muestra más amplia y representativa. En relación a la metodología de análisis aplicada, la dicotomización y la correlación de Pearson presentan deficiencias que se solventan con la regresión lineal múltiple y la stepwise regression. Conclusión: Resulta de vital importancia encontrar evidencias de la influencia de las características demográficas de los sujetos experimentales en el análisis de los datos experimentos en IS. Se ha encontrado un buen método para analizar esta influencia, pero falta replicar este análisis a más experimentos de IS para obtener resultados mejor fundados.---ABSTRACT---Objective: This Master's Thesis (TFM) discusses the importance of demographic data in the analysis of data from experiments in SE. On the other hand, it attempts to address a study of the possible methodologies that can be used to perform the analysis. Context: The analysis is performed on the results of an experiment conducted by the ESE Research Group of the UPM, aimed at analyzing the impact of the use of TDD (Test Driven Development) on quality and productivity, compared to traditional development TLD (Test Last Development). Research Method: Eight demographic variables were analyzed against three response variables. The methodologies and analysis techniques that are reviewed include dichotomization, Pearson correlation, multiple linear regression and stepwise regression. Results: There is not clear evidence to say that demographic variables influence the results of SE experiments. However the results are not conclusive, and are open to research with a broader and more representative sample. Regarding the applied analysis methodology, dichotomization and Pearson correlation have deficiencies that are solved with multiple linear regression and stepwise regression. Conclusion: It is very important to find evidence on the influence of demographic characteristics of subjects in the data analysis of SE experiments. We found a good way to analyze this influence, but is necessary replicate this analysis on more SE experiments to obtain sound results.
Resumo:
Las prestaciones y características de los dispositivos móviles actuales los sitúa a un nivel similar a los ordenadores de escritorio tradicionales en cuanto a funcionalidad y posibilidades de uso, añadiendo además la movilidad y la sensación de pertenencia al usuario que se deriva de ésta. Estas cualidades convierten a las plataformas móviles de computación en verdaderos ordenadores personales, y cada día es más popular su utilización en ámbitos distintos del ocio y las comunicaciones propiamente dichas, pasando a convertirse en herramientas de apoyo a la productividad también en el entorno profesional y corporativo. La utilización del dispositivo móvil como parte de una infraestructura de telecomunicaciones da lugar a nuevas expresiones de problemas clásicos de gestión y seguridad. Para tratar de abordarlos con la flexibilidad y la escalabilidad necesarias se plantean alternativas novedosas que parten de enfoques originales a estos problemas, como las ideas y conceptos que se engloban en la filosofía del Control de Acceso a la Red (Network Access Control, o NAC). La mayoría de los planteamientos de NAC se basan, en el ámbito de la seguridad, en comprobar ciertas características del dispositivo móvil para tratar de determinar hasta qué punto puede éste suponer una amenaza para los recursos de la red u otros usuarios de la misma. Obtener esta información de forma fiable resulta extremadamente difícil si se caracteriza el dispositivo mediante un modelo de caja blanca, muy adecuado dada la apertura propia de los sistemas operativos móviles actuales, muy diferentes de los de antaño, y la ausencia de un marco de seguridad efectivo en ellos. Este trabajo explora el Estado de la Técnica en este ámbito de investigación y plantea diferentes propuestas orientadas a cubrir las deficiencias de las soluciones propuestas hasta el momento y a satisfacer los estrictos requisitos de seguridad que se derivan de la aplicación del modelo de caja blanca, materializándose en última instancia en la definición de un mecanismo de evaluación de características arbitrarias de un cierto dispositivo móvil basado en Entornos Seguros de Ejecución (Trusted Execution Environments, o TEEs) con elevadas garantías de seguridad compatible con los planteamientos actuales de NAC. ABSTRACT The performance and features of today’s mobile devices make them able to compete with traditional desktop computers in terms of functionality and possible usages. In addition to this, they sport mobility and the stronger sense of ownership that derives from it. These attributes change mobile computation platforms into truly personal computers, allowing them to be used not only for leisure or as mere communications devices, but also as supports of productivity in professional and corporative environments. The utilization of mobile devices as part of a telecommunications infrastructure brings new expressions of classic management and security problems with it. In order to tackle them with appropriate flexibility and scalability, new alternatives are proposed based on original approaches to these problems, such as the concepts and ideas behind the philosophy of Network Access Control (NAC). The vast majority of NAC proposals are based, security-wise, on checking certain mobile device’s properties in order to evaluate how probable it is for it to become a threat for network resources or even other users of the infrastructure. Obtaining this information in a reliable and trustworthy way is extremely difficult if the device is characterized using a white-box model, which is the most appropriate if the openness of today’s mobile operating systems, very different from former ones, and the absence of an effective security framework are taken into account. This work explores the State of the Art related with the aforementioned field of research and presents different proposals targeted to overcome the deficiencies of current solutions and satisfy the strict security requirements derived from the application of the white box model. These proposals are ultimately materialized in the definition of a high-security evaluation procedure of arbitrary properties of a given mobile device based on Trusted Execution Environments (TEEs) which is compatible with modern NAC approaches.
Resumo:
México es de los pocos países en el mundo que ha realizado dos grandes programas para la construcción de autopistas en colaboración con el sector privado. El primero, fue realizado entre 1989 y 1994, con resultados adversos por el mal diseño del esquema de concesiones; y, el segundo con mejores resultados, en operación desde 2003 mediante nuevos modelos de asociación público-privada (APP). El objetivo de la presente investigación es estudiar los modelos de asociación público-privada empleados en México para la provisión de infraestructura carretera, realizando el análisis y la evaluación de la distribución de riesgos entre el sector público y privado en cada uno de los modelos con el propósito de establecer una propuesta de reasignación de riesgos para disminuir el costo global y la incertidumbre de los proyectos. En la primera parte se describe el estado actual del conocimiento de las asociaciones público-privadas para desarrollar proyectos de infraestructura, incluyendo los antecedentes, la definición y las tipologías de los esquemas APP, así como la práctica internacional de programas como el modelo británico Private Finance Initiative (PFI), resultados de proyectos en la Unión Europea y programas APP en otros países. También, se destaca la participación del sector privado en el financiamiento de la infraestructura del transporte de México en la década de 1990. En los capítulos centrales se aborda el estudio de los modelos APP que se han utilizado en el país en la construcción de la red de carreteras de alta capacidad. Se presentan las características y los resultados del programa de autopistas 1989-94, así como el rescate financiero y las medidas de reestructuración de los proyectos concesionados, aspectos que obligaron a las autoridades mexicanas a cambiar la normatividad para la aprobación de los proyectos según su rentabilidad, modificar la legislación de caminos y diseñar nuevos esquemas de colaboración entre el gobierno y el sector privado. Los nuevos modelos APP vigentes desde 2003 son: nuevo modelo de concesiones para desarrollar autopistas de peaje, modelo de proyectos de prestación de servicios (peaje sombra) para modernizar carreteras existentes y modelo de aprovechamiento de activos para concesionar autopistas de peaje en operación a cambio de un pago. De estos modelos se realizaron estudios de caso en los que se determinan medidas de desempeño operativo (niveles de tráfico, costos y plazos de construcción) y rentabilidad financiera (tasa interna de retorno y valor presente neto). En la última parte se efectúa la identificación, análisis y evaluación de los riesgos que afectaron los costos, el tiempo de ejecución y la rentabilidad de los proyectos de ambos programas. Entre los factores de riesgo analizados se encontró que los más importantes fueron: las condiciones macroeconómicas del país (inflación, producto interno bruto, tipo de cambio y tasa de interés), deficiencias en la planificación de los proyectos (diseño, derecho de vía, tarifas, permisos y estimación del tránsito) y aportaciones públicas en forma de obra. Mexico is one of the few countries in the world that has developed two major programs for highway construction in collaboration with the private sector. The first one was carried out between 1989 and 1994 with adverse outcomes due to the wrong design of concession schemes; and, the second one, in operation since 2003, through new public-private partnership models (PPPs). The objective of this research is to study public-private partnership models used in Mexico for road infrastructure provision, performing the analysis and evaluation of risk’s distribution between the public and the private sector in each model in order to draw up a proposal for risk’s allocation to reduce the total cost and the uncertainty of projects. The first part describes the current state of knowledge in public-private partnership to develop infrastructure projects, including the history, definition and types of PPP models, as well as international practice of programs such as the British Private Finance Initiative (PFI) model, results in the European Union and PPP programs in other countries. Also, it stands out the private sector participation in financing of Mexico’s transport infrastructure in 1990s. The next chapters present the study of public-private partnerships models that have been used in the country in the construction of the high capacity road network. Characteristics and outcomes of the highway program 1989-94 are presented, as well as the financial bailout and restructuring measures of the concession projects, aspects that forced the Mexican authorities to change projects regulations, improve road’s legislation and design new schemes of cooperation between the Government and the private sector. The new PPP models since 2003 are: concession model to develop toll highways, private service contracts model (shadow toll) to modernize existing roads and highway assets model for the concession of toll roads in operation in exchange for a payment. These models were analyzed using case studies in which measures of operational performance (levels of traffic, costs and construction schedules) and financial profitability (internal rate of return and net present value) are determined. In the last part, the analysis and assessment of risks that affect costs, execution time and profitability of the projects are carried out, for both programs. Among the risk factors analyzed, the following ones were found to be the most important: country macroeconomic conditions (inflation, gross domestic product, exchange rate and interest rate), deficiencies in projects planning (design, right of way, tolls, permits and traffic estimation) and public contributions in the form of construction works.
Resumo:
En los suelos, el exceso de acidez lleva asociado deficiencias en ciertos nutrientes y una alta disponibilidad de aluminio, tóxico para los cultivos propios del ambiente mediterráneo. Su laboreo, provoca la pérdida de materia orgánica (MO), deteriora su estructura y reduce la actividad biológica, provocando en última instancia una menor calidad del suelo. Es de esperar pues que cuando se labran suelos ácidos, sus problemáticas particulares tiendan a agravarse. En nuestra zona de estudio, la “raña” de Cañamero (Extremadura, España), predominan los suelos muy ácidos y degradados por un laboreo inadecuado. Las rañas constituyen amplias plataformas casi horizontales, con unos suelos muy viejos (Palexerults), que se caracterizan por tener el complejo de cambio dominado por el aluminio, y un pH ácido que decrece en profundidad. Poseen un potente horizonte Bt rico en arcillas caoliníticas, que propicia que en periodos con exceso de lluvia, se generen capas colgadas de agua cercanas a la superficie. En torno a los años 1940’s estos suelos, que previamente sostenían un alcornocal, o su matorral de sustitución, se pusieron en cultivo. El laboreo aceleró la mineralización de la materia orgánica, agravó los problemas derivados del exceso de acidez y condujo al abandono de los campos cultivados por falta de productividad. Para recuperar la calidad de estos suelos degradados y obtener unos rendimientos compatibles con su uso agrícola es necesario, por un lado, aplicar enmiendas que eleven el pH y reduzcan la toxicidad del aluminio y, por otro, favorecer el incremento en el contenido en MO. En 2005 se implantó en esta raña un ensayo de campo para estudiar la influencia del no laboreo y de la utilización de una enmienda cálcica en parámetros relacionados con la calidad del suelo en un cultivo forrajero. El diseño experimental fue en parcelas divididas con cuatro repeticiones donde el factor principal fue el tipo de laboreo, no laboreo (NL) frente a laboreo convencional (LC), y el factor secundario el uso o no de una enmienda cálcica. La enmienda consistió básicamente en una mezcla de espuma de azucarería y yeso rojo y se incorporó al comienzo del ensayo hasta los 7 cm de profundidad. Desde el comienzo del ensayo el NL influyó positivamente en el contenido de carbono orgánico total (COT) y particulado (COP), mientras que la enmienda tuvo una ligera influencia al principio del ensayo en ambos pero su efecto positivo se desvaneció con el paso del tiempo. Los mayores contenidos en COT y POC se observaron cuando se combinó el NL con la enmienda. La enmienda incrementó con rapidez el pH, y el Ca, y disminuyó el contenido en aluminio hasta una profundidad de 50 cm, incluso en NL, y mejoró ligeramente la agregación del suelo. El NL por sí solo, gracias al aumento en POC, TOC y las proteínas del suelo relacionadas con la glomalina (PSRG), que son capaces de formar compuestos estables no tóxicos con el aluminio, también contribuyó a la reducción de la toxicidad de aluminio en la capa más superficial. Cuando en las campañas con exceso de precipitaciones se generaron capas colgadas de agua próximas a la superficie, el NL generó unas condiciones más favorables para la germinación y desarrollo del cultivo, resultando en una producción más alta que el LC. A ello contribuyó la mayor capacidad de almacenamiento de agua y la mayor transmisividad de esta hacia abajo, en la capa más superficial (0-5 cm) que propició una menor saturación por agua que el LC. Respecto a los parámetros relacionados con la agregación, el NL aumentó los macroagregados hasta los 10 cm de profundidad y favoreció la acumulación de CO y N en todas las fracciones de tamaño de agregados. Sin embargo, la recuperación del grado de macroagregación tras el cese del laboreo resulta lenta en comparación con otros suelos, posiblemente debido al bajo contenido en arcilla en el horizonte Ap. En comparación con el NL, la enmienda mostró también un efecto positivo, aunque muy ligero, en la agregación del suelo. En contradicción con otros estudios en suelos ácidos, nuestros resultados indican la existencia de una jerarquía de agregados, y destacan el papel importante de la MO en la mejora de la agregación. Tanto el NL como la enmienda favorecieron por separado varias propiedades químicas, físicas y biológicas del suelo, pero, en general, encontramos los mayores beneficios con su uso combinado. Además, a largo plazo el efecto positivo de NL en las propiedades del suelo fue en aumento, mientras que el efecto beneficioso de la enmienda se limitó básicamente a las propiedades químicas y se desvaneció en pocos años. Destacamos que las condiciones meteorológicas a lo largo del ensayo beneficiaron la producción de biomasa en NL, y en consecuencia las propiedades relacionadas con la materia orgánica, por lo que son un factor a tener en cuenta a la hora de evaluar los efectos de la enmienda y el laboreo sobre las propiedades del suelo, especialmente en zonas donde esas condiciones son muy variables entre una campaña y otra. Los resultados de este estudio han puesto de manifiesto que el NL no ha mermado la eficacia de la enmienda caliza, posiblemente gracias a la alta solubilidad de la enmienda aplicada, es más, el manejo con NL y enmienda es el que ha favorecido en mayor medida ciertos parámetros de calidad del suelo. Por el contrario el LC sí parece anular los beneficios de la enmienda en relación con las propiedades relacionadas con la MO. Por tanto, cabe concluir que la combinación de NL y la enmienda es una práctica adecuada para mejorar las propiedades químicas y físicas de suelos ácidos degradados por el laboreo. ABSTRACT Excessive acidity in soils is associated with deficiencies in certain nutrients and high concentrations of available aluminum, which is toxic for most Mediterranean crops. Tilling these soils results in the loss of soil organic matter (SOM), damages soil structure and reduces biological activity, ultimately degrading soil quality. It is expected, therefore, that when acid soils are tilled, their particular problems will tend to get worse. In our study area, the "Cañamero’s Raña” (Extremadura, Spain), acid soils degraded by an inappropriate tillage prevail. Rañas are large and flat platforms with very old soils (Palexerults), which are characterized by an exchange complex dominated by aluminum and an acid pH which decreases with depth. These soils have a strong Bt horizon rich in kaolinite clays, which encourages the formation of perched water-tables near the soil surface during periods of excessive rain. During the first third of the 20th century, these soils, that previously supported cork oak or its scrub replacement, were cultivated. Tillage accelerated the mineralization of the SOM, aggravating the problems of excessive acidity, which finally led to the abandonment of the land due to low productivity. To recover the quality of these degraded soils and to obtain consistent yields it is necessary, first, to apply amendments to raise the pH and reduce aluminum toxicity, and second to encourage the accumulation of SOM. In 2005 a field trial was established in the Raña to study the influence of no-tillage and the use of a Ca-amendment on soil quality related parameters in a forage crop agrosystem. The experimental design was a split-plot with four replicates where the main factor was tillage type, no-tillage (NT) versus traditional tillage (TT) and the secondary factor was the use or not of a Ca-amendment. The Ca-amendment was a mixture of sugar foam and red gypsum that was incorporated into the top 7 cm of the soil. Since the beginning of the experiment, NT had a positive influence on total and particulate organic carbon (TOC and POC, respectively), while the Ca-amendment had a small positive influence at the beginning of the study but its effect diminished with time. The highest TOC and POC contents were observed when NT and the Ca-amendment were combined. The Ca-amendment, even under NT, rapidly increased pH and Ca, and decreased the aluminum content to a depth of 50 cm, as well as improving soil aggregation slightly. NT, due to the increased POC, TOC and Glomalin-related soil proteins (GRSP), which can form stable non-toxic compounds with aluminum, also contributed to the reduction of aluminum toxicity in the upper layer. When perched water-tables near the soil surface were formed in campaigns with excessive rainfall, NT provided more favorable conditions for germination and crop development, resulting in higher yields compared with TT. This was directly related to the higher water storage capacity and the greater transmissivity of the water downwards from the upper layers, which led to lower water saturation under NT compared with TT. With regards to the aggregation-related parameters, NT increased macroaggregation to a depth of 10 cm and favored the accumulation of OC and N in all aggregate size fractions. However, the degree of recovery of macroaggregation after tillage ceased was slow compared with other soils, possibly due to the low clay content in the Ap horizon. Compared with NT, the Ca-amendment had a slight positive effect on soil aggregation. In contrast to other studies in acid soils, our results indicate the existence of an aggregate hierarchy, and highlight the important role of SOM in improving aggregation. Both NT and the Ca-amendment separately favored various chemical, physical and biological soil properties, but in general we found the greatest benefits when the two treatments were combined. In addition, the positive effect of NT on soil properties increased with time, while the beneficial effect of the Ca-amendment, which was limited to the chemical properties, vanished after a few years. It is important to note that the meteorological conditions throughout the experiment benefited biomass production under NT and, as a consequence, organic matter related properties. This suggests that meteorological conditions are a factor to consider when evaluating the effects of Ca-amendments and tillage on soil properties, especially in areas where such conditions vary significantly from one campaign to another. The results of this study show that NT did not diminish the effectiveness of the Ca-amendment, possibly due to the high solubility of the selected amendment. Moreover, the combination of NT and the Ca-amendment was actually the management that favored certain soil quality parameters the most. By contrast, TT seemed to nullify the benefits of the Ca-amendment with regards to the OM related properties. In conclusion, the combination of NT and the application of a Ca-amendment is an advisable practice for improving the chemical and physical properties of acid soils degraded by tillage.
Resumo:
Los espacios de plataforma única de convivencia (EPUC) son espacios singulares, cuyo desarrollo en las últimas décadas se ha traducido en una diversidad de tipos indefinida y que ha propiciado no pocas dificultades en cuanto a su uso, derivadas muchas veces de la confusión en cuanto al propio concepto de convivencia y espacio compartido. En particular algunos colectivos han puesto sobre la mesa las carencias de accesibilidad de estos espacios que paradójicamente son considerados por muchos ciudadanos como más accesibles que las calles convencionales. Para el estudio de la mejora de la accesibilidad en estos espacios se plantean tres líneas de investigación: la pluralidad de usuarios y de utilización de la vía pública; la diversidad en la formalización de los diferentes espacios públicos con plataforma única de convivencia; y las carencias de accesibilidad existentes en estos espacios y posibilidades de mejora desde el diseño. Así en la primera parte de la investigación se aborda el análisis de la diversidad de usuarios y la diferente utilización de la calle que realizan los peatones en función de sus necesidades. Se analizan diferentes clasificaciones de usuarios de la vía pública y las diferentes necesidades existentes que tienen los peatones. Dichos análisis convergen en una propuesta de clasificación peatonal. En la segunda parte de la investigación se establece una red de indicadores específicos para analizar las diferentes características de los EPUC y su aplicación a 70 casos de estudio. En la tercera parte de la investigación se aúnan las conclusiones de las dos partes anteriores para analizar de forma concreta las necesidades específicas de accesibilidad existentes en los EPUC. ABSTRACT The single-platform spaces of coexistence (level surfaces or shared surfaces), or EPUC in its Spanish acronym, have become singular spaces whose development in recent decades has resulted in an undefined variety of types. This has led to many difficulties in their use, often also related to certain confusion about the concept of coexistence and shared spaces in itself. In particular some groups have raised concerns about the inadequate accessibility in these spaces, which, paradoxically, are considered by many citizens as more accessible than conventional streets. Three research areas are posed to study the improvement of accessibility for singleplatform spaces of coexistence (EPUC): the plurality of users and different uses of public roads, diversity in the formalization of the different public realm designed with level surfaces, and existing deficiencies in accessibility in these spaces and possibilities for improvement from a design point of view. Thus in the first part of the research, the focus is on the analysis of the diversity of users and the different ways in which pedestrians use the streets depending on their needs. Different classifications of users of public roads as well as the different current needs of pedestrians are analyzed. These analyses converge on a proposed classification of pedestrians. In the second part of the research, a set of indicators is proposed with the aim of analyzing the different characteristics of the EPUC and the application of these indicators on 70 case studies. Finally, the conclusions of the previous two parts come together to discuss in a concrete manner specific accessibility-related needs in the EPUC.