852 resultados para Frecuencia de los Genes
Resumo:
La investigación persigue contrastar la hipótesis de la existencia de dos diferentes culturas deportivas en las personas adultas, la femenina y la masculina, a través del análisis de los niveles de práctica (tipo de demanda), tipo de actividad practicada y sus características (frecuencia semanal, gasto mensual, espacio de práctica y modo de organización). La metodología cuantitativa empleada ha consistido en la aplicación de un cuestionario estructurado a una muestra aleatoria de las mujeres y varones mayores adultos entre 30 y 64 años (n=340; 50.3% mujeres, 49.7% hombres) en la Comunidad de Madrid. Las conclusiones obtenidas revelan que un 45.3% de hombres y un 34.5% de mujeres practica deporte; además otro 15.5% de mujeres y 11.7% de hombres camina para hacer ejercicio. Aparecen diferencias de género en las actividades practicadas (c2(10)=46.83; p<.001; CC=.442), en el número de horas de práctica (t191=2.29; p<.05; d=.33), en el gasto mensual (t148=3.16; p<.001; d=.69) y en el modo de desplazamiento a la actividad (c2(7)=27.44; p<0.001; CC=0.359) aunque la práctica de actividades auto-organizadas es mayoritaria en ambos sexos (80.3% hombres, 63.7% mujeres), principalmente en solitario (62.7% hombres, 50.5% mujeres) y en espacios al aire libre (60.4% hombres, 46.6% mujeres).
Resumo:
El presente trabajo consistió en el desarrollo de una intervención nutricional a largo plazo llevada a cabo con jugadores profesionales de baloncesto, en función al cumplimiento de las recomendaciones nutricionales, con los siguientes dos objetivos: 1) valorar los cambios que dicha intervención produce sobre las prácticas nutricionales diarias de estos deportistas y 2) conocer la influencia de las modificaciones nutricionales producidas sobre la tasa de percepción del esfuerzo por sesión (RPE-Sesión) y la fatiga, a lo largo de una temporada competitiva, tanto para entrenamientos como partidos oficiales. Los objetivos del estudio se fundamentan en: 1) la numerosa evidencia científica que muestra la inadecuación de los hábitos nutricionales de los jugadores de baloncesto y otros deportistas respecto a las recomendaciones nutricionales; 2) el hecho ampliamente reconocido en la literatura especializada de que una ingesta nutricional óptima permite maximizar el rendimiento deportivo (a nivel físico y cognitivo), promoviendo una rápida recuperación y disminuyendo el riesgo de enfermedades y lesiones deportivas. No obstante, pocos estudios han llevado a cabo una intervención nutricional a largo plazo para mejorar los hábitos alimentarios de los deportistas y ninguno de ellos fue realizado con jugadores de baloncesto; 3) la elevada correlación entre la percepción del esfuerzo (RPE) y variables fisiológicas relacionadas al desarrollo de un ejercicio (por ej.: frecuencia cardíaca, consumo máximo de oxígeno o lactato sanguíneo) y los múltiples estudios que muestran la atenuación de la RPE durante la realización del ejercicio mediante una ingesta puntual de nutrientes, (especialmente de hidratos de carbono) aunque ninguno fue desarrollado en baloncesto; 4) el estudio incipiente de la relación entre la ingesta nutricional y la RPE-Sesión, siendo éste un método validado en baloncesto y otros deportes de equipo como indicador de la carga de trabajo interna, el rendimiento deportivo y la intensidad del ejercicio realizado; 5) el hecho de que la fatiga constituye uno de los principales factores influyentes en la percepción del esfuerzo y puede ser retrasada y/o atenuada mediante la ingesta de carbohidratos, pudiendo disminuir consecuentemente la RPE-Sesión y la carga interna del esfuerzo físico, potenciando el rendimiento deportivo y las adaptaciones inducidas por el entrenamiento; 6) la reducida evidencia acerca del comportamiento de la RPE-Sesión ante la modificación de la ingesta de nutrientes, encontrándose sólo un estudio llevado a cabo en baloncesto y 7) la ausencia de investigaciones acerca de la influencia que puede tener la mejora del patrón nutricional de los jugadores sobre la RPE-Sesión y la fatiga, desconociéndose si la adecuación de los hábitos nutricionales conduce a una disminución de estas variables en el largo plazo para todos los entrenamientos y partidos oficiales a nivel profesional. Por todo esto, este trabajo comienza con una introducción que presenta el marco teórico de la importancia y función de la nutrición en el deporte, así como de las recomendaciones nutricionales actuales a nivel general y para baloncesto. Además, se describen las intervenciones nutricionales llevadas a cabo previamente con otros deportistas y las consecuentes modificaciones sobre el patrón alimentario, coincidiendo este aspecto con el primer objetivo del presente estudio. Posteriormente, se analiza la RPE, la RPE-Sesión y la fatiga, focalizando el estudio en la relación de dichas variables con la carga de trabajo físico, la intensidad del entrenamiento, el rendimiento deportivo y la recuperación post ejercicio. Finalmente, se combinan todos los aspectos mencionados: ingesta nutricional, RPE percepción del esfuerzo y fatiga, con el fin de conocer la situación actual del estudio de la relación entre dichas variables, conformando la base del segundo objetivo de este estudio. Seguidamente, se exponen y fundamentan los objetivos antes mencionados, para dar lugar después a la explicación de la metodología utilizada en el presente estudio. Ésta consistió en un diseño de estudios de caso, aplicándose una intervención nutricional personalizada a tres jugadores de baloncesto profesional (cada jugador = un estudio de caso; n = 1), con el objetivo de adecuar su ingesta nutricional en el largo plazo a las recomendaciones nutricionales. A su vez, se analizó la respuesta individual de cada uno de los casos a dicha intervención para los dos objetivos del estudio. Para ello, cada jugador completó un registro diario de alimentos (7 días; pesada de alimentos) antes, durante y al final de la intervención. Además, los sujetos registraron diariamente a lo largo del estudio la RPE-Sesión y la fatiga en entrenamientos físicos y de balón y en partidos oficiales de liga, controlándose además en forma cuantitativa otras variables influyentes como el estado de ánimo y el sueño. El análisis de los datos consistió en el cálculo de los estadísticos descriptivos para todas las variables, la comparación de la ingesta en los diferentes momentos evaluados con las recomendaciones nutricionales y una comparación de medias no paramétrica entre el período pre intervención y durante la intervención con el test de Wilcoxon (medidas repetidas) para todas las variables. Finalmente, se relacionaron los cambios obtenidos en la ingesta nutricional con la percepción del esfuerzo y la fatiga y la posible influencia del estado de ánimo y el sueño, a través de un estudio correlacional (Tau_b de Kendall). Posteriormente, se presentan los resultados obtenidos y la discusión de los mismos, haciendo referencia a la evidencia científica relacionada que se encuentra publicada hasta el momento, la cual facilitó el análisis de la relación entre RPE-Sesión, fatiga y nutrición a lo largo de una temporada. Los principales hallazgos y su correspondiente análisis, por lo tanto, pueden resumirse en los siguientes: 1) los tres jugadores de baloncesto profesional presentaron inicialmente hábitos nutricionales inadecuados, haciendo evidente la necesidad de un nutricionista deportivo dentro del cuerpo técnico de los equipos profesionales; 2) las principales deficiencias correspondieron a un déficit pronunciado de energía e hidratos de carbono, que fueron reducidas con la intervención nutricional; 3) la ingesta excesiva de grasa total, ácidos grasos saturados, etanol y proteínas que se halló en alguno/s de los casos, también se adecuó a las recomendaciones después de la intervención; 4) la media obtenida durante un período de la temporada para la RPE-Sesión y la fatiga de entrenamientos, podría ser disminuida en un jugador individual mediante el incremento de su ingesta de carbohidratos a largo plazo, siempre que no existan alteraciones psico-emocionales relevantes; 5) el comportamiento de la RPE-Sesión de partidos oficiales no parece estar influido por los factores nutricionales modificados en este estudio, dependiendo más de la variación de elementos externos no controlables, intrínsecos a los partidos de baloncesto profesional. Ante estos resultados, se pudo observar que las diferentes características de los jugadores y las distintas respuestas obtenidas después de la intervención, reforzaron la importancia de utilizar un diseño de estudio de casos para el análisis de los deportistas de élite y, asimismo, de realizar un asesoramiento nutricional personalizado. Del mismo modo, la percepción del esfuerzo y la fatiga de cada jugador evolucionaron de manera diferente después de la intervención nutricional, lo cual podría depender de las diferentes características de los sujetos, a nivel físico, psico-social, emocional y contextual. Por ello, se propone que el control riguroso de las variables cualitativas que parecen influir sobre la RPE y la fatiga a largo plazo, facilitaría la comprensión de los datos y la determinación de factores desconocidos que influyen sobre estas variables. Finalmente, al ser la RPE-Sesión un indicador directo de la carga interna del entrenamiento, es decir, del estrés psico-fisiológico experimentado por el deportista, la posible atenuación de esta variable mediante la adecuación de los hábitos nutricionales, permitiría aplicar las cargas externas de entrenamiento planificadas, con menor estrés interno y mejor recuperación entre sesiones, disminuyendo también la sensación de fatiga, a pesar del avance de la temporada. ABSTRACT This study consisted in a long-term nutritional intervention carried out with professional basketball players according to nutritional recommendations, with the following two main objectives: 1) to evaluate the changes produced by the intervention on daily nutritional practices of these athletes and 2) to determine the influence of long term nutritional intake modifications on the rate of perceived exertion per session (Session-RPE) and fatigue, throughout a competitive season for training as well as competition games. These objectives are based on: 1) much scientific evidence that shows an inadequacy of the nutritional habits of basketball players and other athletes regarding nutritional recommendations; 2) the fact widely recognized in the scientific literature that an optimal nutrition allows to achieve the maximum performance of an athlete (both physically and cognitively), promoting fast recovery and decreasing risks of sports injuries and illnesses. However, only few studies carried out a long term nutritional intervention to improve nutritional practices of athletes and it could not be found any research with basketball players; 3) the high correlation between the rate of perceived exertion (RPE) and physiological variables related to the performance of physical exercise (e.g.: heart rate, maximum consumption of oxygen or blood lactate) and multiple studies showing the attenuation of RPE during exercise due to the intake of certain nutrients (especially carbohydrates), while none of them was developed in basketball; 4) correlation between nutritional intake and Session-RPE has been recently studied for the first time. Session-RPE method has been validated in basketball players and other team sports as an indicator of internal workload, sports performance and exercise intensity; 5) fatigue is considered one of the main influential factor on RPE and sport performance. It has also been observed that carbohydrates intake may delay or mitigate the onset of fatigue and, thus, decrease the perceived exertion and the internal training load, which could improve sports performance and training-induced adaptations; 6) there are few studies evaluating the influence of nutrient intake on Session-RPE and only one of them has been carried out with basketball players. Moreover, it has not been analyzed the possible effects of the adequacy of players’ nutritional habits through a nutritional intervention on Session-RPE and fatigue, variables that could be decreased for all training session and competition games because of an improvement of daily nutritional intake. Therefore, this work begins with an introduction that provides the conceptual framework of this research focused on the key role of nutrition in sport, as well as on the current nutritional recommendations for athletes and specifically for basketball players. In addition, previous nutritional interventions carried out with other athletes are described, as well as consequential modifications on their food pattern, coinciding with the first objective of the present study. Subsequently, RPE, Session-RPE and fatigue are analyzed, with focus on their correlation with physical workload, training intensity, sports performance and recovery. Finally, all the aforementioned aspects (nutritional intake, RPE and fatigue) were combined in order to know the current status of the relation between each other, this being the base for the second objective of this study. Subsequently, the objectives mentioned above are explained, continuing with the explanation of the methodology used in the study. The methodology consisted of a case-study design, carrying out a long term nutritional intervention with three professional basketball players (each player = one case study; n = 1), in order to adapt their nutritional intake to nutritional recommendations. At the same time, the individual response of each player to the intervention was analyzed for the two main objectives of the study. Each player completed a food diary (7 days; weighing food) in three moments: before, during and at the end of the intervention. In addition, the Session-RPE and fatigue were daily recorded throughout the study for all trainings (training with ball and resistance training) and competition games. At the same time, other potentially influential variables such as mood state and sleeping were daily controlled throughout the study. Data analysis consisted in descriptive statistics calculation for all the variables of the study, the comparison between nutritional intake (evaluated at different times) and nutritional recommendations and a non-parametric mean comparison between pre intervention and during intervention periods was made by Wilcoxon test (repeated measurements) for all variables too. Finally, the changes in nutritional intake, mood state and sleeping were correlated with the perceived exertion and fatigue through correctional study (Tau_b de Kendall). After the methodology, the study results and the associated discussion are presented. The discussion is based on the current scientific evidence that contributes to understand the relation between Session-RPE, fatigue and nutrition throughout the competitive season. The main findings and results analysis can be summarized as follows: 1) the three professional basketball players initially had inadequate nutritional habits and this clearly shows the need of a sports nutritionist in the coaching staff of professional teams; (2) the major deficiencies of the three players’ diet corresponded to a pronounced deficit of energy intake and carbohydrates consumption which were reduced with nutritional intervention; (3) the excessive intake of total fat, saturated fatty acids, ethanol and protein found in some cases were also adapted to the recommendations after the intervention; (4) Session-RPE mean and fatigue of a certain period of the competition season, could be decreased in an individual player by increasing his carbohydrates intake in the long term, if there are no relevant psycho-emotional disorders; (5) the behavior of the Session-RPE in competition games does not seem to be influenced by the nutritional factors modified in this study. They seem to depend much more on the variation of external non-controllable factors associated with the professional basketball games. Given these results, the different characteristics of each player and the diverse responses observed after the intervention in each individual for all the variables, reinforced the importance of the use of a case study design for research with elite athletes as well as personalized nutritional counselling. In the same way, the different responses obtained for RPE and fatigue in the long term for each player due to modification of nutritional habits, show that there is a dependence of such variables on the physical, psychosocial, emotional and contextual characteristics of each player. Therefore it is proposed that the rigorous control of the qualitative variables that seem to influence the RPE and fatigue in the long term, may facilitate the understanding of data and the determination of unknown factors that could influence these variables. Finally, because Session-RPE is a direct indicator of the internal load of training (psycho-physiological stress experienced by the athlete), the possible attenuation of Session-RPE through the improvement in nutritional habits, would allow to apply the planned external loads of training with less internal stress and better recovery between sessions, with a decrease in fatigue, despite of the advance of the season.
Resumo:
En el proceso general de la sociedad por la mejora continua hacia la Calidad, el sector de la construcción, y más específicamente la actividad de los Arquitectos con la redacción de los proyectos, no pueden, ni deben, quedar al margen. La presente investigación apunta un procedimiento para el control técnico de los proyectos y demuestra la eficacia y rentabilidad de éste o cualquier otro método de control, avanzando una aproximación a los modelos de costes de calidad de los estudios de arquitectura. El método de trabajo que se ha previsto para el desarrollo de la tesis cuenta con una base principal consistente en definir un procedimiento general de revisión de los proyectos, tipificando los principales errores (sistema de puntos de inspección), analizando las causas que los generan, su repercusión en el plazo, durabilidad y satisfacción del cliente, así como en definir un método de cuantificación que nos aproxime a la "importancia" (económica) que tienen o inducen los errores e indefiniciones detectadas. Para demostrar la validez de la hipótesis inicial sobre la rentabilidad de aplicar un sistema de control técnico del proyecto, se ha aplicado una parte del procedimiento general particularizado para la evaluación sistemática de los problemas, indefiniciones y fallos detectados, al que llamamos de forma simplificada Método Partícula Éste se aplica sobre una muestra de proyectos que se revisan y que, para que los resultados del análisis sean representativos, se seleccionaron de forma aleatoria, respondiendo topológicamente en sus variables definitorias a la población que se pretende estudiar: la totalidad de proyectos de ejecución de viviendas producidos en el ámbito territorial de Madrid (Comunidad) en el plazo comprendido entre los años 1990 y 1995. Pero además esta representatividad está condicionada a la mayor o menor exactitud de la valoración que se haga de los sobrecostos que puedan generar los errores e indefiniciones de los proyectos. Se hace pues imprescindible el tratar de objetivar al máximo los criterios de valoración de los mismos. Con los datos generados en la revisión de cada proyecto se analizan la totalidad de resultados de la muestra objeto de estudio, sacando conclusiones sobre frecuencia e importancia de los errores, incidencia de las variables que influyen, y posibles combinaciones de variables que incrementan el riesgo. Extrapolando el análisis al método general y a la población objeto de estudio, se extraen conclusiones significativas respecto a la eficacia del control técnico de proyectos, así como de las formas de optimizar las inversiones realizadas en el mismo, depurando y optimizando selectivamente el método general definido. Con el análisis de los modelos de coste de calidad se puede constatar cómo las inversiones en desarrollar sistemas de aseguramiento de la calidad de los proyectos, o, de forma más modesta, controlando la calidad técnica de los mismos, los estudios de arquitectura, amén del mejor servicio ofrecido a los clientes, y lo que ésto supone de permanencia en el mercado, mejoran significativamente su competitividad y su margen de beneficio, demostrando que son muy rentables tanto para los propios arquitectos, como para la sociedad en general. ABSTRACT The construction sector as a whole, and especifically architects as project drafters, must fully participate in the general process of society for continuous improvement towards quality. Our research outlines a procedure for the technical control of projects and shows the efficacy and cost-effectiveness of this or any other control method, putting fonvard an approach to quality cost-models in Architecture offices. Our procedure consists mainly in defining a general method of revising projects, typifying main errors (Points of inspection system), analysing their causes, their repercussion in clients' durability and satisfaction. It wHI also define a quantitative method to assess tfie economic importance of detected errors and indefinitions. To prove our initial hypothesis on the cost-effectiveness of applying a system of tecfinical control to projects we have applied part of the general procedure, adjusting it to the systematic evaluation of problems, indefinitions and errors we have found. This will be simply called Particular Method. We will use it on a sample of projects which were randomly selected, for the sake of representativeness, and which, in their defining variables, match the population under study topologically: every housing project in Madrid (Región) between 1.990 and 1.995. Furthermore, this representativeness is related to the accuracy of the assessment of the additional costs due to errors or lack of definition in the projects. We must therefore try to be precise in the evaluation of their costs. With data obtained from the revision of each project, we analyze every result from the sample under study, drawing conclusions about the frequency and importance of each error, their causing variables, and the combination of variables which are risk-increasing. By extrapolating this analysis to the General Method and the population under study, we draw significant conclusions on the effectiveness of the technical control of projects, as well as of the ways to optimise the investment in it, improving and optimising the General Method in a selective way. Analyzing quality cost-models, we can show how the investment in developing systems that will guarantee quality projects, or, more modestly, controlling the technical quality of them, Architecture firms will not only serve their clients best, with its impact on the firm's durability, but also improve their competitivity and their profit margin proving that they are profitable both for architects themselves and for the general public.
Resumo:
La identificación de las acciones e influencias a considerar en el diseño de estructuras es uno de los pasos más importantes en la etapa de proyecto, ya que de ellas se parte para determinar la resistencia y estabilidad que tendrá la estructura. Tradicionalmente se han considerado en las normativas de diseño, aquellos eventos extremos como el sismo y el incendio, pero se han dejado a un lado aquellos fenómenos meteorológicos adversos que también tienen mucha importancia, debido a que estos siempre se han hecho presentes y hoy en día debido el cambio climático están ocurriendo con más frecuencia e intensidad. Es labor del ingeniero analizar las acciones e influencias previsibles a las cuales se enfrentara la estructura durante su vida útil, y al estudiar las estadísticas de los últimos años presentadas por investigaciones meteorológicas observamos que estos fenómenos adversos ocurren en España con mayor frecuencia de la que se piensa, y que al no poder cambiar el fenómeno ni el entorno, debemos preparar las estructuras para hacerles frente considerando aquellas acciones previsibles productos ellos partiendo siempre de determinar un umbral de daño aceptable. En esta tesis se presentan algunas acciones e influencias importantes a tener en cuenta en el diseño de estructuras que se encuentran en zonas que son afectadas por fenómenos adversos, estas acciones e influencias y recomendaciones presentadas son el producto del estudio de los fenómenos meteorológicos, de normativas de diseño de otros países, de bibliografía relacionada con el tema y las recomendaciones recolectadas de expertos a través de encuestas y una tormenta de ideas. El objetivo final de esta investigación es proporcionar a los ingenieros de diseño una base de referencia de la cual puedan partir para tratar estos fenómenos debido a que el código técnico español no lo hace en su totalidad.
Resumo:
La cancrosis o chancro bacteriano de los cítricos (CBC) causada por Xanthomonas citri subsp. citri (Xcc) y X. fuscans subsp. aurantifolii, afecta a un gran número de especies dentro de la familia de las rutáceas, especialmente cítricos. Esta enfermedad produce graves pérdidas económicas allí donde está presente, principalmente porque la comercialización de cítricos desde las zonas afectadas hacía zonas libres de cancrosis, está sujeta a fuertes medidas cuarentenarias. La cancrosis se encuentra distribuida a nivel mundial pero no se ha localizado ni en la Unión Europea ni en ningún área del Mediterráneo. Se han descrito tres tipos de cancrosis en función de la gama de huésped y de las características fenotípicas y genotípicas de las bacterias que las producen. La más extendida es la cancrosis tipo A producida por Xcc, dentro de la cual se distinguen los subtipos Aw y A*, originarios de Florida y Sudeste Asiático, respectivamente, que de forma natural solo son capaces de producir enfermedad en lima mejicana. En este trabajo se presentan estudios sobre mecanismos implicados en las primeras etapas de la infección, como la quimiotaxis y formación de biopelículas, en la cancrosis de los cítricos. La quimiotaxis es el proceso por el cual las bacterias se dirigen hacia zonas favorables para su supervivencia y desarrollo. Los perfiles quimiotácticos obtenidos frente a distintas fuentes de carbono, así como los estudios en relación al contenido de proteínas aceptoras de grupos metilo (MCPs), permitieron agrupar a las cepas de Xanthomonas estudiadas en este trabajo, de acuerdo a la enfermedad producida y a su gama de huésped. Todas las cepas mostraron quimiotaxis positiva frente a extractos de hoja y apoplasto de diferentes especies, sin embargo, Xcc 306, X. alfalfae subsp. citrumelonis (Xac) y X. campestris pv. campestris (Xc) manifestaron respuestas más específicas frente a extractos de apoplasto de hojas de naranjo dulce, lima y col china, respectivamente. Dicho resultado nos permite asociar el mecanismo de quimiotaxis con la capacidad de las cepas de Xanthomonas para colonizar estos huéspedes de forma específica. Las cepas estudiadas fueron capaces de realizar movimiento tipo swimming, twitching y sliding en distintos medios, siendo el movimiento swimming el único en el que se encontraron diferencias entre las cepas de Xcc con distinta gama de huésped. En este trabajo se ha estudiado además la formación de biopelículas en superficies bióticas y abióticas, un mecanismo importante tanto para la supervivencia en superficie vegetal como para el desarrollo de la infección. Las cepas de Xanthomonas estudiadas fueron capaces de formar biopelículas in vitro, siendo mayor en un medio que simula el apoplasto y que contiene una baja concentración de nutrientes en comparación con medios que contenían alta concentración de nutrientes. La formación de biopelículas en superficie vegetal se encontró relacionada, en las cepas patógenas de cítricos, con la capacidad para infectar un tejido o huésped determinado. Se han caracterizado algunos de los componentes de la matriz extracelular producida por Xcc, que compone hasta un 90% de las bipoelículas. Entre ellos destaca el ADN extracelular, que tiene un papel como adhesina en las primeras etapas de formación de biopelículas y estructural en biopelículas maduras. Además, se han identificado el pilus tipo IV como componente importante en las biopelículas, que también participa en motilidad. Finalmente, se han realizado estudios sobre la expresión de genes implicados en motilidad bacteriana y formación de biopelículas que han confirmado las diferencias existentes entre cepas de Xcc de amplia y limitada gama de huésped, así como el papel que juegan elementos como el pilus tipo IV o el flagelo en estos procesos. ABSTRACT Xanthomonas citri subsp. citri (Xcc) and X. fuscans subsp. aurantifolii are the causal agents of Citrus Bacterial Canker (CBC) which is one of the most important citrus diseases. CBC affects all Citrus species as well as other species from Rutaceae family. CBC produces strong economic losses; furthermore the commercialization of plants and fruits is restricted from infested to citrus canker free areas. The disease is worldwide distributed in tropical and subtropical areas, however it is not present in the European Union. Three types of CBC have been described according to the host range and phenotypic and genotypic characteristics. CBC type A caused by Xcc is he widest distributed. Within CBC A type two subtypes Aw and A* were described from Florida and Iran respectively, both infecting only Mexican lime. Herein mechanisms connected to early events in the citrus bacterial canker disease such as chemotaxis and biofilm formation, were studied. Chemotaxis allows bacteria to move towards the more suitable environments for its survival, host colonization and infection. Studies performed on citrus pathogenic Xanthomonas and X. campestris pv. campestris (Xc), a crucifer pathogen, have shown different chemotactic profiles towards carbon compound as well as different MCPs profile, which clustered strains according to host range and disease caused. Every strain showed positive chemotaxis toward leaf extracts and apoplastic fluids from sweet orange, Mexican lime and Chinese cabbage leaves. However, a more specific response was found for strains Xcc 306, X. alfalfae subsp. citrumelonis and Xc towards sweet orange, Mexican lime and Chinese cabbage apoplastic fluids, respectively. These results relate chemotaxis with the higher ability of those strains to specifically colonize their proper host. Xanthomonas strains studied were able to perform swimming, sliding and twitching motilities. The ability to swim was variable among CBC strains and seemed related to host range. Biofilm formation is an important virulence factor for Xcc because it allows a better survival onto the plant surface as well as facilitates the infection process. The studied Xanthomonas strains were able to form biofilm in vitro, on both nutrient rich and apoplast mimicking media, furthermore the biofilm formation by all the strains was higher in the apoplast mimicking media. The ability to form biofilm in planta by Xcc and Xac strains was dependent of the host and the tissue colonized. The wide host range CBC strain was able to form biofilm onto several citrus leaves and fruits, however the limited host range CBC strain produced biofilm solely onto Mexican lime leaves and fruits. Furthermore Xac strain, which solely infects leaves of young plants, was not able to develop biofilms on fruits. Some components of the extracellular matrix produced by Xcc strains have been characterized. Extracellular DNA acted as an adhesin at the very early stages of biofilm formation and as structural component of mature biofilm for citrus pathogenic Xanthomonas. Furthermore type IV pilus has been identified as a component of the extracellular matrix in biofilm and motility. Transcriptional studies of genes related with biofilm formation and motility have confirmed the differential behavior found among wide and limited host range CBC strains as well as the role of type IV pili and flagellum on those processes.
Resumo:
Las patologías de la voz se han transformado en los últimos tiempos en una problemática social con cierto calado. La contaminación de las ciudades, hábitos como el de fumar, el uso de aparatos de aire acondicionado, etcétera, contribuyen a ello. Esto alcanza más relevancia en profesionales que utilizan su voz de manera frecuente, como, por ejemplo, locutores, cantantes, profesores o teleoperadores. Por todo ello resultan de especial interés las técnicas de ayuda al diagnóstico que son capaces de extraer conclusiones clínicas a partir de una muestra de la voz grabada con un micrófono, frente a otras invasivas que implican la exploración utilizando laringoscopios, fibroscopios o videoendoscopios, técnicas en cualquier caso mucho más molestas para los pacientes al exigir la introducción parcial del instrumental citado por la garganta, en actuaciones consideradas de tipo quirúrgico. Dentro de aquellas técnicas se ha avanzado mucho en un período de tiempo relativamente corto. En lo que se refiere al diagnóstico de patologías, hemos pasado en los últimos quince años de trabajar principalmente con parámetros extraídos de la señal de voz –tanto en el dominio del tiempo como en el de la frecuencia– y con escalas elaboradas con valoraciones subjetivas realizadas por expertos a hacerlo también con parámetros procedentes de estimaciones de la fuente glótica. La importancia de utilizar la fuente glótica reside, a grandes rasgos, en que se trata de una señal vinculada directamente al estado de la estructura laríngea del locutor y también en que está generalmente menos influida por el tracto vocal que la señal de voz. Es conocido que el tracto vocal guarda más relación con el mensaje hablado, y su presencia dificulta el proceso de detección de patología vocal. Estas estimaciones de la fuente glótica han sido obtenidas a través de técnicas de filtrado inverso desarrolladas por nuestro grupo de investigación. Hemos conseguido, además, profundizar en la naturaleza de la señal glótica: somos capaces de descomponerla y relacionarla con parámetros biomecánicos de los propios pliegues vocales, obteniendo estimaciones de elementos como la masa, la pérdida de energía o la elasticidad del cuerpo y de la cubierta del pliegue, entre otros. De las componentes de la fuente glótica surgen también los denominados parámetros biométricos, relacionados con la forma de la señal, que constituyen por sí mismos una firma biométrica del individuo. También trabajaremos con parámetros temporales, relacionados con las diferentes etapas que se observan dentro de la señal glótica durante un ciclo de fonación. Por último, consideraremos parámetros clásicos de perturbación y energía de la señal. En definitiva, contamos ahora con una considerable cantidad de parámetros glóticos que conforman una base estadística multidimensional, destinada a ser capaz de discriminar personas con voces patológicas o disfónicas de aquellas que no presentan patología en la voz o con voces sanas o normofónicas. Esta tesis doctoral se ocupa de varias cuestiones: en primer lugar, es necesario analizar cuidadosamente estos nuevos parámetros, por lo que ofreceremos una completa descripción estadística de los mismos. También estudiaremos cuestiones como la distribución de los parámetros atendiendo a criterios como el de normalidad estadística de los mismos, ocupándonos especialmente de la diferencia entre las distribuciones que presentan sujetos sanos y sujetos con patología vocal. Para todo ello emplearemos diferentes técnicas estadísticas: generación de elementos y diagramas descriptivos, pruebas de normalidad y diversos contrastes de hipótesis, tanto paramétricos como no paramétricos, que considerarán la diferencia entre los grupos de personas sanas y los grupos de personas con alguna patología relacionada con la voz. Además, nos interesa encontrar relaciones estadísticas entre los parámetros, de cara a eliminar posibles redundancias presentes en el modelo, a reducir la dimensionalidad del problema y a establecer un criterio de importancia relativa en los parámetros en cuanto a su capacidad discriminante para el criterio patológico/sano. Para ello se aplicarán técnicas estadísticas como la Correlación Lineal Bivariada y el Análisis Factorial basado en Componentes Principales. Por último, utilizaremos la conocida técnica de clasificación Análisis Discriminante, aplicada a diferentes combinaciones de parámetros y de factores, para determinar cuáles de ellas son las que ofrecen tasas de acierto más prometedoras. Para llevar a cabo la experimentación se ha utilizado una base de datos equilibrada y robusta formada por doscientos sujetos, cien de ellos pertenecientes al género femenino y los restantes cien al género masculino, con una proporción también equilibrada entre los sujetos que presentan patología vocal y aquellos que no la presentan. Una de las aplicaciones informáticas diseñada para llevar a cabo la recogida de muestras también es presentada en esta tesis. Los distintos estudios estadísticos realizados nos permitirán identificar aquellos parámetros que tienen una mayor contribución a la hora de detectar la presencia de patología vocal. Alguno de los estudios, además, nos permitirá presentar una ordenación de los parámetros en base a su importancia para realizar la detección. Por otra parte, también concluiremos que en ocasiones es conveniente realizar una reducción de la dimensionalidad de los parámetros para mejorar las tasas de detección. Por fin, las propias tasas de detección constituyen quizá la conclusión más importante del trabajo. Todos los análisis presentes en el trabajo serán realizados para cada uno de los dos géneros, de acuerdo con diversos estudios previos que demuestran que los géneros masculino y femenino deben tratarse de forma independiente debido a las diferencias orgánicas observadas entre ambos. Sin embargo, en lo referente a la detección de patología vocal contemplaremos también la posibilidad de trabajar con la base de datos unificada, comprobando que las tasas de acierto son también elevadas. Abstract Voice pathologies have become recently in a social problem that has reached a certain concern. Pollution in cities, smoking habits, air conditioning, etc. contributes to it. This problem is more relevant for professionals who use their voice frequently: speakers, singers, teachers, actors, telemarketers, etc. Therefore techniques that are capable of drawing conclusions from a sample of the recorded voice are of particular interest for the diagnosis as opposed to other invasive ones, involving exploration by laryngoscopes, fiber scopes or video endoscopes, which are techniques much less comfortable for patients. Voice quality analysis has come a long way in a relatively short period of time. In regard to the diagnosis of diseases, we have gone in the last fifteen years from working primarily with parameters extracted from the voice signal (both in time and frequency domains) and with scales drawn from subjective assessments by experts to produce more accurate evaluations with estimates derived from the glottal source. The importance of using the glottal source resides broadly in that this signal is linked to the state of the speaker's laryngeal structure. Unlike the voice signal (phonated speech) the glottal source, if conveniently reconstructed using adaptive lattices, may be less influenced by the vocal tract. As it is well known the vocal tract is related to the articulation of the spoken message and its influence complicates the process of voice pathology detection, unlike when using the reconstructed glottal source, where vocal tract influence has been almost completely removed. The estimates of the glottal source have been obtained through inverse filtering techniques developed by our research group. We have also deepened into the nature of the glottal signal, dissecting it and relating it to the biomechanical parameters of the vocal folds, obtaining several estimates of items such as mass, loss or elasticity of cover and body of the vocal fold, among others. From the components of the glottal source also arise the so-called biometric parameters, related to the shape of the signal, which are themselves a biometric signature of the individual. We will also work with temporal parameters related to the different stages that are observed in the glottal signal during a cycle of phonation. Finally, we will take into consideration classical perturbation and energy parameters. In short, we have now a considerable amount of glottal parameters in a multidimensional statistical basis, designed to be able to discriminate people with pathologic or dysphonic voices from those who do not show pathology. This thesis addresses several issues: first, a careful analysis of these new parameters is required, so we will offer a complete statistical description of them. We will also discuss issues such as distribution of the parameters, considering criteria such as their statistical normality. We will take special care in the analysis of the difference between distributions from healthy subjects and the distributions from pathological subjects. To reach these goals we will use different statistical techniques such as: generation of descriptive items and diagramas, tests for normality and hypothesis testing, both parametric and nonparametric. These latter techniques consider the difference between the groups of healthy subjects and groups of people with an illness related to voice. In addition, we are interested in finding statistical relationships between parameters. There are various reasons behind that: eliminate possible redundancies in the model, reduce the dimensionality of the problem and establish a criterion of relative importance in the parameters. The latter reason will be done in terms of discriminatory power for the criterion pathological/healthy. To this end, statistical techniques such as Bivariate Linear Correlation and Factor Analysis based on Principal Components will be applied. Finally, we will use the well-known technique of Discriminant Analysis classification applied to different combinations of parameters and factors to determine which of these combinations offers more promising success rates. To perform the experiments we have used a balanced and robust database, consisting of two hundred speakers, one hundred of them males and one hundred females. We have also used a well-balanced proportion where subjects with vocal pathology as well as subjects who don´t have a vocal pathology are equally represented. A computer application designed to carry out the collection of samples is also presented in this thesis. The different statistical analyses performed will allow us to determine which parameters contribute in a more decisive way in the detection of vocal pathology. Therefore, some of the analyses will even allow us to present a ranking of the parameters based on their importance for the detection of vocal pathology. On the other hand, we will also conclude that it is sometimes desirable to perform a dimensionality reduction in order to improve the detection rates. Finally, detection rates themselves are perhaps the most important conclusion of the work. All the analyses presented in this work have been performed for each of the two genders in agreement with previous studies showing that male and female genders should be treated independently, due to the observed functional differences between them. However, with regard to the detection of vocal pathology we will consider the possibility of working with the unified database, ensuring that the success rates obtained are also high.
Resumo:
En la presente Tesis se ha llevado a cabo el contraste y desarrollo de metodologías que permitan mejorar el cálculo de las avenidas de proyecto y extrema empleadas en el cálculo de la seguridad hidrológica de las presas. En primer lugar se ha abordado el tema del cálculo de las leyes de frecuencia de caudales máximos y su extrapolación a altos periodos de retorno. Esta cuestión es de gran relevancia, ya que la adopción de estándares de seguridad hidrológica para las presas cada vez más exigentes, implica la utilización de periodos de retorno de diseño muy elevados cuya estimación conlleva una gran incertidumbre. Es importante, en consecuencia incorporar al cálculo de los caudales de diseño todas la técnicas disponibles para reducir dicha incertidumbre. Asimismo, es importante hacer una buena selección del modelo estadístico (función de distribución y procedimiento de ajuste) de tal forma que se garantice tanto su capacidad para describir el comportamiento de la muestra, como para predecir de manera robusta los cuantiles de alto periodo de retorno. De esta forma, se han realizado estudios a escala nacional con el objetivo de determinar el esquema de regionalización que ofrece mejores resultados para las características hidrológicas de las cuencas españolas, respecto a los caudales máximos anuales, teniendo en cuenta el numero de datos disponibles. La metodología utilizada parte de la identificación de regiones homogéneas, cuyos límites se han determinado teniendo en cuenta las características fisiográficas y climáticas de las cuencas, y la variabilidad de sus estadísticos, comprobando posteriormente su homogeneidad. A continuación, se ha seleccionado el modelo estadístico de caudales máximos anuales con un mejor comportamiento en las distintas zonas de la España peninsular, tanto para describir los datos de la muestra como para extrapolar a los periodos de retorno más altos. El proceso de selección se ha basado, entre otras cosas, en la generación sintética de series de datos mediante simulaciones de Monte Carlo, y el análisis estadístico del conjunto de resultados obtenido a partir del ajuste de funciones de distribución a estas series bajo distintas hipótesis. Posteriormente, se ha abordado el tema de la relación caudal-volumen y la definición de los hidrogramas de diseño en base a la misma, cuestión que puede ser de gran importancia en el caso de presas con grandes volúmenes de embalse. Sin embargo, los procedimientos de cálculo hidrológico aplicados habitualmente no tienen en cuenta la dependencia estadística entre ambas variables. En esta Tesis se ha desarrollado un procedimiento para caracterizar dicha dependencia estadística de una manera sencilla y robusta, representando la función de distribución conjunta del caudal punta y el volumen en base a la función de distribución marginal del caudal punta y la función de distribución condicionada del volumen respecto al caudal. Esta última se determina mediante una función de distribución log-normal, aplicando un procedimiento de ajuste regional. Se propone su aplicación práctica a través de un procedimiento de cálculo probabilístico basado en la generación estocástica de un número elevado de hidrogramas. La aplicación a la seguridad hidrológica de las presas de este procedimiento requiere interpretar correctamente el concepto de periodo de retorno aplicado a variables hidrológicas bivariadas. Para ello, se realiza una propuesta de interpretación de dicho concepto. El periodo de retorno se entiende como el inverso de la probabilidad de superar un determinado nivel de embalse. Al relacionar este periodo de retorno con las variables hidrológicas, el hidrograma de diseño de la presa deja de ser un único hidrograma para convertirse en una familia de hidrogramas que generan un mismo nivel máximo en el embalse, representados mediante una curva en el plano caudal volumen. Esta familia de hidrogramas de diseño depende de la propia presa a diseñar, variando las curvas caudal-volumen en función, por ejemplo, del volumen de embalse o la longitud del aliviadero. El procedimiento propuesto se ilustra mediante su aplicación a dos casos de estudio. Finalmente, se ha abordado el tema del cálculo de las avenidas estacionales, cuestión fundamental a la hora de establecer la explotación de la presa, y que puede serlo también para estudiar la seguridad hidrológica de presas existentes. Sin embargo, el cálculo de estas avenidas es complejo y no está del todo claro hoy en día, y los procedimientos de cálculo habitualmente utilizados pueden presentar ciertos problemas. El cálculo en base al método estadístico de series parciales, o de máximos sobre un umbral, puede ser una alternativa válida que permite resolver esos problemas en aquellos casos en que la generación de las avenidas en las distintas estaciones se deba a un mismo tipo de evento. Se ha realizado un estudio con objeto de verificar si es adecuada en España la hipótesis de homogeneidad estadística de los datos de caudal de avenida correspondientes a distintas estaciones del año. Asimismo, se han analizado los periodos estacionales para los que es más apropiado realizar el estudio, cuestión de gran relevancia para garantizar que los resultados sean correctos, y se ha desarrollado un procedimiento sencillo para determinar el umbral de selección de los datos de tal manera que se garantice su independencia, una de las principales dificultades en la aplicación práctica de la técnica de las series parciales. Por otra parte, la aplicación practica de las leyes de frecuencia estacionales requiere interpretar correctamente el concepto de periodo de retorno para el caso estacional. Se propone un criterio para determinar los periodos de retorno estacionales de forma coherente con el periodo de retorno anual y con una distribución adecuada de la probabilidad entre las distintas estaciones. Por último, se expone un procedimiento para el cálculo de los caudales estacionales, ilustrándolo mediante su aplicación a un caso de estudio. The compare and develop of a methodology in order to improve the extreme flow estimation for dam hydrologic security has been developed. First, the work has been focused on the adjustment of maximum peak flows distribution functions from which to extrapolate values for high return periods. This has become a major issue as the adoption of stricter standards on dam hydrologic security involves estimation of high design return periods which entails great uncertainty. Accordingly, it is important to incorporate all available techniques for the estimation of design peak flows in order to reduce this uncertainty. Selection of the statistical model (distribution function and adjustment method) is also important since its ability to describe the sample and to make solid predictions for high return periods quantiles must be guaranteed. In order to provide practical application of previous methodologies, studies have been developed on a national scale with the aim of determining a regionalization scheme which features best results in terms of annual maximum peak flows for hydrologic characteristics of Spanish basins taking into account the length of available data. Applied methodology starts with the delimitation of regions taking into account basin’s physiographic and climatic characteristics and the variability of their statistical properties, and continues with their homogeneity testing. Then, a statistical model for maximum annual peak flows is selected with the best behaviour for the different regions in peninsular Spain in terms of describing sample data and making solid predictions for high return periods. This selection has been based, among others, on synthetic data series generation using Monte Carlo simulations and statistical analysis of results from distribution functions adjustment following different hypothesis. Secondly, the work has been focused on the analysis of the relationship between peak flow and volume and how to define design flood hydrographs based on this relationship which can be highly important for large volume reservoirs. However, commonly used hydrologic procedures do not take statistical dependence between these variables into account. A simple and sound method for statistical dependence characterization has been developed by the representation of a joint distribution function of maximum peak flow and volume which is based on marginal distribution function of peak flow and conditional distribution function of volume for a given peak flow. The last one is determined by a regional adjustment procedure of a log-normal distribution function. Practical application is proposed by a probabilistic estimation procedure based on stochastic generation of a large number of hydrographs. The use of this procedure for dam hydrologic security requires a proper interpretation of the return period concept applied to bivariate hydrologic data. A standard is proposed in which it is understood as the inverse of the probability of exceeding a determined reservoir level. When relating return period and hydrological variables the only design flood hydrograph changes into a family of hydrographs which generate the same maximum reservoir level and that are represented by a curve in the peak flow-volume two-dimensional space. This family of design flood hydrographs depends on the dam characteristics as for example reservoir volume or spillway length. Two study cases illustrate the application of the developed methodology. Finally, the work has been focused on the calculation of seasonal floods which are essential when determining the reservoir operation and which can be also fundamental in terms of analysing the hydrologic security of existing reservoirs. However, seasonal flood calculation is complex and nowadays it is not totally clear. Calculation procedures commonly used may present certain problems. Statistical partial duration series, or peaks over threshold method, can be an alternative approach for their calculation that allow to solve problems encountered when the same type of event is responsible of floods in different seasons. A study has been developed to verify the hypothesis of statistical homogeneity of peak flows for different seasons in Spain. Appropriate seasonal periods have been analyzed which is highly relevant to guarantee correct results. In addition, a simple procedure has been defined to determine data selection threshold on a way that ensures its independency which is one of the main difficulties in practical application of partial series. Moreover, practical application of seasonal frequency laws requires a correct interpretation of the concept of seasonal return period. A standard is proposed in order to determine seasonal return periods coherently with the annual return period and with an adequate seasonal probability distribution. Finally a methodology is proposed to calculate seasonal peak flows. A study case illustrates the application of the proposed methodology.
Resumo:
Esta tesis se centra en la identificación y análisis de los factores que pueden favorecer o actuar como barreras del éxito de la implementación de la innovación y las relaciones entre sí, desde el enfoque de la interface marketing-ventas. El trabajo empírico se enmarca en el vacío de investigación existente en el campo del proceso de lanzamiento de nuevos productos en los mercados donde operan subsidiarias de empresas multinacionales de consumo masivo (FMCG). Las empresas FMCG son altamente dependientes de la innovación como proceso clave determinante del crecimiento competitivo de mediano y largo plazo. En un contexto de acortamiento del ciclo de vida de los productos, como resultado del desarrollo tecnológico y científico que impactan en el comportamiento de los consumidores, las empresas invierten un mayor nivel de recursos en el desarrollo de nuevos productos, reingeniería y programas de innovación (Mundra, Gulati y Gupta, 2013). Sin embargo, a pesar del aumento en la inversión, las tasas de éxito de la innovación reportadas son inferiores al 25% (Evanschitzky, Eisend, Calantone y Jiang, 2012). Aumentar las tasas de éxito de los proyectos de innovación es reconocida en la literatura como un elemento clave para la supervivencia y competitividad de las empresas, para ser superiores a su competencia y desarrollar nuevos modelos de negocios. A pesar de la existencia de estudios que intentan comprender el proceso de lanzamiento de nuevos productos, no se ha identificado un claro prototipo de gestión de la innovación (Gupta et al, 2007). Profundizando en los factores de éxito, los autores Keupp, Palmié y Gassman (2012) reconocen que la innovación exitosa no depende solamente de la estrategia de selección de los proyectos de innovación, sino también la forma en que los mismos son implementados (Klein and Sorra, 1996; Repenning, 2002; Keupp, Palmié y Gassmann, 2012). Al analizar la implementación de los proyectos de lanzamiento de nuevos productos al mercado, en empresas FMCG, dicho proceso es responsabilidad principalmente de las funciones de marketing y ventas a través de la comunicación con los consumidores y los clientes respectivamente (Ernst, Hoyer y Rubsaamen, 2010). Es decir que el éxito en la implementación de la innovación requiere la gestión efectiva de la relación inter-funcional entre marketing y ventas (Ernst, Hoyer y Rubsaamen, 2010; Hughes, Le Bon y Malshe, 2012). A pesar de la importancia de la integración entre marketing y ventas en la conceptualización e implementación de la innovación, este tema no ha sido estudiado en profundidad (Hughes, Le Bon y Malshe, 2012; Keupp, Palmié y Gassmann, 2012). En las empresas multinacionales, está demostrado que el desempeño de las subsidiarias determinan el éxito competitivo de la empresa a nivel global. El desafío de dichas subsidiarias es conjugar el desarrollo global de innovación y comunicación con las características locales de comportamiento del consumidor y el mercado. Por lo tanto, esta investigación empírica responde a la pregunta académica y de gestión acerca de cómo mejorar las tasas de éxito de lanzamiento de nuevos productos al mercado en subsidiarias de empresas de consumo masivo, desde la perspectiva de la relación entre marketing y ventas. En particular analiza cómo afectan la formalización de los procesos y los mecanismos de comunicación a la confianza interpersonal y a la efectividad de la interface marketing-ventas y dichos factores a su vez sobre la planificación integrada de la implementación de la innovación. La determinación de los factores o ítems que conforman cada uno de los constructos del proceso de ejecución de la innovación, se llevó a cabo a partir de una revisión exhaustiva del estado del arte de la literatura sobre las interfaces funcionales y el proceso de innovación. Posteriormente, los ítems seleccionados (más de 50 en total) fueron validados por referentes de marketing y ventas de Argentina y Uruguay a través de entrevistas en profundidad. A partir de los factores identificados se construyeron dos modelos teóricos: • (1) relativo a la influencia de las dimensiones de confianza interpersonal sobre la efectividad de las uniones inter-funcionales y como los mecanismos organizacionales, tales como la frecuencia y la calidad de la comunicación entre las áreas, afectan la confianza y la relación entre ellas; • (2) relativo a la dimensión planificación integrada de la implementación de la innovación, ya que durante el lanzamiento de nuevos productos al mercado, marketing y ventas utilizan procesos formales que facilitan la comunicación frecuente y efectiva, desarrollando confianza inter-personal que no solamente afecta la efectividad de su relación sino también el desarrollo de planes integrados entre ambas áreas. El estudio fue llevado a cabo en una empresa multinacional de consumo masivo que integra la lista Global 500 (Fortune, 2015), presente en todo el mundo con más de 25 marcas participantes en más de 15 categorías, implementando 150 proyectos de innovación en el último año. El grupo de subsidiarias en estudio fue reconocido a nivel mundial por su desempeño en crecimiento competitivo y su alta contribución al crecimiento total. El modelo analizado en esta tesis fue expandido al resto de América Latina, tratándose entonces de un caso ejemplar que representa una práctica de excelencia en la implementación de la innovación en subsidiarias de una empresa multinacional. La recolección de los datos fue llevado a cabo a través de un cuestionario estructurado y confidencial, enviado a la base de datos de todo el universo de directores y gerentes de marketing y ventas. El nivel de respuesta fue muy elevado (70%), logrando 152 casos válidos. El análisis de datos comprendió el análisis descriptivo de los mismos, estimación de fiabilidad y análisis factorial exploratorio a través del software SPSS v.20. El análisis factorial confirmatorio y el análisis de senderos para examinar las relaciones entre los factores se estudiaron mediante el software R (Package 2.15.1., R Core Team, 2012) (Fox, 2006). Finalmente se llevaron a cabo entrevistas en profundidad a gerentes de marketing y ventas de cada uno de los seis países con el fin de profundizar en los constructos y sus relaciones. Los resultados de los modelos demuestran que la frecuencia de comunicación impacta positivamente en la calidad de la misma, que a su vez afecta directamente la relación entre marketing y ventas. Adicionalmente, la calidad de la comunicación impacta sobre la confianza cognitiva, que a su vez se relaciona no solamente con la confianza afectiva sino también con la relación entre ambas áreas. Esto significa que para mejorar la implementación de la innovación, los gerentes deberían orientarse a reforzar la relación entre marketing y ventas facilitando la construcción de confianza interpersonal primero cognitiva y luego afectiva, incrementando la frecuencia de la comunicación que alimenta la calidad de la comunicación entre ambas áreas. A través del segundo modelo se demuestra que durante el lanzamiento de nuevos productos al mercado, marketing y ventas necesitan emplear procesos formales que faciliten la comunicación frecuente y efectiva. De esta forma se contrarresta el efecto negativo de la formalización sobre la planificación integrada entre ambas áreas. Adicionalmente, los gerentes de ambos departamentos deberían promover la construcción de confianza interpersonal, no solamente para mejorar la efectividad de la relación, sino también para desarrollar planes integrados de implementación de nuevos productos. Finalmente, se valida que la frecuencia de la comunicación, la confianza afectiva y la relación marketing-ventas, se relacionan positivamente con la planificación integrada en la implementación de la innovación. El estudio contribuye a la comprensión de los factores que las empresas pueden emplear para mejorar la relación inter-funcional entre marketing y ventas y la implementación de la innovación en empresas de consumo masivo. El aporte de esta investigación puede ser valorado de dos maneras, los aportes a la gestión y a la academia. Desde el punto de vista empresarial, provee a los líderes al frente de empresas de consumo masivo, del conocimiento sobre los factores que afectan la implementación de la innovación y en definitiva el éxito del negocio a mediano y largo plazo. Desde el punto de vista académico aporta al conocimiento del proceso de implementación de la innovación y en la efectividad de la interface marketing y ventas en un caso de buenas prácticas en el mercado de consumo masivo. A su vez incorpora por primera vez un estudio empírico en geografías emergentes capaces de recuperar el camino de crecimiento posterior a una profunda crisis económica a través de la exitosa implementación de la innovación en sus mercados. ABSTRACT This thesis is focused on the identification, analysis and relationship study of factors which may benefit or hinder the successful deployment of innovation, from a marketing-sales interface perspective. Considering the non-existent investigation dedicated to the study of new products launches into markets in which Fast Moving Consumer Goods (FMCG) companies’ subsidiaries operate, it is that this investigation has been carried out. FMCG companies rely on innovation as their key process for a competitive growth on a medium and long term basis. Nowadays, the life-cycle of products is getting shorter as a result of new technological and scientific development, having impact on consumer behavior, and therefore companies are forced to dedicating more resources to the development of new products, reengineering and innovation programs (Mundra, Gulati and Gupta, 2013). However, in spite of the investment increase, the innovation success rates have been reported to be lower than 25% (Evanschitzky, Eisend, Calantone y Jiang, 2012). Increasing success rates on innovation processes has been considered as a key element on the survival and competitiveness of companies, outperforming competitors and developing new business models. Despite new studies which try to comprehend the process of new products launch, a prototype of innovation management has not yet been identified (Gupta et al, 2007). Emphasizing on success factors, authors Keupp, Palmié and Gassman (2012) recognize that successful innovation does not solely depend on innovation processes’ selection strategy, but it is also based on the way in which these are implemented (Klein and Sorra, 1996; Repenning, 2002; Keupp, Palmié y Gassmann, 2012). While analyzing the implementation of projects for new products releases on massive consumption companies, the two departments in charge of taking this forward are marketing and sales, by focusing on communication strategies with consumers and clients respectively (Ernst, Hoyer y Rubsaamen, 2010). This means that having success on innovation implementation requires an effective management of inter-functional relationship among marketing and sales (Ernst, Hoyer y Rubsaamen, 2010; Hughes, Le Bon y Malshe, 2012). In spite of the importance on the integration between marketing and sales on the conceptualization and implementation of innovation, this subject has not been studied in depth (Hughes, Le Bon y Malshe, 2012; Keupp, Palmié y Gassmann, 2012). In multinational companies, previous research has confirmed that the performance of their subsidiaries determine the competitive success of the company on a global scale. The challenge of said subsidiaries is to conjugate the global innovation development and communication with the local consumer and market behavior. Therefore, this empirical study aims to respond to the academic and management question of how to improve the success rates of new product launches into MNE subsidiary’ markets, from a marketing-sales relationship perspective. Particularly, this investigation analyses how the formalization of products and communication mechanisms affect interpersonal trust and marketing-sales interface effectiveness and also on how these factors affect the overall planning of the implementation of innovation. The determination of which factors build the hypothesis of the innovation execution process was taken forward through an extensive research on the extant literature on functional interfaces and innovation processes. More than 50 items were selected which were in turn validated by marketing and sales referents on Uruguay and Argentina through in depth interviews. Based on the identified factors, two theoretical models were proposed: (1) Relative to the influence that interpersonal trust dimensions have on inter functional linkages effectiveness and how organizational mechanisms such as frequency and quality of communication between departments affect trust and their relationship. (2) Relative to the integrated planning and innovation implementation dimensions. Marketing and sales department use formal process thus allowing inter-personal trust, which affects positively their relationship and also enables the development of integrated planning between them. The study was performed within a massive consumption company which is part of the “Global 500” (Fortune, 2015), with subsidiaries all over the world and more than 25 participant brands in 15 categories, having implemented over 150 innovation projects in the year under study. The analyzed subsidiary group has been awarded worldwide for their performance in competitive growth and their high contribution to the total growth. The model being analyzed in this thesis was implemented throughout Latin America, representing a remarkable case of innovation implementation excellence for subsidiaries of multinational companies. Data recollection was carried out through a structured and confidential questionnaire, sent to the universe of marketing-sales directors and managers’ database available with a high level of responsiveness of 70%, resulting in 152 valid cases. Data exploration involved a descriptive analysis, followed by a reliability estimation and an exploratory factorial analysis carried out through SPSS v.20. Confirmatory factorial analysis and path analysis (to examine relations between the different study factors) were studied using “R” software (Package 2.15.1., R Core Team, 2012) (Fox, 2006). Finally, in depth interviews were carried out to several marketing and sales managers in each of the six countries so as to further confirm the hypothesis and their relations. The models results prove that communication frequency has a positive impact on the quality of the same, which in turn has direct effects on the marketing-sales relations. Additionally, communication quality has an impact on the cognitive trust, which also relates not only to affective trust, but also to the relation between both areas. This means that in order to improve the implementation of innovation, managers should strive to enforce marketing-sales relations, facilitating the interpersonal trust construction (firstly cognitive, followed by affective trust), increasing the communication frequency, and therefore nurturing the communication quality among both areas. Through the second model, the results confirm the importance of creating effective relationships between sales and marketing to facilitate planning integrated new product implementations. While formalized new product development processes provide opportunities for sales and marketing to communicate, this does not directly influence the planning of integrated new product implementations. By using these formal opportunities to communicate to create information quality, it is possible to improve sales and marketing’s ability to integrate information during the planning process. Further, communication quality creates inter-personal trust in the other party’s competences (cognitive-based trust), leading to affect-based trust. Affect-based inter-personal trust, not only to improve the overall effectiveness of the sales and marketing relationship, but also helps in planning integrated new product implementations. This study contributes to the understanding of factors which enterprises can use to improve the inter-functional relations between marketing and sales, and the implementation of innovation in FMCG companies. The contribution of this investigation can be measured in two ways: enrichment of management and contribution to the academic area. From a business perspective, it provides massive consumption businesses leaders with knowledge on which factors affect innovation implementation, which results on mid and long-term success for the company. From an academic point of view, it provides knowledge on a prototype of successful innovation implementation management based on the marketing-sales interface effectiveness through a case study in the FMCG consumption market. Last but not least, it incorporates for the first time an empiric study on emerging geographies capable of recovery post a deep economic crisis through successful innovation implementation on their markets.
Resumo:
La presente investigación aborda el análisis de las cualidades del entorno urbano que inciden en la experiencia perceptiva de su recorrido. Los intereses que la motivan tienen que ver con la recuperación de la ciudad para el viandante y se sitúa dentro de un marco de intereses más amplio como es el de la ciudad sostenible. En primer lugar, se contextualiza el tema de la experiencia del recorrido a través de disciplinas diferentes como son el cine, la literatura, la arquitectura, el urbanismo, la arquitectura del paisaje, la psicología y la estética ambiental. De este modo, se refuerza el argumento en torno al papel que desempeñan la forma y otros estímulos sensoriales en la experiencia del espacio, ya sea éste urbano, arquitectónico o natural. La experiencia que las personas viven al desplazarse por un entorno viene definida por infinitos factores que van desde la configuración física del entorno recorrido, hasta el aprendizaje cultural de la persona que camina; desde los estímulos sensoriales que se reciben, hasta las condiciones físicas que posibilitan la funcionalidad del recorrido; desde las sutilezas de índole secuencial que se desvelan a medida que avanzamos, hasta las condiciones higrotérmicas en el momento en que se lleva a cabo el desplazamiento. Sin embargo, factores como las motivaciones y atenciones personales del que anda, así como sus recuerdos de experiencias anteriores, deseos, imaginación y estado de ánimo, también definen nuestra experiencia al caminar que, indudablemente, se encuentra ligada a nuestra personalidad y, por lo tanto, no puede ser exacta a la de otra persona. Conscientes de que todos estos factores se funden en un fenómeno global, y que no se dan en la vida por separado, nos hemos esforzado por independizar las cualidades sensoriales y formales, únicamente a efectos de investigación. La importancia del tema a investigar reside en las conexiones que existen entre las cualidades del medio construido y la experiencia cotidiana de su recorrido, en la medida en que dicha vinculación establece relaciones con la calidad de vida, la salud de los ciudadanos y sus sentimientos de identidad. En este sentido, el problema clave encontrado es que si la definición de la experiencia del recorrido urbano es demasiado amplia, se vuelve nebulosa e inoperativa, pero si se precisa demasiado, se pueden excluir variables importantes. Hemos concentrado nuestros esfuerzos en buscar un medio que permita hacer operativo el estudio de aspectos que, por su propia naturaleza, son difíciles de controlar y aplicar en la práctica. En este sentido, el campo de estudio que aúna interés en el tema, producción científica y vocación práctica, es el de la caminabilidad de las ciudades. Por esta razón, hemos situado nuestro trabajo dentro del marco de criterios que este campo establece para valorar un entorno caminable. Sin embargo, hemos detectado que los trabajos sobre caminabilidad tienden a desarrollarse dentro de la disciplina del planeamiento de transporte y, con frecuencia, siguiendo las mismas pautas que la investigación sobre el transporte motorizado. Además, la tendencia a proporcionar datos numéricos producto de la medición controlada de variables, para respaldar iniciativas dentro de los ámbitos de toma de decisiones, lleva consigo un progresivo alejamiento de los aspectos más sutiles y próximos de la experiencia de las personas y la especificidad de los lugares. Por estas razones, hemos estimado necesario profundizar en la experiencia peatonal explorando otras líneas de trabajo como son la habitabilidad de las ciudades, políticas llevadas a cabo para mejorar la calidad del espacio público o las certificaciones de sostenibilidad en el ámbito del urbanismo. También se han estudiado las aproximaciones gráficas a la representación y simulación de recorridos urbanos por su importancia en la comunicación y promoción de caminar. Para detectar las problemáticas implicadas en la definición de una herramienta que permita valorar, de manera operativa, la calidad de la experiencia del recorrido urbano, la metodología de valoración propuesta se ha basado en la combinación de distintos métodos y en la conjugación de tres aproximaciones: valoración por parte del investigador en calidad de experto, valoración realizada por el investigador en el papel de usuario y valoración por el ciudadano. El desarrollo de esta investigación se ha visto condicionado por la intención de aplicar lo estudiado en un caso práctico. El marco de criterios que los trabajos sobre caminabilidad de las ciudades establecen para que se dé un entorno caminable, se puede resumir en que concurran los siguientes factores: mezcla de usos, densidad de población y edificación relativamente altas, destinos públicos accesibles a pie, un alto grado de seguridad con respecto al tráfico y actos delictivos, alta funcionalidad (dimensiones, pendientes, etc.) y atractivo. Una vez definido el modelo de ciudad en que es pertinente realizar una investigación sobre las cualidades del entorno urbano responsables de que éste se perciba como atractivo, se escogió la ciudad de Taipei, entre otras razones, por cumplir con los requisitos restantes. Con respecto al caso práctico, el objetivo es detectar fortalezas y debilidades del área central de la ciudad de Taipei en cuanto a la experiencia perceptiva que proporciona a los viandantes. ABSTRACT This research addresses the analysis of the qualities of the urban environment that affect the perceptual experience of walking. The interests lying behind it are related to the recovery of the city for pedestrians, and is framed within the sustainable city framework of interests. Firstly, the issue of the experience of walking is contextualized through different disciplines such as film, literature, architecture, urban planning, landscape architecture, environmental psychology and aesthetics. This way, the argument about the role that form and other sensory stimuli play in the experience of space, whether it is urban, architectural or natural, is strengthened. The walking experience of people is defined by factors ranging from the physical configuration of the environment to the cultural background of the person who walks, from the sensory stimuli that are perceived to the physical conditions that enable the functionality of the walk, from the subtleties of sequential nature that are revealed as we move around to hygrothermal conditions at the specific time of walking. Nevertheless, factors such as personal motivations and attentions of the walker, as well as memories of past experiences, desires, imagination and mood, also define our walking experience that is undoubtedly linked to our personality and, therefore, it cannot be exactly the same as other people's experience. Being aware that all these factors come together in a total phenomenon and that, in real life, they do not exist separately, we focused on separating sensory and formal qualities only for research purposes. The importance of the research topic lies in the connections between the qualities of the built environment and the quotidian experience of walking through it, to the extent that such link establishes relationships with the quality of life, health and feelings of identity of citizens. In this sense, the key problem encountered is that, if the definition of urban walking experience is too broad, it becomes nebulous and non‐operational, but if it is too precise, important variables can be excluded. We concentrated our efforts on finding a way to operationalize the study of questions that, by their very nature, are difficult to control and apply in practice. In this regard, the field of study that combines interest in the topic, scientific production and practical purpose, is the walkability of cities. For this reason, we placed our work within the framework of the set of criteria that this field establishes for assessing an environment as walkable. However, we found that works on walkability tend to be developed within the discipline of transportation planning and often following the same guidelines that research on motorized transport. Furthermore, the tendency to provide numerical data as a result of the controlled measurement of variables in order to support initiatives in decision making areas, involves a progressive distancing from the proximity and the most subtle aspects of the experience of people, and from the specificity of places. For these reasons, we considered it was necessary to deepen into the study of pedestrians experience, by exploring other lines of work such as the livability of cities, implemented policies to improve the quality of the public space or sustainability certifications in urbanism. Graphic representation and simulation of urban walks are also studied due to their important role in communication and promotion of walking. In order to find the issues involved in defining a tool to assess, in an operational way, the quality of urban walking experience, the proposed assessment methodology is based on the combination of different methods and the synthesis of three approaches: assessment by the researcher as expert, assessment by the researcher playing the role of user and assessment by the citizens. The development of this research has been conditioned by our intention of applying it in a case study. The framework of criteria that works on walkability of cities set to define a walkable environment, can be summarized in the following factors: mix of uses, population and building density rather high, public destinations accessible on foot, high levels of safety in terms of traffic and crime, high functionality (dimensions, slopes, etc.) and attractiveness. After defining the model of city in which it is relevant to conduct an investigation on the qualities that are responsible of the attractiveness of the environment; Taipei City was selected because it meets the remaining requirements, among other reasons. Regarding the case study, the goal is to identify strengths and weaknesses in the central area of Taipei City in terms of the perceptual experience of pedestrians.
Resumo:
La escalera de caracol es uno de los elementos que mejor define la evolución de la construcción pétrea a lo largo de nuestra historia moderna. El movimiento helicoidal de las piezas de una escalera muestra, con frecuencia, el virtuosismo que alcanzaron los maestros del arte de la cantería y la plasticidad, expresividad y ligereza de sus obras. A pesar de su origen exclusivamente utilitario y de su ubicación secundaria, se convertirán en signo de maestría y en elementos protagonistas del espacio que recorren y de la composición de los edificios, como es el caso de las grande vis de los Châteaux franceses del XVI como Blois, Chateaudun o Chambord o los schlosses alemanes como el de Hartenfels en Torgau. Este protagonismo queda patente en los tratados y manuscritos de cantería, elaborados fundamentalmente en España y Francia, a partir del siglo XVI que recogen un gran número de variantes de escaleras de caracol entre sus folios. Breve historia de la escalera de Caracol Los ejemplos más antiguos conocidos de escaleras de caracol en Occidente provienen de los primeros siglos de nuestra era y están asociados a construcciones de tipo conmemorativo, funerario o civil, romanas. Destaca de entre ellas la columna trajana, construida en el 113 por Apolodoro de Damasco en los Foros de Roma. Esta columna, conservada en la actualidad, fue profusamente representada por los tratados de arquitectura desde el Renacimento como el de Serlio, Caramuel, Piranesi, Rondelet y, más recientemente, Canina. Choisy describe en El arte de construir en Bizancio un grupo de escaleras de caracol cubiertas por bóvedas helicoidales y construidas entre el siglo IV y VIII; a esta misma época pertenecen otras escaleras con bóvedas aparejadas de forma desigual con sillarejos y sillares de pequeño tamaño sin reglas de traba claras, pensadas al igual que las de Choisy para ser revestidas con un mortero. Herederas de estas bóvedas de la antigüedad son las escaleras de caracol de la Edad Media. Así las describe Viollet le Duc: “compuestas por un machón construido en cantería, con caja perimetral circular, bóveda helicoidal construida en piedra sin aparejar, que se apoya en el machón y sobre el paramento circular interior. Estas bóvedas soportan los peldaños en los que las aristas son trazadas siguiendo los radios del círculo”. En esta misma época, siglos XI y XII, se construyen un grupo de escaleras de caracol abovedadas en piedra de cantería vista: las de la torre oeste de Notre Dame des Doms en Avignon, las de la tour de Roi, de Évêque y Bermonde de los Chateaux de Uzés, las gemelas de las torres de la Catedral Saint Théodorit de Uzés y la conocida escalera del transepto de la Abadía de Saint Gilles. Ésta última dará el nombre a uno de los modelos estereotómicos de mayor complejidad del art du trait o arte de la cantería: la vis Saint Gilles, que aparece en la mayoría de los textos dedicados al corte de piedras en España y Francia. La perfección y dificultad de su trazado hizo que, durante siglos, esta escalera de caracol fuera lugar de peregrinación de canteros y se convirtiera en el arquetipo de un modelo representado con profusión en los tratados hasta el siglo XIX. A partir del siglo XIII, será el husillo el tipo de escalera curva que dará respuesta a las intenciones de la arquitectura a la “moderna” o gótica. Estas escaleras con machón central se generalizarán, insertándose en un complejo sistema de circulaciones de servicio, que conectaban por completo, en horizontal y vertical, los edificios. Estos pasadizos horizontales y estas conexiones verticales, hábilmente incorporadas en el espesor de contrafuertes, machones, esquinas, etc, serán una innovación específicamente gótica, como señala Fitchen. La pieza de peldaño, que se fabrica casi “en serie” reflejará fielmente el espíritu racional y funcionalista de la arquitectura gótica. Inicialmente los peldaños serán prismáticos, sin labrar por su cara interior; después, éstos darán paso a escaleras más amables con los helicoides reglados formando su intradós. Insertos en construcciones góticas y en convivencia con husillos, encontramos algunos ejemplos de escaleras abovedadas en el siglo XIII y XIV. Estamos hablando de la escalera de la torre este del Castillo de Maniace en Siracusa, Sicilia y la escalera de la torre norte del transepto de la Catedral de Barcelona. En ambos casos, los caracoles se pueden relacionar con el tipo vis de Saint Gilles, pero incorporan invariantes de la construcción gótica que les hace mantener una relación tipológica y constructiva con los husillos elaborados en la misma época. En la segunda mitad del siglo XV aparecen, vinculadas al ámbito mediterráneo, un conjunto de escaleras en las que el machón central se desplaza transformándose en una moldura perimetral y dejando su lugar a un espacio hueco que permite el paso de la luz. Los tratados manuscritos de cantería que circulan en el XVI y XVII por España recogen el modelo con su denominación: caracol de Mallorca. Varios autores han mantenido la tesis de que el nombre proviene de la escalera situada en la torre noroeste de la Lonja de Palma de Mallorca. Los Manuscritos y tratados de Cantería y las escaleras de caracol Coincidiendo con la apertura intelectual que propicia el Renacimiento se publican algunos tratados de arquitectura que contienen capítulos dedicados al corte de las piedras. El primero de ellos es Le premier tome de l’Architecture de Philibert de L’Orme, publicado en 1567 en Francia. En España tenemos constancia de la existencia de numerosos cuadernos profesionales que circulaban entre los canteros. Varias copias de estos manuscritos han llegado hasta nuestros días. Los más completos son sin duda, las dos copias que se conservan del tratado de arquitectura de Alonso de Vandelvira, una en la Biblioteca Nacional y otra en la Biblioteca de la Escuela de Arquitectura de la Universidad Politécnica de Madrid y el manuscrito titulado Cerramientos y trazas de Montea de Ginés Martínez de Aranda. Todas estas colecciones de aparejos, con excepción de la atribuida a Pedro de Albiz, presentan trazas de escaleras de caracol. En los siglos XVII y XVIII los textos en España más interesantes para nuestras investigaciones son, como en el XVI, manuscritos que no llegaron a ver la imprenta. Entre ellos destacan De l’art del picapedrer de Joseph Gelabert y el Cuaderno de Arquitectura de Juan de Portor y Castro. Estos dos textos, que contienen varios aparejos de caracoles, están claramente vinculados con la práctica constructiva a diferencia de los textos impresos del XVIII, como los del Padre Tosca o el de Juan García Berruguilla, que dedican algunos capítulos a cortes de Cantería entre los que incluyen trazas de escaleras, pero desde un punto de vista más teórico. Podemos agrupar las trazas recogidas en los manuscritos y tratados en cinco grandes grupos: el caracol de husillo, el caracol de Mallorca, los caracoles abovedados, los caracoles exentos y los caracoles dobles. El husillo, de procedencia gótica, permanece en la mayoría de nuestros textos con diferentes denominaciones: caracol de husillo, caracol de nabo redondo o caracol macho. Se seguirá construyendo con frecuencia durante todo el periodo de la Edad Moderna. Los ejemplares más bellos presentan el intradós labrado formando un helicoide cilíndrico recto como es el caso del husillo del Monasterio de la Vid o el de la Catedral de Salamanca o un helicoide axial recto como en el de la Capilla de la Comunión en la Catedral de Santiago de Compostela. La diferencia estriba en la unión del intradós y el machón central: una amable tangencia en el primer caso o un encuentro marcado por una hélice en el segundo. El segundo tipo de caracol presente en casi todos los autores es el caracol de Mallorca. Vandelvira, Martínez de Aranda, y posteriormente Portor y Castro lo estudian con detenimiento. Gelabert, a mediados del siglo XVII, nos recordará su origen mediterráneo al presentar el que denomina Caracol de ojo abierto. El Caracol de Mallorca también estará presente en colecciones de aparejos como las atribuidas a Alonso de Guardia y Juan de Aguirre, ambas depositadas en la Biblioteca Nacional y en las compilaciones técnicas del siglo XVIII, de fuerte influencia francesa, aunque en este caso ya sin conservar su apelación original. El Caracol que dicen de Mallorca se extiende por todo el territorio peninsular de la mano de los principales maestros de la cantería. Los helicoides labrados con exquisita exactitud, acompañados de armoniosas molduras, servirán de acceso a espacios más representativos como bibliotecas, archivos, salas, etc. Es la escalera de la luz, como nos recuerda su apelación francesa, vis a jour. Precisamente en Francia, coincidiendo con el renacimiento de la arquitectura clásica se realizan una serie de escaleras de caracol abovedadas, en vis de Saint Gilles. Los tratados franceses, comenzando por De L’Orme, y siguiendo por, Jousse, Derand, Milliet Dechales, De la Hire, De la Rue, Frezier, Rondelet, Adhémar o Leroy, entre otros, recogen en sus escritos el modelo y coinciden en reconocer la dificultad de su trazado y el prestigio que adquirían los canteros al elaborar este tipo de escaleras. El modelo llega nuestras tierras en un momento histórico de productivo intercambio cultural y profesional entre Francia y España. Vandelvira, Martínez de Aranda y Portor y Castro analizan en sus tratados la “vía de San Gil”. En la provincia de Cádiz, en la Iglesia Mayor de Medina Sidonia, se construirá el más perfecto de los caracoles abovedados de la España renacentista. También en la provincia de Cádiz y vinculadas, posiblemente, a los mismos maestros encontramos un curioso grupo de escaleras abovedadas con generatriz circular horizontal. A pesar del extenso catálogo de escaleras presentes en la tratadística española, no aparece ninguna que muestre una mínima relación con ellas. Desde el punto de vista de la geometría, estamos ante uno de los tipos de escaleras que describe Choisy en El arte de construir en Bizancio. Se trata de escaleras abovedadas construidas por hojas y lechos horizontales. Los caracoles abovedados tendrán también su versión poligonal: la vis Saint Gilles quarré o el caracol de emperadores cuadrado en su versión vandelviresca. Las soluciones que dibujan los tratados son de planta cuadrada, pero la ejecución será poligonal en los raros ejemplos construidos, que se encuentran exclusivamente en Francia. Su geometría es compleja: el intradós es una superficie reglada alabeada denominada cilindroide; su trazado requiere una habilidad extrema y al ser un tanto innecesaria desde el punto de vista funcional, fue muy poco construida. Otro tipo de escalera habitual es la que Vandelvira y Martínez de Aranda denominan en sus tratados “caracol exento”. Se trata de una escalera volada alrededor de un pilar, sin apoyo en una caja perimetral y que, por lo tanto, debe trabajar en ménsula. Su función fue servir de acceso a espacios de reducidas dimensiones como púlpitos, órganos o coros. Encontramos ejemplos de estos caracoles exentos en el púlpito de la catedral de Viena y en España, en la subida al coro de la Iglesia arciprestal de Morella en Valencia. El largo repertorio de escaleras de caracol prosigue en los tratados y en las múltiples soluciones que encontramos en arquitecturas civiles y religiosas en toda Europa. Hasta varios caracoles en una sola caja: dobles e incluso triples. Dobles como el conocido de Chambord, o el doble husillo del Convento de Santo Domingo en Valencia, rematado por un caracol de Mallorca; triples como la triple escalera del Convento de Santo Domingo de Bonaval en Santiago de Compostela. La tratadística española recogerá dos tipos de caracoles dobles, el ya comentado en una sola caja, en versiones con y sin machón central, definidos por Martínez de Aranda, Juan de Aguirre, Alonso de Guardia y Joseph Gelabert y el caracol doble formado por dos cajas diferentes y coaxiales. Vandelvira lo define como Caracol de Emperadores. Será el único tipo de caracol que recoja Cristobal de Rojas en su Teoría y Práctica de Fortificación. No hay duda que las escaleras de caracol han formado parte de un privilegiado grupo de elementos constructivos en constante evolución e investigación a lo largo de la historia de la arquitectura en piedra. Desde el cantero más humilde hasta los grandes maestros catedralicios las construyeron y, en muchos casos, crearon modelos nuevos en los pergaminos de sus propias colecciones o directamente sobre la piedra. Estos modelos casi experimentales sirvieron para encontrar trabajo o demostrar un grado de profesionalidad a sus autores, que les hiciera, al mismo tiempo, ganarse el respeto de sus compañeros. Gracias a esto, se inició un proceso ese proceso de investigación y evolución que produjo una diversidad en los tipos, sin precedentes en otros elementos similares, y la transferencia de procedimientos dentro del arte de la cantería. Los grandes autores del mundo de la piedra propusieron multitud de tipos y variantes, sin embargo, el modelo de estereotomía tradicionalmente considerado más complejo y más admirado es un caracol de reducidas dimensiones construido en el siglo XII: la Vis de Saint Gilles. Posiblemente ahí es donde reside la grandeza de este arte.
Resumo:
El estándar LTE se ha posicionado como una de las claves para que los operadores de telecomunicación puedan abordar de manera eficiente en costes el crecimiento de la demanda de tráfico móvil que se prevé para los próximos años, al ser una tecnología más escalable en el núcleo de la red y más flexible en la interfaz radio que sus predecesoras. En este sentido, es necesario también que los reguladores garanticen un acceso al espectro radioeléctrico adecuado, equitativo y no discriminatorio, que permita un entorno estable para el despliegue de redes de comunicaciones móviles avanzadas. Además de la flexibilización del marco regulador del espectro radioeléctrico en Europa, que ha permitido el despliegue de nuevas tecnologías en las bandas de frecuencia históricas de GSM, se ha puesto a disposición espectro adicional para sistemas IMT en nuevas bandas de frecuencia, lo que ha planteando a su vez nuevos retos para la tecnología y la regulación. La fragmentación del espectro disponible para comunicaciones móviles ha impulsado el desarrollo de técnicas de agregación de portadoras en las nuevas versiones del estándar LTE, que permiten explotar mejor los recursos radio en su conjunto. No obstante, el espectro inferior a 1 GHz sigue siendo escaso, ya que el tráfico móvil aumenta y la banda de 900 MHz aún se utiliza para servicios GSM, lo que no ha conseguido sino agravar la disputa entre los servicios de radiodifusión terrestre y de comunicaciones móviles por la parte superior de la banda UHF. En concreto, la banda de 700 MHz se perfila como una de las próximas para aumentar el espectro disponible para los servicios en movilidad, si bien su liberación por parte de las actuales redes de Televisión Digital Terrestre presenta no pocas dificultades en los Estados miembros en los que ésta es la principal plataforma audiovisual de acceso gratuito, abriendo un debate sobre el modelo audiovisual a largo plazo en Europa. Por otro lado, las políticas públicas de promoción del acceso a la banda ancha rápida y ultrarrápida de la presente década han establecido objetivos ambiciosos para el año 2020, tanto en el ámbito europeo como en los diferentes Estados miembros. La universalización del acceso a redes de banda ancha de al menos 30 Mbps constituye uno de los principales retos. Las expectativas generadas por la tecnología LTE y la puesta a disposición de nuevas bandas de frecuencia hace posible que los servicios de acceso fijo inalámbrico adquieran especial relevancia ante los objetivos de política pública establecidos que, como ha sido reconocido en diversas ocasiones, no podrán lograrse sino con un compendio de diferente tecnologías. Para esta Tesis Doctoral se han desarrollado una serie modelos tecnoeconómicos con el objetivo de realizar un análisis prospectivo que evalúa tres casos de especial relevancia en el despliegue de redes LTE: en primer lugar, la valoración económica de la banda de 700 MHz; en segundo lugar, la evaluación de modelos de negocio y reducción de costes considerando tecnologías femtocelulares; y finalmente, la viabilidad de las redes LTE de acceso fijo inalámbrico para el cierre de la brecha digital en el acceso a la banda ancha de 30 Mbps. En relación con la aplicación del análisis tecnoeconómico para la valoración del espectro de 700 MHz, los resultados obtenidos ponen de manifiesto dos cuestiones fundamentales. En primer lugar, la necesidad de asignar a los operadores más espectro para satisfacer las previsiones de demanda de tráfico móvil a medio plazo. En segundo, existe una diferencia notable en los costes de despliegue de una red LTE cuando se dispone de espectro en frecuencias inferiores a 1 GHz y cuando no, pero esta diferencia de costes disminuye a medida que se añade nuevo espectro sub-1GHz. De esta manera, la atribución de la banda de 700 MHz a servicios de comunicaciones móviles supone una reducción relevante en los costes de despliegue si el operador no dispone de espectro en la banda de 800 MHz, pero no así si ya dispone de espectro en bandas bajas para el despliegue. En este sentido, puede concluirse que el precio que los operadores estarán dispuestos a pagar por el espectro de la banda de 700 MHz dependerá de si ya tienen disponible espectro en la banda de 800 MHz. Sin embargo, dado que la competencia por ese espectro será menor, los ingresos esperables en las licitaciones de esta nueva banda serán en general menores, a pesar de que para algunos operadores este espectro sería tan valioso como el de 800 MHz. En segundo lugar, en relación con el despliegue de femtoceldas pueden extraerse algunas conclusiones en términos de ahorro de costes de despliegue y también de cara a la viabilidad de los modelos de negocio que posibilitan. El ahorro que supone la introducción de femtoceldas en el despliegue de una red LTE frente al caso de un despliegue exclusivamente macrocelular se ha demostrado que es mayor cuanto menor es el ancho de banda disponible para la red macrocelular. En esta línea, para un operador convergente el despliegue de femtoceldas tiene sentido económico si el ancho de banda disponible es escaso (en torno a 2x10 MHz), que, en el caso de España, puede reflejar el caso de los operadores del segmento fijo que son nuevos entrantes en el móvil. Por otro lado, los modelos de acceso abierto son interesantes para operadores exclusivamente móviles, porque consiguen flexibilizar los costes sustituyendo estaciones base macrocelulares por el despliegue de femtoceldas, pero necesitan desplegarse en zonas con una densidad de población relativamente elevada para que éstas descarguen tráfico de varios usuarios de la red macrocelular simultáneamente. No obstante, las femtoceldas son beneficiosas en todo caso si es el usuario quien asume los costes de la femtocelda y el backhaul, lo que sólo parece probable si se integran en el modelo de negocio de comercialización de nuevos servicios. Por tanto, el despliegue de femtoceldas en buena parte de la casuística estudiada sólo tiene sentido si consiguen aumentar los ingresos por usuario comercializando servicios de valor añadido que necesiten calidad de servicio garantizada y exploten a la vez de esa forma su principal ventaja competitiva respecto a la tecnología WiFi. Finalmente, en relación con el papel de la tecnología LTE para la provisión de servicios de acceso fijo inalámbrico para la banda ancha de 30 Mbps, se ha desarrollado un modelo TD-LTE y mediante la metodología de análisis tecnoeconómico se ha realizado un estudio prospectivo para el caso de España. Los resultados obtenidos preciden una huella de cobertura de FTTH del 74% para 2020, y demuestran que una red TD-LTE en la banda de 3,5 GHz resulta viable para aumentar la cobertura de servicios de 30 Mbps en 14 puntos porcentuales. Junto con la consideración de la cobertura de otras redes, la cobertura de 30 Mbps de acuerdo a la viabilidad de los despliegues alcanzaría el 95% en España en el año 2020. Como resumen, los resultados obtenidos muestran en todos los casos la capacidad de la tecnología LTE para afrontar nuevos desafíos en relación con el aumento del tráfico móvil, especialmente crítico en las zonas más urbanas, y el cierre de la brecha digital en el acceso a la banda ancha rápida en las zonas más rurales. ABSTRACT The LTE standard has been pointed out as one of the keys for telecom operators to address the demand growth in mobile traffic foreseen for the next years in a cost-efficient way, since its core network is more scalable and its radio interface more flexible than those of its predecessor technologies. On the other hand, regulators need to guarantee an adequate, equitable and non-discriminatory access to radio spectrum, which enable a favorable environment for the deployment of advanced mobile communication networks. Despite the reform of the spectrum regulatory framework in Europe, which allowed for the deployment of new technologies in the historic GSM bands, additional spectrum has been allocated to IMT systems in new frequency bands, what in turn has set out new challenges for technology and regulation. The current fragmentation of available spectrum in very different frequency bands has boosted the development of carrier aggregation techniques in most recent releases of the LTE standard, which permit a better exploitation of radio resources as a whole. Nonetheless, spectrum below 1 GHz is still scarce for mobile networks, since mobile traffic increases at a more rapid pace than spectral efficiency and spectrum resources. The 900 MHz frequency band is still being used for GSM services, what has worsen the dispute between mobile communication services and terrestrial broadcasting services for the upper part of the UHF band. Concretely, the 700 MHz frequency band has been pointed out as one of the next bands to be allocated to mobile in order to increase available spectrum. However, its release by current Digital Terrestrial Television networks is challenging in Member States where it constitutes the main free access audiovisual platform, opening up a new debate around the audiovisual model in the long term in Europe. On the other hand, public policies of the present decade to promote fast and ultrafast broadband access has established very ambitious objectives for the year 2020, both at European and national levels. Universalization of 30 Mbps broadband access networks constitutes one of the main challenges. Expectations raised by LTE technology and the allocation of new frequency bands has lead fixed wireless access (FWA) services to acquire special relevance in light of public policy objectives, which will not be met but with a compendium of different technologies, as different involved stakeholders have acknowledged. This PhD Dissertation develops techno-economic models to carry out a prospective analysis for three cases of special relevance in LTE networks’ deployment: the spectrum pricing of the 700 MHz frequency band, an assessment of new business models and cost reduction considering femtocell technologies, and the feasibility of LTE fixed wireless access networks to close the 30 Mbps broadband access gap in rural areas. In the first place and regarding the application of techno-economic analysis for 700 MHz spectrum pricing, obtained results reveal two core issues. First of all, the need to allocate more spectrum for operators in order to fulfill mobile traffic demand in the mid-term. Secondly, there is a substantial difference in deployment costs for a LTE network when there is sub-1GHz spectrum available and when there is not, but this difference decreases as additional sub-1GHz spectrum is added. Thus, the allocation of 700 MHz band to mobile communication services would cause a relevant reduction in deployment costs if the operator does not count on spectrum in the 800 MHz, but not if it already has been assigned spectrum in low frequencies for the deployment. In this regard, the price operators will be willing to pay for 700 MHz spectrum will depend on them having already spectrum in the 800 MHz frequency band or not. However, since competition for the new spectrum will not be so strong, expected incomes from 700 MHz spectrum awards will be generally lower than those from the digital dividend, despite this spectrum being as valuable as 800 MHz spectrum for some operators. In the second place, regarding femtocell deployment, some conclusions can be drawn in terms of deployment cost savings and also with reference to the business model they enable. Savings provided by a joint macro-femto LTE network as compared to an exclusively macrocellular deployment increase as the available bandwidth for the macrocells decreases. Therefore, for a convergent operator the deployment of femtocells can only have economic sense if the available bandwidth is scarce (around 2x10 MHz), which might be the case of fix market operators which are new entrant in mobile market. Besides, open access models are interesting for exclusively mobile operators, since they make costs more flexible by substituting macrocell base stations by femtocells, but they need to be deployed relatively densely populated areas so that they can offload traffic from several macrocell users simultaneously. Nonetheless, femtocells are beneficial in all cases if the user assumes both femtocell and backhaul costs, which only seems probable if they are integrated in a business model commercializing new services. Therefore, in many of the cases analyzed femtocell deployment only makes sense if they increase revenues per user through new added value services which need from guaranteed quality of service, thus exploiting its main competitive advantage compared to WiFi. Finally, regarding the role of LTE technology in the provision of fixed wireless access services for 30 Mbps broadband, a TD-LTE model has been developed and a prospective study has been carried out through techno-economic methodology for the Spanish case. Obtained results foresee a FTTH coverage footprint of 74% households for 2020, and prove that a TD-LTE network in the 3.5 GHz band results feasible to increase 30 Mbps service coverage in additional 14 percentage points. To sum up, obtained results show LTE technology capability to address new challenges regarding both mobile traffic growth, particularly critical in urban zones, and the current digital divide in fast broadband access in most rural zones.
Resumo:
Pinus pinaster Ait. es la conífera con mayor área de distribución en la Península Ibérica y es, a día de hoy, la única especie resinada en nuestro país. La inducción del flujo de resina al exterior para su recolección a través de distintos tipos de heridas ha sido practicada desde hace miles de años por distintas culturas. En todos los casos, las técnicas desarrolladas se basan en la estimulación del característico sistema de defensa de las pináceas. En los últimos siete años se viene observando una tendencia de incremento sustancial de la superficie resinada en España, acompañada por avances tecnológicos dirigidos a la mecanización y mejora de estimulantes. El aprovechamiento resinero se perfila como un sector estratégico en la generación de empleo rural y la conservación de ecosistemas. La industria resinera demanda métodos de extracción más eficaces, una selvicultura adecuada y actualizada, y condiciones laborales de los resineros más dignas con objeto de llegar a ser competitiva en el mercado internacional. Este trabajo se centra en ampliar el conocimiento sobre el sistema de defensa de P. pinaster, concretamente sobre las estructuras y procesos que pueden afectar a la producción de resina. Se analizan las relaciones entre las características anatómicas del xilema, destacando las relacionadas con los canales resiníferos, las variables dendrométricas y dasométricas de la masa y el flujo de resina (objetivo 1). Se estudia cómo estas relaciones son moduladas por las heridas de resinación dependiendo de la técnica de resinación aplicada (objetivo 2), el clima y el balance hídrico del suelo (objetivo 3). El material vegetal, las muestras de suelo y los datos de producción de resina y climáticos usados en esta tesis han sido recogidos en tres montes de utilidad pública; MUP 101 en Armuña, MUP 108 en Melque de Cercos y MUP 117 en Nieva (en esta última solo se recogieron los datos de producciones), todos ellos pinares monoespecíficos de P. pinaster localizados en la denominada Tierra de Pinares Segoviana. En los árboles de nuestro estudio se han aplicado cuatro métodos de resinación: método de pica de corteza con estimulante y método mecanizado con estimulante, ambos en sentido ascendente y descendente. En los trabajos realizados para el análisis de la influencia de la anatomía constitutiva en la producción de resina (objetivo 1) y el efecto del clima (objetivo 3), se obtuvieron muestras del xilema de 26 árboles resinados en Melque de Cercos y Armuña y 12 árboles control sin resinar. Para caracterizar los pies estudiados, se midió la altura, diámetro normal y porcentaje de copa viva. Las muestras de tejido fueron recogidas en una zona del tronco a una distancia del límite de la herida considerada en la bibliografía como no afectada (anatomía constitutiva). Para el análisis de las alteraciones anatómicas inducidas por la herida (objetivo 2), se recogieron muestras en ocho de los individuos en los que se habían realizado los distintos métodos de resinación descritos y en cinco árboles control. Se obtuvieron ocho muestras de tejido distribuidas en la parte superior, inferior, lateral y centro de la herida de cada uno de los árboles resinados. Para establecer las diferencias en la producción de resina según el método de resinación, se analizaron las producciones de 561 árboles resinados en 2012 con estos cuatro métodos en Nieva. Los principales resultados de estos trabajos muestran que la producción de resina está ligada al volumen de canales (axiales y radiales) y a la frecuencia de canales radiales existentes en el árbol antes de efectuar ninguna herida (sistema constitutivo). De esta manera, los árboles grandes productores de resina mostraron una red de canales más densa que aquellos con producciones medias. Una vez realizada la herida de resinación, observamos una disminución del ancho del anillo de crecimiento y del tamaño medio de los canales axiales a la vez que se incrementaba la frecuencia y área ocupada por mm2 de anillo de estos canales. Estos cambios perduraron en el árbol durante al menos tres años y fueron distintos dependiendo de la localización en el entorno de la herida y del método de resinación. Las respuestas más intensas a la herida se observaron el año siguiente a la realización de la misma, en dirección axial, para las distancias más próximas al límite de la herida y para los métodos de resinación en sentido ascendente. Además, se ha constatado que como consecuencia de las heridas de resinación se produjeron cambios en la anatomía del xilema en zonas alejadas de la herida, tanto en el año de la herida como años posteriores. Es decir, se observó una respuesta sistémica del árbol. Respecto al papel del clima como regulador de la respuesta del árbol, se ha evidenciado que la temperatura, la radiación y la ETP influyeron en la producción de resina, no solo durante la campaña de resinación, sino también durante los meses anteriores. El déficit hídrico favoreció la producción y la formación de canales axiales pero, a partir de un determinado umbral, esa relación se invirtió y las lluvias estivales incrementaron la producción. Algunas de estas variables climáticas se asociaron a cambios en el tamaño y frecuencia de las estructuras secretoras, las cuales posiblemente modulan la respuesta defensiva de la planta. La dendrometría del árbol (evaluada a través del diámetro normal, altura y porcentaje de copa viva), la densidad de la masa y el tipo de suelo influyeron en el potencial de producción de resina de P. pinaster. Árboles más vigorosos, parcelas con menores densidades y suelos con más capacidad para la retención de agua y nutrientes presentaron producciones mayores. Estos trabajos se complementan en anexos con una caracterización del sistema socio-ecológico del pinar en resinación. En ese trabajo se identifican sus potenciales servicios ecosistémicos y se evalúa su grado de vinculación con el aprovechamiento resinero con objeto de valorar su funcionalidad y aproximar una valoración económica de modo que sea posible apreciar la importancia económica de los mismos. Para concluir, podemos resaltar que son necesarios más trabajos de carácter científico para avanzar en la comprensión de los procesos anatómicos y fisiológicos que regulan la secreción de resina en P. pinaster y sus interacciones con el medio. Esto permitiría avances certeros hacia el desarrollo de métodos de extracción más eficaces, una selvicultura óptima, el reconocimiento de los beneficios socio-ecológicos y económicos del aprovechamiento y, de manera general, una bibliografía amplia y fiable para la consulta y desarrollo de futuras mejoras que posibiliten la reactivación y conservación de la resinación como aprovechamiento rentable. ABSTRACT Pinus pinaster Ait. is the most widespread conifer in Spain and is now the only species tapped for its oleoresin. External induction of resin secretion, based on the defense system of Pinus trees, has been performed by humans since Classical times through various methods. The socio-economic implication of this practice in Spain justifies a new approach to improve tapping methodology and understand the effects of this activity on the tree. In the last five years, sharp increases in the price of natural resins, accompanied by technological advances directed toward mechanization, have made resin tapping a strategic activity for rural development and forest conservation. The resin industry demands more efficient tapping methods and forest management plans as a way to increase competitiveness in a global market. In this way, this work focuses on the study of the defense system of P. pinaster, with the aim to understand the effects of anatomical and physiological characteristics and environmental conditions on resin yield. The relationships between anatomical variables -with special focus on resin canals-, dendrometric and dasometric variables, and resin yield will be evaluated (objective 1). The tapping wound effects (objective 2) and the intra- and inter-annual variability of climate conditions and soil water availability influence (objective 3) on resin yield will be also studied. The plant and soil material and the resin yield and climatic data used in this thesis have been collected in stands of three public forests of P. pinaster; Armuña, Melque de Cercos and Nieva, located in Segovia (Central Spain). Trees were tapped using two different methods: mechanized or traditional tool, in both upwards and downwards direction. Twenty-six tapped trees of contrasting resin yield classes and twelve non-tapped (control) trees, growing in two locations (Armuña y Melque de Cercos) with the same climate but different stand density and soil characteristics, were selected for studying the role of tree size, xylem anatomy at distal parts aside from the tapping wound (objective 1) and climate influence (objective 3) on resin yield. Concerning the tree defenses induced by the tapping wound (objective 2), the xylem of eight trees, tapped with the two described methods in both upwards and downwards direction, were analyzed. From each tapped tree, eight cores were collected at different locations and varying distances from the tapping wound. In each core, a histological analysis was made. Growth ring width, earlywood and latewood width, and axial canal frequency, area, mean size and location were measured. The effect of the tapping method on resin yield was assessed in 561 P. pinaster tapped trees in a stand in Nieva. In tissues not affected by the tapping wound, the frequency of radial resin canals and the total volume of resin canals were related to resin yield. The frequency of radial canals and the resin yield were strongly related to tree diameter and percentage of live crown. High area of axial resin canals per mm2 was related to high yielding trees, but only in the location with higher plant density and poorer soil quality. In tapped trees, an increase in axial canal frequency and area was found during the three years following the start of tapping activity, suggesting that canal formation is a systemic induced response to wounding. The highest mean annual resin yield was found using the traditional tool in upwards direction, which also induced the highest increase in axial canal frequency and area. The lowest yield was found for mechanized tapping, which showed no differences between the upwards and downwards directions. The strongest induction of systemic induced responses in terms of resin canal frequency and area was detected one year after tapping for upwards tapping. This suggests the involvement of signaling processes that spread mainly upwards, and the importance of adaptive processes as a defense against periodic insect attacks. Intra-annual variation in resin yield was strongly correlated with temperature, solar radiation, potential evapotranspiration and soil water deficit. Inter-annual variation in resin yield and resin canal abundance were correlated with temperature and water deficit in spring, but above a certain threshold of cumulated water deficit in summer rainfall favored resin yield. Under adverse climate scenarios where resource optimization is desirable, a reduced tapping season during the warmest months (June–September) would be advisable, assuming a very small production loss relative to traditional tapping season. Similarly, in years with a rainy summer and/or dry spring, a slightly longer tapping season could be suggested, as resin yield increases after these events. Tree diameter and percentage of live crown, and radial resin canal frequency could be useful criteria for estimating resin yields in P. pinaster. Vigorous trees in lower density stands and growing up in good quality soils will be the most productive. These conclusions could be applied to improve tapping management and breeding programs. These works are complemented with socio-ecological characterization, the identification of the main ecosystem services and an assessment of the possible economic impact derived from the tapping practice. To conclude, more scientific studies are necessary for understanding the anatomical and physiological processes behind resin synthesis and their interactions with the environment. This would afford further progresses towards an extensive and reliable bibliography and improved tapping methods and optimal selvicultural guide lines.
Resumo:
En este proyecto se ha realizado el estudio del campo acústico de un estudio de grabación, en concreto el estudio de grabación “Sadman”, situado en Madrid. El estudio viene motivado por una serie de problemas de resonancia en frecuencias graves de la sala de control del estudio, lo cual genera algunas alteraciones desagradables cuando se realiza una escucha por el sistema de altavoces en dicha sala. Además de estudiar este problema, se han estudiado otros parámetros acústicos para poder plantear, si fuese necesario, posibles mejoras que faciliten las labores que se realizan en la sala. Para realizar tanto el estudio del campo acústico de la sala como su modelado se han utilizado herramientas tales como AutoCAD, Ease, Dirac y Spectraplus. Palabras clave: Acústica, modos de vibración, frecuencia, resonancia, Dirac, Ease, AutoCAD, Spectraplus, absorbente, difusor. ABSTRACT. The present project is aimed to study the acoustics of a recording studio. A report on "Sadman Studios" located in Madrid. The investigation was made due to a low frequency vibration problem on the control room that generated undesirable acoustic disturbances when the main monitoring system was running. Apart from the modal frequencies problem, several acoustic parameters have been submitted to investigation in case improvements in the acoustic field needed to be implemented, if required. System tools like AutoCAD, Ease, Dirac and Spectraplus were used to properly understand and reflect the issues we were faced with under the investigation of the within matter.
Resumo:
La perspectiva del arquitecto en calidad ambiental, y salud en un contexto sostenible, se amplía al considerar las radiaciones electromagnéticas no ionizantes en el diseño arquitectónico. En ese sentido, además del confort higrotérmico, acústico, lumínico y de la calidad del aire, se podría considerar el confort electromagnético de un lugar. Dado que existe gran controversia en cuales han de ser los límites de exposición a radiaciones electromagnéticas no ionizantes, establezco como punto de referencia los valores límite más restrictivos, que son los recomendados por la norma SBM-2008, desarrollada por el Institut für Baubiologie & Oekologie Neubeuern (IBN)1. Se plantean como hipótesis que podemos modificar el entorno electromagnético con materiales de construcción y geometría; y que determinados trazados geométricos tienen la capacidad de reducir el impacto de los campos electromagnéticos sobre los organismos vivos. El objetivo consiste en demostrar experimentalmente que podemos trabajar sobre la calidad ambiental electromagnética de un espacio, a través de la elección de materiales de construcción y trazados geométricos, intentando demostrar que existe una relación causa - efecto entre ambos. La metodología plantea tres aproximaciones experimentales, cada una con un tipo de radiación electromagnética, pues se pretende abarcar las situaciones que comúnmente se pueden presentar en un entorno habitado, ya sea urbano o rural. La primera aproximación trata sobre las alteraciones del campo geomagnético natural (nT / m) provocadas por los materiales de construcción. Utilizo el geomagnetómetro BPM 2010, para realizar un ensayo con cuatro tipos de materiales de distinta procedencia: origen vegetal muy poco procesado (corcho aglomerado negro) y más procesado (OSB), origen derivado del petróleo (tablero rígido de poliuretano) y de origen mineral metálico (chapa minionda). De la lectura de los datos se observa relación causa-efecto entre los materiales de construcción estudiados y las modificaciones que pueden ejercer sobre el campo magnético de un lugar. A continuación se estudia el entorno de radiación electromagnética artificial a baja frecuencia (3 Hz a 3 kHz) y a alta frecuencia, (800 MHz a 10 GHz) en vivienda y en oficina utilizando unas geometrías concretas: las tarjetas de corrección de radiaciones. Estas tarjetas se ubican en paramentos verticales y horizontales de un espacio sometido a radiación propia de un entorno urbano. Se concluye que en una habitación inciden múltiples variables simultáneas muy difíciles de trabajar por separado y que aparentemente no se pueden identificar cambios significativos en las mediciones con y sin las tarjetas de corrección de radiaciones. A continuación estudio el entorno de radiación electromagnética artificial a baja frecuencia asociada a la red de distribución eléctrica. Para poder ver cómo este entorno electromagnético lo podemos modificar, utilizo las tarjetas de corrección de radiaciones ubicadas en relación directa con organismos vivos, por un lado germinados de semillas de haba mungo sometidas a campos electromagnéticos complejos a alta y baja frecuencia, propios de una oficina; y por otro lado germinados de semillas de haba mungo, sometidas a campos electromagnéticos puros a 50 Hz, sin influencias de radiación a alta frecuencia. Se concluye que se observa relación causa - efecto entre los trazados geométricos estudiados y su capacidad para reducir el impacto de los campos electromagnéticos a altas y bajas frecuencias sobre las semillas de haba mungo. También utilizo las tarjetas de corrección de radiaciones en un ensayo normalizado en el laboratorio de bioelectromagnetismo del Hospital Universitario Ramón y Cajal, con células de neuroblastoma humano. Se concluye que se observa relación causa - efecto entre los trazados geométricos estudiados y su capacidad para reducir el impacto de los campos electromagnéticos de 50 Hz Y 100 μT sobre células de neuroblastoma humano y además disminuyen la velocidad de proliferación celular respecto del grupo de células de control. Finalmente se estudia el entorno de radiación electromagnética artificial a alta frecuencia, asociado a comunicaciones inalámbricas. Para ello realizo simulaciones con el software CST Studio, sobre las tarjetas de corrección de radiaciones a alta frecuencia. A la luz de los datos se observa relación causa - efecto entre el trazado geométrico estudiado y su capacidad para reducir radiaciones electromagnéticas de alta frecuencia. Se comprueba además que, las tarjetas de corrección de radiaciones disminuyen la intensidad de la radiación acercándose a los límites de exposición establecidos por el instituto de la biología de la construcción alemán, que podrían estar señalando los estándares de biocompatibilidad. ABSTRACT The perspective of the architect in environmental quality, and health in a sustainable context is extended to consider non-ionizing electromagnetic radiation in architectural design. In that sense, besides the hygrothermal, acoustic, lighting and air quality comfort, the electromagnetic comfort of an indoor space could be considered. There is still great controversy about which should be the limits of exposure to nonionizing electromagnetic radiation, as a benchmark, the more restrictive limits are considered, by the SBM- 2008 standard, developed by the Institut für Baubiologie & Oekologie Neubeuern (IBN). The hypotheses that arise are the following: the electromagnetic environment can be modified by using certain construction materials and geometry; and certain geometric design have the ability to reduce the impact of electromagnetic fields on living organisms. The aim is to demonstrate experimentally that we can work on electromagnetic environmental quality of a indoor space, by using certain construction materials and geometric design, trying to demonstrate a cause - effect relationship between them. The methodology raises three experimental approaches, each with a type of radiation, it is intend to cover situations commonly may occur in an inhabited environment, whether urban or rural. The first approach discusses the alteration of the natural magnetic field (nT / m) caused by the building materials. Geomagnetometre BPM 2010 is used for conducting a test with four types of materials from different sources: vegetable origin less processing (black agglomerate cork) and vegetable origin more processed (OSB), petroleum origin (rigid polyurethane board) and metallic origin (miniwave plate). It is observed across the data information that exist cause-effect relationship between the construction materials studied and the modifications that they can exercise on the magnetic field of a place. Then I study the environment of artificial electromagnetic radiation at low frequency (3 Hz to 3 kHz) and high frequency (800 MHz to 10 GHz) in housing and office, using some specific geometries: correcting radiation cards. These cards are placed in vertical and horizontal surfaces of an indoor space concerned by radiation. I conclude that an indoor space is affected by multiple simultaneous variables difficult to work separately and apparently it is not possible identify significant changes in measurements with and without correcting radiation cards. Then the artificial electromagnetic environment of low-frequency radiation associated with the electricity distribution network is studied. To see how the electromagnetic environment can be changed, correcting radiation cards are placed directly related to living organisms. On one hand, mung bean seeds subject to complex electromagnetic fields at low and high frequency, typical of an office; and on the other hand mung bean seeds, subjected to pure electromagnetic fields at 50 Hz, no influenced by high frequency radiation. It is observed that exist cause-effect relationship between the geometric design and their ability to reduce the impact of electromagnetic fields at high and low frequencies that arrives on on mung bean seeds. The correcting radiation cards were also used in a standard test in the bioelectromagnetics laboratory of Ramón y Cajal University Hospital, on human neuroblastoma cells. It is observed that exist cause-effect relationship between the geometric design and their ability to reduce the impact of electromagnetic fields at 50 Hz and 100 μT on human neuroblastoma cells and also decrease the rate of cell proliferation compared to the group of cells control. Finally the artificial electromagnetic radiation environment at high frequency associated with wireless communications was studied. Simulations with CST Study software were made to determine the behavior of correcting radiation cards in high-frequency. It is observed across the data information that exist causeeffect relationship between the geometric design and the ability to reduce the levels of high-frequency electromagnetic radiation. It also checks that radiation correcting cards decrease the intensity of radiation approaching exposure limits established by Institut für Baubiologie & Oekologie Neubeuern (IBN), which could be signaling biocompatibility standards.
Resumo:
El viaje mental en el tiempo (VMT) es la capacidad de proyectarse mentalmente hacia atrás o hacia adelante en el tiempo, con el fin de recordar eventos del pasado personal o imaginar eventos del futuro personal. Esta investigación se centra en el aspecto orientado hacia el futuro del VMT conocido como pensamiento episódico futuro (PEF). El PEF implica un proceso complejo y exigente ejecutivamente, que es necesario para la recombinación de detalles extraídos de la memoria en un evento nuevo y coherente. Consecuentemente y basándonos en una revisión analítica de la literatura, en este estudio conceptualizamos el PEF como un proceso de construcción asociativa autobiográfica, para el que serían necesarias operaciones autorreferenciales, de asociación o integración (binding), de recombinación y control atencional de la información. De esta forma, el PEF dependería de la recuperación de elementos discretos de la memoria de ítem, que serían integrados entre sí del modo binding inter-ítem y su asociación con información contextual espacio-temporal, extraída de la memoria fuente para formar bindings ítem-contexto. A lo que habría que añadir un tipo de binding semántico subyacente, que enlace esta información episódica con conocimiento semántico-conceptual para guiar la recombinación, el binding ítem-contexto episódico, y explique la novedad y la coherencia de los eventos futuros resultantes. Así, la hipótesis investigada en este estudio fue que el PEF dependería especialmente de un sistema de memoria autobiográfica jerárquicamente organizada, y unos procesos de control relacionados con la memora de trabajo, lo que posibilitaría un binding relacional jerárquico tanto de información semántica como episódica a través de distintas estructuras de información, que resumirían el conocimiento autobiográfico de forma poblacional en los niveles más altos de la jerarquía. Con el fin de estudiar el PEF, se desarrolló un nuevo marco metodológico, el paradigma experimental de integración prospectiva autobiográfica. Dicho marco consistió en un estudio piloto de dos fases, seguido de una secuencia experimental. Para el primer estudio piloto se desarrolló un cuestionario online, el cual se aplicó a una muestra de 112 adultos jóvenes sanos, a los que se pidió valorar Eventos autobiográficos pasados significativos en función de su frecuencia y vividez. Algunos de esos Eventos se utilizaron a continuación para realizar un segundo estudio piloto, para el que se desarrolló un nuevo cuestionario online, el cual se aplicó a una muestra nueva de 51 adultos jóvenes sanos, a los que se pidió que proporcionaran Detalles (Contexto Espacial, Contexto Temporal y Elementos) de los Eventos previamente identificados y que valorasen los Elementos según las mismas propiedades descritas anteriormente. Esta base de datos, que contiene la experiencia autobiográfica colectiva, se utilizó para desarrollar una nueva tarea de aplicación web que se utilizó en la secuencia experimental...