18 resultados para Agentes de cambio y bolsa

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente trabajo se centra en la elaboración de un estudio y análisis de una red de suministros, con el objetivo de reducir el stock de producto terminado y hacer una propuesta de rediseño de la red de abastecimiento y distribución. Los principales agentes implicados en el proyecto son la empresa Aguabuena1, matriz española de la multinacional Goodwater¹, SERTEC¹, la empresa de servicio técnico oficial de Aguabuena y principal agente implicado en el proyecto, y las 24 empresas de servicio técnico, EST’s, que trabajan con contratos de exclusividad para SERTEC en todo el territorio nacional, así como los proveedores de los equipos de filtrado de agua y los clientes. La actual red de suministros presenta evidentes deficiencias. Los problemas de abastecimiento que existen no permiten, por un lado, respetar los contratos de nivel de servicio establecidos entre SERTEC y los clientes y por otro, multiplican el número de traslados de material entre almacenes para satisfacer la demanda (estos almacenes están controlados y gestionados por las diferentes empresas de servicio técnico). Los traslados conllevan una gran dispersión del stock, en hasta 40 localizaciones en todo el territorio, y suponen unos costes de transporte elevados entre los puntos de origen, los almacenes de producto terminado donde se localiza el equipo de filtrado, y los puntos de destino donde se instalará el producto. Además el gran volumen de stock conlleva una inversión en equipos muy elevada y supone asumir un coste financiero excesivo para la organización. Con la elaboración del presente proyecto se pretende reducir el número de localizaciones con stock dentro del territorio nacional, a través del rediseño de la red de suministro, con una propuesta que se adapte a las necesidades de los clientes y agentes implicados. Antes de describir las nuevas propuestas de red de abastecimiento fue necesario conocer el coste y características de la red de distribución actual, con el fin de obtener un modelo con el que comparar las nuevas propuestas posibles a implementar. Por ello se realizó un análisis profundo de la operativa, características y costes del modelo logístico o red que se tiene implementada en la actualidad en el sistema. Este análisis permitió además dar a conocer el coste logístico que supone la actual red de abastecimiento que era, en líneas generales, desconocido para SERTEC, Aguabuena y las 24 EST’s. En esta etapa de análisis de la situación y del sistema logístico actual fue necesaria la recopilación de información al respecto: datos de demanda, datos de stock, datos de cobertura, maestro de materiales, almacenes, costes de transporte², almacenaje², expedición², preparación2… con el objetivo de evaluar el sistema logístico actual y tener unos baremos con los que estimar los costes de las propuestas futuras de red de abastecimiento. Una vez analizado el sistema actual, se identificaron oportunidades de mejora del mismo y se inició una nueva fase de diseño de propuestas de red para la distribución. La metodología seguida para la propuesta de escenarios de red fue la siguiente: En una primera etapa se realizó una sesión de trabajo con diferentes participantes que, a través de la técnica de brainstorming, realizaron una serie de propuestas de red. Estas propuestas de red fueron recogidas y evaluadas inicialmente aceptándose algunas de ellas para su valoración cualitativa específica. La segunda etapa consistió en la valoración cualitativa, que se realizó conforme a unos criterios establecidos y consensuados entre los participantes en la sesión de propuestas anterior. Se ponderó cada uno de los criterios y se resumió la valoración de cada escenario de red a través de medias ponderadas. Los escenarios o propuestas con mejor valoración pasaron a la tercera etapa del proceso; la etapa de análisis cuantitativo. En esta etapa se definieron y evaluaron de forma explícita los costes logísticos y financieros que conllevaba cada una de las propuestas de escenario de red. Para ello se establecieron algunas hipótesis de simplificación y cálculo en cada una de las propuestas, y se construyeron las cadenas de costes completas del proceso de distribución, desde la salida del producto desde el proveedor, hasta su instalación final en el punto de destino. Estas cadenas reflejan los costes imputables en el proceso de distribución, su valor y responsable y permiten tener una visión general y resumida de la propuesta de red logística. Entre las hipótesis de simplificación en las propuestas de escenario destaca la elaboración de un modelo de programación lineal que minimiza el coste de transporte desde n localizaciones con stock, especificadas de antemano, a todas las provincias del territorio nacional para diferentes tipologías de envío entre origen y destino. Una vez evaluadas las diferentes propuestas de escenario de red de forma cualitativa y cuantitativa se compararon las valoraciones de cada una de las propuestas y se procedió a señalar una o varias propuestas de posible implementación futura. Finalmente, para estas propuestas de implementación se realizó un estudio previo de riesgos y los impactos previstos para cada riesgo identificado, así como un análisis inicial del impacto ambiental que supondrían las propuestas de red a implementar. Los resultados obtenidos en el desarrollo del presente proyecto fueron los siguientes: Como conclusión de los análisis previos, se definieron 3 posibles escenarios de red a implementar en un futuro. Cada uno de los cuales cumple los requisitos y objetivos que se pretendían alcanzar al inicio del proyecto además de adecuarse a los requisitos iniciales establecidos y los acuerdos de nivel de servicio vigentes. Estos escenarios se denominaron C.1, C.2, y D.2 correspondientes con la nomenclatura que se fue dando a los diferentes escenarios en su etapa de proposición. - El escenario C.1 conlleva, según el estudio realizado, una reducción de localizaciones con stock de 40 a 1, con una reducción del volumen de stock del 84% y un aumento del coste logístico del 40% respecto a la situación actual. - El escenario C.2 conlleva, según el estudio realizado, una reducción de localizaciones con stock de 40 a 9, con una reducción del volumen de stock del 63% y un aumento del coste logístico del 5% respecto a la situación actual. - El escenario D.2 conlleva, según el estudio realizado, una reducción de localizaciones con stock de 40 a 16, con una reducción del volumen de stock del 42% y una reducción del coste logístico del 24% respecto a la situación actual. Los resultados obtenidos del proyecto estaban en consonancia con los objetivos propuestos y las metas a alcanzar en el inicio del mismo. Las conclusiones y recomendaciones derivadas de la realización de este proyecto se resumen en los siguientes puntos: - El rediseño de las redes de abastecimiento y distribución es un proceso complejo que engloba la integración y coordinación de numerosos agentes, procesos, y actividades. Es necesaria una atención especial y un enfoque claro en la visión de conjunto y coherencia que deben tener estos procesos de rediseño. - Las herramientas de análisis tales como la Programación Lineal o la simulación por ordenador de redes logísticas, así como los fundamentos estadísticos relativos a las distribuciones de probabilidad, simulación y valoración suponen una potente ayuda a la hora de caracterizar y rediseñar sistemas logísticos. - Las oportunidades de mejora operativa y económica en las organizaciones, derivadas del desarrollo de soluciones específicas adaptadas a las necesidades y características particulares de cada cadena de suministro, permiten obtener una ventaja competitiva y facilitan la mejora continua en aquellas organizaciones dispuestas al cambio y adaptación como pilares del crecimiento empresarial sostenible.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Si existe un denominador común en la contemporaneidad este tiene que ver con el cambio y la transitoriedad. Surfeamos en las olas de una sociedad siempre cambiante incierta y cada vez más imprevisible. La postmodernidad ha devenido en un tiempo sin certezas, el habitante de la sociedad de la transitoriedad desconoce la previsión de futuro. Ante la ausencia de certidumbres, los individuos están obligados a concatenar proyectos episódicos a corto plazo. Este modo de vida fragmentada requiere una gran capacidad de adaptación y flexibilidad para poder sobrevivir en condiciones de incertidumbre endémicas. Por esa razón, la construcción de cualquier situación en términos intelectuales y metodológicos a cualquier escala, requiere una nueva visión, no sólo en términos de espacio, sino fundamentalmente, de tiempo. La presente tesis no pretende plantear el problema desde el punto de vista filosófico, aunque inevitablemente tendrá que referirse a pensadores y científicos utilizados desde la arquitectura. En esta línea, se hace necesario preguntarse como el arquitecto puede operar con esta incertidumbre, en otras palabras: ¿Existe un potencial para el arquitecto en la inestabilidad y el cambio constante del contexto urbano, social y económico? ¿Y si es así, cómo se opera con esta incertidumbre? La inestabilidad de todo el contexto social, político, cultural y económico en el que la arquitectura tiene lugar hoy, hace imprescindible analizar las herramientas y protocolos de proyecto. La tesis tratará, como su título indica, sobre algunas de las estrategias que frente a los postulados del Movimiento Moderno, aparecen entre 1961 y 1978, y reformuladas bajo el prisma de la contemporaneidad, pueden constituir herramientas que hoy resulta pertinente analizar, desde un punto de vista crítico pero también pragmático, en el marco de inestabilidad en el que se desarrolla la disciplina arquitectónica, a estas metodologías las denominaremos Estrategias de Incertidumbre. Por definición, la arquitectura ha operado históricamente, entre el presente conocido y el futuro incierto. Y aunque en la segunda mitad del siglo XX, se produce un cambio significativo en la manera de aproximarse a los cambios futuros de programa o de uso, en la vida útil de los edificios, operando con el cambio y la indeterminación como herramientas de proyecto, lo que es probablemente nuevo hoy, es la inestabilidad de todo el contexto social, político, cultural y económico en el que se genera la arquitectura. La presente tesis analiza una serie de estrategias que han incorporado la incertidumbre como ingrediente activo en la elaboración del proyecto arquitectónico, hasta el punto de redefinir completamente la disciplina. La primera hipótesis plantea el diseño de la anticipación como respuesta a la incertidumbre, a través de la introducción de la flexibilidad programática en el proyecto, para generar estructuras capaces de asimilar los futuros cambios. En ese sentido se buscará la indeterminación del proyecto para dejar abierto su uso. A la vez, la introducción activa del factor tiempo transforma el rol del arquitecto, que pasa a ser un gestor interdisciplinar en la generación del proyecto abierto. La segunda hipótesis plantea el papel productivo de la incertidumbre dentro del proceso creativo, buscando deliberadamente la generación de oportunidades dentro del proceso de proyecto, fomentando la observación y descubrimiento frente al diseño y la definición, manejando tiempo, crecimiento y azar como variables proyectuales, entendiendo la obra como proceso de tal manera que lo inesperado pueda aparecer. Para acometer la investigación, en relación al modelo canónico del Movimiento Moderno, se analizan nuevos modelos surgidos en los 60 en distintos contextos, alineados entre otros, con los protocolos de John Cage y sus secuencias randomizadas o la cibernética, fundamentalmente a partir de 1961, año en el que se publican dos textos, Theory and Design in the First Machine Age de Reyner Banham y An approach to Cybernetics de Gordon Pask. El pensamiento sistémico de Gordon Pask – colaborador de Price en el Fun Palace - tendrá gran influencia en la formulación del concepto de Incertidumbre Calculada, enunciado y planteado como estrategia por Cedric Price, que incorpora, a partir de ese momento, protocolos de diseño propios de la cibernética, en proyectos como el Fun Palace y Potteries Thinkbelt a principios de los años 60. En ellos, el arquitecto, desde la toma de conciencia de la caducidad de los paradigmas clásicos heredados de los principales teóricos de la modernidad, entiende que el proyecto de arquitectura debe incorporar cierto grado de indeterminación para dar cabida a las incertidumbres del programa, introducir la obsolescencia programada o verificar el potencial de la incertidumbre en la sociedad postindustrial. Estos planteamientos tienen continuidad en la figura de un joven profesor llegado en 1970 a la Architectural Association de Londres, el arquitecto suizo Bernard Tschumi. Los programas académicos desarrollados por Tschumi en Londres de 1970 a 1975 - en los que combina el activismo político, las acciones urbanas inspiradas en Lefebvre y Debord y las técnicas del performance juegan un rol crucial en la formalización del discurso y la práctica arquitectónica a partir de los años 70 y suponen el paso de un modelo directo, transitivo, a un modelo operativo, donde la conducta y los objetivos no se establecen a priori, sino que se instalan en el interior de los procesos, ampliando un campo disciplinar, que a partir de ese momento se centrará en lo performativo. Tras estos proyectos, analizaremos su llegada a Nueva York en 1978, año en que presenta los Manhattan Transcripts y se publica Delirious New York, obras que sustituirán la cultura del espacio y la forma, por la capacidad de acción del programa a partir de su modificación dimensional y relacional. Este capítulo tendrá su epílogo en el Concurso Internacional de La Villette en 1982, en las propuetas de Tschumi, Koolhaas y Price, donde la indeterminación estará presente mediante la generación de paisajes perceptivos y programáticos cambiantes. Tras los dos capítulos centrales, el capítulo final Estrategias de Incertidumbre, que da título a la Tesis, recapitulará las estrategias analizadas a través de tres proyectos contemporáneos, proyectando otras tantas ventanas para futuras investigaciones.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente comunicación tiene como objetivo analizar las diferentes condiciones que son necesarias para que se produzca el aprendizaje dentro de entornos de trabajo de estructura no convencional. Para ello, utilizamos como ejemplos los Colectivos de arquitectura tan prolíficos en estas últimas décadas. La palabra “Colectivo” está sometida a un fuerte debate ya que su definición acaba siempre siendo difusa... ¿es un colectivo una agrupación de 4 personas? ¿es una cuestión de número, de posicionamiento o de metodología de trabajo?. La Confianza Generalmente las comunidades de aprendizaje están formadas por personas que se comprometen en un proceso de aprendizaje colectivo a través de un entorno que permite la producción de fricciones para compartir el conocimiento. En la teoría para la creación del conocimiento de Nonaka & Konno (1998), se introduce el concepto japonés de “ba” que traducido significa “lugar”, como un espacio compartido donde se produce la gestión del conocimiento. Explica como el conocimiento se adquiere a través de la experiencia de uno mismo y del reflejo que deja la de otros. Para que esto ocurra el “ba” requiere que los individuos eliminen barreras entre unos y otros en una atmosfera que enfatice “cuidado, amor, confianza y compromiso”. A esto Kolb and Kolb (2005) añaden que para mantener este espacio es necesaria una estructura de soporte en la que los miembros puedan confiar, y en el que se comprendan sus diferencias a través de la conversación. La confianza, la comunicación y la afectividad son elementos imprescindibles en una estructura de trabajo en colectivo. Esto da lugar a una falta de protocolos de actuación a la hora de introducir nuevos miembros en el grupo. Las condiciones necesarias para incorporarse en estas estructuras difieren mucho de un colectivo a otro. En algunos casos esta anexión se produce exclusivamente por criterios de índole profesional, en otras ocasiones son vínculos afectivos ligados a la amistad o empatía personal lo que las inducen e incluso hay casos donde el puro azar por necesidades diversas conlleva a la exitosa incorporación de un nuevo miembro. Este punto es uno de los que mejor evidencia la diferencia entre estos espacios de aprendizaje y los espacios de Coworking y Networking, en los cuales aunque se establecen relaciones profesionales, los niveles de sinergias y de aprendizaje son muy inferiores. La identidad Las “Community of practices” (Cop) son consideradas como un tipo de comunidad de aprendizaje (Lave & Wenger, 1991, Wenger, 1998, Wenger et al. 2002) que explica e ilustra los desafíos que estas comunidades presentan. Generalmente, se describen como un grupo de gente conectada por un interés común y que definen sus identidades a través del rol que tienen y de la relación que comparten con la actividad del grupo. En el caso de los colectivos de arquitectura estos conceptos se presenta de formas diferentes. Existen colectivos en los que se desvincula completamente la identidad personal de la identidad grupal, prevaleciendo esta última y configurándose a través de los intereses y objetivos comunes. Sin embargo otros colectivos defienden fuertemente la identidad personal y profesional de cada individuo que lo forma y el interés común se reduce a la necesidad de compartir experiencias y establecer sinergias. Por otro lado, Li et al (2009) muestra como las “Community of practices” (Cop) tienen una falta de consistencia en la interpretación de su concepto que hace difícil el describir, desarrollar y medir su efectividad. En los entornos de colectivos es común describirse a través del "hacer", entendiendo esto no como un hándicap sino como una manera de permanecer abiertos a reinventarse con cada nuevo proyecto. Grupos Abiertos o Cerrados Una comunidad puede existir en el tiempo a pesar de que cambien sus participantes. (Lave & Wenger, 1991, Wenger, 1998, Wenger et al. 2002). La mayoría de los colectivos que conocemos empiezan a trabajar como estructuras abiertas, con un número difuso de integrantes y con grandes diferencias de compromiso entre los miembros. Sin embargo, con el paso de los años y la evolución de la estructura se producen dos situaciones opuestas: 1. Colectivos que se consolidan y se cierran, formados por individuos con una implicación total en la estructura de trabajo y unos objetivos comunes. En estos casos el número de integrantes suele ser reducido o haber disminuido desde su formación y al producirse una especialización de los roles de trabajo entre los diferentes miembros, los entornos de aprendizaje se amplían a la interactuación puntual con personas ajenas al colectivo. Estos aprendizajes están en cierto modo dirigidos y también son más eficaces porque se eligen a priori los agentes externos con los que relacionarse e intercambiar conocimientos, sean estos profesionales de otras disciplinas u otros colectivos. Otra forma de interactuación suele ser a través de talleres o actividades públicas con participación ciudadana. Lo cual produce el acercamiento a otros agentes sociales, abriendo y enriqueciendo la propia disciplina. 2. En el otro extremo están los colectivos que mantienen una estructura abierta en el tiempo, provocando un aumento constante del número de miembros y un amplio abanico de niveles de implicación. En estos casos no existe un objetivo común ni una metodología de trabajo predeterminada sino que se producen asociaciones puntuales y acotadas en el tiempo. De esta manera los niveles de aprendizaje se mantienen elevados dentro del propio colectivo por estar en constante cambio, lo que no implica que también se produzcan las interactuaciones mencionadas anteriormente con otros agentes. Conclusión Los colectivos de arquitectura pueden considerarse comunidades de aprendizaje con diferentes configuraciones y características comunes como la paridad, la confianza y la tendencia a establecer redes con otros grupos. Y muestran como aprendizaje y producción pueden funcionar dentro de una misma entidad. Por otro lado, su nivel de adaptabilidad a los retos reales del entorno externo que les rodea influye en la permanencia o extinción de estas estructuras de trabajo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente investigación tiene como objetivo el desarrollo de una metodología que favorezca la innovación en las empresas a través de la actividad directiva, analizando a su vez, su influencia a nivel macro, en los sistemas de innovación, en las políticas de innovación y en el capital intelectual y a nivel micro, en la innovación, en el desempeño y en el clima organizacional. Se estima importante realizar un estudio sobre este tema debido a que la innovación se considera un pilar crítico para el desarrollo social a través de la competitividad de las empresas, así como, una fuente importante de ventaja competitiva. Existe abundante literatura sobre la influencia de la innovación en la gestión empresarial y el papel que el liderazgo desempeña en términos generales. Sin embargo, la literatura presenta diversos estilos de liderazgo sin mostrar una línea consistente de interrelación entre ellos, por lo que finalmente no existe una relación sólida entre el liderazgo, la gestión empresarial y la innovación. Este hecho se debe, como se muestra en la tesis, a que la literatura analiza las organizaciones y el liderazgo desde una perspectiva sociológica u organizacional, y otra desde la perspectiva psicológica sin aportar una línea de articulación entre ambas. Es decir, la literatura analiza el comportamiento organizacional pero no su causa. A lo largo de la tesis se van desarrollando diferentes líneas de trabajo que se convierten en aportaciones empíricas y académicas. Así, una de las aportaciones de la tesis es la sustitución de la figura del líder como persona, por la de un directivo con una doble función; por un lado, la función de liderazgo cuyo objetivo es generar cambio y por el otro, la función de gestionar el día a día o desempeño. Sustituir la figura del líder por una doble funcionalidad directiva facilita la comprensión del concepto liderazgo, lo que permite a su vez, establecer estrategias para su desarrollo, haciendo una realidad el que el liderazgo puede ser aprendido. Este resultado constituye la primera aportación de la tesis. Así mismo, a través de un exhaustivo análisis de la literatura, se desarrolla una propuesta de liderazgo integrado de acuerdo con el modelo Stuart-Kotze, el cual se describe también ampliamente. Encontrar un modelo único de liderazgo supone la piedra angular para el desarrollo de la metodología. Esta propuesta de liderazgo integrado da lugar a la segunda aportación de la tesis. Del mismo modo, se realiza un estudio en profundidad de la perspectiva psicológica de las organizaciones desarrollando el constructo Miedo al Error (ME) que resulta ser un rasgo de la personalidad existente en todos los seres humanos y que presenta una influencia negativa tanto en el desempeño, como en la innovación empresarial. Este resultado permite identificar cuales son las verdaderas barreras para el ejercicio del liderazgo, señalando que la disminución del ME debe ser considerada como una competencia de la Inteligencia Emocional a ser desarrollada por los directivos. Este resultado constituye la tercera aportación de la tesis. Una vez desarrollado el modelo de gestión empresarial expuesto, se procede a su validación, analizando la relación entre los constructos que definen el modelo de gestión: el desempeño, la innovación y el ME. Para identificar las influencias o relaciones de causalidad que subyacen entre los constructos, se utilizó la técnica del modelo de ecuaciones estructurales (SEM). La población objeto de estudio estuvo constituida por 350 profesionales con responsabilidad directiva, procedentes de empresas del sector servicios repartidas por toda la geografía española. Como fuente primaria de recolección de información se utilizó el cuestionario desarrollado por Stuart-Kotze M-CPI (Momentum Continuous Performance Improvement). En primer lugar se procedió a evaluar las propiedades psicométricas del modelo de medida, llevándose a cabo un análisis factorial exploratorio (AFE) y un análisis factorial confirmatorio (AFC) de segundo orden. Los resultados obtenidos ponen de manifiesto que el constructo desempeño (D) viene determinado por dos dimensiones, (DOP), desempeño orientado hacia la planificación y (DORT), desempeño orientado hacia la realización de la tarea. Es decir, la muestra de directivos no percibe que la planificación en el día a día y la realización de la tarea estén articuladas. Posteriormente se procede a realizar el contraste del modelo a través del método de ecuaciones estructurales. Los resultados muestran que la relación de influencia de la dimensión DOP no es significativa, por lo que el constructo D queda representado únicamente por la dimensión DORT. Los resultados de la investigación proporcionan conclusiones e hipótesis para futuras investigaciones. Si bien la muestra de directivos realiza un plan estratégico, éste no se tiene en cuenta en el día a día. Este hecho podría explicar el alto grado de administración por crisis tan frecuente en la empresa española. A su vez, el ME presenta una influencia negativa en la innovación, lo que concuerda con la literatura. Al respecto, considerar el ME como un rasgo de la personalidad, presente tanto en directivos como en colaboradores, facilita la comprensión de las barreras de la organización hacia la comunicación abierta a la vez, que una dirección de trabajo para la mejora de la capacidad innovadora de la organización. Por último, los resultados establecen la existencia de una relación causal entre el desempeño diario y la innovación. Con respecto a este segundo resultado y analizando los comportamientos que identifican el constructo D surgen también varias conclusiones e hipótesis para futuras investigaciones. Los resultados ponen de manifiesto que la muestra de directivos genera iniciativas de cambio con la finalidad de que el trabajo diario salga adelante según los estándares de calidad definidos. Sin embargo, estas iniciativas sólo proceden de los directivos, sin participación alguna de los colaboradores, los cuales son sólo responsables de la implementación produciéndose la consiguiente desmotivación y pérdida de oportunidades. Esta conclusión pone de manifiesto que la innovación de las empresas de la muestra sucede para garantizar la eficiencia de los procesos existentes, pero en ningún caso surge de la iniciativa de buscar una mejor eficacia empresarial. Este hecho plantea un origen doble de la innovación en los procesos. La innovación proactiva que buscaría la mejora de la eficacia de la organización y una innovación de carácter reactiva que buscaría la salvaguarda de la eficiencia. Quizás sea esta la causa del gap existente entre la innovación en España y la innovación de los países que ocupan los primeros puestos en el ranking de producción de innovación lo que constituye un importante punto de partida para una investigación futura. ABSTRACT This research aims to develop a methodology that supports innovation in companies through the managers’ activity, analysing in turn its influence at the macro level: innovation systems, innovation policies and Intellectual capital and at the micro level: innovation itself, performance and organizational climate. It is considered important to conduct a study on this subject due to the fact that innovation is considered a critical pillar for the development and future of the enterprise and an important source of competitive advantage. There is abundant literature about the influence of innovation in business management and the role that leadership plays in general terms. However, the literature presents various styles of leadership without showing a consistent relationship among them, so finally there is not a strong relationship among leadership, business management and innovation. As shown in the thesis, this is due to the fact that the literature analyses organizations and leadership from a sociological or organizational perspective and from a psychological perspective, without providing a hinge line between the two. That is, the existing literature discusses organizational behaviour but not its cause. Throughout the thesis, different lines of work that become empirical and academic contributions have been developed. Thus, one of the contributions of the thesis is replacing the figure of the leader as a person, by a manager with a dual function. Firstly, we have the leadership role which aims to generate change and, on the other hand, the function to manage the day-to-day task or performance. Replacing the figure of the leader by a dual managerial functionality facilitates the understanding of the leadership concept, allowing in turn, to establish development strategies and making true that leadership can be learned. This outcome is the first contribution of the thesis. Likewise, through a comprehensive literature review, an integrated leadership proposal is developed, according to the Kotze model, which is also described widely. Finding a specific leadership model represents the cornerstone for the development of the methodology. This integrated leadership proposal leads to the second contribution of the thesis. Similarly, an in-depth study was conducted about the psychological perspective of the organizations disclosing the construct Fear of Failure. This construct is a personality trait that exists in all human beings and has a negative influence on both performance and business innovation. This outcome allows identifying which are the real barriers to the exercise of leadership, noting that the decrease in fear of failure must be considered as an Emotional Intelligence competence to be developed by managers. This outcome represents the third contribution of the thesis. Once a business management model has been developed, we proceed to its validation by analysing the relationship among the model constructs: management, innovation and fear of failure. To identify the influence or causal relationships underlying the constructs, a structural equation model (SEM) technique was used. The study population consisted of 350 professionals with managerial responsibility, from companies in the services sector scattered throughout the Spanish geography. As a primary source for gathering information a questionnaire developed by Kotze M-CPI (Continuous Performance Improvement Momentum) was used. First we proceeded to evaluate the psychometric properties of the measurement model, carrying out an exploratory factorial analysis (EFA) and a confirmatory factorial analysis (CFA) of second order. The results show that the performance construct D is determined by two-dimensions (DOP: performance oriented to planning) and (DORT: aiming at the realization of the task). That is, the sample of managers does not perceive that planning and the daily task are articulated. Then, we proceeded to make the contrast of the model through a structural equation model SEM. The results show that the influence of the DOP dimension is not significant, so that only the DORT dimension finally represents the construct D. The research outcomes provide conclusions and hypotheses for future research. Although the managers in the sample develop a strategic plan, it seems that managers do not take it into account in their daily tasks. This could explain the high degree of crisis management so prevalent in the Spanish companies. In turn, the fear of failure has a negative influence on innovation, consistent with the literature. In this regard, the fear of failure is considered as a personality trait, present in both managers and employees, which enables the understanding of organizational barriers to open communication and provides a direction to improve the organization’s innovative capacity as well. Finally, the results establish a causal relationship between daily performance and innovation. Regarding this second outcome and analysing the behaviours that identify the construct D, several conclusions and hypotheses for future research arise as well. The results show that the managers in the sample show initiatives of change in order to make everyday work go ahead, according to defined quality standards. However, these initiatives only come from managers without any participation of coworkers, which are only responsible for the implementation, and this produces discouragement and loss of opportunities. This finding shows that the innovation by the companies in the sample happens to guarantee the efficiency of existing processes, but do not arise from an initiative that seeks better business efficacy. This raises two sources of innovation in processes. The first source would be a proactive innovation that would seek improved organizational efficacy. The second one is a reactive innovation that would seek to safeguard efficiency. Perhaps this is the cause of the existing gap between the innovation activity in Spain and the innovation activity in those countries that occupy the top positions in the ranking of innovation outcomes. The Spanish companies seek process efficiency and the top innovators business efficacy. This is an important starting point for future research.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el trabajo se ha reflejado la génesis del término „desarrollo sostenible‟ y la preocupación social y de los gobiernos hacia la sostenibilidad de los recursos, generando una política forestal a escala internacional, cuyo hito inicial desempeña la Cumbre de Rio y otros procesos, donde surge el término „sostenibilidad‟ - procesos gubernamentales que ponen su atención en los bosques,entre ellos el Proceso paneuropeo del que emanan los Criterios e indicadores de la gestión forestal sostenible, así como otros foros donde aparece la vinculación entre los productos y la sostenibilidad de los bosques de donde proceden. A partir de esos conceptos aparecen los sistemas de certificación, primero FSC, promovido por las ONG ambientalistas, y en respuesta a ello, el sistema PEFC de los propietarios forestales privados con las industrias forestales. En su introducción, el trabajo recoge como surge y evoluciona esta preocupación y como se sucede y desarrollan los sistemas de certificación en España, orientados tanto a la superficie forestal como a sus productos derivados. Tratando de ser una herramienta técnica, en estos últimos quince años, se han ido planteando metodologías y propuestas técnicas que puedan garantizar el origen sostenible del bosque de donde procede la materia prima. Aunque la persistencia de la masa forestal como término tiene importancia, no considera numerosos aspectos incluidos en el concepto “gestión forestal sostenible”. El trabajo manifiesta qué es y cómo se origina la Gestión Forestal Sostenible y muy ligado con ello, el origen de la certificación como herramienta, explicando cómo se incardina la certificación forestal española con las estructuras internacionales y se construyen nuevas estructuras a escala española y autonómica. Se expone el dominio y alcance técnico de la certificación, sus inicios y un análisis de la diversidad de sistemas y etiquetas existentes -como ha ido evolucionando a escala internacional y nacional, por sistemas, sectores y continentes, con especial atención en España, recopilando lo sucedido relevante para el sector forestal, industrias forestales y sistemas de certificación en los años de estudio de elaboración de la tesis. Se refleja la relevancia que adquiere la certificación forestal y de la cadena de custodia para la industria del papel, tanto por las regulaciones, normativas y legislación que involucran al producto derivado del bosque como por ser herramienta que enlaza el bosque sostenible con el consumidor. La aplicación de todas esas especificaciones técnicas que muestran la sostenibilidad del bosque y al trazabilidad en el proceso productivo comporta una carga administrativa de recopilación de información, de control para el seguimiento asociado con los registros necesarios, y de archivo de documentos, conforme a las exigencias que plantean los sistemas de certificación forestal. Por tanto, es importante definir un método y procedimientos genéricos para los correspondientes sistemas de gestión preexistentes en las empresas del sector de pasta y papel (de calidad/ de medio ambiente/integrados), para implantar un Sistema de Cadena de Custodia genérico (común a FSC y PEFC) en una instalación de celulosa y papel y un sistema de diligencia debida. Para ello, ha sido necesario analizar la línea de producción y establecer los puntos de su diagrama en los que se requiere el control de la trazabilidad, puntos en los que se procede al seguimiento y registro de la materia prima, materia semielaborada y producto, y de ahí proceder a redactar o retocar los procedimientos de gestión calidad/ medioambiental, en su caso, para incluir los campos de registro. Según determinen los procedimientos, se efectuará un seguimiento y registro de los, derivados que configuran una característica y se determinará una serie de indicadores del sistema de trazabilidad de la madera en la industria de celulosa y papel, es decir, un conjunto de parámetros cuantitativos y descriptivos, sujetos al seguimiento de forma periódica, que muestren el cambio y permitan observar la evaluación y control del Sistema de Cadena de Custodia. Además de asegurar la trazabilidad de la madera y fibra en la industria de pasta y papel y con ello la sostenibilidad del bosque del que procede, se avalará la legalidad de los aprovechamientos que proporcionan ese recurso maderable, cumpliendo así no sólo la legislación vigente sino también ambos sistemas de certificación FSC y PEFC. El sistema de cadena de custodia de la pasta y papel se caracteriza por los indicadores de seguimiento que permite el control de la trazabilidad. ABSTRACT This paper traces the origins of the term „Sustainable Development‟ and of both citizen and institutional concern for the sustainability of resources, leading to the enactment of a forestry policy at international level, of which the initial milestones are the Rio Summit and other processes in which the term „Sustainability‟ was born. Those forestfocused institutional initiatives include the pan-European process that led to the publication of Sustainable Forest Management Criteria and Indicators, and other forums that highlight the link between finished wood-based products and the sustainability of the forests from which that wood is sourced. Those concepts were the culture in which forest certification systems were engendered, first FSC, promoted by environmental NGOs, and subsequently PEFC, fostered in response to FSC by private forest owners and forest-based industries. In its Introduction, this paper looks at how such concern arose and has evolved and how certification systems came into existence in Spain and developed to encompass both forest lands and forest-based products. As part of a mission to provide an applicable technical tool, new methodologies and technical proposals have been put forward over the past fifteen years aimed at guaranteeing the sustainable origin of the forest from which raw material is sourced. Although the maintenance of forest stands as a term in its own right is important, it does not take many of the aspects included in the concept of “sustainable forest management” into account. This thesis describes what SFM is and how it was born, underlying the close link between SFM and the origin of certification as a tool, explaining how Spanish forest certification is embodied in international structures, while new structures are built here in Spain on both the national and regional scale. This work also details the domain and scope of forest certification from the technical standpoint, explains its beginnings, and assesses the various systems and labels that exist - how certification has evolved internationally and nationally across systems, sectors and continents, with special emphasis on Spain. It provides a compilation of events relevant to forestry, forest industries and forest certification systems that have taken place during the years this thesis has been in preparation. It reflects on the relevance that forest and chain of custody certification holds for the paper industry, in view not only of the regulations, policies and legislation that affect forest-based products but also of its role as a tool that bonds the sustainable forest with the consumer. Implementing the range of technical specifications to demonstrate forest sustainability and traceability throughout the production process entails the administrative burden of collecting information and providing controls to process the relevant records and documents to be kept on file in compliance with the requirements made by forest certification schemes. It is therefore important to define a generic method, together with its relevant procedures,that fits the management systems (quality / environmental / integrated)existing today in pulp and paper companies, in order to implement a generic Chain of Custody scheme (common to FSC and PEFC) in a pulp and paper mill, and a due diligence system. To achieve that, it has first been necessary to analyse the production line and establish points along the route where traceabilitycontrols need to be implemented and points where raw material, semi-finished goods and end products should be monitored and recorded. Subsequently, the procedures in quality / environmental management systems need to be drafted or amended as required to include fields that reflect those records. As required by the procedures, forest-based products that have a specific characteristic shall be monitored and recorded, and a number of indicators identified in the traceability system of wood for pulp & paper, i.e.createa set of quantitative and descriptive parameters subject to regular monitoringthat reveal changes and enable the Chain of Custody system to be assessed and controlled. In addition to ensuring the traceability of wood and fibre in the pulp and paper industry -and so the sustainability of the forest from which it is sourced -, the legality of the harvesting that produces that timber will also be enhanced, thus fulfilling not only the law but also both FSC and PEFC certification schemes. The chain of custody system for pulp and paper is characterised by monitoring indicators that enable traceability to be controlled.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La región francesa de Nord-Pas-de-Calais es una zona estratégica para los inmigrantes que viajan a Reino Unido. Desde que se cerró en 2002 el centro de acogida de la Cruz Roja de Sangatte, los campamentos y concentraciones de inmigrantes se han diseminado por toda la región, especialmente a lo largo de las carreteras que unen Arras con Calais, Lille con Dunkerque y Dunkerque con Calais. Las condiciones de vida de los campamentos se caracterizan por la precariedad e insalubridad de los asentamientos (ausencia de agua potable y letrinas, falta de alojamiento y electricidad, presencia de mafias, proximidad a carreteras, etc.). Este trabajo se centra en el análisis de los seis principales campamentos de la región, es decir, los que concentran un mayor número de pobladores, los de mayor tamaño y en las localidades más próximas a las zonas de paso a las islas británicas, así como aquellos que cuentan o han contado con el apoyo de la administración pública. Este tipo de asentamientos se encuentra en constante evolución y cambio, y por ello el trabajo y la toma de datos se centran en un momento clave: en febrero de 2015, un mes antes del desmantelamiento de los campamentos de la ciudad de Calais.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se describe en profundidad el proceso de formación de precios de los productos pesqueros frescos. Se identifican los factores críticos para un proceso muy común (venta de la pescadilla en España). Se inventarían todos los factores que inciden en la formación del precio. Se estudia el proceso de comercialización pesquera, el papel de todos los actores y el futuro al que se enfrenta cada agente. España es uno de los principales mercados pesqueros del mundo, el segundo en volumen de capturas de la UE (20%) y el cuarto en consumo per-cápita del mundo, sólo superado por Japón, Estados Unidos y Portugal. La comercialización de los productos pesqueros frescos es un proceso muy complejo debido a las características del producto (vida muy corta, manipulación delicada, heterogeneidad), al gran número de agentes y flujos que intervienen o a la inestabilidad de la oferta asociada a la actividad. La formación del precio del pescado es una materia de la que se dispone de muy poca información y transparencia. Se desconoce su mecanismo tanto para expertos como para profanos del sector y externos a él. Es un proceso complejo muy poco estudiado sujeto a multitud de tópicos y realidades consumadas. Desde diversas instituciones académicas y organizaciones sectoriales se han encargado y realizado algunas iniciativas destinadas a investigar la formación del precio en puntos concretos del flujo, con una visión parcial del proceso y sus dependencias. El trabajo presentado en esta Tesis da un paso más y pretende encontrar y explicar todos los factores que intervienen en la formación del precio del pescado fresco, considerando el proceso completo, y determina las variables críticas que tienen un mayor impacto en este proceso. Para eso se estudia el proceso de comercialización de los productos pesqueros frescos extremo a extremo, desde la captura hasta la venta final al público, desde el sector extractivo al minorista, a través de las principales asociaciones y agentes del Sector y de la observación presencial del trabajo de todos los agentes que intervienen en el proceso en distintos puntos de España. Además se repasa el estado actual del Sector pesquero y comercializador en España, identificando aspectos clave de mejora en todos los ámbitos. Se describe detalladamente el proceso completo de comercialización pesquera a través de los actores que intervienen en él, enfocados hacia la identificación de todos los factores de todos los tipos que inciden en el proceso de formación de precios y la descripción de puntos débiles y problemas del Sector pesquero en conjunto. Se repasa el marco teórico general del proceso de formación de precios y se explican las particularidades existentes para el pescado fresco. Todos los factores identificados se caracterizaron con una serie de atributos que ayudan a describir mejor el proceso. A través de una herramienta informática y de los datos de un caso completo real se analizan todas las variables y se identifican las críticas que explican la formacióndel precio. Se llega a una ecuación que modeliza este fenómeno complejo a través de estos factores. En el mapa actual de la comercialización de productos pesqueros en España la gran distribución ha ganado una gran cuota de mercado, debido a los cambios sociales y a las necesidades del nuevo consumidor. El rol y las actividades de los distintos operadores van a cambiar en los próximos años para adaptarse a esta evolución del proceso. Por último se presentan una serie de conclusiones generales, asociadas al proceso de comercialización, a las estructuras de oferta, demanda, precios y se resumen los resultados obtenidos a través del proceso de identificación de variables críticas realizado. Se proporcionan los aspectos clave asociados a los problemas de la industria extractiva, y se proponen sugerencias de mejora para incrementar la competitividad del sector en todos los eslabones y mejorar el proceso comercializador.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los cambios percibidos hacia finales del siglo XX y a principios del nuevo milenio, nos ha mostrado que la crisis cultural de la que somos participes refleja también una crisis de los modelos universales. Nuestra situación contemporánea, parece indicar que ya no es posible formular un sistema estético para atribuirle una vigencia universal e intemporal más allá de su estricta eficacia puntual. La referencia organizada, delimitada, invariable y específica que ofrecía cualquier emplazamiento, en tanto preexistencia, reflejaba una jerarquía del sistema formal basado en lo extensivo: la medida, las normas, el movimiento, el tiempo, la modulación, los códigos y las reglas. Sin embargo, actualmente, algunos aspectos que permanecían latentes sobre lo construido, emergen bajo connotaciones intensivas, transgrediendo la simple manifestación visual y expresiva, para centrase en las propiedades del comportamiento de la materia y la energía como determinantes de un proceso de adaptación en el entorno. A lo largo del todo el siglo XX, el desarrollo de la relación del proyecto sobre lo construido ha sido abordado, casi en exclusiva, entre acciones de preservación o intervención. Ambas perspectivas, manifestaban esfuerzos por articular un pensamiento que diera una consistencia teórica, como soporte para la producción de la acción aditiva. No obstante, en las últimas décadas de finales de siglo, la teoría arquitectónica terminó por incluir pensamientos de otros campos que parecen contaminar la visión sesgada que nos refería lo construido. Todo este entramado conceptual previo, aglomeraba valiosos intentos por dar contenido a una teoría que pudiese ser entendida desde una sola posición argumental. Es así, que en 1979 Ignasi Solá-Morales integró todas las imprecisiones que referían una actuación sobre una arquitectura existente, bajo el termino de “intervención”, el cual fue argumentado en dos sentidos: El primero referido a cualquier tipo de actuación que se puede hacer en un edificio, desde la defensa, preservación, conservación, reutilización, y demás acciones. Se trata de un ámbito donde permanece latente el sentido de intensidad, como factor común de entendimiento de una misma acción. En segundo lugar, más restringido, la idea de intervención se erige como el acto crítico a las ideas anteriores. Ambos representan en definitiva, formas de interpretación de un nuevo discurso. “Una intervención, es tanto como intentar que el edificio vuelva a decir algo o lo diga en una determinada dirección”. A mediados de 1985, motivado por la corriente de revisión historiográfica y la preocupación del deterioro de los centros históricos que recorría toda Europa, Solá-Morales se propone reflexionar sobre “la relación” entre una intervención de nueva arquitectura y la arquitectura previamente existente. Relación condicionada estrictamente bajo consideraciones lingüísticas, a su entender, en sintonía con toda la producción arquitectónica de todo el siglo XX. Del Contraste a la Analogía, resumirá las transformaciones en la concepción discursiva de la intervención arquitectónica, como un fenómeno cambiante en función de los valores culturales, pero a su vez, mostrando una clara tendencia dialógica entres dos categorías formales: El Contraste, enfatizando las posibilidades de la novedad y la diferencia; y por otro lado la emergente Analogía, como una nueva sensibilidad de interpretación del edificio antiguo, donde la semejanza y la diversidad se manifiestan simultáneamente. El aporte reflexivo de los escritos de Solá-Morales podría ser definitivo, si en las últimas décadas antes del fin de siglo, no se hubiesen percibido ciertos cambios sobre la continuidad de la expresión lingüística que fomentaba la arquitectura, hacia una especie de hipertrofia figurativa. Entre muchos argumentos: La disolución de la consistencia compositiva y el estilo unitario, la incorporación volumétrica del proyecto como dispositivo reactivo, y el cambio de visión desde lo retrospectivo hacia lo prospectivo que sugiere la nueva conservación. En este contexto de desintegración, el proyecto, en tanto incorporación o añadido sobre un edificio construido, deja de ser considerado como un apéndice volumétrico subordinado por la reglas compositivas y formales de lo antiguo, para ser considerado como un organismo de orden reactivo, que produce en el soporte existente una alteración en su conformación estructural y sistémica. La extensión, antes espacial, se considera ahora una extensión sensorial y morfológica con la implementación de la tecnología y la hiper-información, pero a su vez, marcados por una fuerte tendencia de optimización energética en su rol operativo, ante el surgimiento del factor ecológico en la producción contemporánea. En una sociedad, como la nuestra, que se está modernizando intensamente, es difícil compartir una adecuada sintonía con las formas del pasado. Desde 1790, fecha de la primera convención francesa para la conservación de monumentos, la escala de lo que se pretende preservar es cada vez más ambiciosa, tanto es así, que al día de hoy el repertorio de lo que se conserva incluye prácticamente todas las tipologías del entorno construido. Para Koolhaas, el intervalo entre el objeto y el momento en el cual se decide su conservación se ha reducido, desde dos milenios en 1882 a unas décadas hoy en día. En breve este lapso desaparecerá, demostrando un cambio radical desde lo retrospectivo hacia lo prospectivo, es decir, que dentro de poco habrá que decidir que es lo que se conserva antes de construir. Solá-Morales, en su momento, distinguió la relación entre lo nuevo y lo antiguo, entre el contraste y la analogía. Hoy casi tres décadas después, el objetivo consiste en evaluar si el modelo de intervención arquitectónica sobre lo construido se ha mantenido desde entonces o si han aparecido nuevas formas de posicionamiento del proyecto sobre lo construido. Nuestro trabajo pretende demostrar el cambio de enfoque proyectual con la preexistencia y que éste tiene estrecha relación con la incorporación de nuevos conceptos, técnicas, herramientas y necesidades que imprimen el contexto cultural, producido por el cambio de siglo. Esta suposición nos orienta a establecer un paralelismo arquitectónico entre los modos de relación en que se manifiesta lo nuevo, entre una posición comúnmente asumida (Tópica), genérica y ortodoxa, fundamentada en lo visual y expresivo de las últimas décadas del siglo XX, y una realidad emergente (Heterotópica), extraordinaria y heterodoxa que estimula lo inmaterial y que parece emerger con creciente intensidad en el siglo XXI. Si a lo largo de todo el siglo XX, el proyecto de intervención arquitectónico, se debatía entre la continuidad y discontinuidad de las categorías formales marcadas por la expresión del edificio preexistente, la nueva intervención contemporánea, como dispositivo reactivo en el paisaje y en el territorio, demanda una absoluta continuidad, ya no visual, expresiva, ni funcional, sino una continuidad fisiológica de adaptación y cambio con la propia dinámica del territorio, bajo nuevas reglas de juego y desplegando planes y estrategias operativas (proyectivas) desde su propia lógica y contingencia. El objeto de esta investigación es determinar los nuevos modos de continuidad y las posibles lógicas de producción que se manifiestan dentro de la Intervención Arquitectónica, intentando superar lo aparente de su relación física y visual, como resultado de la incorporación del factor operativo desplegado por el nuevo dispositivo contemporáneo. Creemos que es acertado mantener la senda connotativa que marca la denominación intervención arquitectónica, por aglutinar conceptos y acercamientos teóricos previos que han ido evolucionando en el tiempo. Si bien el término adolece de mayor alcance operativo desde su formulación, una cualidad que infieren nuestras lógicas contemporáneas, podría ser la reformulación y consolidación de un concepto de intervención más idóneo con nuestros tiempos, anteponiendo un procedimiento lógico desde su propia necesidad y contingencia. Finalmente, nuestro planteamiento inicial aspira a constituir un nueva forma de reflexión que nos permita comprender las complejas implicaciones que infiere la nueva arquitectura sobre la preexistencia, motivada por las incorporación de factores externos al simple juicio formal y expresivo preponderante a finales del siglo XX. Del mismo modo, nuestro camino propuesto, como alternativa, permite proyectar posibles sendas de prospección, al considerar lo preexistente como un ámbito que abarca la totalidad del territorio con dinámicas emergentes de cambio, y con ellas, sus lógicas de intervención.Abstract The perceived changes towards the end of the XXth century and at the beginning of the new milennium have shown us that the cultural crisis in which we participate also reflects a crisis of the universal models. The difference between our contemporary situation and the typical situations of modern orthodoxy and post-modernistic fragmentation, seems to indicate that it is no longer possible to formulate a valid esthetic system, to assign a universal and eternal validity to it beyond its strictly punctual effectiveness; which is even subject to questioning because of the continuous transformations that take place in time and in the sensibility of the subject itself every time it takes over the place. The organised reference that any location offered, limited, invariable and specific, while pre-existing, reflected a hierarchy of the formal system based on the applicable: measure, standards, movement, time, modulation, codes and rules. Authors like Marshall Mc Luhan, Paul Virilio, or Marc Augé anticipated a reality where the conventional system already did not seem to respond to the new architectural requests in which information, speed, disappearance and the virtual had blurred the traditional limits of place; pre-existence did no longer possess a specific delimitation and, on the contrary, they expect to reach a global scale. Currently, some aspects that stayed latent relating to the constructed, surface from intensive connotations, transgressing the simple visual and expressive manifestation in order to focus on the traits of the behaviour of material and energy as determinants of a process of adaptation to the surroundings. Throughout the entire Century, the development of the relation of the project relating to the constructed has been addressed, almost exclusively, in preservational or interventianal actions. Both perspectives showed efforts in order to express a thought that would give a theoretical consistency as a base for the production of the additive action. Nevertheless, the last decades of the Century, architectural theory ended up including thoughts from other fields that seem to contaminate the biased vision 15 which the constructed related us. Ecology, planning, philosophy, global economy, etc, suggest new approaches to the construction of the contemporary city; but this time with a determined idea of change and continuous transformation, that enriches the panorama of thought and architectural practice, at the same time, according to some, it puts disciplinary specification at risk, given that there is no architecture without destruction, the constructed organism requires mutation in order to adjust to the change of shape. All of this previous conceptual framework gathered valuable intents to give importance to a theory that could be understood solely from an argumental position. Thusly, in 1979 Ignasi Solá-Morales integrated all of the imprecisions that referred to an action in existing architecture under the term of “Intervention”, which was explained in two ways: The first referring to any type of intervention that can be carried out in a building, regarding protection, conservation, reuse, etc. It is about a scope where the meaning of intensity stays latent as a common factor of the understanding of a single action. Secondly, more limitedly, the idea of intervention is established as the critical act to the other previous ideas such as restauration, conservation, reuse, etc. Both ultimately represent ways of interpretation of a new speech. “An intervention, is as much as trying to make the building say something again or that it be said in a certain direction”. Mid 1985, motivated by the current of historiographical revision and the concerns regarding the deterioration of historical centres that traversed Europe, Solá-Morales decides to reflect on “the relationship” between an intervention of the new architecture and the previously existing architecture. A relationship determined strictly by linguistic considerations, to his understanding, in harmony with all of the architectural production of the XXth century. From Contrast to Analogy would summarise transformations in the discursive perception of architectural intervention, as a changing phenomenon depending on cultural values, but at the same time, showing a clear dialogical tendency between two formal categories: Contrast, emphasising the possibilities of novelty and difference; and on the other hand the emerging Analogy, as a new awareness of interpretation of the ancient building, where the similarity and diversity are manifested simultaneously. For Solá-Morales the analogical procedure is not based on the visible simultaneity of formal orders, but on associations that the subject establishes throughout time. Through analogy it is tried to overcome the simple visual relationship with the antique, to focus on its spacial, physical and geographical nature. If the analogical attempt guides an opening towards a new continuity; it still persists in the connection of dimensional, typological and figurative factors, subordinate to the formal hierarchy of the preexisting subjects. 16 The reflexive contribution of Solá-Morales’ works could be final, if in the last decades before the end of the century there had not been certain changes regarding linguistic expression, encouraged by architecture, towards a kind of figurative hypertrophy, amongst many arguments we are in this case interested in three moments: The dissolution of the compositional consistency and the united style, the volumetric incorporation of the project as a reactive mechanism, and the change of the vision from retrospective towards prospective that the new conservation suggests. The recurrence to the history of architecture and its recognisable forms, as a way of perpetuating memory and establishing a reference, dissolved any instinct of compositive unity and style, provoking permanent relationships to tend to disappear. The composition and coherence lead to suppose a type of discontinuity of isolated objects in which only possible relationships could appear; no longer as an order of certain formal and compositive rules, but as a special way of setting elements in a specific work. The new globalised field required new forms of consistency between the project and the pre-existent subject, motivated amongst others by the higher pace of market evolution, increase of consumer tax and the level of information and competence between different locations; aspects which finally made stylistic consistence inefficient. In this context of disintegration, the project, in incorporation as well as added to a constructed building, stops being considered as a volumetric appendix subordinate to compositive and formal rules of old, to be considered as an organism of reactive order, that causes a change in the structural and systematic configuration of the existing foundation. The extension, previsouly spatial, is now considered a sensorial and morphological extension, with the implementation of technology and hyper-information, but at the same time, marked by a strong tendency of energetic optimization in its operational role, facing the emergence of the ecological factor in contemporary production. The technological world turns into a new nature, a nature that should be analysed from ecological terms; in other words, as an event of transition in the continuous redistribution of energy. In this area, effectiveness is not only determined by the capacity of adaptation to changing conditions, but also by its transforming capacity “expressly” in order to change an environment. In a society, like ours, that is modernising intensively, it is difficult to share an adecuate agreement with the forms of the past. From 1790, the date of the first French convention for the conservation of monuments, the scale of what is expexted to be preserved is more and more ambitious, so much so that nowadays the repertoire of that what is conserved includes practically all typologies of the constructed surroundings. For Koolhaas, the ínterval between the object and the moment when its conservation is decided has been reduced, from two 17 milennia in 1882 to a few decades nowadays. Shortly this lapse will disappear, showing a radical change of retrospective towards prospective, that is to say, that soon it will be necessary to decide what to conserve before constructing. The shapes of cities are the result of the continuous incorporation of architecture, and perhaps that only through architecture the response to the universe can be understood, the continuity of what has already been constructed. Our work is understood also within that system, modifying the field of action and leaving the road ready for the next movement of those that will follow after us. Continuity does not mean conservatism, continuity means being conscient of the transitory value of our answers to specific needs, accepting the change that we have received. That what has been constructed to remain and last, should cause future interventions to be integrated in it. It is necessary to accept continuity as a rule. Solá-Morales, in his time, distinguished between the relationship with new and old, between contrast and analogy. Today, almost three decades later, the objective consists of evaluating whether the model of architectural intervention in the constructed has been maintained since then or if new ways of positioning the project regarding the constructed have appeared. Our work claims to show the change of the approach of projects with pre-existing subjects and that this has got a close relation to the incorporation of new concepts, techniques, tools and necessities that impress the cultural context, caused by the change of centuries. This assumption guides us to establish a parallelism between the forms of connection where that what is new is manifested between a commonly assumed (topical), generic and orthodox position, based on that what is visual and expressive in the last decades of the XXth century, and an emerging (heterotopical), extraordinary and heterodox reality that stimulates the immaterial and that seems to emerge with growing intensity in the XXIst century. If throughout the XXth century the project of architectural intervention was considered from the continuity and discontinuity of formal categories, marked by the expression of the pre-existing building, the new contemporary intervention, as a reactive device in the landscape and territory, demands an absolute continuity. No longer a visual, expressive or functional one but a morphological continuity of adaptation and change with its own territorial dynamics, under new game rules and unfolding new operative (projective) strategies from its own logic and contingency. 18 The aim of this research is to determine new forms of continuity and the possible logic of production that are expressed in the Architectural Intervention, trying to overcome the obviousness of its physical and visual relationship, at the beginning of this new century, as a result of the incorporation of the operative factor that the new architectural device unfolds. We think it is correct to maintain the connotative path that marks the name architectural intervention by bringing previous concepts and theorical approaches that have been evolving through time together. If the name suffers from a wider operational range because of its formulation, a quality that our contemporary logic provokes, the reformulation and consolidation of an interventional concept could be more suitable for our times, giving preference to a logical method from its own necessity and contingency. It seems that now time shapes the topics, it is no longer about materialising a certain time but about expressing the changes that its new temporality generates. Finally, our initial approach aspires to form a new way of reflection that permits us to understand the complex implications that the new architecture submits the pre-existing subject to, motivated by the incorporation of factors external to simple formal and expressive judgement, prevailing at the end of the XXth century. In the same way, our set road, as an alternative, permits the contemplation of possible research paths, considering that what is pre-existing as an area that spans the whole territory with emerging changing dynamics and, with them, their interventional logics.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el presente estudio se elabora un estado del arte del hormigon autosellante tomando como base fundamentalmente la publicacion de Van Tittleboom y De Belie referenciada en la bibliografia, ampliandolo con otras fuentes bibliograficas consultadas. En el se explica el concepto de solidez del autosellado, las diferentes posibilidades de autosellado disponibles, se analizan las ventajas e inconvenientes de los diferentes tipos de agentes de autosellado y tecnicas de encapsulado. Tambien se tratan los mecanismos a aplicar para activar el proceso, y se tienen en cuenta las propiedades recuperadas a causa del autosellado y las tecnicas empleadas para cuantificarlo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente proyecto, titulado “Estudio de la cadena de valor de la producción hortícola en Loukolela, República del Congo” fue llevado a cabo durante Febrero de 2014 a Junio de 2014 en la población de Loukolela; una zona muy rural al norte del país. El proyecto se realizó con la colaboración del grupo de cooperación de la ETSI Agrónomos: RISE, la Fundación “Carmen Rodríguez Granda”, la fundación de contraparte en el Congo “Carmen Granda Rodríguez” -que surge de la fundación española con sede en Madrid- y la ayuda de los tutores en España: Isabel de Felipe Boente, y en el Congo: Obeth Harelimana Pascal. Su objetivo principal fue, por un lado, el desarrollo de la comunidad agrícola de Loukolela, utilizando como instrumento el estudio de la cadena de valor de la producción hortícola, localizando los eslabones más débiles y obteniendo información de los distintos mercados de la zona y los distintos agentes de esta. Y por otro, un trabajo sobre el terreno junto a la Cooperativa “Virgen del Carmen” (ACVC) en la que se puso en marcha un huerto piloto cuyo objetivo era diversificar los cultivos presentes en la región con otros que también se dan bien en el terreno; y estudiar sus salidas comerciales y para garantizar la seguridad alimentaria y diversificar la básica dieta de los habitantes de la localidad interesados. Este documento presenta una descripción de las principales actividades que se desarrollaron con el fin de tratar de alcanzar el objetivo planteado y mejorar las condiciones de vida de los habitantes de esta zona.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La encina (Quercus ilex L.) es una de las especies forestales mediterráneas más importantes. Constituye gran parte del estrato arbóreo de dehesas o montados, produce bellota como alimento del ganado y establece simbiosis con hongos micorrizógenos de gran valor económico. La encina está considerada como una especie recalcitrante en términos de conservación de semillas y capacidad morfogénica, lo que dificulta los programas de conservación de recursos genéticos y la mejora de la especie. La propagación vegetativa es una potente herramienta de los programas de mejora, por lo que es preciso desarrollar protocolos de regeneración somática en encina. La embriogénesis somática está considerada como la modalidad más adecuada de regeneración basada en técnicas de cultivo de tejidos vegetales utilizada en biotecnología forestal. Este trabajo se centra en el estudio de determinados aspectos de la embriogénesis somática para la regeneración clonal de encinas adultas. La memoria de esta tesis se ha dividido en capítulos que se corresponden con diferentes aspectos del sistema embriogénico. La embriogénesis somática se indujo en tegumentos maternos de óvulos en desarrollo procedentes de bellotas inmaduras de encinas adultas. A pesar de las bajas frecuencias de inducción, las líneas embriogénicas generadas se amplificaron mediante embriogénesis secundaria observándose cierta pérdida de la capacidad de diferenciación con el tiempo. Tanto el genotipo como la formulación del medio de cultivo influyeron en la respuesta embriogénica, concluyendo que la formulación de macronutrientes de Schenk y Hildebrant del medio sin reguladores de crecimiento fue la combinación más efectiva en la inducción. Los resultados sugirieron la existencia de una ventana en el desarrollo del óvulo más sensible a la inducción. El genotipo in[luyó en la capacidad proliferativa de los cultivos y en la conversión de los embriones somáticos, que se incrementó suplementando el medio con ácido indol-3-butírico y 6-benciladenina. El cultivo en medio líquido de líneas embriogénicas en condiciones de inmersión transitoria incrementó el crecimiento, dependiendo del genotipo, con respecto al cultivo en medio semisólido. Sin embargo, no mejoró la capacidad de diferenciar embriones cotiledonares aislados. Se estableció un protocolo de inicio y mantenimiento de cultivos en suspensión para varias líneas embriogénicas mediante inoculación en alta densidad de agregados embrionarios procedentes del medio semisólido. Para evitar la pérdida de vigor y la capacidad morfogénica debida al cultivo prolongado se desarrolló un protocolo de crioconservación de líneas embriogénicas mediante vitrificación. Al determinar la influencia de los agentes crioprotectores antes y después de su inmersión en nitrógeno líquido se concluyó que las respuestas de capacidad de crecimiento y de diferenciación del material embriogénico son independientes, además de estar bajo influencia del genotipo y el tipo de material crioconservado. La combinación de sacarosa y PVS2 previa a la inmersión en nitrógeno líquido proporcionó la mayor tasa de recuperación. Cuando las líneas fueron crioconservadas 30 días la capacidad de diferenciación se perdió en todas ellas. El análisis de SSR detectó variación somaclonal en el material crioconservado a corto plazo. SSR y RAPD mostraron importantes diferencias genéticas entre los árboles donantes y el material embriogénico que dependieron del genotipo. El grado de detección dependió del marcador empleado. Ambos marcadores revelaron baja inestabilidad intraclonal. Los RAPD revelaron variación genética intra-individuo en las encinas donantes. Se discuten la variación genética pre-existente en encina, su aparición durante las primeras fases de la inducción de embriogénesis, y la presencia de tejidos provenientes de la fertilización en el explanto materno. Esto hace preciso definir la identidad genética del material donante y acometer ensayos de detección precoz de variación somaclonal. ABSTRACT Holm oak (Quercus ilex L.) is one of the most important Mediterranean forest species. It conforms the tree layer of dehesas or montados, it produces acorns to feed the livestock and it establishes symbiosis with profitable mycorrhizal fungi. Holm oak is considered as recalcitrant species in terms of seed conservation and morphogenic capacities, which complicates the development of genetic conservation and improvement programs. Vegetative propagation is one of the mightiest tools for breeding programs therefore; developing protocols for clonal regeneration of holm oak is essential. Somatic embryogenesis is considered the best tissue culture-based way of plant regeneration in forest biotechnology. The present study is focused on the study of certain aspects of somatic embryogenesis for clonal regeneration of mature holm oak. This thesis manuscript is divided into several chapters that match with different aspects of the embryogenic system. Somatic embryogenesis induction was achieved on maternal teguments of developing ovules from immature acorns of adult holm oak trees. Despite the low induction frequencies, the generated embryogenic lines were amplified by secondary embryogenesis. A decline in the differentiation capacity over time was also observed. It was concluded that both genotype and culture media formulation influenced the embryogenic response, being the Schenk and Hildebrandt´s macronutrients formulation from culture medium and the lack of plant growth regulators the most effective combination for the induction of the embryogenic response. It has been suggested the existence of a developmental window in which ovules are prone to induction. Genotype influenced the proliferation capacity and the plant conversion of somatic embryos, which was also favoured by the presence of indol-3-butyric acid and 6-bencyladenine. The use of temporary immersion systems as proliferation in liquid culture of the embryogenic lines increased the growth depending on genotype, when compared to semisolid cultures. However, it did not improve the differentiation of single cotyledonary embryos. A protocol for the initiation and maintenance of embryogenic suspension cultures was established for several embryogenic lines with highly dense inoculi of embryogenic clusters from proliferating semisolid cultures. In order to avoid the loss of vigour and morphogenic ability of embryogenic lines due to prolonged cultures, a cryopreservation protocol for embryogenic lines of holm oak has been developed. During the determination of the influence of cryoprotective agents on the growth and differentiation capacities before and after liquid nitrogen immersion, it was concluded that both responses were independent from each other and also under the influence of genotype and the type of cryopreserved material. The combination of sucrose and PVS2 prior liquid nitrogen immersion provided higher recovery rates. When the same embryogenic lines were cryopreserved for 30 days, none was able to differentiate. The SSRs analysis of the short-term cryopreserved material detected somaclonal variation. Both SSR and RAPD markers showed high sensitivity to detect genetic differences between the donor trees and the generated embryogenic material. Nevertheless, the degree of instability detection depended on the marker. The SSR analysis indicated a relationship between genotype, the studied loci and the located polymorphisms. Also, both markers revealed low intraclonal genetic variation. The RAPD detected genetic variation within the donor trees. The presence of pre-existent genetic variation within mature trees, in addition to its occurrence during the early stages of the embryogenic induction, and the presence of tissues of fertilisation origin within the maternal explants are all discussed. Nonetheless, the determination of the genetic identity of donor material is required, in addition to early detection methods of somaclonal variation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un entendimiento infraestructural del proyecto arquitectónico Este trabajo de tesis reivindica la pertinencia de la lógica infraestructural como herramienta de proyecto arquitectónico en el territorio urbano contemporáneo, a través del relato del tránsito que se produce entre las décadas de 1960 y 1970 y el final del siglo XX, desde unos sistemas urbanos centrales, vectoriales y ‘modernos’ hacia unos sistemas policéntricos, organizados según modelos de campos y ‘contemporáneos’. Las infraestructuras han sido tradicionalmente objeto de interés para generaciones de arquitectos y urbanistas que, bien desde su condición plástica más pregnante, bien desde una intuición de su capacidad organizativa, han sido fascinados por la irrupción en el territorio de estos elementos generalmente ajenos al proyecto arquitectónico. Los proyectos que durante décadas han explorado la posibilidad de habitar estas grandes estructuras, o de proyectar con su lenguaje y su escala, han resultado en un acercamiento a la capacidad de lo infraestructural como herramienta de proyecto limitada a cuestiones morfotipológicas. Sin embargo, a partir de un estudio de la infraestructura ‘clásica’ como aquella resultado de la manifestación de las redes de abastecimiento y conectividad básicas, se desvela una naturaleza de lo infraestructural que trasciende su expresión formal conocida y explora su capacidad performativa, como sistema de relaciones, como orden topológico, como soporte flexible para la actividad espontánea y no anticipada. A partir del trabajo de diversos autores y de una selección de proyectos de distinta índole –la mayoría no construidos– se muestra cómo la irrupción de una conciencia relacional, así como la problemática moderna de afrontar los procesos de generación de una ‘nueva ciudad para una nueva sociedad’, motivan la búsqueda de sistemas de generación y control de ‘forma colectiva’ adecuados a un modelo urbano contemporáneo. Transitando por los escritos de Fumihiko Maki en Investigations in Collective Form, Reyner Banham en Megastructure, o Shadrach Woods en The Man in the Street durante los 60 y 70 y, más recientemente, de Stan Allen en Points + Lines, Edward Soja en Postmetropolis o Frei Otto en Occupying and Connecting, se traza esta historia semántica de lo infraestructural desde lo tipológico hasta una noción ampliada que resulta pertinente para operar en el territorio contemporáneo postmetropolitano. Para ello el trabajo plantea, por un lado, la descripción del contexto urbano que podemos asumir como contemporáneo, su evolución y sus características principales. Por otro lado, se explora la formación de esta noción de entendimiento infraestructural en las últimas décadas desde enfoques complementarios. Una introducción describe las condiciones de contexto en las que este estudio doctoral adquiere su pertinencia: el tránsito relativamente reciente desde un modelo vectorial y clásico de ocupación del territorio, al modelo contemporáneo disperso y policéntrico propio del modelo de campos. Un bloque central de tres capítulos analiza ‘lo infraestructural’ como expresión de una arquitectura de las relaciones, como soporte para una sociedad en cambio y como lógica proyectual, no ligada a una forma dada. La última parte, a modo de epílogo, describe el territorio urbano contemporáneo, sus cualidades básicas y la capacidad de las lógicas infraestructurales enunciadas en los capítulos anteriores para operar en él. Un último apartado de conclusiones, establece las bases de una línea de investigación abierta acerca de la operatividad actual de estos sistemas en el proyecto de arquitectura. ABSTRACT An infrastructural understanding of architectural design This thesis project claims for the suitability of infrastructural logics as a design tool within contemporary urban territories. This claim is illustrated by means of a report on the transit between the 60–70’s decades and the end of the 20th century, ranging from vector, central, ‘modern’ urban systems, towards polycentric ‘contemporary’ urban patterns, arranged following field models. Infrastructures have been traditionally on the spot for generations of architects and urban planners who, due to either their aesthetical condition, or an intuition of their organizational capacity, have been fascinated by the bursting of these elements in the territory. Projects which have explored the possibility to inhabit these huge structures, or to design with its language or scale for decades, have turned out to be always limited to morphological-typological issues. However, from the base of a research on ‘classic’ infrastructure –understood as the outcome of supplies and connectivity basic networks– a new nature of infrastructure is revealed, going beyond its known formal expression and exploring its potential to perform as a system of relationships, as a topological pattern, or as a flexible support for spontaneous and unanticipated activity. The breakthrough of a relational consciousness, as well as the modern concern about the generation of ‘a new city for a new society’ are shown, through the works of several authors and a selection of heterogeneous mostly-unbuilt projects. This semantic history of infrastructures, regarding not only typologies but also a broader concept able to operate in contemporary postmetropolitan territory, is drawn by following the paths of Fumihiko Maki in Investigations in Collective Form, Reyner Banham in Megastructure, or Shadrach Woods in The Man in the Street during the 60’s and 70’s and, lately, those of Stan Allen in Points + Lines, Edward Soja in Postmetropolis or Frei Otto in Occupying and Connecting. In order to do so, this thesis project sets, on one hand, a description of the urban context which can be assumed as contemporary, as well as its evolution and main features. On the other hand, complementary approaches help go deep into how this notion of infrastructural insight within the last decades has been created. An introduction describes the contextual conditions for this thesis project to become relevant: the relatively recent transit from a classic spatial occupation pattern, to the contemporary, disperse and polycentric pattern inherent to field models. A three-chapters core analyzes the infrastructures as the expression of an architecture of relations, as well as a support for a changing society and as a formless design logic. The last part, an epilogue, describes the urban contemporary territory and the suitability of the infrastructural logics to operate in it. A final conclusive section, lays the foundations for an open line of research on present functionality of these systems in architectural designs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La encina (Quercus ilex L.) es una de las especies forestales mediterráneas más importantes. Constituye gran parte del estrato arbóreo de dehesas o montados, produce bellota como alimento del ganado y establece simbiosis con hongos micorrizógenos de gran valor económico. La encina está considerada como una especie recalcitrante en términos de conservación de semillas y capacidad morfogénica, lo que dificulta los programas de conservación de recursos genéticos y la mejora de la especie. La propagación vegetativa es una potente herramienta de los programas de mejora, por lo que es preciso desarrollar protocolos de regeneración somática en encina. La embriogénesis somática está considerada como la modalidad más adecuada de regeneración basada en técnicas de cultivo de tejidos vegetales utilizada en biotecnología forestal. Este trabajo se centra en el estudio de determinados aspectos de la embriogénesis somática para la regeneración clonal de encinas adultas. La memoria de esta tesis se ha dividido en capítulos que se corresponden con diferentes aspectos del sistema embriogénico. La embriogénesis somática se indujo en tegumentos maternos de óvulos en desarrollo procedentes de bellotas inmaduras de encinas adultas. A pesar de las bajas frecuencias de inducción, las líneas embriogénicas generadas se amplificaron mediante embriogénesis secundaria observándose cierta pérdida de la capacidad de diferenciación con el tiempo. Tanto el genotipo como la formulación del medio de cultivo influyeron en la respuesta embriogénica, concluyendo que la formulación de macronutrientes de Schenk y Hildebrant del medio sin reguladores de crecimiento fue la combinación más efectiva en la inducción. Los resultados sugirieron la existencia de una ventana en el desarrollo del óvulo más sensible a la inducción. El genotipo in[luyó en la capacidad proliferativa de los cultivos y en la conversión de los embriones somáticos, que se incrementó suplementando el medio con ácido indol-3-butírico y 6-benciladenina. El cultivo en medio líquido de líneas embriogénicas en condiciones de inmersión transitoria incrementó el crecimiento, dependiendo del genotipo, con respecto al cultivo en medio semisólido. Sin embargo, no mejoró la capacidad de diferenciar embriones cotiledonares aislados. Se estableció un protocolo de inicio y mantenimiento de cultivos en suspensión para varias líneas embriogénicas mediante inoculación en alta densidad de agregados embrionarios procedentes del medio semisólido. Para evitar la pérdida de vigor y la capacidad morfogénica debida al cultivo prolongado se desarrolló un protocolo de crioconservación de líneas embriogénicas mediante vitrificación. Al determinar la influencia de los agentes crioprotectores antes y después de su inmersión en nitrógeno líquido se concluyó que las respuestas de capacidad de crecimiento y de diferenciación del material embriogénico son independientes, además de estar bajo influencia del genotipo y el tipo de material crioconservado. La combinación de sacarosa y PVS2 previa a la inmersión en nitrógeno líquido proporcionó la mayor tasa de recuperación. Cuando las líneas fueron crioconservadas 30 días la capacidad de diferenciación se perdió en todas ellas. El análisis de SSR detectó variación somaclonal en el material crioconservado a corto plazo. SSR y RAPD mostraron importantes diferencias genéticas entre los árboles donantes y el material embriogénico que dependieron del genotipo. El grado de detección dependió del marcador empleado. Ambos marcadores revelaron baja inestabilidad intraclonal. Los RAPD revelaron variación genética intra-individuo en las encinas donantes. Se discuten la variación genética pre-existente en encina, su aparición durante las primeras fases de la inducción de embriogénesis, y la presencia de tejidos provenientes de la fertilización en el explanto materno. Esto hace preciso definir la identidad genética del material donante y acometer ensayos de detección precoz de variación somaclonal. ABSTRACT Holm oak (Quercus ilex L.) is one of the most important Mediterranean forest species. It conforms the tree layer of dehesas or montados, it produces acorns to feed the livestock and it establishes symbiosis with profitable mycorrhizal fungi. Holm oak is considered as recalcitrant species in terms of seed conservation and morphogenic capacities, which complicates the development of genetic conservation and improvement programs. Vegetative propagation is one of the mightiest tools for breeding programs therefore; developing protocols for clonal regeneration of holm oak is essential. Somatic embryogenesis is considered the best tissue culture-based way of plant regeneration in forest biotechnology. The present study is focused on the study of certain aspects of somatic embryogenesis for clonal regeneration of mature holm oak. This thesis manuscript is divided into several chapters that match with different aspects of the embryogenic system. Somatic embryogenesis induction was achieved on maternal teguments of developing ovules from immature acorns of adult holm oak trees. Despite the low induction frequencies, the generated embryogenic lines were amplified by secondary embryogenesis. A decline in the differentiation capacity over time was also observed. It was concluded that both genotype and culture media formulation influenced the embryogenic response, being the Schenk and Hildebrandt´s macronutrients formulation from culture medium and the lack of plant growth regulators the most effective combination for the induction of the embryogenic response. It has been suggested the existence of a developmental window in which ovules are prone to induction. Genotype influenced the proliferation capacity and the plant conversion of somatic embryos, which was also favoured by the presence of indol-3-butyric acid and 6-bencyladenine. The use of temporary immersion systems as proliferation in liquid culture of the embryogenic lines increased the growth depending on genotype, when compared to semisolid cultures. However, it did not improve the differentiation of single cotyledonary embryos. A protocol for the initiation and maintenance of embryogenic suspension cultures was established for several embryogenic lines with highly dense inoculi of embryogenic clusters from proliferating semisolid cultures. In order to avoid the loss of vigour and morphogenic ability of embryogenic lines due to prolonged cultures, a cryopreservation protocol for embryogenic lines of holm oak has been developed. During the determination of the influence of cryoprotective agents on the growth and differentiation capacities before and after liquid nitrogen immersion, it was concluded that both responses were independent from each other and also under the influence of genotype and the type of cryopreserved material. The combination of sucrose and PVS2 prior liquid nitrogen immersion provided higher recovery rates. When the same embryogenic lines were cryopreserved for 30 days, none was able to differentiate. The SSRs analysis of the short-term cryopreserved material detected somaclonal variation. Both SSR and RAPD markers showed high sensitivity to detect genetic differences between the donor trees and the generated embryogenic material. Nevertheless, the degree of instability detection depended on the marker. The SSR analysis indicated a relationship between genotype, the studied loci and the located polymorphisms. Also, both markers revealed low intraclonal genetic variation. The RAPD detected genetic variation within the donor trees. The presence of pre-existent genetic variation within mature trees, in addition to its occurrence during the early stages of the embryogenic induction, and the presence of tissues of fertilisation origin within the maternal explants are all discussed. Nonetheless, the determination of the genetic identity of donor material is required, in addition to early detection methods of somaclonal variation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente investigación tiene como objetivo principal diseñar un Modelo de Gestión de Riesgos Operacionales (MGRO) según las Directrices de los Acuerdos II y III del Comité de Supervisión Bancaria de Basilea del Banco de Pagos Internacionales (CSBB-BPI). Se considera importante realizar un estudio sobre este tema dado que son los riesgos operacionales (OpR) los responsables en gran medida de las últimas crisis financieras mundiales y por la dificultad para detectarlos en las organizaciones. Se ha planteado un modelo de gestión subdividido en dos vías de influencias. La primera acoge el paradigma holístico en el que se considera que hay múltiples maneras de percibir un proceso cíclico, así como las herramientas para observar, conocer y entender el objeto o sujeto percibido. La segunda vía la representa el paradigma totalizante, en el que se obtienen datos tanto cualitativos como cuantitativos, los cuales son complementarios entre si. Por otra parte, este trabajo plantea el diseño de un programa informático de OpR Cualitativo, que ha sido diseñado para determinar la raíz de los riesgos en las organizaciones y su Valor en Riesgo Operacional (OpVaR) basado en el método del indicador básico. Aplicando el ciclo holístico al caso de estudio, se obtuvo el siguiente diseño de investigación: no experimental, univariable, transversal descriptiva, contemporánea, retrospectiva, de fuente mixta, cualitativa (fenomenológica y etnográfica) y cuantitativa (descriptiva y analítica). La toma de decisiones y recolección de información se realizó en dos fases en la unidad de estudio. En la primera se tomó en cuenta la totalidad de la empresa Corpoelec-EDELCA, en la que se presentó un universo estadístico de 4271 personas, una población de 2390 personas y una unidad de muestreo de 87 personas. Se repitió el proceso en una segunda fase, para la Central Hidroeléctrica Simón Bolívar, y se determinó un segundo universo estadístico de 300 trabajadores, una población de 191 personas y una muestra de 58 profesionales. Como fuentes de recolección de información se utilizaron fuentes primarias y secundarias. Para recabar la información primaria se realizaron observaciones directas, dos encuestas para detectar las áreas y procesos con mayor nivel de riesgos y se diseñó un cuestionario combinado con otra encuesta (ad hoc) para establecer las estimaciones de frecuencia y severidad de pérdidas operacionales. La información de fuentes secundarias se extrajo de las bases de datos de Corpoelec-EDELCA, de la IEA, del Banco Mundial, del CSBB-BPI, de la UPM y de la UC at Berkeley, entre otras. Se establecieron las distribuciones de frecuencia y de severidad de pérdidas operacionales como las variables independientes y el OpVaR como la variable dependiente. No se realizó ningún tipo de seguimiento o control a las variables bajo análisis, ya que se consideraron estas para un instante especifico y solo se determinan con la finalidad de establecer la existencia y valoración puntual de los OpR en la unidad de estudio. El análisis cualitativo planteado en el MGRO, permitió detectar que en la unidad de investigación, el 67% de los OpR detectados provienen de dos fuentes principales: procesos (32%) y eventos externos (35%). Adicionalmente, la validación del MGRO en Corpoelec-EDELCA, permitió detectar que el 63% de los OpR en la organización provienen de tres categorías principales, siendo los fraudes externos los presentes con mayor regularidad y severidad de pérdidas en la organización. La exposición al riesgo se determinó fundamentándose en la adaptación del concepto de OpVaR que generalmente se utiliza para series temporales y que en el caso de estudio presenta la primicia de aplicarlo a datos cualitativos transformados con la escala Likert. La posibilidad de utilizar distribuciones de probabilidad típicas para datos cuantitativos en distribuciones de frecuencia y severidad de pérdidas con datos de origen cualitativo fueron analizadas. Para el 64% de los OpR estudiados se obtuvo que la frecuencia tiene un comportamiento semejante al de la distribución de probabilidad de Poisson y en un 55% de los casos para la severidad de pérdidas se obtuvo a las log-normal como las distribuciones de probabilidad más comunes, con lo que se concluyó que los enfoques sugeridos por el BCBS-BIS para series de tiempo son aplicables a los datos cualitativos. Obtenidas las distribuciones de frecuencia y severidad de pérdidas, se convolucionaron estas implementando el método de Montecarlo, con lo que se obtuvieron los enfoques de distribuciones de pérdidas (LDA) para cada uno de los OpR. El OpVaR se dedujo como lo sugiere el CSBB-BPI del percentil 99,9 o 99% de cada una de las LDA, obteniéndose que los OpR presentan un comportamiento similar al sistema financiero, resultando como los de mayor peligrosidad los que se ubican con baja frecuencia y alto impacto, por su dificultad para ser detectados y monitoreados. Finalmente, se considera que el MGRO permitirá a los agentes del mercado y sus grupos de interés conocer con efectividad, fiabilidad y eficiencia el status de sus entidades, lo que reducirá la incertidumbre de sus inversiones y les permitirá establecer una nueva cultura de gestión en sus organizaciones. ABSTRACT This research has as main objective the design of a Model for Operational Risk Management (MORM) according to the guidelines of Accords II and III of the Basel Committee on Banking Supervision of the Bank for International Settlements (BCBS- BIS). It is considered important to conduct a study on this issue since operational risks (OpR) are largely responsible for the recent world financial crisis and due to the difficulty in detecting them in organizations. A management model has been designed which is divided into two way of influences. The first supports the holistic paradigm in which it is considered that there are multiple ways of perceiving a cyclical process and contains the tools to observe, know and understand the subject or object perceived. The second way is the totalizing paradigm, in which both qualitative and quantitative data are obtained, which are complementary to each other. Moreover, this paper presents the design of qualitative OpR software which is designed to determine the root of risks in organizations and their Operational Value at Risk (OpVaR) based on the basic indicator approach. Applying the holistic cycle to the case study, the following research design was obtained: non- experimental, univariate, descriptive cross-sectional, contemporary, retrospective, mixed-source, qualitative (phenomenological and ethnographic) and quantitative (descriptive and analytical). Decision making and data collection was conducted in two phases in the study unit. The first took into account the totality of the Corpoelec-EDELCA company, which presented a statistical universe of 4271 individuals, a population of 2390 individuals and a sampling unit of 87 individuals. The process was repeated in a second phase to the Simon Bolivar Hydroelectric Power Plant, and a second statistical universe of 300 workers, a population of 191 people and a sample of 58 professionals was determined. As sources of information gathering primary and secondary sources were used. To obtain the primary information direct observations were conducted and two surveys to identify the areas and processes with higher risks were designed. A questionnaire was combined with an ad hoc survey to establish estimates of frequency and severity of operational losses was also considered. The secondary information was extracted from the databases of Corpoelec-EDELCA, IEA, the World Bank, the BCBS-BIS, UPM and UC at Berkeley, among others. The operational loss frequency distributions and the operational loss severity distributions were established as the independent variables and OpVaR as the dependent variable. No monitoring or control of the variables under analysis was performed, as these were considered for a specific time and are determined only for the purpose of establishing the existence and timely assessment of the OpR in the study unit. Qualitative analysis raised in the MORM made it possible to detect that in the research unit, 67% of detected OpR come from two main sources: external processes (32%) and external events (35%). Additionally, validation of the MORM in Corpoelec-EDELCA, enabled to estimate that 63% of OpR in the organization come from three main categories, with external fraud being present more regularly and greater severity of losses in the organization. Risk exposure is determined basing on adapting the concept of OpVaR generally used for time series and in the case study it presents the advantage of applying it to qualitative data transformed with the Likert scale. The possibility of using typical probability distributions for quantitative data in loss frequency and loss severity distributions with data of qualitative origin were analyzed. For the 64% of OpR studied it was found that the frequency has a similar behavior to that of the Poisson probability distribution and 55% of the cases for loss severity it was found that the log-normal were the most common probability distributions. It was concluded that the approach suggested by the BCBS-BIS for time series can be applied to qualitative data. Once obtained the distributions of loss frequency and severity have been obtained they were subjected to convolution implementing the Monte Carlo method. Thus the loss distribution approaches (LDA) were obtained for each of the OpR. The OpVaR was derived as suggested by the BCBS-BIS 99.9 percentile or 99% of each of the LDA. It was determined that the OpR exhibits a similar behavior to the financial system, being the most dangerous those with low frequency and high impact for their difficulty in being detected and monitored. Finally, it is considered that the MORM will allows market players and their stakeholders to know with effectiveness, efficiency and reliability the status of their entities, which will reduce the uncertainty of their investments and enable them to establish a new management culture in their organizations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el proceso de cálculo de redes de tuberías se maneja un conjunto de variables con unas características muy peculiares, ya que son discretas y estandarizadas. Por lo tanto su evolución se produce por escalones (la presión nominal, el diámetro y el costo de los tubos). Por otro lado la presión de diseño de la red es una función directa de la presión de cabecera. En el proceso de optimización mediante programación dinámica la presión de cabecera se va reduciendo gradualmente en cada secuencia del proceso, haciendo que evolucione a la par la presión de diseño, lo que genera a su vez saltos discriminados en la presión nominal de los tramos, y con ello en su costo y en su gradiente de cambio. En esta tesis doctoral se analiza si estos cambios discriminados que se producen en el gradiente de cambio de algunos tramos en el curso de una secuencia, ocasionados por la evolución de la presión de cabecera de la red, generan interferencias que alteran el proceso secuencial de la programación dinámica. La modificación del gradiente de cambio durante el transcurso de una secuencia se conoce con el nombre de mutación, la cual puede ser activa cuando involucra a un tramo optimo modificando las condiciones de la transacción o pasiva si no crea afección alguna. En el análisis realizado se distingue entre la mutación del gradiente de cambio de los tramos óptimos (que puede generarse exclusivamente en el conjunto de los trayectos que los albergan), y entre los efectos que el cambio de timbraje produce en el resto de los tramos de la red (incluso los situados aguas abajo de los nudos con holgura de presión nula) sobre el mecanismo iterativo, estudiando la compatibilidad de este fenómeno con el principio de óptimo de Bellman. En el proceso de investigación llevado a cabo se destaca la fortaleza que da al proceso secuencial del método Granados el hecho de que el gradiente de cambio siempre sea creciente en el avance hacia el óptimo, es decir que el costo marginal de la reducción de las pérdidas de carga de la red que se consigue en una iteración siempre sea más caro que el de la iteración precedente. Asimismo, en el estudio realizado se revisan los condicionantes impuestos al proceso de optimización, incluyendo algunos que hasta ahora no se han tenido en cuenta en los estudios de investigación, pero que están totalmente integrados en la ingeniería práctica, como es la disposición telescópica de las redes (reordenación de los diámetros de mayor a menor de cabeza a cola de la red), y la disposición de un único diámetro por tramo, en lugar de que estén compartidos por dos diámetros contiguos (con sus salvedades en caso de tramos de gran longitud, o en otras situaciones muy específicas). Finalmente se incluye un capítulo con las conclusiones, aportaciones y recomendaciones, las cuales se consideran de gran utilidad para la ingeniería práctica, entre las que se destaca la perfección del método secuencial, la escasa transcendencia de las mutaciones del gradiente de cambio y la forma en que pueden obviarse, la inocuidad de las mutaciones pasivas y el cumplimiento del principio de Bellman en todo el proceso de optimización. The sizing process of a water distribution network is based on several variables, being some of them special, as they are discrete and their values are standardized: pipe pressure rating, pipe diameter and pipe cost. On another note, the sizing process is directly related with the pressure at the network head. Given that during the optimization by means of the Granados’ Method (based on dynamic programming) the pressure at the network head is being gradually reduced, a jump from one pipe pressure rating to another may arise during the sequential process, leading to changes on the pipe cost and on the gradient change (unitary cost for reducing the head losses). This chain of changes may, in turn, affect the sequential process diverting it from an optimal policies path. This thesis analyses how the abovementioned alterations could influence the results of the dynamic programming algorithm, that is to say the compatibility with the Bellman’s Principle of Optimality, which states that the sequence has to follow a route of optimal policies, and that past decisions should not influence the remaining ones. The modification of the gradient change is known as mutation. Mutations are active when they affect the optimal link (the one which was selected to be changed during iteration) or passive when they do not alter the selection of the optimal link. The thesis analysed the potential mutations processes along the network, both on the optimal paths and also on the rest of the network, and its influence on the final results. Moreover, the investigation analysed the practical restrictions of the sizing process that are fully integrated in the applied engineering, but not always taken into account by the optimization tools. As the telescopic distribution of the diameters (i.e. larger diameters are placed at the network head) and the use of a unique diameter per link (with the exception of very large links, where two consecutive diameters may be placed). Conclusions regarding robustness of the dynamic programming algorithm are given. The sequence of the Granados Method is quite robust and it has been shown capable to auto-correct the mutations that could arise during the optimization process, and to achieve an optimal distribution even when the Bellman’s Principle of Optimality is not fully accomplished. The fact that the gradient change is always increasing during the optimization (that is to say, the marginal cost of reducing head losses is always increasing), provides robustness to the algorithm, as looping are avoided in the optimization sequence. Additionally, insight into the causes of the mutation process is provided and practical rules to avoid it are given, improving the current definition and utilization of the Granados’ Method.