869 resultados para TECHNOLOGICAL ADVANCES


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Cuando se trata de Rem Koolhaas, su espejo no refleja una sola imagen sino múltiples, es un prisma poliédrico. Su espejo nos devuelve el Rem mediático, el intelectual, el conceptualizador, el constructor, el analista, el periodista, el actor... En el caso de esta investigación, fijamos el punto de mira en el Rem COMUNICADOR. “Rem a los dos lados del espejo” se enmarca en una investigación sobre los medios de comunicación de arquitectura, su reflejo en la producción arquitectónica y viceversa. Se trata de llegar a discernir si comunicación y producción arquitectónica colisionan y confluyen en el caso de grandes comunicadores como Rem Koolhaas, si el mensaje y el medio transmisor adquieren las mismas cualidades. Centrándose en la figura de Rem Koolhaas, la tesis aborda la evolución de su faceta comunicativa y las transformaciones sucesivas en el campo de la comunicación arquitectónica, en paralelo a su evolución conceptual a lo largo de su trayectoria. La investigación, por tanto, no se centra tanto en su componente teórica o en la práctica arquitectónica de OMA, sino en la exposición de su producción al mundo, especialmente a través de sus ensayos y libros. “Delirious New York” y “SMLXL” son un reflejo del momento conceptual en que se inscriben, y contienen mucha información sobre los referentes gráficos que irremediablemente han influido en su composición. Especialmente, la aparición de “SMLXL” supuso un revulsivo para el mundo de la comunicación arquitectónica, porque puso el foco sobre la importancia de dejar atrás un discurso narrativo linea y unifocal, para afrontar la comunicación barajando múltiples variables, y aproximaciones, en un proceso similar al desarrollo de un proyecto de arquitectura. Presenta un diseño muy novedoso y una edición extremadamente cuidada, que atiende a parámetros mucho más ambiciosos que los meramente narrativos. Profundiza en la necesidad de una temática global, planteando cuál es la aproximación más apropiada para cada uno de los proyectos que describe, transmitiendo al lector una percepción más allá de lo estrictamente visual, más próximo a lo sensorial. Además, su enorme repercusión a nivel internacional y el gran interés que despertó (no solamente entre los arquitectos, sino también entre diseñadores gráficos, publicistas, personas provenientes de todo tipo de tendencias artísticas y público en general), provocó la globalización del fenómeno de las publicaciones arquitectónicas y puso de manifiesto la importancia de la comunicación como una disciplina en sí misma, dentro de la producción arquitectónica en la era actual. A pesar de la importancia de “SMLXL” a todos los niveles, la presente tesis plantea que, donde realmente se culmina esa experiencia comunicativa, es en “Content”, al incluir nuevos parámetros relacionados con la fusión conceptual de continente y contenido. Es en esta publicación donde el objeto de la comunicación y la expresión de la misma se convierten en un único elemento, que se rige por leyes similares. En este caso, la ley fundamental es la aplicación hasta sus máximas consecuencias de la “cultura de la congestión”, tanto en el mensaje como en el medio, generando lo que hemos convenido en denominar “comunicación congestiva”. Esta concepción deviene en que necesariamente se materialice como un producto efímero, desechable, casi virtual, porque responde a las condiciones de un momento muy concreto y específico y fuera de ese contexto pierde su significación.. La “cultura de la congestión” empieza a surgir en los planteamientos de Koolhaas en la Architectural Association School of Architecture de Londres, bajo la tutela de Elia Zenghelis. Posteriormente se desarrolla en su manifiesto retroactivo sobre Manhattan, “Delirious New York”, donde declara la guerra abierta al urbanismo del movimiento moderno y afirma que la ciudad realmente contemporánea es aquella que es fruto de un desarrollo no planificado, hiperdensa y posible gracias a los avances tecnológicos de su era. Finalmente comienza a materializarse en la Diploma Unit 9 de la AA, donde entra como profesor en 1975, dejando una huella indeleble en las generaciones posteriores de arquitectos que pasaron dicha unidad. Rem Koolhaas es ante todo un intelectual y por ello, todo el constructo teórico sobre la metrópolis comienza a reflejarse en su obra a través de OMA desde el comienzo de su producción. Podemos decir a grandes rasgos que su carrera está marcada por dos hitos históricos fundamentales que determinan tres etapas diferenciadas en su producción. En sus primeros años de profesión, Koolhaas sigue fascinado por la metrópolis urbana y la aplicación del método paranoico crítico a su producción arquitectónica. Es un arquitecto profundamente surrealista. Entiende este método como una estrategia de conocimiento y aproximación al mundo que le rodea: “dejar salir el inconsciente pero sostenerlo con las muletas de la racionalidad”. Pero lo que en realidad le interesa es su aplicación a la gran escala, el “Bigness”, y por ello, participa en proyectos muy ambiciosos de los que surgen conceptos que, más allá de resultar premiados o no, han dejado una huella ideológica en el devenir de la arquitectura. Entre estos proyectos, cabe destacar su propuesta para el Parque de la Villette o la Très Grande Bibliotèque de París. Sus proyectos de esta época destilan una gran carga conceptual, que devienen en unos interiores sorprendentes pero una apariencia exterior sobria o incluso podríamos decir "povera", por el uso de materiales efímeros, poco habituales en la macro-arquitectura hasta ese momento. Súbitamente, en 1997, explotó el denominado “Efecto Bilbao”, de la mano de Frank Gehry (1). El Museo Guggenheim de Bilbao, con su espectacularidad, sus formas pregnantes e imposibles, impacta al mundo. Nace la era de la “Arquitectura del Espectáculo”; la transformación de la ciudad a través de ICONOS que actúen como nodos de atracción y concentración en torno a los cuales supuestamente se revitaliza la actividad económica, cultural y sociopolítica de la ciudad, como si a través de un único gesto se pudieran regenerar todos los tejidos internos de la urbe. Rem Koolhaas comprende rápidamente que la aproximación a la ciudad ha cambiado y, sobre todo, el mercado. En el mundo de la globalización, la única manera de llegar a materializar el “Bigness”, es encerrando sus ejercicios intelectuales en formas pregnantes, bellas, icónicas, espectaculares. Koolhaas encuentra su marca personal en la estética “Stealth”, proveniente de los aviones de combate facetados para evitar los radares, elaborados en los años 80. De esta época surgen proyectos como la Casa da Música de Oporto o la Biblioteca de Seattle; ambos edificios son iconos facetados, de belleza pregnante, que dejan una huella indeleble en la ciudad y provocan, al igual que el Guggenheim, un cierto efecto de recuperación y revitalización en el entorno en que se asientan, al menos de manera temporal. En cualquier caso, Koolhaas nunca abandona los ejercicios meramente teóricos, pero segrega su actividad en dos: OMA produce aquello que tiene vocación de ser construido y se rige por los parámetros del mercado global y AMO, la otra cara del espejo de Rem, aplica el pensamiento arquitectónico a campos no explorados, sin la dependencia de agentes externos, pudiendo permitirse ser un laboratorio puramente experimental. En este escenario, llega el 11 de septiembre de 2001 y el ataque a las Torres Gemelas de Nueva York tiene efectos devastadores a todos los niveles, significando, en un período de tiempo sorprendentemente corto, un cambio en el orden mundial. Rem Koolhaas da entonces un giro de 180 grados, dirige su mirada hacia China, donde entiende que sus aportaciones tienen un beneficio social más directo que en occidente. (2) Para presentar al mundo su nuevo cambio de rumbo y la creación del “Think Tank” AMO, plantea una gran exposición en la NeueGallerie de Berlín bajo el título de “Content”, experiencia paralela a la edición del libro con el mismo título, que inicialmente nace como “catálogo de la exposición, pero que internamente siempre se concibió como el documento más trascendente en el estudio desde “SMLXL”. Sin embargo, en muchos aspectos se trata de su opuesto: una publicación con formato revista, de tapa blanda, con paginado muy fino, formato de "folleto de supermercado" y contenido hiperdenso. Es un experimento efímero, fugaz, ligero, barato, de “usar y tirar”. De hecho, está fuera de stock, ya no se edita. Probablemente Rem Koolhaas desaprobaría que se hiciera una investigación que pusiera el foco sobre el mismo, porque diez años después de su publicación seguramente opine que su vigencia ha caducado. Sin embargo, muestra con una claridad meridiana el estado conceptual y vital de OMA en el momento de su publicación y representa, además un verdadero hito en la comunicación arquitectónica, un punto de no retorno, el máximo exponente de lo que hemos denominado “comunicación congestiva”. La presente tesis plantea que “Content” contiene la esencia de la mayor aportación de Rem Koolhaas al mundo de la arquitectura: la transformación profunda y definitiva de la comunicación arquitectónica mediante la convergencia del estado conceptual y la transmisión del mismo. Su legado arquitectónico y conceptual ha marcado a todas las generaciones posteriores de manera indeleble. Sus ensayos, sus teorías, sus proyectos y sus edificaciones ya pertenecen a la historia de la arquitectura, sin ninguna duda. Pero es su revisión del concepto de la comunicación en arquitectura lo que ha tenido y tendrá un reflejo inmediato en las generaciones futuras, no solamente en la comunicación sino en su arquitectura, a través de un intercambio biyectivo. El planteamiento a futuro sería determinar qué sucede tras “Content”, tras la hiperdensidad máxima, tras la cultura de la congestión visual; qué es lo que propone Koolhaas y qué se va a plantear también en el mundo de la comunicación arquitectónica. Para ello, estudiaremos en profundidad sus últimos proyectos relacionados con la comunicación, como su propuesta para la Biennale de Arquitectura de Venecia de 2014, su intensa investigación sobre el “Metabolismo” en “Project Japan: Metabolism Talks...”, o la dirección de sus últimos planteamientos territoriales. En los últimos tiempos Rem Koolhaas habla de “Preservación”, de “Sobriedad”, de “Esencialismo”, de “Performance”... El autor intelectual de la cultura de la congestión habla ahora de la “low density”...como no podía ser de otra manera en la otra cara del espejo. En definitiva, el color blanco como suma de todos los colores, todas las longitudes de onda del espectro visible recibidas al tiempo. ABSTRACT When talking about Rem Koolhaas, the mirror does not only reflect one but numerous images: it is nothing but a polyhedral prism. His mirror gives us the image of Rem the media celebrity, the intellectual, the conceptualizer, the builder, the analyst, the journalist, the actor... This research sets the spotlight on Rem the COMMUNICATOR. "Rem on both sides of the mirror" belongs to a research on architectural media, its influence on the architectural production and vice versa. It is aimed at getting to discern whether communication and architectural production collide and converge in the case of great communicators such as Rem Koolhaas, and whether the message and transmission media acquire the same features. Focusing on the figure of Rem Koolhaas, this thesis addresses the evolution of his communicative facet and the successive transformations in the field of architectural communication, parallel to the conceptual evolution he underwent throughout his career. Therefore, this research is not so much focused on his theoretical component or on the OMA’s architectural practice, but on the exhibition of his production to the world, especially through his essays and books. "Delirious New York" and "SMLXL" hold up a mirror to the conceptual moment they are part of, and contain a great deal of information about the graphic references that have inevitably influenced his work. Specially, the launch of "SMLXL" was a salutary shock for the architectural communication world, since it set the spotlight on the importance of leaving a linear and unifocal narrative behind in order to face communication considering multiple variables and approaches, based on a process similar to the development of an architectural project. It offers a very innovative design and an extremely careful editing, which deals with parameters much more ambitious than those merely narrative. It explores the need for a global subject and suggests the most appropriate approach for each of the projects described, giving the reader a closer insight to the sensory that goes beyond what’s strictly visual. In addition, its huge international impact and the great interest shown, not only by architects but also by graphic designers, publishers, people from all kinds of artistic trends and the general public, led to the globalisation of the architectural publications phenomenon and brought the importance of communication as a discipline in itself, within the architectural production in the age at hand, to light. Despite the importance of "SMLXL" at all levels, this thesis suggests that the communication experience really culminates in "Content", for it includes new conceptual parameters associated with the container-content conceptual fusion. It is in this book where the purpose of communication and the expression of such become a single element, ruled by similar laws. In this particular case, the fundamental law is to implement the "culture of congestion" to its extreme consequences in both the message and the media, leading to what we have agreed to refer to as "congestive communication”. This concept leads to its inevitable materialisation into an ephemeral, disposable, almost virtual product, because it meets the conditions of a very concrete and specific time, and outside that context it loses its significance. The "culture of congestion" emerged in Koolhaas’ approaches under the guidance of Elia Zenghelis, in the Architectural Association School of Architecture of London. Subsequently, his retroactive manifesto on Manhattan, "Delirious New York" developed it, waging an all-out war against the modern movement urbanism and maintaining that the really contemporary cities are those hyperdense ones that rise as a result of an unplanned development and thanks to the typical technological advances of their time. Finally it began to materialise in the Diploma Unit 9 of the AA, in which he started lecturing in 1975, leaving an indelible mark on subsequent generations of architects who passed that unit. First and foremost, Rem Koolhaas is an intellectual and, therefore, all the theoretical construct in the metropolis began to be reflected in his work through OMA since the beginnings of his production. Broadly speaking, we can say that his career is influenced by two essential historic events, which determine three different stages in his production. In the early years of his career, Koolhaas was still fascinated by the urban metropolis and the implementation of the paranoiac-critical method to his architectural production. He was then a deeply surreal architect. He understood this method as a knowledge strategy and an approach to the world around him: "let the subconscious out but hold it with the crutches of reasonableness”. However, he was actually interested in its implementation on a broad scale, the "Bigness", and therefore, he took part in ambitious projects that led to the accrual of concepts that, beyond being rewarded, left an ideological impression on the evolution of architecture. These projects included his proposal for the Parc de la Villette or the Très Grande Bibliotèque in Paris. The projects he carried out during this period showed a great conceptual background, which evolved into surprising interiors but a sober, or even "povera", exterior appearance, thanks to the use of ephemeral materials that were atypical in the macro-architecture field until that moment. Suddenly, in 1997, the so-called "Bilbao effect" boomed thanks to Frank Gehry (1). The Guggenheim Museum of Bilbao amazed the world with its spectacular nature and its pregnant and impossible shapes. It was the beginning of the era of “The architecture of spectacle”: the transformation of the city through ICONS that would act as nodes of attraction and gathering, around which the economic, cultural and socio-political activity of the city was supposed to be revitalized, as if through a single gesture all internal tissues of the city could be rebuilt. Rem Koolhaas quickly realized that the approach to the city, and especially to the global market, had changed. In the world of globalisation, the only way to get to materialise such "Bigness" was by keeping his intellectual exercises in pregnant, beautiful, iconic and spectacular shapes. Koolhaas found his personal brand in the Stealth aesthetic, resulting from the eighties American combat aircrafts whose shape was faceted in order to avoid radars. Projects such as the Casa da Música in Porto or the Seattle Library date from this period; both buildings are faceted icons of pregnant beauty that left an indelible mark on the city and caused, like the Guggenheim, some degree of recovery and revitalization on the environment in which they were based, at least temporarily. In any case, Koolhaas never gave the merely theoretical exercises up, but he segregated his work in two: OMA produced what was destined to be built and ruled by the parameters of the global market and AMO, Rem’s other side of the mirror, applied the architectural thought in unexplored fields, notwithstanding external agents and being able to work as a purely experimental laboratory. In light of this backdrop, September 11th 2001 came and the attacks on the Twin Towers in New York had devastating effects at all levels, leading to a change in the world order, in a surprisingly short period of time. Rem Koolhaas made a 180° turn directing his vision towards China, where he believed his contributions would have a more direct social benefit than in the Western world. (2) In order to introduce his new course of direction and the creation of the AMO "Think Tank", he planned a major exhibition in the Neue Nationalgalerie of Berlin under the title "Content", in parallel with edition of the book with the same title, which was at first the "exhibition catalog” but, deep down, was always conceived as the most important document of the Office since "SMLXL". However, in many ways it was just the opposite: a publication characterised by its magazine format, soft cover, very fine paging, "supermarket brochure" form and hyperdense content. It was an ephemeral, brief, light, cheap and "disposable" experiment. In fact, it is currently out of stock and out of print. Rem Koolhaas would probably disapprove of a research that sets the spotlight on him, for he would probably say that his validity has expired given that it has been ten years since its publication. However, it shows OMA’s conceptual and vital status at the time of its publication with crystalline clarity and it is also a true milestone in architectural communication. A point of no return. The epitome of the so-called "congestive communication ". This thesis suggests that "Content" contains the essence of Rem Koolhaas’ greatest contribution to the world of architecture: the deep and definitive transformation of architectural communication through the convergence of the conceptual state and the transmission thereof. His architectural and conceptual legacy has left an indelible mark on all subsequent generations. There is no doubt his essays, theories, projects and buildings already belong to the history of architecture. But it is his review on the concept of communication in architecture that has had and shall have an immediate influence on future generations, not only in their communication but also in their architecture, through a bijective exchange. Future approaches should try to determine what happens after "Content", after the maximum hyperdensity, after the visual culture of congestion; what shall Koolhaas suggest as well as what shall happen in the world of architectural communication. To this end, we shall study his latest communication-related projects, such as the design of the Venetian Architecture Biennale in 2014, his intensive research on the "Metabolism" in "Project Japan: Metabolism Talks ...", or the course of his latest territorial approaches in depth. Most recently, Rem Koolhaas has talked about "Preservation", "Sobriety" of "Essentialism", "Performance", etc. The mastermind of the culture of congestion now speaks of the "low density"... as it could not be otherwise, on the other side of the mirror. Summarizing, the white color as the sum of all colors; all wavelengths of the visible spectrum received at the same time.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A través de la historia aparecen muchas y variadas manifestaciones de cambio, necesarias para afrontar el futuro2 de la humanidad; también de la arquitectura. Estas manifestaciones, alternativas, teorías y proyectos, a menudo denostados por la crítica o dejados de lado por las teorías históricas de carácter generalista, destacan por su capacidad de convertirse en herramientas críticas frente al orden establecido, promoviendo así nuevos imaginarios colectivos. En el contexto temporal que transcurre desde finales de la década de los años cincuenta hasta mediados de los setenta, esa “búsqueda del futuro” no sólo se encuentra totalmente aceptada y popularizada, sino que llega a convertirse en un acto necesario, legitimado por la incorporación de la futurología como ciencia de estudio fundamental. Este contexto resulta el marco idóneo para la aparición de una serie de predicciones arquitectónicas encaminadas a dibujar nuevos caminos posibles para el futuro de la arquitectura, o lo que es lo mismo, para una arquitectura del futuro: “Où vivrons-nous demain ?” (1963) y “Les cités de l'avenir” (1966) del historiador francés Michel Ragon, el número “AD 2000+” (1967) de la revista Architectural Design y “The Future of the Future” (1969) del artista inglés John McHale, “Architecture: action and plan” (1967) y “Experimental Architecture” (1970) de Peter Cook, “Megastructure. Urban futures of the recent past” del crítico inglés Reyner Banham, “Architecture 2000” (1971) del norteamericano Charles Jencks, “Stadstrukturen für morgen” (1971) del suizo Justus Dahinden, “Arthropods: new design futures” (1972) del editor norteamericano Jim Burns y la sección “Cosmorama” (1965-1973) de la revista inglesa Architectural Design, pueden considerarse como las más destacadas. A pesar de lo heterogéneo de sus autores y enfoques, todas ellas gravitan en torno a cuatro alternativas para una redefinición del futuro de la arquitectura: - La incorporación de la arquitectura al heterogéneo espectro formal derivado de la explosión de las artes visuales y la exuberancia y proliferación de los objetos de consumo a través de un CAMBIO DE ESCALA. - La generación de nuevas relaciones que experimenten en torno a los límites entre natural y artificial, o PERVERSIONES NATURALES. - La apertura de un nuevo camino, HACIA UNA ARQUITECTURA VIRTUAL, que experimente con una construcción de ambientes auspiciada por los avances tecnológicos derivados del control perceptivo. - LA MOVILIDAD COMO OPCIÓN DE FUTURO, una respuesta a la aparición de una nueva sociedad en continuo cambio, abogando por estructuras más flexibles en todos los campos del ámbito arquitectónico, de lo urbano a lo doméstico. ABSTRACT of humanity, and of architecture too. Those signs, alternatives, theories and projects, that were often neglected by the critics or left aside by historical theories of general-interest, have an outstanding capacity to become critical tools with regards to the established order, and to promote new collective imagery. Within the timeframe that lasts between late fifties and midseventies, that "quest for the future" is not only accepted and made popular, but it even becomes an act of necessity that is legitimized by the incorporation of futurology as a key scientific field of study. This timeframe provides the most suitable context for the appearance of a series of architectonical predictions that are aimed to define new potential paths for the future architecture to follow, in other words, an architecture of the future: "Où vivrons-nous demain?" (1963) y "Les cités de l'avenir" (1966) from French historian Michel Ragon, issue number "AD 2000+" (1967) of Architectural Design magazine and "The Future of the Future" (1969) from English artist John McHale, "Architecture: action and plan" (1967) and "Experimental Architecture" (1970) from Peter Cook, "Megastructure. Urban futures of the recent past" from English critic Reyner Banham, "Architecture 2000" (1971) from North-American Charles Jencks, "Stadstrukturen für morgen" (1971) from Swiss Justus Dahinden, "Arthropods: new design futures" (1972) from North-American editor Jim Burns and the section "Cosmorama" (1965-73) from English magazine Architectural Design, can be considered as the most prominent architectonical predictions of that time. Despite the heterogeneity of authors and approaches, all of them are built around four alternatives that are aimed to re-define the future of architecture: - The incorporation of architecture to the heterogeneous formal spectrum of visual arts and the exuberance and the proliferation of objects of massive consumerism through an operation of CHANGE IN SCALE. - The production of new relationships aimed to experiment around the limits between natural and artificial, in other words, NATURAL PERVERSIONS. - A new road TOWARDS VIRTUAL ARCHITECTURE, to enable experiences with ambiance construction that are favored by technological advances derived from the control of perception. - MOVILITY AS AN OPTION FOR THE FUTURE, a response to the appearance of a new ever changing society, a bet on more flexible structures in all areas of architecture, from urban to domestic scale.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Pinus pinaster Ait. es la conífera con mayor área de distribución en la Península Ibérica y es, a día de hoy, la única especie resinada en nuestro país. La inducción del flujo de resina al exterior para su recolección a través de distintos tipos de heridas ha sido practicada desde hace miles de años por distintas culturas. En todos los casos, las técnicas desarrolladas se basan en la estimulación del característico sistema de defensa de las pináceas. En los últimos siete años se viene observando una tendencia de incremento sustancial de la superficie resinada en España, acompañada por avances tecnológicos dirigidos a la mecanización y mejora de estimulantes. El aprovechamiento resinero se perfila como un sector estratégico en la generación de empleo rural y la conservación de ecosistemas. La industria resinera demanda métodos de extracción más eficaces, una selvicultura adecuada y actualizada, y condiciones laborales de los resineros más dignas con objeto de llegar a ser competitiva en el mercado internacional. Este trabajo se centra en ampliar el conocimiento sobre el sistema de defensa de P. pinaster, concretamente sobre las estructuras y procesos que pueden afectar a la producción de resina. Se analizan las relaciones entre las características anatómicas del xilema, destacando las relacionadas con los canales resiníferos, las variables dendrométricas y dasométricas de la masa y el flujo de resina (objetivo 1). Se estudia cómo estas relaciones son moduladas por las heridas de resinación dependiendo de la técnica de resinación aplicada (objetivo 2), el clima y el balance hídrico del suelo (objetivo 3). El material vegetal, las muestras de suelo y los datos de producción de resina y climáticos usados en esta tesis han sido recogidos en tres montes de utilidad pública; MUP 101 en Armuña, MUP 108 en Melque de Cercos y MUP 117 en Nieva (en esta última solo se recogieron los datos de producciones), todos ellos pinares monoespecíficos de P. pinaster localizados en la denominada Tierra de Pinares Segoviana. En los árboles de nuestro estudio se han aplicado cuatro métodos de resinación: método de pica de corteza con estimulante y método mecanizado con estimulante, ambos en sentido ascendente y descendente. En los trabajos realizados para el análisis de la influencia de la anatomía constitutiva en la producción de resina (objetivo 1) y el efecto del clima (objetivo 3), se obtuvieron muestras del xilema de 26 árboles resinados en Melque de Cercos y Armuña y 12 árboles control sin resinar. Para caracterizar los pies estudiados, se midió la altura, diámetro normal y porcentaje de copa viva. Las muestras de tejido fueron recogidas en una zona del tronco a una distancia del límite de la herida considerada en la bibliografía como no afectada (anatomía constitutiva). Para el análisis de las alteraciones anatómicas inducidas por la herida (objetivo 2), se recogieron muestras en ocho de los individuos en los que se habían realizado los distintos métodos de resinación descritos y en cinco árboles control. Se obtuvieron ocho muestras de tejido distribuidas en la parte superior, inferior, lateral y centro de la herida de cada uno de los árboles resinados. Para establecer las diferencias en la producción de resina según el método de resinación, se analizaron las producciones de 561 árboles resinados en 2012 con estos cuatro métodos en Nieva. Los principales resultados de estos trabajos muestran que la producción de resina está ligada al volumen de canales (axiales y radiales) y a la frecuencia de canales radiales existentes en el árbol antes de efectuar ninguna herida (sistema constitutivo). De esta manera, los árboles grandes productores de resina mostraron una red de canales más densa que aquellos con producciones medias. Una vez realizada la herida de resinación, observamos una disminución del ancho del anillo de crecimiento y del tamaño medio de los canales axiales a la vez que se incrementaba la frecuencia y área ocupada por mm2 de anillo de estos canales. Estos cambios perduraron en el árbol durante al menos tres años y fueron distintos dependiendo de la localización en el entorno de la herida y del método de resinación. Las respuestas más intensas a la herida se observaron el año siguiente a la realización de la misma, en dirección axial, para las distancias más próximas al límite de la herida y para los métodos de resinación en sentido ascendente. Además, se ha constatado que como consecuencia de las heridas de resinación se produjeron cambios en la anatomía del xilema en zonas alejadas de la herida, tanto en el año de la herida como años posteriores. Es decir, se observó una respuesta sistémica del árbol. Respecto al papel del clima como regulador de la respuesta del árbol, se ha evidenciado que la temperatura, la radiación y la ETP influyeron en la producción de resina, no solo durante la campaña de resinación, sino también durante los meses anteriores. El déficit hídrico favoreció la producción y la formación de canales axiales pero, a partir de un determinado umbral, esa relación se invirtió y las lluvias estivales incrementaron la producción. Algunas de estas variables climáticas se asociaron a cambios en el tamaño y frecuencia de las estructuras secretoras, las cuales posiblemente modulan la respuesta defensiva de la planta. La dendrometría del árbol (evaluada a través del diámetro normal, altura y porcentaje de copa viva), la densidad de la masa y el tipo de suelo influyeron en el potencial de producción de resina de P. pinaster. Árboles más vigorosos, parcelas con menores densidades y suelos con más capacidad para la retención de agua y nutrientes presentaron producciones mayores. Estos trabajos se complementan en anexos con una caracterización del sistema socio-ecológico del pinar en resinación. En ese trabajo se identifican sus potenciales servicios ecosistémicos y se evalúa su grado de vinculación con el aprovechamiento resinero con objeto de valorar su funcionalidad y aproximar una valoración económica de modo que sea posible apreciar la importancia económica de los mismos. Para concluir, podemos resaltar que son necesarios más trabajos de carácter científico para avanzar en la comprensión de los procesos anatómicos y fisiológicos que regulan la secreción de resina en P. pinaster y sus interacciones con el medio. Esto permitiría avances certeros hacia el desarrollo de métodos de extracción más eficaces, una selvicultura óptima, el reconocimiento de los beneficios socio-ecológicos y económicos del aprovechamiento y, de manera general, una bibliografía amplia y fiable para la consulta y desarrollo de futuras mejoras que posibiliten la reactivación y conservación de la resinación como aprovechamiento rentable. ABSTRACT Pinus pinaster Ait. is the most widespread conifer in Spain and is now the only species tapped for its oleoresin. External induction of resin secretion, based on the defense system of Pinus trees, has been performed by humans since Classical times through various methods. The socio-economic implication of this practice in Spain justifies a new approach to improve tapping methodology and understand the effects of this activity on the tree. In the last five years, sharp increases in the price of natural resins, accompanied by technological advances directed toward mechanization, have made resin tapping a strategic activity for rural development and forest conservation. The resin industry demands more efficient tapping methods and forest management plans as a way to increase competitiveness in a global market. In this way, this work focuses on the study of the defense system of P. pinaster, with the aim to understand the effects of anatomical and physiological characteristics and environmental conditions on resin yield. The relationships between anatomical variables -with special focus on resin canals-, dendrometric and dasometric variables, and resin yield will be evaluated (objective 1). The tapping wound effects (objective 2) and the intra- and inter-annual variability of climate conditions and soil water availability influence (objective 3) on resin yield will be also studied. The plant and soil material and the resin yield and climatic data used in this thesis have been collected in stands of three public forests of P. pinaster; Armuña, Melque de Cercos and Nieva, located in Segovia (Central Spain). Trees were tapped using two different methods: mechanized or traditional tool, in both upwards and downwards direction. Twenty-six tapped trees of contrasting resin yield classes and twelve non-tapped (control) trees, growing in two locations (Armuña y Melque de Cercos) with the same climate but different stand density and soil characteristics, were selected for studying the role of tree size, xylem anatomy at distal parts aside from the tapping wound (objective 1) and climate influence (objective 3) on resin yield. Concerning the tree defenses induced by the tapping wound (objective 2), the xylem of eight trees, tapped with the two described methods in both upwards and downwards direction, were analyzed. From each tapped tree, eight cores were collected at different locations and varying distances from the tapping wound. In each core, a histological analysis was made. Growth ring width, earlywood and latewood width, and axial canal frequency, area, mean size and location were measured. The effect of the tapping method on resin yield was assessed in 561 P. pinaster tapped trees in a stand in Nieva. In tissues not affected by the tapping wound, the frequency of radial resin canals and the total volume of resin canals were related to resin yield. The frequency of radial canals and the resin yield were strongly related to tree diameter and percentage of live crown. High area of axial resin canals per mm2 was related to high yielding trees, but only in the location with higher plant density and poorer soil quality. In tapped trees, an increase in axial canal frequency and area was found during the three years following the start of tapping activity, suggesting that canal formation is a systemic induced response to wounding. The highest mean annual resin yield was found using the traditional tool in upwards direction, which also induced the highest increase in axial canal frequency and area. The lowest yield was found for mechanized tapping, which showed no differences between the upwards and downwards directions. The strongest induction of systemic induced responses in terms of resin canal frequency and area was detected one year after tapping for upwards tapping. This suggests the involvement of signaling processes that spread mainly upwards, and the importance of adaptive processes as a defense against periodic insect attacks. Intra-annual variation in resin yield was strongly correlated with temperature, solar radiation, potential evapotranspiration and soil water deficit. Inter-annual variation in resin yield and resin canal abundance were correlated with temperature and water deficit in spring, but above a certain threshold of cumulated water deficit in summer rainfall favored resin yield. Under adverse climate scenarios where resource optimization is desirable, a reduced tapping season during the warmest months (June–September) would be advisable, assuming a very small production loss relative to traditional tapping season. Similarly, in years with a rainy summer and/or dry spring, a slightly longer tapping season could be suggested, as resin yield increases after these events. Tree diameter and percentage of live crown, and radial resin canal frequency could be useful criteria for estimating resin yields in P. pinaster. Vigorous trees in lower density stands and growing up in good quality soils will be the most productive. These conclusions could be applied to improve tapping management and breeding programs. These works are complemented with socio-ecological characterization, the identification of the main ecosystem services and an assessment of the possible economic impact derived from the tapping practice. To conclude, more scientific studies are necessary for understanding the anatomical and physiological processes behind resin synthesis and their interactions with the environment. This would afford further progresses towards an extensive and reliable bibliography and improved tapping methods and optimal selvicultural guide lines.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Forest engineering in Spain has a long tradition and active presence in the engineering field. It is also one of the first educational institutions that shaped the Spanish technological panorama in the mid nineteenth century. The actual situation of the forest systems in Spain is the result of 166 years of observation, research, education and the application of specific techniques and principles that forest engineers acquired with the successive study plans that were implanted in educational institutions. In this paper, the planning historical process of education in Forest engineer is analyzed, differentiating between four historical periods. The analysis of the stages focuses on the contents of the study plans, the orientation towards educational objectives, the duration of the studies and the causes for the modifications that had an impact on the evolution through time within the framework of the acquired experience and the technological advances

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A Constituição de 1988 e leis subsequentes determinam que o Estado preste informações aos cidadãos e favoreça a sua participação nas questões públicas trata-se do princípio legal da Transparência Administrativa, que compreende os seguintes subprincípios: (1) Informação; (2) Motivação e, o mais importante, (3) Participação e interatividade cidadãs. O alto investimento na Comunicação Estatal e os avanços tecnológicos, por si sós, não garantem a prática da transparência pública ou da democratização da informação. Sob uma perspectiva multidisciplinar, esta pesquisa discutiu o princípio legal de Transparência Administrativa, comparativamente à Teoria da Comunicação, com o objetivo de propor um conceito de Comunicação Estatal que, de fato, corresponda aos ideais e à ética necessários à Comunicação Pública. Para o desenvolvimento deste estudo foi investigada a relação da comunicação com o grau de transparência alcançado no portal do Senado Federal. O estudo analisou a tramitação da reforma do Poder Judiciário no período de 2000 a 2004, tendo em vista os três subprincípios legais da Transparência Pública. A análise contemplou, no portal do Senado, o trabalho jornalístico e a disponibilização on-line de textos digitais referentes a documentos originais, tais como atas públicas e notas taquigráficas. A metodologia, de enfoques quantitativo e qualitativo, teve como instrumento principal a Nova Retórica, para análise de matérias jornalísticas e textos documentais. Para averiguação da interatividade conceito que fundamenta o ideal de justiça , foram estabelecidos critérios analíticos a partir da intersecção entre os conceitos de transparência e E-parliaments. Constatou-se que o portal do Senado, no referente à reforma da Justiça, alcançou graus de transparência, atendendo mais aos subprincípios da informação e da motivação em detrimento aos da participação e interatividade cidadãs.(AU)

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A Constituição de 1988 e leis subsequentes determinam que o Estado preste informações aos cidadãos e favoreça a sua participação nas questões públicas trata-se do princípio legal da Transparência Administrativa, que compreende os seguintes subprincípios: (1) Informação; (2) Motivação e, o mais importante, (3) Participação e interatividade cidadãs. O alto investimento na Comunicação Estatal e os avanços tecnológicos, por si sós, não garantem a prática da transparência pública ou da democratização da informação. Sob uma perspectiva multidisciplinar, esta pesquisa discutiu o princípio legal de Transparência Administrativa, comparativamente à Teoria da Comunicação, com o objetivo de propor um conceito de Comunicação Estatal que, de fato, corresponda aos ideais e à ética necessários à Comunicação Pública. Para o desenvolvimento deste estudo foi investigada a relação da comunicação com o grau de transparência alcançado no portal do Senado Federal. O estudo analisou a tramitação da reforma do Poder Judiciário no período de 2000 a 2004, tendo em vista os três subprincípios legais da Transparência Pública. A análise contemplou, no portal do Senado, o trabalho jornalístico e a disponibilização on-line de textos digitais referentes a documentos originais, tais como atas públicas e notas taquigráficas. A metodologia, de enfoques quantitativo e qualitativo, teve como instrumento principal a Nova Retórica, para análise de matérias jornalísticas e textos documentais. Para averiguação da interatividade conceito que fundamenta o ideal de justiça , foram estabelecidos critérios analíticos a partir da intersecção entre os conceitos de transparência e E-parliaments. Constatou-se que o portal do Senado, no referente à reforma da Justiça, alcançou graus de transparência, atendendo mais aos subprincípios da informação e da motivação em detrimento aos da participação e interatividade cidadãs.(AU)

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The Internet has created new opportunities for librarians to develop information systems that are readily accessible at the point of care. This paper describes the multiyear process used to justify, fund, design, develop, promote, and evaluate a rehabilitation prototype of a point-of-care, team-based information system (PoinTIS) and train health care providers to use this prototype for their spinal cord injury and traumatic brain injury patient care and education activities. PoinTIS is a successful model for librarians in the twenty-first century to serve as publishers of information created or used by their parent organizations and to respond to the opportunities for information dissemination provided by recent technological advances.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Desde o seu desenvolvimento na década de 1970 a tomografia computadorizada (TC) passou por grandes mudanças tecnológicas, tornando-se uma importante ferramenta diagnóstica para a medicina. Consequentemente o papel da TC em diagnóstico por imagem expandiu-se rapidamente, principalmente devido a melhorias na qualidade da imagem e tempo de aquisição. A dose de radiação recebida por pacientes devido a tais procedimentos vem ganhando atenção, levando a comunidade científica e os fabricantes a trabalharem juntos em direção a determinação e otimização de doses. Nas últimas décadas muitas metodologias para dosimetria em pacientes têm sido propostas, baseadas especialmente em cálculos utilizando a técnica Monte Carlo ou medições experimentais com objetos simuladores e dosímetros. A possibilidade de medições in vivo também está sendo investigada. Atualmente as principais técnicas para a otimização da dose incluem redução e/ou modulação da corrente anódica. O presente trabalho propõe uma metodologia experimental para estimativa de doses absorvidas pelos pulmões devido a protocolos clínicos de TC, usando um objeto simulador antropomórfico adulto e dosímetros termoluminescentes de Fluoreto de Lítio (LiF). Sete protocolos clínicos diferentes foram selecionados, com base em sua relevância com respeito à otimização de dose e frequência na rotina clínica de dois hospitais de grande porte: Instituto de Radiologia do Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo (InRad) e Instituto do Câncer do Estado de São Paulo Octávio Frias de Oliveira (ICESP). Quatro protocolos de otimização de dose foram analisados: Auto mA, Auto + Smart mA, Baixa Dose (BD) e Ultra Baixa Dose (UBD). Os dois primeiros protocolos supracitados buscam redução de dose por meio de modulação da corrente anódica, enquanto os protocolos BD e UBD propõem a redução do valor da corrente anódica, mantendo-a constante. Os protocolos BD e UBD proporcionaram redução de dose de 72,7(8) % e 91(1) %, respectivamente; 16,8(1,3) % e 35,0(1,2) % de redução de dose foram obtidas com os protocolos Auto mA e Auto + Smart mA, respectivamente. As estimativas de dose para os protocolos analisados neste estudo são compatíveis com estudos similares publicados na literatura, demonstrando a eficiência da metodologia para o cálculo de doses absorvidas no pulmão. Sua aplicabilidade pode ser estendida a diferentes órgãos, diferentes protocolos de CT e diferentes tipos de objetos simuladores antropomórficos (pediátricos, por exemplo). Por fim, a comparação entre os valores de doses estimadas para os pulmões e valores de estimativas de doses dependentes do tamanho (Size Specific Dose Estimates SSDE) demonstrou dependência linear entre as duas grandezas. Resultados de estudos similares exibiram comportamentos similares para doses no reto, sugerindo que doses absorvidas pelos uma órgãos podem ser linearmente dependente dos valores de SSDE, com coeficientes lineares específicos para cada órgão. Uma investigação mais aprofundada sobre doses em órgãos é necessária para avaliar essa hipótese.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A redução da mortalidade é um objetivo fundamental das unidades de terapia intensiva pediátrica (UTIP). O estágio de gravidade da doença reflete a magnitude das comorbidades e distúrbios fisiológicos no momento da internação e pode ser avaliada pelos escores prognósticos de mortalidade. Os dois principais escores utilizados na UTIP são o Pediatric Risk of Mortality (PRISM) e o Pediatric Index of Mortality (PIM). O PRISM utiliza os piores valores de variáveis fisiológicas e laboratoriais nas primeiras 24 horas de internação enquanto o PIM2 utiliza dados da primeira hora de internação na UTIP e apenas uma gasometria arterial. Não há consenso na literatura, entre PRISM e PIM2, quanto à utilidade e padronização na admissão na terapia intensiva para as crianças e adolescentes, principalmente em uma UTI de nível de atendimento terciário. O objetivo do estudo foi estabelecer o escore de melhor performance na avaliação do prognóstico de mortalidade que seja facilmente aplicável na rotina da UTIP, para ser utilizado de forma padronizada e contínua. Foi realizado um estudo retrospectivo onde foram revisados os escores PRISM e PIM2 de 359 pacientes internados na unidade de terapia intensiva pediátrica do Instituto da Criança do Hospital das Clínicas da Faculdade de Medicina da USP, considerada uma unidade de atendimento de nível terciário. A mortalidade foi de 15%, o principal tipo de admissão foi clinico (78%) sendo a principal causa de internação a disfunção respiratória (37,3%). Os escores dos pacientes que foram a óbito mostraram-se maiores do que o dos sobreviventes. Para o PRISM foi 15 versus 7 (p = 0,0001) e para o PIM2, 11 versus 5 (p = 0,0002), respectivamente. Para a amostra geral, o Standardized Mortality Ratio (SMR) subestimou a mortalidade tanto para o PIM2 quanto para o PRISM [1,15 (0,84 - 1,46) e 1,67 (1,23 - 2,11), respectivamente]. O teste de Hosmer-Lemeshow mostrou calibração adequada para ambos os escores [x2 = 12,96 (p = 0,11) para o PRISM e x2 = 13,7 (p = 0,09) para o PIM2]. A discriminação, realizada por meio da área sob a curva ROC, foi mais adequada para o PRISM do que para o PIM2 [0,76 (IC 95% 0,69 - 0,83) e 0,65 (IC 95% 0,57 - 0,72), respectivamente, p= 0,002]. No presente estudo, a melhor sensibilidade e especificidade para o risco de óbito do PRISM foi um escore entre 13 e 14, mostrando que, com o avanço tecnológico, o paciente precisa ter um escore mais elevado, ou seja, maior gravidade clínica do que a população original, para um maior risco de mortalidade. Os escores de gravidade podem ter seus resultados modificados em consequência: do sistema de saúde (público ou privado), da infraestrutura da UTIP (número de leitos, recursos humanos, parque tecnológico) e indicação da internação. A escolha de um escore de gravidade depende das características individuais da UTIP, como o tempo de espera na emergência, presença de doença crônica complexa (por exemplo, pacientes oncológicos) e como é realizado o transporte para a UTIP. Idealmente, estudos multicêntricos têm maior significância estatística. No entanto, estudos com populações maiores e mais homogêneas, especialmente nos países em desenvolvimento, são difíceis de serem realizados

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Atualmente, os edifícios, em função dos avanços tecnológicos dos sistemas prediais, necessitam de maior planejamento, detalhamento de projetos, controles de execução e treinamento dos profissionais de operação e manutenção para atender os requisitos de projeto do proprietário, que têm como premissa os conceitos de sustentabilidade, qualidade e desempenho. A presença dos sofisticados sistemas de controle contribui para facilitar o gerenciamento de insumos como água e energia, porém pequenas falhas podem levar a grandes falhas de desempenho. As falhas na concepção dos edifícios têm início com a má interpretação, por parte da equipe técnica, dos requisitos dos proprietários. Assim, é necessário que na concepção do edifício sejam verificados todos os requisitos solicitados pelos proprietários para o edifício durante o seu ciclo de vida. A falha da comunicação percorre toda a cadeia produtiva do edifício gerando falhas de planejamento, projeto, execução e manutenção. O comissionamento é um processo para atender aos requisitos de projeto do proprietário, documentar as fases do ciclo de vida dos edifícios, capacitar os profissionais de operação e manutenção, com o objetivo de evitar as falhas, diminuir desperdícios e retrabalhos, melhorar a qualidade, o desempenho e a sustentabilidade dos edifícios. O comissionamento é mais difundido em sistemas prediais de ar condicionado e de iluminação tendo como meta a alta eficiência energética e a economia de água, sendo pouco utilizado no Brasil. Neste contexto, o objetivo desta pesquisa é propor um modelo conceitual de comissionamento para sistemas prediais. A metodologia adotada para o desenvolvimento do modelo, utiliza a pesquisa bibliográfica como procedimento técnico. Para elucidar em que fase o comissionamento é aplicado, este foi relacionado com os outros conceitos utilizados no ciclo de vida do edifício como a coordenação de projeto, o gerenciamento de execução, o gerenciamento de facilidades, a qualidade, o desempenho, a sustentabilidade. Para o desenvolvimento do modelo conceitual é apresentado um fluxo das fases do ciclo de vida e respectivas etapas do comissionamento e outro fluxo com a relação de documentos gerados em cada fase. O resultado, ou seja, o modelo conceitual dá as diretrizes para o desenvolvimento de um comissionamento por meio da descrição das atividades, das competências e dos produtos gerados em cada etapa do comissionamento, conforme as fases do ciclo do edifício. Este trabalho contribui para difundir o comissionamento e embasar a sua aplicação em edifícios.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

A demanda crescente por energia tem motivado a procura por petróleo e gás natural em ambientes com condições extremas, como operações em águas profundas e o transporte de fluídos corrosivos. Avanços tecnológicos recentes favorecem o uso de tubos de aço contendo uma camada interna resistente a corrosão (comumente chamados de Lined ou Clad Pipes) para o transporte de tais fluidos agressivos. Além disso, as tubulações submarinas são sujeitas a condições de instalação muito severas e, um caso de interesse, é o procedimento de reeling que permite com que a fabricação e inspeção da tubulação seja feita em terra. Apesar de possuir vantagens econômicas, a avaliação da integridade estrutural e especificação dos tamanhos toleráveis de trinca em juntas soldadas, nestas condições, torna-se uma tarefa complexa, devido a natureza dissimilar dos materiais e ao grande nível de deformação plástica no processo. Dessa maneira, este trabalho tem por objetivo o desenvolvimento de um procedimento de avaliação de forças motrizes elasto-plásticas em tubos contendo juntas soldadas circunferenciais sujeitos a flexão, para uma extensa gama de configurações geométricas. Dois métodos distintos foram desenvolvidos e analisados: a metodologia EPRI e o procedimento que utiliza a curva de tensão vs. deformação equivalente. As análises numéricas 3D fornecem os parâmetros de fratura necessários para a resolução do problema e a acurácia dos procedimentos é verificada a partir de estudos de casos e análises paramétricas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Produtos com um tempo considerável de utilização podem ser objeto de um processo de manutenção mais amplo e profundo, que visa prolongar a sua vida útil. O termo recuperação é aplicado a este tipo de manutenção, que visa à substituição de peças defeituosas, desgastadas, e/ou com a vida útil encerrada. O surgimento de novos paradigmas e de um novo conjunto de doutrinas operacionais pode mudar as expectativas e necessidades das partes interessadas de modo que o produto pode ser proposto para uma modernização. Assim, o produto pode ser reengenheirado durante a sua recuperação. Para realizar um projeto de recuperação e modernização, propõe-se uma abordagem em seis passos centrada numa decisão baseada no risco para classificar os componentes de acordo com a ação a ser realizada. A análise do produto é desenvolvida com base em técnicas de desmontagem e uma análise da fase operacional é realizada para as tomadas de decisões. Deste modo, um componente pode sofrer manutenção, ser modernizado, ser excluído, ser inserido ou permanecer fora do escopo dos trabalhos. O processo da gestão baseada em risco também inclui duas fases de monitoramento de risco continuado: durante a produção e na fase de operação. As decisões podem ser revistas pelo uso da análise bayesiana. Um estudo de caso é proposto para ilustrar o modelo num programa de recuperação e modernização de veículos blindados realizada numa unidade do Exército Brasileiro. A aplicação da metodologia permitiu a seleção de uma alternativa de modernização, considerando riscos e benefícios. O desdobramento das análises no projeto detalhado permitiu a definição final do escopo de recuperação e modernização, observando efeitos de propagação de alterações de engenharia. A principal contribuição deste trabalho é a formalização de um estudo da recuperação e modernização como projeto específico, descrevendo suas características de uma forma a permitir a aplicação de um modelo baseado em risco.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Onboarding is an important aspect of the employment process that has been often ignored. Overlooked onboarding results in high turnover costs, totaling up to 30 to 50 percent of an employee's first-year pay. To decrease this turnover and its associated high costs, this paper proposes the implementation of a highly strategic onboarding process. This process has a strategic focus, SMART goals, integrates multiple offices and people, and addresses all new employee needs with two considerations, generational and technological advances. An employee stays continuously and actively engaged, with vested interest in success, maximizing engagement and retention. The process focuses on constant and continuous feedback from all stakeholders. The project is a practical guide for implementing a new strategically focused onboarding process.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

El mundo es cada vez más pequeño debido a los avances tecnológicos y a la mayor experiencia de los directivos hoteleros y de los turistas, lo que provoca que la rivalidad entre destinos en el sector turístico sea cada vez mayor. Ante esta situación, este estudio se centra en el sector hotelero español y aplica los grupos estratégicos para determinar de qué forma compiten los hoteles y cómo influyen sus comportamientos estratégicos en su desempeño. Asimismo, se ofrecen acciones para mejorar el desempeño de un hotel en función del grupo estratégico al que pertenezca. La relevancia de este estudio radica en que clarifica la complejidad estratégica a la que están sometidos los directivos de los hoteles y les sirve de guía para la toma de decisiones estratégicas.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The footwear industry is a traditional craft sector, where technological advances are difficult to implement owing to the complexity of the processes being carried out, and the level of precision demanded by most of them. The shoe last joining operation is one clear example, where two halves from different lasts are put together, following a specifically traditional process, to create a new one. Existing surface joining techniques analysed in this paper are not well adapted to shoe last design and production processes, which makes their implementation in the industry difficult. This paper presents an alternative surface joining technique, inspired by the traditional work of lastmakers. This way, lastmakers will be able to easily adapt to the new tool and make the most out of their know-how. The technique is based on the use of curve networks that are created on the surfaces to be joined, instead of using discrete data. Finally, a series of joining tests are presented, in which real lasts were successfully joined using a commercial last design software. The method has shown to be valid, efficient, and feasible within the sector.