917 resultados para poda drástica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

En regiones semiáridas, con veranos cálidos, evapotranspiraciones elevadas, humedades relativas bajas, además de precipitaciones intermitentes y escasas (400 mm al año) que reducen la recarga del perfil en invierno, se puede ver afectada la productividad y sostenibilidad de los viñedos. Por eso en estas zonas puede ser necesario utilizar el riego suplementario para mantener la calidad y aumentar la productividad. En este marco de circunstancias es en el que se desarrolla la mayoría de la viticultura española, y en concreto en la zona centro donde se realizó el estudio. Con este trabajo se pretende estudiar la influencia del agua del riego, con distintas dosis y aplicada en diferentes fases de crecimiento y maduración de la baya, en la producción y calidad de la uva. Se estudió la influencia del déficit moderado continuo aplicado antes y después de envero, en el aprovechamiento de los recursos ambientales y en la respuesta del cv. Cabernet Sauvignon. El ensayo se desarrolló en 2010 y 2011 en la finca “La Alcoholera”, perteneciente a bodegas LICINIA S.L., ubicada en la localidad de Chinchón, Comunidad de Madrid, España. Durante 2010 y 2011 se realizaron estudios en cepas del cv. Cabernet Sauvignon (clon 15), injertadas sobre 41B y plantadas en 2005. Con poda corta en Cordón Royat unilateral de 80 cm de altura, y cuya vegetación alcanzó una altura de 97 cm. Las cepas del ensayo fueron conducidas verticalmente en espaldera (VSP), con 10 yemas por metro lineal. Las plantas dentro de la fila fueron separadas 1 m y la distancia de la calle fue de 3 m. La orientación de las filas norte – sur. Se plantearon cuatro tratamientos experimentales con diferentes dosis y momento de aplicación del riego. - T: Testigo. Déficit ligero, con un aporte continuado de agua desde floración (420 mm). - DMc: Déficit moderado continuo. Manejo del riego convencional, empezando en pre-envero (154 mm) - DM1: Déficit moderado a partir de pre-envero. Aporte de riego continuado desde floración reduciéndose la dosis de riego en pre-envero (312 mm). - DM2: Déficit moderado hasta pre-envero. Se empezó a regar a partir de preenvero (230 mm). Se observó que bajo condiciones de estrés hídrico leve, el crecimiento se reduce disminuyendo la migración de fotoasimilados hacia los órganos vegetativos. Generando menor área foliar en las plantas sometidas a déficit hídrico moderado entre floración y cuajado. Disminuyendo su consumo. En maduración la humedad del suelo dependió principalmente del riego aplicado y del consumo de la planta; dicho consumo dependió a la vez del desarrollo foliar del canopy y de la necesidad hídrica de la vid. El aumento del déficit hídrico disminuyó el contenido de agua en el suelo, lo que provocó diferencias en el estado hídrico y en el intercambio gaseoso de las hojas. En condiciones de déficit moderado, la fotosíntesis se encontró altamente correlacionada con el potencial hídrico foliar medido a mediodía solar. Además en condiciones de déficit moderado continuo la disponibilidad hídrica, la demanda atmosférica y el nivel de hidratación de las hojas, interaccionaron de forma compleja en la regulación estomática de las hojas, condicionando el intercambio gaseoso y la eficiencia en el uso del agua. Al aumentar el volumen de agua aplicado el peso de madera de poda por metro de fila fue superior. Las diferencias encontradas en el rendimiento fueron debidas a las diferencias en el peso de baya. El cual estuvo condicionado por la estrategia de riego, ya que, el déficit hídrico moderado antes de envero fue más crítico para el rendimiento que el déficit impuesto durante la madurez. Por otro lado, la biomasa dependió de la actividad fisiológica de la planta, la cual fue altamente dependiente de la disponibilidad hídrica. Déficit hídrico moderado aplicado de cuajado a envero, generó bayas más pequeñas y aumentó la relación hollejo:pulpa. El déficit moderado aplicado después de envero favoreció la acumulación de IPT y antocianos extraíbles, mejorando la calidad de la uva, pero disminuyó la acidez de la baya. El riego aplicado de envero a vendimia desaceleró la concentración de azúcares en bayas que fueron sometidas a déficit antes de pre-envero. ABSTRACT Mediterranean climate is characterized by hot summers, high evapotranspiration rates, and scarce precipitations (400 mm per year) during grapevine cycle. These extremely dry conditions affect vineyard productivity and sustainability. Supplementary irrigation is needed practice in order to maintain yield and quality. Almost all Spanish grape growing regions are characterized by these conditions, especially in the center region, where this trial was performed. The main objective of this work is to study the influence of water irrigation on yield and quality. For this aim, different levels of irrigation (mm of water applied) were applied during different stages of growth and berry maturity of Caberent Sauvignon grapevines. The work was conducted from 2010 to 2011 and located in Licinia (40º 12´ N, 3º 28´ W), Madrid, Spain. The cultivar utilized was Cabernet Sauvignon, clone 15 grafted onto rootstock 41B, planted in 2005. The vineyard was oriented north-south, with spacing on 3 meters between rows and 1 meter between plants. Vines were spurpruned to 10 buds per meter and trained in unilateral cordon with a height of 80 cm. Shoots were positioned vertically (VSP). Considering the amount of water and the moment of the application, four experimental treatments were applied: - T: Control sample. Slight deficit (420 mm) applied from bloom to maturity. - DMc: Continuous moderate deficit. Traditional irrigation: application of 154 mm of water from pre-veraison to maturity. - DM1: Deficit moderate from pre-veraison. Irrigation of 312 mm of water from bloom to pre-veraison. - DM2: Deficit moderate to pre-veraison. Irrigation of 230 mm of water from preveraison to maturity Under moderated water stress conditions it was seen than leaf growth decreases due to the reduction of migration of photo-assimilates to vegetative organs. Vines with moderate water deficit between flowering and ripening develop less leaf area and decrease its water consumption. During maturation of berries, soil moisture depends on irrigation and plant consumption. This consumption further depends on vegetation development and on the vine needs for water. By increasing water deficit, the water content in the soil decreases. This causes differences in leaf water status and in the gases exchange. Under moderate deficit conditions, photosynthesis was found highly correlated with midday leaf water potential. Further, atmospheric demand and the level of leaves hydration interact in complex ways in the stomatal regulation, which affects leaf gas exchange and the efficiency of water use. The amount of water applied is directly proportional to pruning weight. Changes in berry weight cause differences in yield ratios. The differences in berry weights are conditioned by the irrigation strategy, the moderate water deficit before veraison influences more than the deficit applied from veraison. Biomass generated for the plant depends on its physiological activity, which is highly related to the water availability. Moderate water deficit applied from fruit set to ripening generates smaller berries, increasing the pulp/skin ratio. Moderate deficit applied after veraison promotes the accumulation of extractables anthocyans and TPI. Despite this treatment improves color parameters of the grapes, it decreases its total acidity. Irrigation applied from veraison to harvest slows down sugar accumulation in berries compared to those under deficit before veraison conditions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si la casa, como es lógico, se encuentra en el centro de cualquier discusión sobre el habitar, la casa del arquitecto tendrá, sin duda, un especial interés en este ámbito. Francisco Javier Sáenz de Oíza tuvo la fortuna de poder vivir gran parte de su vida en casas proyectadas por él mismo. No ocurrió así, sin embargo, en el caso de su tantas veces dibujada casa en Oropesa, que nunca llegó a construir. Cuando en 1992, ya profesor emérito, Oíza tuvo que dar una conferencia acerca de la casa en la Escuela de Arquitectura de Madrid, no enseñó ninguna de aquellas que había podido construir para él, ni siquiera alguna de las que había realizado para sus clientes, sino que rescató del olvido este pequeño refugio desconocido para casi todos. Se trataba de una pequeña cabaña en mitad del bosque. El programa, mínimo, se encontraba verdaderamente ajustado en sus dimensiones y las técnicas constructivas que se proponían incidían en este carácter austero de la vivienda. Sin embargo, la cabaña tenía una particularidad evidente que destacaba por encima de las demás: al contrario de lo que podía esperarse, ésta era una cabaña vertical. Con la reconstrucción gráfica y el análisis de esta pequeña obra intentaremos arrojar algo de luz, de buscar una particular construcción de sentido, a la intensa y poliédrica arquitectura de un hombre tachado en ocasiones de ?navegar a la deriva?, pero sin duda complejo y fascinante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo aborda el estudio del uso de restos de poda, lodos de depuradora y diferentes biochares obtenidos a partir de dichos residuos, así como biochar comercial, como componentes de sustratos de cultivo en sustitución de la turba. Para ello, se han llevado a cabo varios experimentos usando dichos residuos originales y pirolizados, de forma individual o mezclándolos en distintas proporciones con turba con el fin de estudiar sus características químicas e hidrofísicas, su posible fitotoxicidad y el cultivo en macetas de Lactuca sativa. Los resultados obtenidos indican que es posible preparar sustratos de cultivo adecuados a partir de algunos de estos materiales, logrando así una forma de recuperación y valorización de los mismos, a la vez que se minimiza el consumo de turba. En general, la adición de biochar de restos de poda a la turba mejora la germinación y aumenta el crecimiento de Lactuca sativa respecto a la utilización de turba sola. ABSTRACT This research deals with the study of the use of pruning wastes, sewage sludges and different biochars obtained from these materials, as well as a commercial biochar, as growing media components to replace peat. Several experiments were conducted using original wastes and pyrolyzed ones, individually or mixed in different proportions with peat, in order to study their chemical and hydrophysical characteristics, its possible phytotoxicity and the pot cultivation of Lactuca sativa. The results obtained indicate that it is possible to prepare suitable growing media from some of these materials, not only achieving a recovery and valorisation of them, but also minimizing the consumption of peat. In general, the addition of pruning waste biochar to peat improves germination and increases the growth of Lactuca sativa in comparison with peat alone.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La aproximación de las organizaciones a la mejora de sus procesos ha venido por distintos caminos. Muchas Administraciones Públicas se acercaron a este universo a través del modelo EFQM de calidad y excelencia que surgió en la década de los 80 y que sirvió como referente en el ámbito de la Unión Europea como vía de autoevaluación y determinación de procesos de mejora continua. Está basado en la identificación de los puntos fuertes y débiles aplicados a diferentes ámbitos de la organización, siendo éstos el punto de partida para el proceso de mejora continua. Se trata de un modelo en el que puedes decir que estás en calidad aunque tu puntuación sea muy pequeña, por lo que, por imagen, muchas empresas públicas empezaron a implantarlo. La empresa privada sin embargo se decantó por los sistemas de calidad basados en normas ISO. En estos sistemas has de tener un nivel mínimo para poder exhibir una certificación o acreditación del sistema de calidad. La más extendida es la ISO 9001:2008 ya que es válida para todo tipo de empresa. Este sistema se centra en la satisfacción del cliente y está basada en gran medida en el PDCA, acrónimo de Plan, Do, Check, Act (Planificar, Hacer, Verificar y Actuar). Al tratarse de sistemas documentados, pasados los años se llega a la misma conclusión, aquellas empresas que simplemente tienen un certificado colgado en la pared y que arreglan los papeles antes de la auditoría no tienen nada que aporte valor añadido a la empresa y se autoengañan. La potencia de todo sistema de gestión de calidad reside en aprovechar el potencial de sus recursos humanos dirigiendo los recursos de la empresa de forma eficiente y haciendo participe de los objetivos de la organización a su personal para que se impliquen y sepan que se espera de cada uno. La formación de ingeniero siempre nos hace ser críticos con los modelos existentes y tratar de buscar caminos alternativos que sean más eficientes. Para ello es necesario tener un conocimiento muy preciso de la organización. Por ello, después de más de cinco años trabajando en la Organización, desempeñando diversos cometidos, analizando diferentes esferas de actuación y tras estudiar informes de diferentes organizaciones que supervisan el funcionamiento de la empresa me di cuenta que la Dirección General de la Marina Mercante podía cambiar de forma de actuar para modernizarse y ser más transparente, eficaz y eficiente. Esta tesis versa sobre la posibilidad de implantar un nuevo servicio en la Dirección General de la Marina Mercante que le permita mejorar su competitividad a nivel mundial, como estado de abanderamiento, y que, dentro de nuestras fronteras, haga que sus servicios se reorienten aprovechando el conocimiento de su personal, teniendo en cuenta las necesidades de sus usuarios y los recursos de la Organización. Las cartas de servicio permiten acercar al ciudadano al funcionamiento de la organización. Le informa de las condiciones en las que se presta el servicio, los compromisos de la empresa y la forma en la que puede participar para mejorarlos, entre otros. Por otra parte, la empresa no necesita previamente tener ningún sistema de calidad implantado, aunque, como veremos en el capítulo tres y cuatro siempre ayuda a la hora de tener sistemas de aseguramiento implantados. En el capítulo seis se detallan los objetivos que se lograrían con la implantación de las cartas de servicio en la DGMM y en el capítulo siete se discuten dichos resultados y conclusiones. ABSTRACT Different ways have been used by organizations to approach process improvement. Many Public Administrations chose quality and excellence EFQM model for that approachment. This quality program began in 80 decade and that it was the Europe Unión reference to continuous improvement autoevaluation and determination. It is based on strong and weak points of different organization fields, and they are considered as starting point for continuous improvement. This model allows enterprises to say that they are working on a quality scheme even though their score is very little, and this was why a lot of Public Administrations began using it. Nevertheless private enterprises chose quality management systems based on ISO standards. In these systems there is a threshold you must have to be able to have a certification or an accreditation of quality management system. ISO 9001:2008 is the standard most used because of it can be applied to a great range of enterprises. This system is focused on customer satisfaction and it is based on PDCA, Plan, Do, Check, Act. All these systems are documented ones, so once time goes by the same conclusion is reached: enterprises that have the certificate hung on the wall and that papers are fixed for audits have nothing that give them added value and they self-delusion. Quality management system power is related to the usage of human resources potential to lead enterprise resources efficiently and to make them participate in organization objectives. Naval architect training makes them to be critic with existing models and to try to find alternative ways to be more efficient. To achieve this goal, a precise knowledge of the organization is needed. That is the reason why, after five years in quality related issues in the Organization, in different chores, analyzing our scope and reports of organizations that supervise our operation, I realized that Merchant Marine Directorate could change the way of operation to modernize and be more transparent, efficient and effective. This thesis is about the possibility of implantation of a new service in Merchant Marine Directorate that will make it possible to improve their worldwide competitiveness as Flag State, and that to reorient all services taking into account citizens needs and Organization resources. Citizen’s charters able approachment to organization operation. It gives the following information: which are terms in which service is given, enterprise compromises, ways in which citizen can collaborate to improve them, and etc. Additionally, no quality management system is needed to be implemented. Although we’ll see in chapter three and four that having it is of great help. In chapter six are detailed goals achieved if citizen’s charters are implemented in Merchant Marine Directorate, and in chapter seven conclusions and results are discussed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de este proyecto es la continuación del desarrollo de una plataforma web bajo el sistema WebRTC que, integrada en el ámbito académico, proporcionase un servicio en tiempo real de compartición de información tanto a alumnos como a profesores. Entre esta información posible a compartir, además de mensajes y la propia videollamada que resulta la base de la plataforma, se pueden compartir explicaciones en una pizarra, videos o presentaciones que ayuden en la interacción entre los integrantes de la plataforma. Mientras que la base de la plataforma se encontraba implementada, el sistema no resultaba útil y funcional en dicho estado debido a la multitud de errores y fallos que ocurrían durante su funcionamiento en el sistema de intercambio de información entre los módulos que componen el sistema. Por ello, el objetivo de este trabajo es introducirse en esas capas, rediseñar dicho sistema de intercambio de información entre los diferentes actores que forman parte de la plataforma e implementarlo, logrando así un producto usable para un potencial cliente a partir de este punto y abierto a futuras mejores partiendo de este estado. Para ello además de la tecnología WebRTC, se han incluido funcionalidades con Javascript, Node.JS, jQuery o Socket.IO entre otras APIs. A partir de este sistema y de estas tecnologías, un profesor puede crear un aula virtual, seleccionar los derechos que les proporciona a sus alumnos en la misma y realizar una clase por dicha plataforma sin apenas diferencia a una presencial. Pero no se limita sólo a eso, sino que pueden realizarse tutorías, debates o reuniones entre compañeros de departamento para preparar asignaturas o exámenes. Lo cual genera multitud de posibilidades, no sólo en el ámbito académico, sino fuera de él, para reuniones en empresas, cursos online… En definitiva, con la base de funcionalidades ya implementada previamente y la adición del objetivo de este trabajo de fin de grado que finaliza esas funcionalidades y rediseña e implementa el sistema de intercambio de información para que la plataforma sea 100% usable sin los problemas que el usuario se podía encontrar anteriormente, se obtiene una plataforma con un gran potencial académico con la que los usuarios, bajo la base de la videollamada, podrán encontrar un ambiente de compartición de información como si estuviesen en el mismo lugar físico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A raíz de la aparición de los procesadores dotados de varios “cores”, la programación paralela, un concepto que, por otra parte no era nada nuevo y se conocía desde hace décadas, sufrió un nuevo impulso, pues se creía que se podía superar el techo tecnológico que había estado limitando el rendimiento de esta programación durante años. Este impulso se ha ido manteniendo hasta la actualidad, movido por la necesidad de sistemas cada vez más potentes y gracias al abaratamiento de los costes de fabricación. Esta tendencia ha motivado la aparición de nuevo software y lenguajes con componentes orientados precisamente al campo de la programación paralela. Este es el caso del lenguaje Go, desarrollado por Google y lanzado en 2009. Este lenguaje se basa en modelos de concurrencia que lo hacen muy adecuados para abordar desarrollos de naturaleza paralela. Sin embargo, la programación paralela es un campo complejo y heterogéneo, y los programadores son reticentes a utilizar herramientas nuevas, en beneficio de aquellas que ya conocen y les son familiares. Un buen ejemplo son aquellas implementaciones de lenguajes conocidos, pero orientadas a programación paralela, y que siguen las directrices de un estándar ampliamente reconocido y aceptado. Este es el caso del estándar OpenMP, un Interfaz de Programación de Aplicaciones (API) flexible, portable y escalable, orientado a la programación paralela multiproceso en arquitecturas multi-core o multinucleo. Dicho estándar posee actualmente implementaciones en los lenguajes C, C++ y Fortran. Este proyecto nace como un intento de aunar ambos conceptos: un lenguaje emergente con interesantes posibilidades en el campo de la programación paralela, y un estándar reputado y ampliamente extendido, con el que los programadores se encuentran familiarizados. El objetivo principal es el desarrollo de un conjunto de librerías del sistema (que engloben directivas de compilación o pragmas, librerías de ejecución y variables de entorno), soportadas por las características y los modelos de concurrencia propios de Go; y que añadan funcionalidades propias del estándar OpenMP. La idea es añadir funcionalidades que permitan programar en lenguaje Go utilizando la sintaxis que OpenMP proporciona para otros lenguajes, como Fortan y C/C++ (concretamente, similar a esta última), y, de esta forma, dotar al usuario de Go de herramientas para programar estructuras de procesamiento paralelo de forma sencilla y transparente, de la misma manera que lo haría utilizando C/C++.---ABSTRACT---As a result of the appearance of processors equipped with multiple "cores ", parallel programming, a concept which, moreover, it was not new and it was known for decades, suffered a new impulse, because it was believed they could overcome the technological ceiling had been limiting the performance of this program for years. This impulse has been maintained until today, driven by the need for ever more powerful systems and thanks to the decrease in manufacturing costs. This trend has led to the emergence of new software and languages with components guided specifically to the field of parallel programming. This is the case of Go language, developed by Google and released in 2009. This language is based on concurrency models that make it well suited to tackle developments in parallel nature. However, parallel programming is a complex and heterogeneous field, and developers are reluctant to use new tools to benefit those who already know and are familiar. A good example are those implementations from well-known languages, but parallel programming oriented, and witch follow the guidelines of a standard widely recognized and accepted. This is the case of the OpenMP standard, an application programming interface (API), flexible, portable and scalable, parallel programming oriented, and designed for multi-core architectures. This standard currently has implementations in C, C ++ and Fortran. This project was born as an attempt to combine two concepts: an emerging language, with interesting possibilities in the field of parallel programming, and a reputed and widespread standard, with which programmers are familiar with. The main objective is to develop a set of system libraries (which includes compiler directives or pragmas, runtime libraries and environment variables), supported by the characteristics and concurrency patterns of Go; and that add custom features from the OpenMP standard. The idea is to add features that allow programming in Go language using the syntax OpenMP provides for other languages, like Fortran and C / C ++ (specifically, similar to the latter ), and, in this way, provide Go users with tools for programming parallel structures easily and, in the same way they would using C / C ++.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto se encuadra dentro de los estudios de impacto que están produciendo en las empresas el desarrollo e incorporación de las nuevas tecnologías, y más concretamente la implantación de las aplicaciones provenientes de la denominada web 2.0. Se conoce con este nombre a las herramientas web que permiten una comunicación bidireccional, es decir, el usuario y la empresa pueden intercambiar opiniones, de manera que el usuario adquiere un nuevo papel más protagonista, presentando ideas, aclaraciones, gustos, críticas...que son tenidas en cuenta por la empresa para realizar su actividad. De esta manera se ha roto con el modelo anterior donde el usuario solo podía consultar la información de una página web, era simple receptor de la información. El objetivo de este estudio es conocer cómo las empresas están incorporando estas tecnologías 2.0 a su estrategia empresarial, y cómo términos como innovación abierta o co-creación están tomando mayor importancia en el entorno empresarial gracias a estas nuevas tecnologías. Si bien existen estudios a nivel de consultoría que generalmente aportan información sobre cuáles son las plataformas 2.0 más utilizadas en el mundo empresarial, no se han encontrado hasta ahora estudios que vinculen estas plataformas entre ellas y con la estructura empresarial, para poder definir un perfil de la organización que trabaja con ellas o el nivel de madurez de la incorporación de estas tecnologías en las organizaciones. Analizar cualitativamente estos aspectos, significa estudiar los nuevos conceptos incorporados a las tecnologías 2.0 en la empresa. Un análisis cuantitativo nos llevaría a estudiar de manera práctica que tipo de recursos y en qué cantidad se están utilizando y su vinculación con la estructura de la organización. Para ello: En una primera parte, nos centraremos en las diferentes formas en las que se puede acceder a Internet, y a continuación enfocaremos el estudio en los dispositivos móviles que nos permiten la conexión desde cualquier lugar y en cualquier instante. Con esto conseguiremos tener una situación actual del mercado de las TIC y veremos cómo las empresas han ido construyendo nuevas políticas para cambiar su estrategia con el fin de estar presentes en los nuevos dispositivos móviles y no perder cuota de mercado. Tras ello, veremos porqué conceptos como el de innovación abierta y proceso de co-creación han sido posibles gracias a la implantación de las tecnologías 2.0 en el ámbito empresarial, facilitando que la empresa y el usuario final cooperen y vayan de la mano en una misma dirección; la empresa se surte de las aportaciones que los usuarios ofrecen, y por otra parte el usuario se siente valorado por la empresa para conseguir la meta final. Es aquí donde comprobaremos la transformación que ha sufrido la empresa en sus distintos sectores departamentales (marketing, ventas, recursos humanos y atención al cliente) como consecuencia de la incorporación de las herramientas 2.0 al mundo laboral. Por todo ello, se enumerarán los distintos usos que realizan las empresas de las redes social más habituales, y además se describirán las principales herramientas y/o aplicaciones para monitorizar las redes sociales que servirán a la empresa para hacer un seguimiento de las mismas. La segunda parte del proyecto será un caso práctico y servirá para ofrecer una visión más real del estado actual de las empresas y su relación con las redes sociales. Para la recopilación de los datos se han escogido las empresas que pertenecen al sector de la “Fabricación de productos informáticos, electrónicos y ópticos”. En cuento a las redes sociales elegidas, han sido Facebook y Twitter. Este estudio práctico nos hará entender mejor el impacto directo que tienen las redes sociales en la actividad diaria de las empresas. Finalmente se realizarán una serie de consideraciones a modo de directrices que servirán para tratar de entender cómo se están utilizando las redes sociales en el entorno empresarial y cuál puede ser la manera más óptima de utilizarlas según el estudio presentado. ABSTRACT. This project is part of the impact studies arisen in companies by the development and incorporation of new technologies and, specifically, by the implementation of applications from the so-called web 2.0. That is how we call the web tools that allow bidirectional communication, this is, user and company can exchange opinions, in such a way that users acquire a leading role, submitting ideas, explanations, preferences, criticism... considered by the company when performing its activities. This way, we have broken with the previous model, where users could only check information from a web page and were simple information recipients. The objective of this study is to get to know how companies are incorporating these technologies 2.0 to their business strategy and how terms such as open innovation or co-creation are becoming more important in the business sphere thanks to these new technologies. Even if there are consulting studies that generally provide information about which are the platforms 2.0 more used in the business world, no studies have been found until now that link such platforms among them and with the business structure, in order to define a profile of the organization that works with them or the level of development of the incorporation of these technologies in the organizations. A qualitative analysis of these aspects involves studying the new concepts incorporated to technologies 2.0 by companies. A qualitative analysis would lead us to study in a practical manner what kind of resources and what amount are being used and their relation with the organization structure. Therefore: First, we will focus on the different ways to gain access to the Internet and, afterwards, we will focus the study on mobile devices that allow us to be connected everywhere any time. This way, we will manage to obtain a present situation of the ICT market and we will see how companies have constructed new policies to change their strategy in order to be present in the new mobile devices without losing their market share. Later, we will review why concepts such as open innovation and co-creation process have been possible thanks to the implementation of technologies 2.0 in the business environment, facilitating that companies and final users cooperate and walk hand in hand in the same direction; companies stock up on the contributions offered by users and, on the other hand, users feel appreciated by companies in the achievement of the final goal. Here we will confirm the transformation suffering by companies in different department sectors (marketing, sales, human resources and customer service) as a result of the incorporation of tools 2.0 to the work environment. Therefore, we will enumerate the different uses that companies make of the most common social networks, describing the main tools and/or applications to monitor social networks used by companies to follow them up. The second part of the project will be a case study to offer a more real vision of the present status of companies and their relation with social networks. To collect the data, we have selected companies from the “Manufacture of computer, electronic and optical products” industry. The social networks chosen are Facebook and Twitter. This case study will help us to get a better understanding of the direct impact of social networks in companies’ daily activity. Finally, we will offer a series of considerations and guidelines to try to understand how are social networks being used in the business environment and what can be the most suitable manner to use them according to this study.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En un contexto de rápido crecimiento de la población urbana y de cambio climático global, la consecución de un modelo de desarrollo sostenible pasa inevitablemente por construir ciudades más sostenibles. Basado en una intensiva impermeabilización de los suelos, el modelo actual de desarrollo urbano modifica profundamente el ciclo natural del agua en las ciudades. La drástica reducción de la capacidad de infiltración del terreno hace que gran parte de la precipitación se transforme en escorrentía superficial, que se concentra rápidamente originando grandes caudales punta. Además, el lavado de las superficies urbanas aporta altas cargas de contaminación a la escorrentía que producen importantes impactos en los medios receptores. Esta realidad motiva la realización de la presente tesis doctoral cuyo objetivo general es contribuir a la consecución de ciudades sostenibles a través de la gestión integral de las aguas de lluvia en los entornos urbanos. Con el objetivo prioritario de minimizar los riesgos de inundación, el enfoque convencional del drenaje urbano desarrolló las primeras soluciones en relación a los caudales punta, centralizando su gestión en el sistema de saneamiento e incorporando la escorrentía al mismo tan rápido como fuera posible. Pero en episodios de lluvias intensas la sobrecarga tanto hidráulica como de contaminación del sistema provoca un incremento de la vulnerabilidad de la población a las inundaciones, una falta de garantía de salud pública y graves impactos sobre los medios receptores. La aprobación en 1987 del CleanWaterAct en Estados Unidos, en el que se reconoció por primera vez el problema de la contaminación aportada por la escorrentía urbana, fue el punto de partida de un nuevo enfoque que promueve un conjunto de técnicas de drenaje que integran aspectos como cantidad de agua, calidad de agua y servicio a la sociedad. Estas técnicas, conocidas como Sistemas de Drenaje Sostenible (SUDS), son consideradas como las técnicas más apropiadas para gestionar los riesgos resultantes de la escorrentía urbana así como para contribuir a la mejora medioambiental de la cuenca y de los ecosistemas receptores. La experiencia internacional apunta a que la efectiva incorporación de los SUDS como sistemas habituales en el desarrollo urbano debe basarse en tres elementos clave: El desarrollo de un marco normativo, la aplicación de instrumentos económicos y la participación ciudadana activa en el proceso. Además se identifica como una de las líneas estratégicas para avanzar en la resolución de la problemática el desarrollo y aplicación de metodologías que apoyen el proceso de toma de decisiones basadas en indicadores cuantificables. Convergiendo con esta línea estratégica la presente tesis doctoral define unos indicadores de sostenibilidad focalizados en una temática no desarrollada hasta el momento, la gestión integral de las aguas de lluvia. Para ello, se aplica el marco analítico Presión-Estado–Respuesta bajo un enfoque que rebasa el sistema de saneamiento, enmarcando la gestión de las aguas de lluvia en las múltiples y complejas interrelaciones del sistema urbano. Así se determinan indicadores de presión, de estado y de respuesta para cada elemento del sistema urbano (Medio Receptor – Cuenca Urbana – Sistema de Saneamiento), definiendo para cada indicador el objetivo específico, la unidad de medición, la tendencia deseada de evolución y la periodicidad de seguimiento recomendada. La validez de la metodología propuesta se comprueba en el estudio de caso de la ciudad de Zaragoza. La determinación de los indicadores permite realizar un diagnóstico y definir unas líneas estratégicas de actuación que contemplan mejoras no sólo en el sistema de saneamiento y drenaje urbano, sino también en el marco normativo, urbanístico, económico, social y ambiental. Finalmente, se concluye que la integración de la gestión de las aguas de lluvia en las políticas de ordenación del territorio, el desarrollo de mecanismos de coordinación institucional, la mejora del marco normativo y la aplicación de instrumentos económicos son elementos clave para la gestión integral de las aguas de lluvia y el consecuente desarrollo de ciudades más sostenibles en España. In a context of rapid urbanization and global climate change, coping with sustainable development challenges requires the development of sustainable cities. Based on an intensive soil permeability reduction, the current development model deeply modifies the natural water cycle in the urban environment. Reduction of soil infiltration capacity turns most of the rainwater into surface runoff, rapidly leading to heavy peak flows which are highly contaminated due to the flushing of the urban surface. This is the central motivation for this thesis, which aspires to contribute to the attainment of more sustainable cities through an integrated management of rainwater in urban environments. With the main objective of minimizing floods, the conventional approach of drainage systems focused on peak flows, centralizing their management on the sewage system and incorporating flows as fast as possible. But during heavy rains the hydraulic and contamination overcharge of the sewage system leads to an increase in the vulnerability of the population, in regards to floods and lack of public health, as well as to severe impacts in receiving waters. In 1987, the United States’Clean Water Act Declaration, which firstly recognized the problem of runoff contamination, was the starting point of a new approach that promotes a set of techniques known as Sustainable Drainage Systems (SUDS)that integrates issues such as quantity of water, quality of water and service to society. SUDS are considered the most suitable set of techniques to manage the risks resulting from urban runoff, as well as to contribute to the environmental enhancement of urban basins and of the aquatic ecosystems. International experience points out that the effective adoption of SUDS as usual systems in urban development must be based on three key elements: The enhancement of the legal frame, the application of economic tools and the active public participation throughout the process. Additionally, one of the strategic actions to advance in the resolution of the problem is the development and application of methodologies based in measurable indicators that support the decision making process. In that line, this thesis defines a set of sustainability indicators focused in integrated management of rainwater. To that end, the present document applies the analytical frame Pressure – State – Response under an approach that goes beyond the sewage system and considers the multiple and complex interrelations within urban systems. Thus, for the three basic elements that interact in the issue (Receiving Water Bodies – Urban Basin – Sewage System) a set of Pressure – State – Response indicators are proposed, and the specific aim, the measurement unit, the desired evolution trend and the regularity of monitoring are defined for each of the indicators. The application of the proposed indicators to the case study of the city of Zaragoza acknowledged their suitability for the definition of lines of action that encompass not only the enhancement of the performance of sewage and drainage systems during rain events, but also the legal, urban, economic, social and environmental framework. Finally, this thesis concludes that the inclusion of urban rainwater management issues in the definition of regional planning policies, the development of mechanisms to attain an effective institutional coordination, the enhancement of the legal framework and the application of economic tools are key elements in order to achieve an integrated rainwater management and the subsequent sustainability of urban development in Spain.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumen: Descripción: se trata de una colección de 9 programas de mano de cine en los que aparece el título de la película y el director, intérpretes, productores y distribuidores. Las imágenes que aparecen en el recto de las láminas y que anuncian las películas, son una reproducción fotomecánica de fotografías de escenas correspondientes a las mismas. Algunas láminas llevan impreso en el verso información del cine o teatro en el que se podía ver las películas, como el Teatro Cervantes, Cinema Levante, Cine Versalles, El Porvenir cinema de verano y el Olimpia

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumen: Descripción: se trata de una colección de 18 programas de mano de cine en los que aparece el título de la película, el director, intérpretes, productores y distribuidores de la misma. Algunas de las imágenes que aparecen en el recto de las láminas, y que anuncian las películas, son una reproducción fotomecánica de fotografías de escenas correspondientes a las mismas. Algunas láminas llevan impreso en el verso información del cine o el teatro en el que se podía ver la película, como el Cine Versalles, Palacio Cinema (Valencia), Cinema Caballer (Godella)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumen: Descripción: se trata de una colección de 32 programas de mano de cine en la mayoría de los cuales aparece el título de la película, el director, intérpretes, productores (como la FOX o Cifesa) y distribuidores de la misma. Algunas de las imágenes que aparecen en el recto de las láminas, y que anuncian las películas, son una reproducción fotomecánica de fotografías de escenas correspondientes a las mismas. Algunas láminas llevan impreso en el verso información del cine o el teatro en el que se podía ver la película, como el Cine Colon; Cine Versalles; Centro Republicano y el Teatro Camarón (Segorbe); Benlliure - Teatro Marina; Teatro Cervantes; Metropol; Lírico; Cinema Novedades (Burjasot); Capitol; Royal Cinema; Palacio Cinema; Teatro Principal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumen: Descripción: se trata de una colección de 40 programas de mano de cine en la mayoría de los cuales aparece el título de la película, el director, intérpretes, productores y distribuidores de la misma. Algunas de las imágenes que aparecen en el recto de las láminas, y que anuncian las películas, son una reproducción fotomecánica de fotografías de escenas correspondientes a las mismas. Algunas láminas llevan impreso en el verso información del cine o el teatro en el que se podía ver la película, como el Cine Centro Republicano (Segorbe); Cine Coliseum; Cine Colon (Picasent); Cine Versalles; Salon Cine Olimpia, Cinema Novedades (Burjasot); Benlliure - Teatro Marina; Teatro Casares; Palacio Cinema, Royal Cinema, Lírico espectáculos públicos U.G.T. - C.N.T., Olimpia, Apolo Cinema (Valencia)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A medida que se incrementa la energía de los aceleradores de partículas o iones pesados como el CERN o GSI, de los reactores de fusión como JET o ITER, u otros experimentos científicos, se va haciendo cada vez más imprescindible el uso de técnicas de manipulación remota para la interacción con el entorno sujeto a la radiación. Hasta ahora la tasa de dosis radioactiva en el CERN podía tomar valores cercanos a algunos mSv para tiempos de enfriamiento de horas, que permitían la intervención humana para tareas de mantenimiento. Durante los primeros ensayos con plasma en JET, se alcanzaban valores cercanos a los 200 μSv después de un tiempo de enfriamiento de 4 meses y ya se hacía extensivo el uso de técnicas de manipulación remota. Hay una clara tendencia al incremento de los niveles de radioactividad en el futuro en este tipo de instalaciones. Un claro ejemplo es ITER, donde se esperan valores de 450 Sv/h en el centro del toroide a los 11 días de enfriamiento o los nuevos niveles energéticos del CERN que harán necesario una apuesta por niveles de mantenimiento remotos. En estas circunstancias se enmarca esta tesis, que estudia un sistema de control bilateral basado en fuerza-posición, tratando de evitar el uso de sensores de fuerza/par, cuyo contenido electrónico los hace especialmente sensitivos en estos ambientes. El contenido de este trabajo se centra en la teleoperación de robots industriales, que debido a su reconocida solvencia y facilidad para ser adaptados a estos entornos, unido al bajo coste y alta disponibilidad, les convierte en una alternativa interesante para tareas de manipulación remota frente a costosas soluciones a medida. En primer lugar se considera el problema cinemático de teleoperación maestro-esclavo de cinemática disimilar y se desarrolla un método general para la solución del problema en el que se incluye el uso de fuerzas asistivas para guiar al operador. A continuación se explican con detalle los experimentos realizados con un robot ABB y que muestran las dificultades encontradas y recomendaciones para solventarlas. Se concluye el estudio cinemático con un método para el encaje de espacios de trabajo entre maestro y esclavo disimilares. Posteriormente se mira hacia la dinámica, estudiándose el modelado de robots con vistas a obtener un método que permita estimar las fuerzas externas que actúan sobre los mismos. Durante la caracterización del modelo dinámico, se realizan varios ensayos para tratar de encontrar un compromiso entre complejidad de cálculo y error de estimación. También se dan las claves para modelar y caracterizar robots con estructura en forma de paralelogramo y se presenta la arquitectura de control deseada. Una vez obtenido el modelo completo del esclavo, se investigan diferentes alternativas que permitan una estimación de fuerzas externas en tiempo real, minimizando las derivadas de la posición para minimizar el ruido. Se comienza utilizando observadores clásicos del estado para ir evolucionando hasta llegar al desarrollo de un observador de tipo Luenberger-Sliding cuya implementación es relativamente sencilla y sus resultados contundentes. También se analiza el uso del observador propuesto durante un control bilateral simulado en el que se compara la realimentación de fuerzas obtenida con las técnicas clásicas basadas en error de posición frente a un control basado en fuerza-posición donde la fuerza es estimada y no medida. Se comprueba como la solución propuesta da resultados comparables con las arquitecturas clásicas y sin embargo introduce una alternativa para la teleoperación de robots industriales cuya teleoperación en entornos radioactivos sería imposible de otra manera. Finalmente se analizan los problemas derivados de la aplicación práctica de la teleoperación en los escenarios mencionados anteriormente. Debido a las condiciones prohibitivas para todo equipo electrónico, los sistemas de control se deben colocar a gran distancia de los manipuladores, dando lugar a longitudes de cable de centenares de metros. En estas condiciones se crean sobretensiones en controladores basados en PWM que pueden ser destructivas para el sistema formado por control, cableado y actuador, y por tanto, han de ser eliminadas. En este trabajo se propone una solución basada en un filtro LC comercial y se prueba de forma extensiva que su inclusión no produce efectos negativos sobre el control del actuador. ABSTRACT As the energy on the particle accelerators or heavy ion accelerators such as CERN or GSI, fusion reactors such as JET or ITER, or other scientific experiments is increased, it is becoming increasingly necessary to use remote handling techniques to interact with the remote and radioactive environment. So far, the dose rate at CERN could present values near several mSv for cooling times on the range of hours, which allowed human intervention for maintenance tasks. At JET, they measured values close to 200 μSv after a cooling time of 4 months and since then, the remote handling techniques became usual. There is a clear tendency to increase the radiation levels in the future. A clear example is ITER, where values of 450 Sv/h are expected in the centre of the torus after 11 days of cooling. Also, the new energetic levels of CERN are expected to lead to a more advanced remote handling means. In these circumstances this thesis is framed, studying a bilateral control system based on force-position, trying to avoid the use of force/torque sensors, whose electronic content makes them very sensitive in these environments. The contents of this work are focused on teleoperating industrial robots, which due its well-known reliability, easiness to be adapted to these environments, cost-effectiveness and high availability, are considered as an interesting alternative to expensive custom-made solutions for remote handling tasks. Firstly, the kinematic problem of teloperating master and slave with dissimilar kinematics is analysed and a new general approach for solving this issue is presented. The solution includes using assistive forces in order to guide the human operator. Coming up next, I explain with detail the experiments accomplished with an ABB robot that show the difficulties encountered and the proposed solutions. This section is concluded with a method to match the master’s and slave’s workspaces when they present dissimilar kinematics. Later on, the research studies the dynamics, with special focus on robot modelling with the purpose of obtaining a method that allows to estimate external forces acting on them. During the characterisation of the model’s parameters, a set of tests are performed in order to get to a compromise between computational complexity and estimation error. Key points for modelling and characterising robots with a parallelogram structure are also given, and the desired control architecture is presented. Once a complete model of the slave is obtained, different alternatives for external force estimation are review to be able to predict forces in real time, minimizing the position differentiation to minimize the estimation noise. The research starts by implementing classic state observers and then it evolves towards the use of Luenberger- Sliding observers whose implementation is relatively easy and the results are convincing. I also analyse the use of proposed observer during a simulated bilateral control on which the force feedback obtained with the classic techniques based on the position error is compared versus a control architecture based on force-position, where the force is estimated instead of measured. I t is checked how the proposed solution gives results comparable with the classical techniques and however introduces an alternative method for teleoperating industrial robots whose teleoperation in radioactive environments would have been impossible in a different way. Finally, the problems originated by the practical application of teleoperation in the before mentioned scenarios are analysed. Due the prohibitive conditions for every electronic equipment, the control systems should be placed far from the manipulators. This provokes that the power cables that fed the slaves devices can present lengths of hundreds of meters. In these circumstances, overvoltage waves are developed when implementing drives based on PWM technique. The occurrence of overvoltage is very dangerous for the system composed by drive, wiring and actuator, and has to be eliminated. During this work, a solution based on commercial LC filters is proposed and it is extensively proved that its inclusion does not introduce adverse effects into the actuator’s control.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La calidad es uno de los principales retos de la construcción de software. En la Ingeniería del Software (IS) se considera a la usabilidad como un atributo de calidad. Al principio se veía a la usabilidad como un requisito no funcional.Se asumía que la usabilidad era una propiedad exclusiva de la presentación de la información.Se creía que separando la capa de presentación del resto, se podía desarrollar un producto software usable.Debido a la naturaleza del sistema y a las necesidades del usuario, a menudo se debe ir más lejos y no basta con tener en cuenta la presentación para obtener un software usable. La comunidad de la Interacción Personar Ordenador (IPO) ha propuesto recomendaciones para mejorar la usabilidad. Algunas de esas recomendaciones tienen impacto directo en la funcionalidad del producto software. En estudios recientes también se ha evaluado la relación entre la usabilidad y los requisitos funcionales. Estas investigaciones sugieren que la usabilidad debe ser tenida en cuenta desde las etapas iniciales de la construcción para evitar costosos cambios posteriores. La incorporación de las características de usabilidad agrega cierta complejidad al proceso de desarrollo. El presente trabajo evalúa la posibilidad de usar patrones para la incorporación de usabilidad en el desarrollo de un producto software. Concretamente se evalúan los siguientes patrones de programación de usabilidad (PPUs): Abort Operation,Progress Feedback y Preferences. Se utilizan unas Pautas de Desarrollo de Mecanismos de Usabilidad(PDMUs) para estos tres mecanismos de usabilidad. Estas pautas poponen patrones para la educción y posterior incorporación de la usabilidad en las distintas fases de la programación. En esta investigación se aborda el desarrollo de un producto software desde la deducción de requisitos hasta la implementación. En cada fase se incorporan los mecanismos de usabilidad de acuerdo a las recomendaciones de las PDMUs. Mediante el desarrollo de un software real se ha evaluado la factibilidad del uso de las PDMUs obteniendo como resultado propuestas de mejoras en estas pautas. Se evalúa asimismo el esfuerzo de incorporación de los mecanismos de usabilidad. Cada evaluación aporta datos que proporcionan una estimación del esfuerzo adicional requerido para incorporar cada mecanismo de usabilidad en el proceso de desarrollo del software.---ABSTRACT---Quality is a major challenge in software construction. Software engineers consider usability to be a quality attribute. Originally, usability was viewed as a nonr functional requirement. Usability was assumed to be simply an information presentation property. There was a belief that a usable software product could be developed by separating the presentation layer from the rest of the system. Depending on the system type and user needs, however, usability often runs deeper, and it is not enough to consider just presentation to build usable software. The humanrcomputer interaction (HCI) community put forward a list of recommendations to improve usability. Some such recommendations have a direct impact on software product functionality. Recent studies have also evaluated the relationship between usability and functional requirements. This research suggests that usability should be taken into account as of the early stages of software construction to prevent costly rework later on. The inclusion of usability features is an added complication to the development process. The research reported here evaluates the possibility of using patterns to incorporate usability into a software product. Specifically, it evaluates the following usability programming patterns (UPPs): Abort Operation, Progress Feedback and Preferences. Usability Mechanism Development Guides (USDG) are applied to these three usability mechanisms. These guides propose patterns for eliciting and later incorporating usability into the different software development phases, including programming. The reported research addresses the development of a software product from requirements elicitation through to implementation. Usability mechanisms are incorporated into each development phase in accordance with USDG recommendations. A real piece of software was developed to test the feasibility of using USDGs, outputting proposals for improving the guides. Each evaluation yields data providing an estimate of the additional workload required to incorporate each usability mechanism into the software development process.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Disponer de información precisa y actualizada de inventario forestal es una pieza clave para mejorar la gestión forestal sostenible y para proponer y evaluar políticas de conservación de bosques que permitan la reducción de emisiones de carbono debidas a la deforestación y degradación forestal (REDD). En este sentido, la tecnología LiDAR ha demostrado ser una herramienta perfecta para caracterizar y estimar de forma continua y en áreas extensas la estructura del bosque y las principales variables de inventario forestal. Variables como la biomasa, el número de pies, el volumen de madera, la altura dominante, el diámetro o la altura media son estimadas con una calidad comparable a los inventarios tradicionales de campo. La presente tesis se centra en analizar la aplicación de los denominados métodos de masa de inventario forestal con datos LIDAR bajo diferentes condiciones y características de masa forestal (bosque templados puros y mixtos) y utilizando diferentes bases de datos LiDAR (información proveniente de vuelo nacionales e información capturada de forma específica). Como consecuencia de lo anterior, se profundiza en la generación de inventarios forestales continuos con LiDAR en grandes áreas. Los métodos de masa se basan en la búsqueda de relaciones estadísticas entre variables predictoras derivadas de la nube de puntos LiDAR y las variables de inventario forestal medidas en campo con el objeto de generar una cartografía continua de inventario forestal. El rápido desarrollo de esta tecnología en los últimos años ha llevado a muchos países a implantar programas nacionales de captura de información LiDAR aerotransportada. Estos vuelos nacionales no están pensados ni diseñados para fines forestales por lo que es necesaria la evaluación de la validez de esta información LiDAR para la descripción de la estructura del bosque y la medición de variables forestales. Esta información podría suponer una drástica reducción de costes en la generación de información continua de alta resolución de inventario forestal. En el capítulo 2 se evalúa la estimación de variables forestales a partir de la información LiDAR capturada en el marco del Plan Nacional de Ortofotografía Aérea (PNOA-LiDAR) en España. Para ello se compara un vuelo específico diseñado para inventario forestal con la información de la misma zona capturada dentro del PNOA-LiDAR. El caso de estudio muestra cómo el ángulo de escaneo, la pendiente y orientación del terreno afectan de forma estadísticamente significativa, aunque con pequeñas diferencias, a la estimación de biomasa y variables de estructura forestal derivadas del LiDAR. La cobertura de copas resultó más afectada por estos factores que los percentiles de alturas. Considerando toda la zona de estudio, la estimación de la biomasa con ambas bases de datos no presentó diferencias estadísticamente significativas. Las simulaciones realizadas muestran que las diferencias medias en la estimación de biomasa entre un vuelo específico y el vuelo nacional podrán superar el 4% en áreas abruptas, con ángulos de escaneo altos y cuando la pendiente de la ladera no esté orientada hacia la línea de escaneo. En el capítulo 3 se desarrolla un estudio en masas mixtas y puras de pino silvestre y haya, con un enfoque multi-fuente empleando toda la información disponible (vuelos LiDAR nacionales de baja densidad de puntos, imágenes satelitales Landsat y parcelas permanentes del inventario forestal nacional español). Se concluye que este enfoque multi-fuente es adecuado para realizar inventarios forestales continuos de alta resolución en grandes superficies. Los errores obtenidos en la fase de ajuste y de validación de los modelos de área basimétrica y volumen son similares a los registrados por otros autores (usando un vuelo específico y parcelas de campo específicas). Se observan errores mayores en la variable número de pies que los encontrados en la literatura, que pueden ser explicados por la influencia de la metodología de parcelas de radio variable en esta variable. En los capítulos 4 y 5 se evalúan los métodos de masa para estimar biomasa y densidad de carbono en bosques tropicales. Para ello se trabaja con datos del Parque Nacional Volcán Poás (Costa Rica) en dos situaciones diferentes: i) se dispone de una cobertura completa LiDAR del área de estudio (capitulo 4) y ii) la cobertura LiDAR completa no es técnica o económicamente posible y se combina una cobertura incompleta de LiDAR con imágenes Landsat e información auxiliar para la estimación de biomasa y carbono (capitulo 5). En el capítulo 4 se valida un modelo LiDAR general de estimación de biomasa aérea en bosques tropicales y se compara con los resultados obtenidos con un modelo ajustado de forma específica para el área de estudio. Ambos modelos están basados en la variable altura media de copas (TCH por sus siglas en inglés) derivada del modelo digital LiDAR de altura de la vegetación. Los resultados en el área de estudio muestran que el modelo general es una alternativa fiable al ajuste de modelos específicos y que la biomasa aérea puede ser estimada en una nueva zona midiendo en campo únicamente la variable área basimétrica (BA). Para mejorar la aplicación de esta metodología es necesario definir en futuros trabajos procedimientos adecuados de medición de la variable área basimétrica en campo (localización, tamaño y forma de las parcelas de campo). La relación entre la altura media de copas del LiDAR y el área basimétrica (Coeficiente de Stock) obtenida en el área de estudio varía localmente. Por tanto es necesario contar con más información de campo para caracterizar la variabilidad del Coeficiente de Stock entre zonas de vida y si estrategias como la estratificación pueden reducir los errores en la estimación de biomasa y carbono en bosques tropicales. En el capítulo 5 se concluye que la combinación de una muestra sistemática de información LiDAR con una cobertura completa de imagen satelital de moderada resolución (e información auxiliar) es una alternativa efectiva para la realización de inventarios continuos en bosques tropicales. Esta metodología permite estimar altura de la vegetación, biomasa y carbono en grandes zonas donde la captura de una cobertura completa de LiDAR y la realización de un gran volumen de trabajo de campo es económica o/y técnicamente inviable. Las alternativas examinadas para la predicción de biomasa a partir de imágenes Landsat muestran una ligera disminución del coeficiente de determinación y un pequeño aumento del RMSE cuando la cobertura de LiDAR es reducida de forma considerable. Los resultados indican que la altura de la vegetación, la biomasa y la densidad de carbono pueden ser estimadas en bosques tropicales de forma adecuada usando coberturas de LIDAR bajas (entre el 5% y el 20% del área de estudio). ABSTRACT The availability of accurate and updated forest data is essential for improving sustainable forest management, promoting forest conservation policies and reducing carbon emissions from deforestation and forest degradation (REDD). In this sense, LiDAR technology proves to be a clear-cut tool for characterizing forest structure in large areas and assessing main forest-stand variables. Forest variables such as biomass, stem volume, basal area, mean diameter, mean height, dominant height, and stem number can be thus predicted with better or comparable quality than with costly traditional field inventories. In this thesis, it is analysed the potential of LiDAR technology for the estimation of plot-level forest variables under a range of conditions (conifer & broadleaf temperate forests and tropical forests) and different LiDAR capture characteristics (nationwide LiDAR information vs. specific forest LiDAR data). This study evaluates the application of LiDAR-based plot-level methods in large areas. These methods are based on statistical relationships between predictor variables (derived from airborne data) and field-measured variables to generate wall to wall forest inventories. The fast development of this technology in recent years has led to an increasing availability of national LiDAR datasets, usually developed for multiple purposes throughout an expanding number of countries and regions. The evaluation of the validity of nationwide LiDAR databases (not designed specifically for forest purposes) is needed and presents a great opportunity for substantially reducing the costs of forest inventories. In chapter 2, the suitability of Spanish nationwide LiDAR flight (PNOA) to estimate forest variables is analyzed and compared to a specifically forest designed LiDAR flight. This study case shows that scan angle, terrain slope and aspect significantly affect the assessment of most of the LiDAR-derived forest variables and biomass estimation. Especially, the estimation of canopy cover is more affected than height percentiles. Considering the entire study area, biomass estimations from both databases do not show significant differences. Simulations show that differences in biomass could be larger (more than 4%) only in particular situations, such as steep areas when the slopes are non-oriented towards the scan lines and the scan angles are larger than 15º. In chapter 3, a multi-source approach is developed, integrating available databases such as nationwide LiDAR flights, Landsat imagery and permanent field plots from SNFI, with good resultos in the generation of wall to wall forest inventories. Volume and basal area errors are similar to those obtained by other authors (using specific LiDAR flights and field plots) for the same species. Errors in the estimation of stem number are larger than literature values as a consequence of the great influence that variable-radius plots, as used in SNFI, have on this variable. In chapters 4 and 5 wall to wall plot-level methodologies to estimate aboveground biomass and carbon density in tropical forest are evaluated. The study area is located in the Poas Volcano National Park (Costa Rica) and two different situations are analyzed: i) available complete LiDAR coverage (chapter 4) and ii) a complete LiDAR coverage is not available and wall to wall estimation is carried out combining LiDAR, Landsat and ancillary data (chapter 5). In chapter 4, a general aboveground biomass plot-level LiDAR model for tropical forest (Asner & Mascaro, 2014) is validated and a specific model for the study area is fitted. Both LiDAR plot-level models are based on the top-of-canopy height (TCH) variable that is derived from the LiDAR digital canopy model. Results show that the pantropical plot-level LiDAR methodology is a reliable alternative to the development of specific models for tropical forests and thus, aboveground biomass in a new study area could be estimated by only measuring basal area (BA). Applying this methodology, the definition of precise BA field measurement procedures (e.g. location, size and shape of the field plots) is decisive to achieve reliable results in future studies. The relation between BA and TCH (Stocking Coefficient) obtained in our study area in Costa Rica varied locally. Therefore, more field work is needed for assessing Stocking Coefficient variations between different life zones and the influence of the stratification of the study areas in tropical forests on the reduction of uncertainty. In chapter 5, the combination of systematic LiDAR information sampling and full coverage Landsat imagery (and ancillary data) prove to be an effective alternative for forest inventories in tropical areas. This methodology allows estimating wall to wall vegetation height, biomass and carbon density in large areas where full LiDAR coverage and traditional field work are technically and/or economically unfeasible. Carbon density prediction using Landsat imaginery shows a slight decrease in the determination coefficient and an increase in RMSE when harshly decreasing LiDAR coverage area. Results indicate that feasible estimates of vegetation height, biomass and carbon density can be accomplished using low LiDAR coverage areas (between 5% and 20% of the total area) in tropical locations.