964 resultados para Standardisation. Selling Process. Sales Performance. Sales Funnel Management. Performance
Resumo:
[ES] Para favorecer la evaluación de la docencia, la Agencia Nacional de Evaluación de la Calidad y la Acreditación (a partir de ahora ANECA) pone en marcha el Programa de Apoyo a la Evaluación de la Actividad Docente del Profesorado Universitario (a partir de ahora DOCENTIA) con el objeto de apoyar a las universidades en el diseño de mecanismos propios para gestionar la calidad de la actividad docente del profesorado universitario y favorecer su desarrollo y reconocimiento. Un pilar fundamental en este procedimiento son las encuestas que los estudiantes realizan para valorar la calidad docente de sus profesores. El Gabinete de Evaluación Institucional (a partir de ahora GEI) de la Universidad de Las Palmas de Gran Canaria (a partir de ahora ULPGC) es el encargado de gestionar todo el proceso de encuestación y por este motivo, surge la inmensa necesidad de disponer de una aplicación informática que permita hacer un seguimiento de dicho proceso. Este proyecto es un sistema de gestión que permite conocer qué profesores de la ULPGC han sido valorados por sus alumnos y en qué asignaturas. El objetivo principal es hacer un seguimiento durante el proceso de encuestación para intentar asegurar que todos los profesores han sido valorados en al menos alguna de sus asignaturas. Solo los profesores que hayan sido valorados en al menos una de sus asignaturas podrán acceder a los grados de excelencia docente del Programa DOCENTIA-ULPGC. De ahí la importancia de este proyecto fin de grado.
Resumo:
Die vorliegende Arbeit befasst sich mit den veränderten Studienbedingungen, die durch die europaweite Einführung eines einheitlichen Systems von Bachelor- und Masterstudiengängen entstanden sind. In Deutschland wurde der Bologna-Prozess von umfangreichen Protesten begleitet und in der medialen Öffentlichkeit unter anderem die zeitliche und inhaltliche Überlastung der Studierenden und die verschulten Studiengänge kritisiert, die keinen Raum für die persönliche Entwicklung ließen. rnIm Rahmen des BMBF-geförderten Projekts ZEITLast wurde die zeitliche Belastung von Studierenden untersucht. Der scheinbare Widerspruch zwischen dem objektiv messbaren Zeitaufwand und dem subjektiven Belastungsempfinden der Studierenden stellt den Ausgangspunkt der vorliegenden Arbeit dar. Es wird der Frage nachgegangen, welche Strategien Studierende im Umgang mit den neuen Bachelorstudienstrukturen entwickeln und in welchem Zusammenhang diese mit dem subjektiven Belastungsempfinden stehen. Zur Beantwortung der Fragestellung werden quantitative und qualitative Forschungsmethoden kombiniert. Neben der Auswertung von umfangreichen Zeitbudgetanalysen und Befragungen aus dem Forschungsprojekt ZEITLast werden mit ausgewählten Probanden des Studiengangs Erziehungswissenschaft an der Universität Mainz problemzentrierte Interviews geführt und objektiv hermeneutisch ausgewertet. Eine zeitliche Überlastung der Studierenden lässt sich empirisch nicht nachweisen, dennoch fühlen sich Studierende subjektiv stark belastet Es zeigt sich, dass unterschiedliche subjektive Perspektiven auf die individuelle Studienorganisation und das Belastungsempfinden der Studierenden wirken. Vor allem spielt das individuelle Zeit- und Selbstmanagement bei der erfolgreichen Bewältigung der Anforderungen im Studium eine bedeutende Rolle. Insgesamt wird deutlich, dass Vorgaben im Studium abhängig von individuellen Dispositionen sowohl als Entlastung als auch als Belastung wahrgenommen werden. Die Aufgabe der Hochschule ist es, Studiengänge so zu gestalten, dass sie den unsicheren Studierenden Orientierung und Hilfestellung bieten, während sie den selbstbestimmten Studierenden Freiräume zur individuellen Entwicklung lassen. Aus den Ergebnissen der Arbeit werden abschließend hochschuldidaktische Maßnahmen entwickelt, die zu einer Entlastung der Studierenden beitragen können.
Resumo:
Hybrid Elektrodenmaterialien (HEM) sind der Schlüssel zu grundlegenden Fortschritten in der Energiespeicherung und Systemen zur Energieumwandlung, einschließlich Lithium-Ionen-Batterien (LiBs), Superkondensatoren (SCs) und Brennstoffzellen (FCs). Die faszinierenden Eigenschaften von Graphen machen es zu einem guten Ausgangsmaterial für die Darstellung von HEM. Jedoch scheitern traditionelle Verfahren zur Herstellung von Graphen-HEM (GHEM) scheitern häufig an der fehlenden Kontrolle über die Morphologie und deren Einheitlichkeit, was zu unzureichenden Grenzflächenwechselwirkungen und einer mangelhaften Leistung des Materials führt. Diese Arbeit konzentriert sich auf die Herstellung von GHEM über kontrollierte Darstellungsmethoden und befasst sich mit der Nutzung von definierten GHEM für die Energiespeicherung und -umwandlung. Die große Volumenausdehnung bildet den Hauptnachteil der künftigen Lithium-Speicher-Materialien. Als erstes wird ein dreidimensionaler Graphen Schaumhybrid zur Stärkung der Grundstruktur und zur Verbesserung der elektrochemischen Leistung des Fe3O4 Anodenmaterials dargestellt. Der Einsatz von Graphenschalen und Graphennetzen realisiert dabei einen doppelten Schutz gegen die Volumenschwankung des Fe3O4 bei dem elektrochemischen Prozess. Die Leistung der SCs und der FCs hängt von der Porenstruktur und der zugänglichen Oberfläche, beziehungsweise den katalytischen Stellen der Elektrodenmaterialien ab. Wir zeigen, dass die Steuerung der Porosität über Graphen-basierte Kohlenstoffnanoschichten (HPCN) die zugängliche Oberfläche und den Ionentransport/Ladungsspeicher für SCs-Anwendungen erhöht. Desweiteren wurden Stickstoff dotierte Kohlenstoffnanoschichten (NDCN) für die kathodische Sauerstoffreduktion (ORR) hergestellt. Eine maßgeschnittene Mesoporosität verbunden mit Heteroatom Doping (Stickstoff) fördert die Exposition der aktiven Zentren und die ORR-Leistung der metallfreien Katalysatoren. Hochwertiges elektrochemisch exfoliiertes Graphen (EEG) ist ein vielversprechender Kandidat für die Darstellung von GHEM. Allerdings ist die kontrollierte Darstellung von EEG-Hybriden weiterhin eine große Herausforderung. Zu guter Letzt wird eine Bottom-up-Strategie für die Darstellung von EEG Schichten mit einer Reihe von funktionellen Nanopartikeln (Si, Fe3O4 und Pt NPs) vorgestellt. Diese Arbeit zeigt einen vielversprechenden Weg für die wirtschaftliche Synthese von EEG und EEG-basierten Materialien.
Resumo:
The existing evidence for treatment of atopic eczema (atopic dermatitis, AE) is evaluated using the national standard Appraisal of Guidelines Research and Evaluation. The consensus process consisted of a nominal group process and a DELPHI procedure. Management of AE must consider the individual symptomatic variability of the disease. Basic therapy is focused on hydrating topical treatment, and avoidance of specific and unspecific provocation factors. Anti-inflammatory treatment based on topical glucocorticosteroids and topical calcineurin inhibitors (TCI) is used for exacerbation management and more recently for proactive therapy in selected cases. Topical corticosteroids remain the mainstay of therapy, but the TCI tacrolimus and pimecrolimus are preferred in certain locations. Systemic immune-suppressive treatment is an option for severe refractory cases. Microbial colonization and superinfection may induce disease exacerbation and can justify additional antimicrobial treatment. Adjuvant therapy includes UV irradiation preferably with UVA1 wavelength or UVB 311 nm. Dietary recommendations should be specific and given only in diagnosed individual food allergy. Allergen-specific immunotherapy to aeroallergens may be useful in selected cases. Stress-induced exacerbations may make psychosomatic counselling recommendable. 'Eczema school' educational programs have been proven to be helpful. Pruritus is targeted with the majority of the recommended therapies, but some patients need additional antipruritic therapies.
Resumo:
The existing evidence for treatment of atopic eczema (atopic dermatitis, AE) is evaluated using the national standard Appraisal of Guidelines Research and Evaluation. The consensus process consisted of a nominal group process and a DELPHI procedure. Management of AE must consider the individual symptomatic variability of the disease. Basic therapy is focused on hydrating topical treatment, and avoidance of specific and unspecific provocation factors. Anti-inflammatory treatment based on topical glucocorticosteroids and topical calcineurin inhibitors (TCI) is used for exacerbation management and more recently for proactive therapy in selected cases. Topical corticosteroids remain the mainstay of therapy, but the TCI tacrolimus and pimecrolimus are preferred in certain locations. Systemic immune-suppressive treatment is an option for severe refractory cases. Microbial colonization and superinfection may induce disease exacerbation and can justify additional antimicrobial treatment. Adjuvant therapy includes UV irradiation preferably with UVA1 wavelength or UVB 311 nm. Dietary recommendations should be specific and given only in diagnosed individual food allergy. Allergen-specific immunotherapy to aeroallergens may be useful in selected cases. Stress-induced exacerbations may make psychosomatic counselling recommendable. 'Eczema school' educational programs have been proven to be helpful. Pruritus is targeted with the majority of the recommended therapies, but some patients need additional antipruritic therapies.
Resumo:
The evolution of pharmaceutical care is identified through a complete review of the literature published in the American Journal of Health-System Pharmacy, the sole comprehensive publication of institutional pharmacy practice. The evolution is categorized according to characteristics of structure (organizational structure, the role of the pharmacist), process (drug delivery systems, formulary management, acquiring drug products, methods to impact drug therapy decisions), and outcomes (cost of drug delivery, cost of drug acquisition and use, improved safety, improved health outcomes) recorded from the 1950s through the 1990s. While significant progress has been made in implementing basic drug distribution systems, levels of pharmacy involvement with direct patient care is still limited.^ A new practice framework suggests enhanced direct patient care involvement through increase in the efficiency and effectiveness of traditional pharmacy services. Recommendations advance internal and external organizational structure relationships that position pharmacists to fully use their unique skills and knowledge to impact drug therapy decisions and outcomes. Specific strategies facilitate expansion of the breadth and scope of each process component in order to expand the depth of integration of pharmacy and pharmaceutical care within the broad healthcare environment. Economic evaluation methods formally evaluate the impact of both operational and clinical interventions.^ Outcome measurements include specific recommendations and methods to increase efficiency of drug acquisition, emphasizing pharmacists' roles that impact physician prescribing decisions. Effectiveness measures include those that improve safety of drug distribution systems, decrease the potential of adverse drug therapy events, and demonstrate that pharmaceutical care can significantly contribute to improvement in overall health status.^ The implementation of the new framework is modeled on a case study at the M.D. Anderson Cancer Center. The implementation of several new drug distribution methods facilitated the redeployment of personnel from distributive functions to direct patient care activities with significant personnel and drug cost reduction. A cost-benefit analysis illustrates that framework process enhancements produced a benefit-to-cost ratio of 7.9. In addition, measures of effectiveness demonstrated significant levels of safety and enhanced drug therapy outcomes. ^
Resumo:
Soils are fundamental to ensuring water, energy and food security. Within the context of sus- tainable food production, it is important to share knowledge on existing and emerging tech- nologies that support land and soil monitoring. Technologies, such as remote sensing, mobile soil testing, and digital soil mapping, have the potential to identify degraded and non- /little-responsive soils, and may also provide a basis for programmes targeting the protection and rehabilitation of soils. In the absence of such information, crop production assessments are often not based on the spatio-temporal variability in soil characteristics. In addition, uncertain- ties in soil information systems are notable and build up when predictions are used for monitor- ing soil properties or biophysical modelling. Consequently, interpretations of model-based results have to be done cautiously. As such they provide a scientific, but not always manage- able, basis for farmers and/or policymakers. In general, the key incentives for stakeholders to aim for sustainable management of soils and more resilient food systems are complex at farm as well as higher levels. The same is true of drivers of soil degradation. The decision- making process aimed at sustainable soil management, be that at farm or higher level, also in- volves other goals and objectives valued by stakeholders, e.g. land governance, improved envi- ronmental quality, climate change adaptation and mitigation etc. In this dialogue session we will share ideas on recent developments in the discourse on soils, their functions and the role of soil and land information in enhancing food system resilience.
Resumo:
Los costos de calidad se asocian a su planificación, control, evaluación de la conformidad y a los costos ocasionados por no cumplir con los requisitos de satisfacción de la fábrica o del cliente (productos o servicios con defectos). Los objetivos del trabajo son identificar las causas que provocan la ausencia o pérdida de calidad (no calidad), proponer acciones correctivas en el proceso de elaboración de vinos, midiendo la frecuencia de aparición y clasificando los costos de no calidad. Conocer la frecuencia de aparición de las causas de no calidad en las etapas del proceso de elaboración de vinos permitirá optimizar la gestión y reducir los costos al disminuir sus correcciones. El estudio identifica los factores que alteran la calidad de los vinos. La mayor frecuencia de defectos es de origen prefermentativo, que junto con los de crianza, conservación y originados en el viñedo explican el 79% de los mismos. Los defectos encontrados constituyen costos de prevención y evaluación pero serán falla interna si la bodega está integrada y se atribuirán a falla externa en el caso de productor no integrado. Los establecimientos en los que se pudo identificar y establecer frecuencia de aparición de los defectos que influyen en la calidad del vino son aquellos que tienen algún sistema de gestión de la calidad, ya que han normalizado los registros que actuarán como herramienta de gestión. Los encargados de gerenciar las bodegas deberían conocer los puntos críticos del proceso para realizar la gestión preventiva de los posibles defectos. Los costos que inciden en la calidad del producto a comercializar se deben registrar y controlar, y trazarlos hacia adelante para conocer la incidencia de los mismos en los precios finales, y hacia atrás para que en la planificación de la próxima elaboración se contemple la prevención correspondiente.
Resumo:
Despite the acknowledged need of providing a personalized and adaptive learning process for all, current learning management systems do not properly cover personalization and accessibility issues and they are still struggling to support the reusability requirements coming from the pervasive usage of standards. There is a lack of frameworks for providing layered-based infrastructure covering the interoperability required to manage the whole range of standards, applications and services needed to meet accessibility and adaptations needs of lifelong learning services.
Resumo:
The latest video coding standards developed, like HEVC (High Efficiency Video Coding, approved in January 2013), require for their implementation the use of devices able to support a high computational load. Considering that currently it is not enough the usage of one unique Digital Signal Processor (DSP), multicore devices have appeared recently in the market. However, due to its novelty, the working methodology that allows produce solutions for these configurations is in a very initial state, since currently the most part of the work needs to be performed manually. In consequence, the objective set consists on finding methodologies that ease this process. The study has been focused on extend a methodology, under development, for the generation of solutions for PCs and embedded systems. During this study, the standards RVC (Reconfigurable Video Coding) and HEVC have been employed, as well as DSPs of the Texas Instruments company. In its development, it has been tried to address all the factors that influence both the development and deployment of these new implementations of video decoders, ranging from tools up to aspects of the partitioning of algorithms, without this can cause a drop in application performance. The results of this study are the description of the employed methodology, the characterization of the software migration process and performance measurements for the HEVC standard in an RVC-based implementation. RESUMEN Los estándares de codificación de vídeo desarrollados más recientemente, como HEVC (High Efficiency Video Coding, aprobado en enero de 2013), requieren para su implementación el uso de dispositivos capaces de soportar una elevada carga computacional. Teniendo en cuenta que actualmente no es suficiente con utilizar un único Procesador Digital de Señal (DSP), han aparecido recientemente dispositivos multinúcleo en el mercado. Sin embargo, debido a su novedad, la metodología de trabajo que permite elaborar soluciones para tales configuraciones se encuentra en un estado muy inicial, ya que actualmente la mayor parte del trabajo debe realizarse manualmente. En consecuencia, el objetivo marcado consiste en encontrar metodologías que faciliten este proceso. El estudio se ha centrado en extender una metodología, en desarrollo, para la generación de soluciones para PC y sistemas empotrados. Durante dicho estudio se han empleado los estándares RVC (Reconfigurable Video Coding) y HEVC, así como DSPs de la compañía Texas Instruments. En su desarrollo se ha tratado de atender a todos los factores que influyen tanto en el desarrollo como en la puesta en marcha de estas nuevas implementaciones de descodificadores de vídeo; abarcando desde las herramientas a utilizar hasta aspectos del particionado de los algoritmos, sin que por ello se produzca una reducción en el rendimiento de las aplicaciones. Los resultados de este estudio son una descripción de la metodología empleada, la caracterización del proceso de migración de software, y medidas de rendimiento para el estándar HEVC en una implementación basada en RVC.
Resumo:
En los últimos años, el desarrollo industrial a nivel globalizado en los diferentes sectores, la difusión de la TI y el uso estratégico de la misma, han crecido de manera exponencial. El uso adecuado de esta, se ha convertido en una gran preocupación para los órganos de gobierno de las organizaciones ya que la falta de dirección y control en las inversiones que se realizan en ellas, así como un uso inadecuado de las mismas pueden comprometer la consecución de los objetivos de la organización, su competitividad y su sostenibilidad a medio-largo plazo. La preocupación de los propietarios de los negocios es mejorar su rendimiento con la ayuda de la TI frente a sus competidores, realizando los procesos de negocio de una manera eficaz y eficiente, por lo que muchas organizaciones han realizado inversiones importantes en la adquisición de tecnología para lograr sus propósitos. Sin embargo la ejecución de estas inversiones no se ha gestionado adecuadamente, conforme a las políticas y planes especificados en los planes de negocio de la organización y la entrega de los servicios de TI no ha sido conforme a los objetivos previstos, generando pérdidas importantes y lo que es peor un gran deterioro de la imagen de la organización, por lo que consideramos a la gestión de la demanda estratégica de la TI como uno de los factores claves para el éxito de los negocios, el cual no ha sido tomada en cuenta por los consejos de gobierno o los altos ejecutivos de las organizaciones. La investigación comienza con una amplia revisión de la literatura, identificando dos elementos muy importantes, la demanda y el suministro de la TI dentro de la gobernanza corporativa de la TI; notándose la escasa información relacionado con la gestión de la demanda estratégica de la TI. Se realizó un estudio exploratorio para conocer como los miembros del consejo de administración y altos ejecutivos de una organización gestionan la demanda estratégica de la TI, obteniendo una respuesta de 130 encuestados, donde se confirma que hace falta normas o metodologías para la gestión de la demanda estratégica de la TI. En base a estos resultados se ha construido un marco de trabajo para todo el proceso de la gestión de la demanda de la TI y como una solución que se plantea en esta tesis doctoral, consiste en la elaboración de una metodología, combinando e integrando marcos de trabajo y estándares relacionados con la gobernanza corporativa de la TI. La metodología propuesta está conformada por tres fases, cada fase con sus actividades principales, y cada actividad principal por un conjunto de sub-actividades. Además, se establecen los roles y responsabilidades de los altos ejecutivos para cada una de las actividades principales. Esta propuesta debe ser de fácil implantación y aplicable en las organizaciones, permitiendo a estas afrontar con éxito el desarrollo de sus negocios, con una mejor calidad, reduciendo los costes de operación y empleando el menor tiempo posible. La validación de la metodología propuesta se realizó a través de una encuesta online y un estudio de casos. En la encuesta de validación participaron 42 altos ejecutivos de diferentes empresas y el estudio de casos se realizó con 5 empresas internacionales. Las respuestas de los estudios fueron analizados, para determinar la aceptación o el rechazo de la metodología propuesta por los participantes, confirmando la validez y confiabilidad del estudio. Este es uno de los primeros estudios reportado con evidencias empíricas para el proceso de la gestión de la demanda estratégica de la TI. Los resultados de esta investigación han sido publicados en revistas y congresos internacionales. ABSTRACT In recent years, the globalized industrial development, diffusion and strategic use of IT in different sectors has grown exponentially. Proper use of IT has become a major concern for government bodies and organizations. Uncontrolled or mismanaged IT investments or improper IT use may compromise the achievement of an organization’s objectives, competitiveness and sustainability in the medium to long term. Business owners set out to use IT to outperform their competitors, enacting business processes effectively and efficiently. Many organizations have made significant investments in technology in order to achieve their aims. However, the deployment of these investments has not been managed properly in accordance with the policies and plans specified in the organizations’ business plans, and IT services have not been delivered in accordance with the specified objectives. This has generated significant losses and, worse still, has seriously damaged the image of organizations. Accordingly, we believe that IT strategic demand management is one of the key factors for business success which has not been overlooked by the boards of trustees or senior executives of organizations. The research begins with an extensive review of the literature. This review has identified two very important elements: IT demand and supply within the corporate governance of IT. We have found that information related to IT strategic demand management is scant. We conducted an exploratory study to learn how members of the board of directors and senior executives of an organization manage IT strategic demand. The survey, which was taken by 130 respondents, confirmed that standards or methodologies are needed to manage IT strategic demand. Based on the results, we have built a framework for the entire IT demand management process. The solution proposed in this thesis is to develop a methodology, combining and integrating frameworks and standards related to the corporate governance of IT. The proposed methodology is divided into three phases. Each phase is composed of a series of key activities, and each key activity is further split into minor activities. We also establish the roles and responsibilities of senior executives for each of the key activities. This proposal should be easy to implement and apply in organizations, enabling corporations to successfully conduct better quality business, reduce operating costs and save time. The proposed methodology was validated by means of an online survey and a case study. The validation survey was completed by 42 senior executives from different companies, and the case study was conducted at five international companies. The study results were analysed to determine the acceptance or rejection of the proposed methodology by the participants, confirming the validity and reliability of the study. This is one the first studies to report empirical evidence for the process of IT strategic demand management. The results of this research have been published in international journals and conferences.
Resumo:
La Gestión Forestal Sostenible se define como “la administración y uso de los bosques y tierras forestales de forma e intensidad tales que mantengan su biodiversidad, productividad, capacidad de regeneración, vitalidad y su potencial para atender, ahora y en el futuro, las funciones ecológicas, económicas y sociales relevantes a escala local, nacional y global, y que no causan daño a otros ecosistemas” (MCPFE Conference, 1993). Dentro del proceso los procesos de planificación, en cualquier escala, es necesario establecer cuál será la situación a la que se quiere llegar mediante la gestión. Igualmente, será necesario conocer la situación actual, pues marcará la situación de partida y condicionará el tipo de actuaciones a realizar para alcanzar los objetivos fijados. Dado que, los Proyectos de Ordenación de Montes y sus respectivas revisiones son herramientas de planificación, durante la redacción de los mismos, será necesario establecer una serie de objetivos cuya consecución pueda verificarse de forma objetiva y disponer de una caracterización de la masa forestal que permita conocer la situación de partida. Esta tesis se centra en problemas prácticos, propios de una escala de planificación local o de Proyecto de Ordenación de Montes. El primer objetivo de la tesis es determinar distribuciones diamétricas y de alturas de referencia para masas regulares por bosquetes, empleando para ello el modelo conceptual propuesto por García-Abril et al., (1999) y datos procedentes de las Tablas de producción de Rojo y Montero (1996). Las distribuciones de referencia obtenidas permitirán guiar la gestión de masas irregulares y regulares por bosquetes. Ambos tipos de masas aparecen como una alternativa deseable en aquellos casos en los que se quiere potenciar la biodiversidad, la estabilidad, la multifuncionalidad del bosque y/o como alternativa productiva, especialmente indicada para la producción de madera de calidad. El segundo objetivo de la Tesis está relacionado con la necesidad de disponer de una caracterización adecuada de la masa forestal durante la redacción de los Proyectos de Ordenación de Montes y de sus respectivas revisiones. Con el fin de obtener estimaciones de variables forestales en distintas unidades territoriales de potencial interés para la Ordenación de Montes, así como medidas de la incertidumbre en asociada dichas estimaciones, se extienden ciertos resultados de la literatura de Estimación en Áreas Pequeñas. Mediante un caso de estudio, se demuestra el potencial de aplicación de estas técnicas en inventario forestales asistidos con información auxiliar procedente de sensores láser aerotransportados (ALS). Los casos de estudio se realizan empleando datos ALS similares a los recopilados en el marco del Plan Nacional de Ortofotografía Aérea (PNOA). Los resultados obtenidos muestran que es posible aumentar la eficiencia de los inventarios forestales tradicionales a escala de proyecto de Ordenación de Montes, mediante la aplicación de estimadores EBLUP (Empirical Best Linear Unbiased Predictor) con modelos a nivel de elemento poblacional e información auxiliar ALS similar a la recopilada por el PNOA. ABSTRACT According to MCPFE (1993) Sustainable Forest Management is “the stewardship and use of forests and forest lands in a way, and at a rate, that maintains their biodiversity, productivity, regeneration capacity, vitality and their potential to fulfill, now and in the future, relevant ecological, economic and social functions, at local, national, and global levels, and that does not cause damage to other ecosystems”. For forest management planning, at any scale, we must determine what situation is hoped to be achieved through management. It is also necessary to know the current situation, as this will mark the starting point and condition the type of actions to be performed in order to meet the desired objectives. Forest management at a local scale is no exception. This Thesis focuses on typical problems of forest management planning at a local scale. The first objective of this Thesis is to determine management objectives for group shelterwood management systems in terms of tree height and tree diameter reference distributions. For this purpose, the conceptual model proposed by García-Abril et al., (1999) is applied to the yield tables for Pinus sylvestris in Sierra de Guadrrama (Rojo y Montero, 1996). The resulting reference distributions will act as a guide in the management of forests treated under the group shelterwood management systems or as an approximated reference for the management of uneven aged forests. Both types of management systems are desirable in those cases where forest biodiversity, stability and multifunctionality are pursued goals. These management systems are also recommended as alternatives for the production of high quality wood. The second objective focuses on the need to adequately characterize the forest during the decision process that leads to local management. In order to obtain estimates of forest variables for different management units of potential interest for forest planning, as well as the associated measures of uncertainty in these estimates, certain results from Small Area Estimation Literature are extended to accommodate for the need of estimates and reliability measures in very small subpopulations containing a reduced number of pixels. A case study shows the potential of Small Area Estimation (SAE) techniques in forest inventories assisted with remotely sensed auxiliary information. The influence of the laser pulse density in the quality of estimates in different aggregation levels is analyzed. This study considers low laser pulse densities (0.5 returns/m2) similar to, those provided by large-scale Airborne Laser Scanner (ALS) surveys, such as the one conducted by the Spanish National Geographic Institute for about 80% of the Spanish territory. The results obtained show that it is possible to improve the efficiency of traditional forest inventories at local scale using EBLUP (Empirical Best Linear Unbiased Predictor) estimators based on unit level models and low density ALS auxiliary information.
Resumo:
La sequía afecta a todos los sectores de la sociedad y se espera que su frecuencia e intensidad aumente debido al cambio climático. Su gestión plantea importantes retos en el futuro. El enfoque de riesgo, que promueve una respuesta proactiva, se identifica como un marco de gestión apropiado que se está empezando a consolidar a nivel internacional. Sin embargo, es necesario contar con estudios sobre las características de la gestión de la sequía bajo este enfoque y sus implicaciones en la práctica. En esta tesis se evalúan diversos elementos que son relevantes para la gestión de la sequía, desde diferentes perspectivas, con especial énfasis en el componente social de la sequía. Para esta investigación se han desarrollado cinco estudios: (1) un análisis de las leyes de emergencia aprobadas durante la sequía 2005-2008 en España; (2) un estudio sobre la percepción de la sequía de los agricultores a nivel local; (3) una evaluación de las características y enfoque de gestión en seis casos de estudio a nivel europeo; (4) un análisis sistemático de los estudios de cuantificación de la vulnerabilidad a la sequía a nivel global; y (5) un análisis de los impactos de la sequía a partir en una base de datos europea. Los estudios muestran la importancia de la capacidad institucional como un factor que promueve y facilita la adopción del enfoque de riesgo. Al mismo tiempo, la falta de estudios de vulnerabilidad, el escaso conocimiento de los impactos y una escasa cultura de la evaluación post-sequía destacan como importantes limitantes para aprovechar el conocimiento que se genera en la gestión de un evento. A través del estudio de las leyes de sequía se evidencia la existencia de incoherencias entre cómo se define el problema de la sequía y las soluciones que se plantean, así como el uso de un discurso de securitización para perseguir objetivos más allá de la gestión de la sequía. El estudio de percepción permite identificar la existencia de diferentes problemas y percepciones de la sequía y muestra cómo los regantes utilizan principalmente los impactos para identificar y caracterizar la severidad de un evento, lo cual difiere de las definiciones predominantes a otros niveles de gestión. Esto evidencia la importancia de considerar la diversidad de definiciones y percepciones en la gestión, para realizar una gestión más ajustada a las necesidades de los diferentes sectores y colectivos. El análisis de la gestión de la sequía en seis casos de estudio a nivel europeo ha permitido identificar diferentes niveles de adopción del enfoque de riesgo en la práctica. El marco de análisis establecido, que se basa en seis dimensiones de análisis y 21 criterios, ha resultado ser una herramienta útil para diagnosticar los elementos que funcionan y los que es necesario mejorar en relación a la gestión del riesgo a la sequía. El análisis sistemático de los estudios de vulnerabilidad ha evidenciado la heterogeneidad en los marcos conceptuales utilizados así como debilidades en los factores de vulnerabilidad que se suelen incluir, en muchos casos derivada de la falta de datos. El trabajo sistemático de recolección de información sobre impactos de la sequía ha evidenciado la escasez de información sobre el tema a nivel europeo y la importancia de la gestión de la información. La base de datos de impactos desarrollada tiene un gran potencial como herramienta exploratoria y orientativa del tipo de impactos que produce la sequía en cada región, pero todavía presenta algunos retos respecto a su contenido, proceso de gestión y utilidad práctica. Existen importantes limitaciones vinculadas con el acceso y la disponibilidad de información y datos relevantes vinculados con la gestión de la sequía y todos sus componentes. La participación, los niveles de gestión, la perspectiva sectorial y las relaciones entre los componentes de gestión del riesgo considerados constituyen aspectos críticos que es necesario mejorar en el futuro. Así, los cinco artículos en su conjunto presentan ejemplos concretos que ayudan a conocer mejor la gestión de la sequía y que pueden resultar de utilidad para políticos, gestores y usuarios. ABSTRACT Drought affects all sectors and their frequency and intensity is expected to increase due to climate change. Drought management poses significant challenges in the future. Undertaking a drought risk management approach promotes a proactive response, and it is starting to consolidate internationally. However, it is still necessary to conduct studies on the characteristics of drought risk management and its practical implications. This thesis provides an evaluation of various relevant aspects of drought management from different perspectives and with special emphasis on the social component of droughts. For the purpose of this research a number of five studies have been carried out: (1) analysis of the emergency laws adopted during the 2005-2008 drought in Spain; (2) study of farmers perception of drought at a local level; (3) assessment of the characteristics and drought management issues in six case studies across Europe; (4) systematic analysis of drought vulnerability assessments; and (5) analysis of drought impacts from an European impacts text-based database. The results show the importance of institutional capacity as a factor that promotes and facilitates the adoption of a risk approach. In contrast, the following issues are identified as the main obstacles to take advantage of the lessons learnt: (1) lack of vulnerability studies, (2) limited knowledge about the impact and (3) limited availability of post-drought assessments Drought emergency laws evidence the existence of inconsistencies between drought problem definition and the measures proposed as solutions. Moreover, the securitization of the discourse pursue goals beyond management drought. The perception of drought by farmers helps to identify the existence of several definitions of drought. It also highlights the importance of impacts in defining and characterizing the severity of an event. However, this definition differs from the one used at other institutional and management level. As a conclusion, this remarks the importance of considering the diversity of definitions and perceptions to better tailor drought management to the needs of different sectors and stakeholders. The analysis of drought management in six case studies across Europe show different levels of risk adoption approach in practice. The analytical framework proposed is based on six dimensions and 21 criteria. This method has proven to be a useful tool in diagnosing the elements that work and those that need to be improved in relation to drought risk management. The systematic analysis of vulnerability assessment studies demonstrates the heterogeneity of the conceptual frameworks used. Driven by the lack of relevant data, the studies point out significant weaknesses of the vulnerabilities factors that are typically included The heterogeneity of the impact data collected at European level to build the European Drought Impact Reports Database (EDII) highlights the importance of information management. The database has great potential as exploratory tool and provides indicative useful information of the type of impacts that occurred in a particular region. However, it still presents some challenges regarding their content, the process of data collection and management and its usefulness. There are significant limitations associated with the access and availability of relevant information and data related to drought management and its components. The following improvement areas on critical aspects have been identified for the near future: participation, levels of drought management, sectorial perspective and in-depth assessment of the relationships between the components of drought risk management The five articles presented in this dissertation provides concrete examples of drought management evaluation that help to better understand drought management from a risk-based perspective which can be useful for policy makers, managers and users.
Resumo:
Sequencing of Information Technology Infrastructure Library (ITIL) processes related to their order of implementation is one of the pending issues in the ITIL handbooks. Other frameworks and process models related to service management (e.g., COBIT, COSO and CMMI-SVC) are quite well described in the literature and their handbooks. However, the identifi cation of the fi rst process to be implemented has not been deeply analysed in the previous frameworks and models, and it is also a complex question to answer for organizations, especially Small and Medium Enterprises (SMEs). Moreover, SMEs are the organizations that have the largest presence in the world economy; offi cial data of General Business Directory, show that their range of presence in different countries around the world is between 93% and 99%, and the average of employment contribution is around 60%. Consequently, the improvement of information technology service management is of vital importance to accomplish in this type of enterprises. This research has focused on two surveys that aim at helping SMEs to select the ITIL process by which starting the implementation of ITIL. In the fi rst survey, data were gathered through a questionnaire to SMEs registered in the region of Madrid. The second survey obtained data from experts and enterprises in countries as Spain, Ecuador, Chile, Luxembourg, Colombia, Norway, El Salvador, and Venezuela. Finally, the results of both surveys show that the tendency for starting an ITIL implementation in SMEs points to one of the processes included in the Service Operation.
Resumo:
Desde o final do Século XX e início do Século XXI, estudos analisam a elevada taxa de insucesso ou insatisfação com os Programas de Lean. Esta taxa tem se demonstrado demasiadamente elevada, variando entre 66% e 90%. Como efeito deste insucesso, tem-se o desperdício de tempo, dinheiro, recursos e, talvez o pior, tem-se a propagação do medo nos agentes de mudança em empreitar novas iniciativas de mudança. Estudos apontam a falta de alinhamento de tais projetos com a Cultura Organizacional como uma das questões fundamentais deste insucesso. Partindo desta temática de pesquisa, este ensaio teórico pode ser caracterizado como uma abordagem qualitativa de análise do problema, de natureza básica de pesquisa buscando gerar conhecimentos novos e úteis às organizações, sem aplicação prática prevista neste primeiro estágio de pesquisa. A fonte de evidências para sustentar o modelo proposto foi revisão dos estudos de caso encontrados na literatura, sendo utilizadas tanto uma Revisão Bibliográfica Sistemática (RBS) quanto Exploratória, de tal maneira a buscar o \"estado da arte\" no campo de estudo. A Fundamentação Teórica do trabalho é baseada na literatura de quatro grandes campos de estudo: (i) Estratégia, (ii) Lean, (iii) Cultura Organizacional e (iv) Gestão de Mudanças. A RBS tem foco nas interseções destes grandes campos, agregando 190 trabalhos internacionais. Por sua vez, a Revisão Exploratória traz algumas das principais referências dos três campos de estudo, como: Edgar Schein, John Kotter, Kim Cameron, Robert Quinn, David Mann, dentre outros. Desta maneira, este trabalho estudou a influência da cultura organizacional nos projetos de transformação e, a partir da ruptura com a teoria atual, construiu e propôs uma sistemática teórica, intitulada de \"Sistemática de Transformação\" (ou simplesmente \"Sistemática T\"), a qual propõe o alinhamento entre três dimensões: Estratégia, Projeto de Transformação e Cultura Organizacional. Fazendo uso desta sistemática, é esperado que os agentes de mudança consigam ter um planejamento mais eficaz do processo de diagnóstico, avaliação e gestão da cultura organizacional alinhado à Estratégia e também ao Projeto de Transformação da organização, com ênfase nos Programas de Lean. A proposição e uso desta sistemática pode favorecer tanto a discussão acadêmica na área de Gestão de Operações sobre o tema, quanto fornecer subsídios para aplicações práticas mais eficazes.