16 resultados para Standardisation. Selling Process. Sales Performance. Sales Funnel Management. Performance

em Universidad Politécnica de Madrid


Relevância:

100.00% 100.00%

Publicador:

Resumo:

This research is concerned with the experimental software engineering area, specifically experiment replication. Replication has traditionally been viewed as a complex task in software engineering. This is possibly due to the present immaturity of the experimental paradigm applied to software development. Researchers usually use replication packages to replicate an experiment. However, replication packages are not the solution to all the information management problems that crop up when successive replications of an experiment accumulate. This research borrows ideas from the software configuration management and software product line paradigms to support the replication process. We believe that configuration management can help to manage and administer information from one replication to another: hypotheses, designs, data analysis, etc. The software product line paradigm can help to organize and manage any changes introduced into the experiment by each replication. We expect the union of the two paradigms in replication to improve the planning, design and execution of further replications and their alignment with existing replications. Additionally, this research work will contribute a web support environment for archiving information related to different experiment replications. Additionally, it will provide flexible enough information management support for running replications with different numbers and types of changes. Finally, it will afford massive storage of data from different replications. Experimenters working collaboratively on the same experiment must all have access to the different experiments.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nowadays, processing Industry Sector is going through a series of changes, including right management and reduction of environmental affections. Any productive process which looks for sustainable management is incomplete if Cycle of Life of mineral resources sustainability is not taken into account. Raw materials for manufacturing are provided by mineral resources extraction processes, such as copper, aluminum, iron, gold, silver, silicon, titanium? Those elements are necessary for Mankind development and are obtained from the Earth through mineral extractive processes. Mineral extraction processes are operations which must take care about the environmental consequences. Extraction of huge volumes of rock for their transformation into raw materials for industry must be optimized to reduce ecological cost of the final product as l was possible. Reducing the ecological balance on a global scale has no sense to design an efficient manufacturing in secondary industry (transformation), if in first steps of the supply chain (extraction) impact exceeds the savings of resources in successive phases. Mining operations size suggests that it is an environmental aggressive activity, but precisely because of its great impact must be the first element to be considered. That idea implies that a new concept born: Reduce economical and environmental cost This work aims to make a reflection on the parameters that can be modified to reduce the energy cost of the process without an increasing in operational costs and always ensuring the same production capacity. That means minimize economic and environmental cost at same time. An efficient design of mining operation which has taken into account that idea does not implies an increasing of the operating cost. To get this objective is necessary to think in global operation view to make that all departments involved have common guidelines which make you think in the optimization of global energy costs. Sometimes a single operational cost must be increased to reduce global cost. This work makes a review through different design parameters of surface mining setting some key performance indicators (KPIs) which are estimated from an efficient point of view. Those KPIs can be included by HQE Policies as global indicators. The new concept developed is that a new criteria has to be applied in company policies: improve management, improving OPERATIONAL efficiency. That means, that is better to use current resources properly (machinery, equipment,?) than to replace them with new things but not used correctly. As a conclusion, through an efficient management of current technologies in each extractive operation an important reduction of the energy can be achieved looking at downstream in the process. That implies a lower energetic cost in the whole cycle of life in manufactured product.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En el marco del Espacio Europeo de Educación Superior los estudios deben de estar orientados a facilitar la movilidad de los futuros egresados para que su inclusión en mundo laboral sea global y en este contexto, los sistemas educativos deben introducir cambios en el proceso de enseñanza – aprendizaje y en la gestión. Como uno de los elementos básicos de la creación del EEES es el aprendizaje a lo largo de la vida, se deben adoptar metodologías que doten al estudiante de capacidades para poder enfrentarse a todos los retos de la vida laboral. A través de la presente investigación se trata de aportar una visión real de la aplicación efectiva de un modelo de Aprendizaje Basado en Problemas y el Método del Caso acompañados de una fuerte Acción Tutorial y el uso de la Tecnología de la Información y Comunicación en la Universidad (TIC). Se considera asimismo de gran interés para la mejora del aprendizaje conocer cuál es la opinión real de los estudiantes universitarios, ya que son los principales implicados en relación a un modelo formativo apoyado en el Aprendizaje Basado en Problemas, el Método del Caso, la Acción Tutorial y utilización de las TIC. A través de este estudio se pretende comprobar y valorar cual es la visión real que los alumnos tienen de estas aplicaciones y como las utilizan. Para ello durante los últimos cursos se ha trabajado con alumnos de los últimos cursos de la Escuela Técnica Superior de Ingeniería Civil de la Universidad Politécnica de Madrid aplicando técnicas de Aprendizaje Basado en Problemas y el Método del Caso conjuntamente con la utilización de un Modelo de Acción Tutorial y el uso de la TIC. La tarea se ha centrado en desarrollar, a lo largo de los cursos 2009-10, 2010-11, 2011-12 y 2013-14, un modelo de Acción Tutorial con los alumnos matriculados en las asignaturas de Caminos I, Caminos II, Aforos y Ordenación del Tráfico, asignaturas de la titulación de Ingeniería Técnica de Obras Públicas, y por otro lado, en la asignatura de Caminos, perteneciente a la titulación de Ingeniería Civil. Mediante cuestionarios al inicio y final del curso, se ha conocido cuál es la opinión que poseen los alumnos sobre esta acción. A continuación, durante los cursos 2010-11, 2011-12 y 2013-14 se desarrolla un modelo experimental para evaluar las mejoras, tanto de rendimiento como de adquisición de competencias, utilizando el Aprendizaje Basado en Problemas y el Método del Caso acompañados de las TIC en el proceso de enseñanza–aprendizaje como modelo de Acción Tutorial con alumnos. ABSTRACT Abstract In the frame of the European Higher Education Area, the studies must be faced to facilitate mobility of future graduates for inclusion in the workplace is global and in this context, educational systems must introduce changes in the process of education-learning and management. Since one of the basic elements of the creation of the EHEA is learning throughout life, there must be adopted methodologies that provide the student of aptitudes to be able to face all the challenges of the labor life. Through this research it is provided a real vision of the effective application of a Model of Learning Based on Problems and the Case Method accompanied by a strong Tutorial Action and the use of ITC in the University. It is also considered of great interest for the improvement of learning to know what the real opinion of the college students is, as they are the main players in relation in a training model based on Problem-Based Learning, the Case Method, the Tutorial Action and Use of ICT. Through this study it is expected to verify and assess which is the real vision that students have about these applications and how they use them. In order to achieve the goal of this research project, during the last three years I have been working with students of last courses of the Civil Engineering School of the Technical University of Madrid applying with them techniques of Problem-Based Learning and the Case Method together with the use of a Model Action Tutorial and the Use of Information Technology and Communication (ICT). The task has focused on developing, over the 2009-10, 2010-11, 2011-12 and 2013-14 courses, a model of Tutorial Action with students enrolled in the subjects of Roads I, Roads II, Traffic Gauging and Traffic Management, all of them of the old degree in Civil Engineering (1971 Study Plan), and secondly, on the subject of Roads which belong to the current degree of Civil Engineering. Using questionnaires at the beginning and end of the course the perception that students have on this action.. Then, during the 2010-11, 2011-12 and 2013-14 courses an experimental model is developed to evaluate improvements in both performance and skills acquisition, using Problem-Based Learning and the Case Method together with the ICT in Teaching-Learning Pprocess as a model of Tutorial Action with students.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente investigación se inicia planteando el objetivo de identificar los parámetros geométricos que son exclusivos del proceso de generación de la Forma y relacionarlos con los invariantes relacionados con la Fabricación digital aplicada a la Arquitectura. Con ello se pretende recuperar la geometría como herramienta principal del proceso de Proyecto ampliando su ámbito de actuación al encontrar una relación con los procesos de fabricación digital. El primer capítulo describe los antecedentes y contexto histórico centrándose especialmente en la influencia de la capacidad de definir geometrías complejas digitalmente mediante la aplicación de algoritmos. En los primeros ejemplos la aproximación del Arquitecto a proyectos con geometrías complejas no euclídeas aún se emplea sin precisión en la comunicación de la geometría ideada para su puesta en obra. Las técnicas constructivas obligan a asumir una tolerancia de desviación entre proyecto y obra y la previsión del comportamiento de esa geometría no permite asegurar su comportamiento final. No será hasta la introducción de herramientas CAD en el proceso de ideación arquitectónica cuando el Arquitecto se capacite para generar geometrías no representables de forma analógica. Sin embargo, la imposibilidad de trasladar la geometría proyectada a la praxis constructiva impedirá la plasmación de un proceso completo, salvo en las contadas ocasiones que se recogen en este texto. “El análisis cronológico de las referencias establece como aspecto esencial para la construcción de geometrías complejas la capacidad primero para definir y comunicar de forma precisa e inequívoca la geometría y después la capacidad de analizar el desempeño prestacional de dicha propuesta geométrica”. La presente investigación se inicia planteando el objetivo de identificar los parámetros geométricos que son exclusivos del proceso de generación de la Forma y relacionarlos con los invariantes relacionados con la Fabricación digital aplicada a la Arquitectura. Con ello se pretende recuperar la geometría como herramienta principal del proceso de Proyecto ampliando su ámbito de actuación al encontrar una relación con los procesos de fabricación digital. El primer capítulo describe los antecedentes y contexto histórico centrándose especialmente en la influencia de la capacidad de definir geometrías complejas digitalmente mediante la aplicación de algoritmos. En los primeros ejemplos la aproximación del Arquitecto a proyectos con geometrías complejas no euclídeas aún se emplea sin precisión en la comunicación de la geometría ideada para su puesta en obra. Las técnicas constructivas obligan a asumir una tolerancia de desviación entre proyecto y obra y la previsión del comportamiento de esa geometría no permite asegurar su comportamiento final. No será hasta la introducción de herramientas CAD en el proceso de ideación arquitectónica cuando el Arquitecto se capacite para generar geometrías no representables de forma analógica. Sin embargo, la imposibilidad de trasladar la geometría proyectada a la praxis constructiva impedirá la plasmación de un proceso completo, salvo en las contadas ocasiones que se recogen en este texto. “El análisis cronológico de las referencias establece como aspecto esencial para la construcción de geometrías complejas la capacidad primero para definir y comunicar de forma precisa e inequívoca la geometría y después la capacidad de analizar el desempeño prestacional de dicha propuesta geométrica”. Establecida la primera conclusión, el capítulo de contexto histórico continúa enfocándose sobre la aplicación de las técnicas digitales en el Proceso de proyecto primero, y en la puesta en obra después. Los casos de estudio identifican claramente como un punto de inflexión para la generación de formas complejas mediante un software CAD el Museo Guggenheim de Bilbao en 1992. El motivo esencial para elegir este proyecto como el primer proyecto digital es el uso de la herramienta de definición digital de la geometría para su reproducción inequívoca en obra. “La revolución digital ha aportado al Arquitecto la posibilidad de abandonar las tipologías arquitectónicas basados en restricciones geométricas-constructivas. La aplicación de técnicas de fabricación digital ha permitido la capacidad de diseñar con independencia del sistema constructivo y libertad formal. En este nuevo contexto las prestaciones suponen los nuevos límites conceptuales, ya que el acceso y disposición de la información del comportamiento de las alternativas que cada geometría conlleva demanda del Arquitecto la jerarquización de los objetivos y la formulación en un conjunto coherente de parámetros”. Los proyectos que emplean herramientas digitales para la resolución de las distintas etapas del proceso proyectual se verán incrementados de forma exponencial desde 1992 hasta nuestros días. A pesar del importante auge de las técnicas de diseño asistido por ordenador el principal desafío sigue siendo la vinculación de las geometrías y materiales propuestos con las capacidades de las técnicas de manufactura y puesta en obra. El proceso de diseño para fabricación en un entorno digital es una tecnología madura en otras industrias como la aeroespacial o la automovilística, incluso la de productos de consumo y decoración, sin embargo en el sector de Construcción es un sistema inmaduro e inconexo. Las particularidades de la industria de la construcción aún no han sido abordadas en su totalidad y las propuestas de investigación realizadas en este ámbito se han centrado hasta 2015 en partes del proceso y no en el proceso total. “El principal obstáculo para la estandarización e implantación globalizada de un proceso digital desde el origen de la forma hasta la construcción es la inexistencia de un protocolo integrado que integre las limitaciones de fabricación, económicas y de puesta en obra junto a la evaluación de desempeño prestacional durante la fases iniciales de proyecto”. En el capítulo número 3 se estudian los distintos procesos de generación de la forma. Se propone una definición específica para el ámbito de la investigación de “forma” en el entendemos que se incluye la envolvente exterior y el conjunto organizativo de espacios interiores conectados. Por lo tanto no es excluyente del interior. El objetivo de este estudio es analizar y clasificar los procesos para la generación digital de formas en los distintos proyectos seleccionados como emblemáticos de cada tipología. Se concluye que la aproximación a este proceso es muy variada y compleja, con aplicación segregada y descoordinada entre los distintos agentes que han intervenir. En un proceso de generación formal analógico los parámetros que intervienen son en parte conscientes y en parte inconscientes o aprendidos. El Arquitecto sólo tiene control sobre la parte consciente de los parámetros a integrar en el diseño, de acuerdo a sus conocimientos y capacidades será capaz de manejar un número limitado de parámetros. La parte aprendida permanece en el inconsciente y dirige el proceso analógico, aportando prejuicios estéticos incorporados durante el proceso formativo y propio del entorno cultural. “El empleo de herramientas digitales basadas en la evaluación prestacional durante el proceso de selección formal permite al Arquitecto conocer “en tiempo real” el desempeño en el conjunto de prestaciones evaluadoras del conjunto de alternativas geométricas a la propuesta previamente definida por la intuición arquitectónica. El proceso definido no persigue identificar una solución óptima sino asistir al Arquitecto en el proceso de generación de la forma mediante la evaluación continua de los vectores direccionales más idóneos que el procedimiento generativo plantea”. La definición de complejidad en generación y producción de formas en relación con el proceso de diseño digital paramétrico global o integrado, es esencial para establecer un protocolo que optimice su gestión. “Se propone como definición de complejidad como factor resultante de multiplicar el número de agentes intervinientes por el número de parámetros e interacciones comunes que intervienen en el proceso de generación de la forma, dividido por la complejidad de intercambio de información digital desde el origen hasta la fase de fabricación y construcción”. Una vez analizados los procesos de generación digital de Arquitectura se propone identificar los parámetros geométricos que definen el proceso de Diseño digital, entendiendose por Diseño el proceso que engloba desde la proposición de una forma inicial basada en la intuición del Arquitecto, la generación y evaluación de variantes y posterior definición digital para producción, tanto de un objeto, un sistema o de la totalidad del Proyecto. En la actualidad el proceso de Diseño es discontinuo y lineal organizandose los parámetros por disciplinas en las que está estructurada las atribuciones profesionales en la industria de la construcción. Para simplificar la identificación y listado se han agrupado siguiendo estos grupos de conocimiento. Entendemos parametros invariables aquellos que son independientes de Tipologías arquitectónicas o que dependen del mismo proceso de generación de la Forma. “El listado de los parámetros que intervienen en un proceso de generación formal es una abstracción de una realidad compleja. La parametrización de las decisiones que intervienen en la selección de una forma determinada mediante “well defined problems” es imposible. El proceso que esta tesis describe entiende esta condición como un elemento que pone en valor el propio procedimiento generativo por la riqueza que la subjetividad que el equipo de diseño aporta”. La segunda parte esencial de esta investigación pretende extraer las restricciones propias del estado del arte de la fabricación digital para posteriormente incorporarlos en los procesos digitales de definición de la Forma arquitectónica. “La integración de las restricciones derivadas de las técnicas de fabricación y construcción digitales en el proceso de generación de formas desde el ámbito de la Arquitectura debe referirse a los condicionantes geométricos asociados a cada sistema constructivo, material y técnica de fabricación. La geometría es además el vínculo que permite asociar el conjunto de parámetros prestacionales seleccionados para un Proyecto con los sistemas de fabricación digital”. A estos condicionantes geométricos obtenidos del análisis de cada sistema de fabricación digital se les ha denominado “invariantes geométricos”. Bajo este término se engloban tanto límites dimensionales de fabricación, como materiales compatibles, tolerancias de manufactura e instalación y cualidades prestacionales asociadas. El objetivo de esta propuesta es emplear la geometría, herramienta fundamental y propia del Arquitecto, como nexo de unión entre el conjunto complejo y heterogéneo de parámetros previamente listados y analizados. Para ello se han simplificado en tablas específicas para cada parámetro prestacional los condicionantes geométricos que se derivan de los Sistemas de fabricación digital compatibles (ver apéndice 1). El estudio y evaluación de las capacidades y objetivos de las distintas plataformas de software disponibles y de las experiencias profesionales evaluadas en los proyectos presentados, permiten concluir que la propuesta de plataforma digital de diseño integral multi-paramétrico de formas arquitectónicas requiere de un protocolo de interoperatibilidad específico aún no universalmente establecido. Actualmente el enfoque de la estrategia para normalizar y universalizar el contexto normativo para regular la interoperatibilidad se centra en figura del gestor denominado “BIM manager”. Las atribuciones y roles de esta figura se enfocan a la gestión del continente y no del contenido (Definición de los formatos de intercambio, niveles de desarrollo (LOD) de los componentes o conjuntos constructivos, detección de interferencias y documentación del propio modelo). Siendo este ámbito un desarrollo necesario para la propuesta de universalización del sistema de diseño para fabricación digital integrado, la presente investigación aporta un organigrama y protocolo asociado. El protocolo: 1. Establece la responsabilidad de identificar y definir la Información que debe determinar el proceso de generación y desarrollo de la forma arquitectónica. 2. Define la forma digital apropiada para generar la geometría del Proyecto, incluyendo la precisión necesaria para cada componente y el nivel de detalle necesario para su exportación inequívoca al proceso de fabricación. 3. Define el tempo de cada etapa de diseño identificando un nivel de detalle acorde. 4. Acopla este organigrama dentro de las estructuras nuevas que se proponen en un entorno BIM para asegurar que no se producen solapes o vacíos con las atribuciones que se identifican para el BIM Manager. “El Arquitecto debe dirigir el protocolo de generación coordinada con los sistemas de producción digital para conseguir que la integración completa. El protocolo debe asistir al proceso de generación de forma mediante la evaluación del desempeño prestacional de cada variante en tiempo real. La comunicación entre herramientas digitales es esencial para permitir una ágil transmisión de información. Es necesario establecer un protocolo adaptado a los objetivos y las necesidades operativas de cada proyecto ya que la estandarización de un protocolo único no es posible”. Una decisión estratégica a la hora de planificar una plataforma de diseño digital común es establecer si vamos a optar por un Modelo digital único o diversos Modelos digitales federados. Cada uno de los modos de trabajo tiene fortalezas y debilidades, no obstante en el ámbito de investigación se ha concluido que un proceso integrado de Diseño que incorpore la evaluación prestacional y conceptual definida en el Capítulo 3, requiere necesariamente de varios modelos de software distintos que han de relacionarse entre sí mediante un protocolo de comunicación automatizado. Una plataforma basada en un modelo federado consiste en establecer un protocolo de comunicación entre los programas informáticos empleados por cada disciplina. En este modelo de operación cada equipo de diseño debe establecer las bases de comunicación en función del número y tipo de programas y procesos digitales a emplear. En esta investigación se propone un protocolo basado en los estándares de intercambio de información que estructura cualquier proceso de generación de forma paramétrico “La investigación establece el empleo de algoritmos evolutivos como el sistema actual óptimo para desarrollar un proceso de generación de formas basadas en la integración y coordinación de invariantes geométricos derivados de un conjunto de objetivos prestacionales y constructivos. No obstante, para la aplicación en el caso práctico realizado se ha podido verificar que la evaluación del desempeño aún no puede realizarse en una única herramienta y por lo tanto el proceso de selección de las variantes genéticas óptimas ha de ejecutarse de forma manual y acumulativa. El proceso debe realizarse de manera federada para la selección evolutiva de los invariantes geométricos dimensionales”. La evaluación del protocolo de integración y los condicionantes geométricos obtenidos como parámetros geométricos que controlan las posibles formas compatibles se realiza mediante su aplicación en un caso práctico. El ejercicio simula la colaboración multidisciplinar con modelos federados de plataformas distintas. La elección del tamaño y complejidad constructiva del proyecto se ha modulado para poder alcanzar un desarrollo completo de cada uno de los parámetros prestacionales seleccionados. Continuando con el mismo objetivo propuesto para los parámetros prestacionales, la tipología constructiva-estructural seleccionada para el ejercicio permite la aplicación la totalidad de invariantes geométricos asociados. El objetivo de este caso práctico es evaluar la capacidad alterar la forma inicialmente propuesta mediante la evaluación del desempeño prestacional de conjunto de variantes geométricas generadas a partir de un parámetro dimensional determinado. Para que este proceso tenga sentido, cada una de las variantes debe ser previamente validada conforme a las limitaciones geométricas propias de cada sistema de fabricación y montaje previstos. El interés de las conclusiones obtenidas es la identificación de una variante geométrica distante a la solución simétrica inicialmente como la solución óptima para el conjunto de parámetros seleccionados. Al tiempo se ha comprobado como la participación de un conjunto de parámetros multi-disciplinares que representan la realidad compleja de los objetivos arquitectónicos favorecen la aparición de variaciones genéticas con prestaciones mejoradas a la intuición inicial. “La herencias tipológicas suponen un límite para la imaginación de variantes formales al proceso de ideación arquitectónica. El ejercicio realizado demuestra que incluso en casos donde aparentemente la solución óptima aparenta ser obvia una variante aleatoria puede mejorar su desempeño global. La posibilidad de conocer las condiciones geométricas de las técnicas de fabricación digital compatibles con el conjunto de parámetros seleccionados por el Arquitecto para dirigir el proceso asegura que los resultados del algoritmo evolutivo empleado sean constructivamente viables. La mejora de imaginación humana con la aportación de geometrías realmente construibles supone el objetivo último de esta tesis”. ABSTRACT Architectural form generation process is shifting from analogical to digital. Digital technology has changed the way we design empowering Architects and Engineers to precisely define any complex geometry envisioned. At the same time, the construction industry, following aeronautical and automotive industries, is implementing digital manufacturing techniques to improve efficiency and quality. Consequently construction complexity will no longer be related to geometry complexity and it is associated to coordination with digital manufacturing capacities. Unfortunately it is agreed that non-standard geometries, even when proposed with performance optimization criteria, are only suitable for projects with non-restricted budgets. Furthemore, the lack of coordinated exportation protocol and geometry management between design and construction is avoiding the globalization of emergence process in built projects Present research first objective is to identify exclusive form-generation parameters related to digital manufacturing geometrical restraints. The intention was to use geometry as the form-generation tool and integrate the digital manufacturing capacities at first stages of the project. The first chapter of this text describes the investigation historical context focusing on the influence between accurate geometry definition at non-standard forms and its construction. At first examples of non-Euclidean geometries built the communication between design and construction were based on analogical partial and imprecise documentation. Deficient communication leads to geometry adaptation on site leaving the final form uncontrolled by the Architect. Computer Aided Design enable Architects to define univocally complex geometries that previously where impossible to communicate. “The univocally definition of the Form, and communication between design and construction is essential for complex geometry Projects”. The second chapter is focused on digital technologies application in form finding process and site construction. The case studies selected identifies a clear inflexion node at 1992 with the Guggenheim Museum in Bilbao. The singularity of this project was the use of Aeronautics software to define digitally the external envelope complex geometry to enable the contractor to build it. “The digital revolution has given the Architect the capacity to design buildings beyond the architectural archetypes driven by geometric-constructive limitations. The application of digital manufacturing techniques has enabled a free-form construction without geometrical limitations. In this new context performance shall be the responsible to set new conceptual boundaries, since the behavior of each possible geometry can be compare and analyze beforehand. The role of the Architect is to prioritize the performance and architectural objectives of each project in a complete and coherent set of parameters”. Projects using digital tools for solving various stages of the design process were increased exponentially since 1992 until today. Despite the significant rise of the techniques of computer-aided design the main challenge remains linking geometries and materials proposed at each design with the capabilities of digital manufacturing techniques. Design for manufacturing in a digital environment is a mature technology in other industries such as aerospace and automotive, including consumer products and decoration, but in the construction sector is an immature and disjointed system. The peculiarities of the construction industry have not yet been addressed in its entirety and research proposals made in this area until 2015 have focused in separate parts of the process and not the total process. “The main obstacle to global standardization and implementation of a complete digital process from the form-finding to construction site is the lack of an integrated protocol that integrates manufacturing, economic and commissioning limitations, together with the performance evaluation of each possible form”. The different form generation processes are studied at chapter number 3. At the introduction of this chapter there is a specific definition of "form" for the research field. Form is identified with the outer envelope geometry, including the organizational set of connected indoor spaces connected to it. Therefore it is not exclusive of the interior. The aim of this study is to analyze and classify the main digital form generation processes using different selected projects as emblematic of each type. The approach to this process is complex, with segregated and uncoordinated different actors have to intervene application. In an analogical form-generation process parameters involved are partly conscious and partly unconscious or learned. The architect has control only over limited part of the parameters to be integrated into the design, according to their knowledge and. There is also a learned aesthetical prejudice that leads the form generation process to a specific geometry leaving the performance and optimization criteria apart from the decision making process. “Using performance evaluation digital tools during form finding process provides real-time comparative information to the Architect enabling geometry selection based on its performance. The generative form generation process described at this document does not ambition to identify the optimum geometry for each set of parameters. The objective is to provide quick information at each generation of what direction is most favorable for the performance parameters selected”. Manufacturing complexity definition in relation to a global and integral process of digital design for manufacture is essential for establishing an efficient managing protocol. “The definition of complexity associated to design for production in Architecture is proposed as the factor between number of different agents involved in the process by the number of interactions required between them, divided by the percentage of the interchange of information that is standardized and proof of information loss”. Design in architecture is a multi-objective process by definition. Therefore, addressing generation process linked to a set of non-coherent parameters requires the selection of adequate generative algorithm and the interaction of the architect. During the second half of the twentieth century and early twenty-first century it have been developed various mathematical algorithms for multi-parametric digital design. Heuristic algorithms are the most adequate algorithms for architectural projects due to its nature. The advantage of such algorithms is the ability to efficiently handle large scale optimization cases where a large number of design objectives and variables are involved. These generative processes do not pursue the optimum solution, in fact it will be impossible to proof with such algorithm. This is not a problem in architectural design where the final goal is to guide the form finding process towards a better performance within the initial direction provided by the architect. This research has focused on genetic algorithms due to its capacity to generate geometric alternatives in multiple directions and evaluate the fitness against a set of parameters specified in a single process. "Any protocol seeks to achieve standardization. The design to manufacturing protocol aims to provide a coordinated and coherent form generation process between a set of design parameters and the geometrical requirements of manufacturing technique. The protocol also provides an information exchange environment where there is a communication path and the level of information is ensured. The research is focused on the process because it is considered that each project will have its own singularities and parameters but the process will stay the same. Again the development of a specific tool is not a goal for the research, the intention is to provide an open source protocol that is valid for any set of tools”. Once the digital generation processes are being analized and classified, the next step is to identify the geometric parameters that define the digital design process. The definition of design process is including from the initial shape proposal based on the intuition of the architect to the generation, evaluation, selection and production of alternatives, both of an object , system or of the entire project . The current design process in Architecture is discontinuous and linear, dividing the process in disciplines in which the construction industry is structured. The proposal is to unify all relevant parameters in one process. The parameters are listed in groups of knowledge for internal classification but the matrix used for parameter relationship determination are combined. “A multi-parameter determination of the form-finding process is the integration all the measurable decisions laying behind Architect intuition. It is not possible to formulate and solve with an algorithm the design in Architecture. It is not the intention to do so with the proposal of this research. The process aims to integrate in one open protocol a selection of parameters by using geometry as common language. There is no optimum solution for any step of the process, the outcome is an evaluation of performance of all the form variations to assist the Architect for the selection of the preferable solution for the project”. The research follows with the geometrical restrictions of today Digital manufacturing techniques. Once determined it has been integrated in the form-finding process. “Digital manufacturing techniques are integrated in the form-finding process using geometry as common language. Geometric restraints define the boundary for performance parametric form-finding process. Geometrical limitations are classified by material and constructive system”. Choose between one digital model or several federate models is a strategic decision at planning a digital design for manufacturing protocol. Each one of the working models have strengths and weakens, nevertheless for the research purposes federated models are required to manage the different performance evaluation software platforms. A protocol based on federated models shall establish a communication process between software platforms and consultants. The manager shall integrate each discipline requirements defining the communication basis. The proposed protocol is based on standards on information exchange with singularities of the digital manufacturing industry. “The research concludes evolutionary algorithms as current best system to develop a generative form finding process based on the integration and coordination of a set of performance and constructive objectives. However, for application in professional practice and standardize it, the performance evaluation cannot be done in only one tool and therefore the selection of optimal genetic variants must be run in several iterations with a cumulative result. Consequently, the evaluation process within the geometrical restraints shall be carried out with federated models coordinated following the information exchange protocol”. The integration protocol and geometric constraints evaluation is done by applying in a practical case study. The exercise simulates multidisciplinary collaboration across software platforms with federated models. The choice of size and construction complexity of the project has been modulated to achieve the full development of each of the parameters selected. Continuing with the same objective proposed for the performance parameters the constructive and structural type selected for the exercise allows the application all geometric invariants associated to the set of parameters selected. The main goal of the case study is to proof the capacity of the manufacturing integrated form finding process to generate geometric alternatives to initial form with performance improved and following the restrictions determined by the compatible digital manufacturing technologies. The process is to be divided in consecutive analysis each one limited by the geometrical conditions and integrated in a overall evaluation. The interest of this process is the result of a non-intuitive form that performs better than a double symmetrical form. The second conclusion is that one parameter evaluation alone will not justify the exploration of complex geometry variations, but when there is a set of parameters with multidisciplinary approach then the less obvious solution emerge as the better performing form. “Architectural typologies impose limitation for Architects capacity to imagine formal variations. The case study and the research conclusions proof that even in situations where the intuitive solution apparently is the optimum solution, random variations can perform better when integrating all parameters evaluation. The capacity of foreseing the geometrical properties linking each design parameter with compatible manufacturing technologies ensure the result of the form-finding process to be constructively viable. Finally, the propose of a complete process where the geometry alternatives are generated beyond the Architect intuition and performance evaluated by a set of parameters previously selected and coordinated with the manufacturing requirements is the final objective of the Thesis”.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Despite the acknowledged need of providing a personalized and adaptive learning process for all, current learning management systems do not properly cover personalization and accessibility issues and they are still struggling to support the reusability requirements coming from the pervasive usage of standards. There is a lack of frameworks for providing layered-based infrastructure covering the interoperability required to manage the whole range of standards, applications and services needed to meet accessibility and adaptations needs of lifelong learning services.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The latest video coding standards developed, like HEVC (High Efficiency Video Coding, approved in January 2013), require for their implementation the use of devices able to support a high computational load. Considering that currently it is not enough the usage of one unique Digital Signal Processor (DSP), multicore devices have appeared recently in the market. However, due to its novelty, the working methodology that allows produce solutions for these configurations is in a very initial state, since currently the most part of the work needs to be performed manually. In consequence, the objective set consists on finding methodologies that ease this process. The study has been focused on extend a methodology, under development, for the generation of solutions for PCs and embedded systems. During this study, the standards RVC (Reconfigurable Video Coding) and HEVC have been employed, as well as DSPs of the Texas Instruments company. In its development, it has been tried to address all the factors that influence both the development and deployment of these new implementations of video decoders, ranging from tools up to aspects of the partitioning of algorithms, without this can cause a drop in application performance. The results of this study are the description of the employed methodology, the characterization of the software migration process and performance measurements for the HEVC standard in an RVC-based implementation. RESUMEN Los estándares de codificación de vídeo desarrollados más recientemente, como HEVC (High Efficiency Video Coding, aprobado en enero de 2013), requieren para su implementación el uso de dispositivos capaces de soportar una elevada carga computacional. Teniendo en cuenta que actualmente no es suficiente con utilizar un único Procesador Digital de Señal (DSP), han aparecido recientemente dispositivos multinúcleo en el mercado. Sin embargo, debido a su novedad, la metodología de trabajo que permite elaborar soluciones para tales configuraciones se encuentra en un estado muy inicial, ya que actualmente la mayor parte del trabajo debe realizarse manualmente. En consecuencia, el objetivo marcado consiste en encontrar metodologías que faciliten este proceso. El estudio se ha centrado en extender una metodología, en desarrollo, para la generación de soluciones para PC y sistemas empotrados. Durante dicho estudio se han empleado los estándares RVC (Reconfigurable Video Coding) y HEVC, así como DSPs de la compañía Texas Instruments. En su desarrollo se ha tratado de atender a todos los factores que influyen tanto en el desarrollo como en la puesta en marcha de estas nuevas implementaciones de descodificadores de vídeo; abarcando desde las herramientas a utilizar hasta aspectos del particionado de los algoritmos, sin que por ello se produzca una reducción en el rendimiento de las aplicaciones. Los resultados de este estudio son una descripción de la metodología empleada, la caracterización del proceso de migración de software, y medidas de rendimiento para el estándar HEVC en una implementación basada en RVC.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En los últimos años, el desarrollo industrial a nivel globalizado en los diferentes sectores, la difusión de la TI y el uso estratégico de la misma, han crecido de manera exponencial. El uso adecuado de esta, se ha convertido en una gran preocupación para los órganos de gobierno de las organizaciones ya que la falta de dirección y control en las inversiones que se realizan en ellas, así como un uso inadecuado de las mismas pueden comprometer la consecución de los objetivos de la organización, su competitividad y su sostenibilidad a medio-largo plazo. La preocupación de los propietarios de los negocios es mejorar su rendimiento con la ayuda de la TI frente a sus competidores, realizando los procesos de negocio de una manera eficaz y eficiente, por lo que muchas organizaciones han realizado inversiones importantes en la adquisición de tecnología para lograr sus propósitos. Sin embargo la ejecución de estas inversiones no se ha gestionado adecuadamente, conforme a las políticas y planes especificados en los planes de negocio de la organización y la entrega de los servicios de TI no ha sido conforme a los objetivos previstos, generando pérdidas importantes y lo que es peor un gran deterioro de la imagen de la organización, por lo que consideramos a la gestión de la demanda estratégica de la TI como uno de los factores claves para el éxito de los negocios, el cual no ha sido tomada en cuenta por los consejos de gobierno o los altos ejecutivos de las organizaciones. La investigación comienza con una amplia revisión de la literatura, identificando dos elementos muy importantes, la demanda y el suministro de la TI dentro de la gobernanza corporativa de la TI; notándose la escasa información relacionado con la gestión de la demanda estratégica de la TI. Se realizó un estudio exploratorio para conocer como los miembros del consejo de administración y altos ejecutivos de una organización gestionan la demanda estratégica de la TI, obteniendo una respuesta de 130 encuestados, donde se confirma que hace falta normas o metodologías para la gestión de la demanda estratégica de la TI. En base a estos resultados se ha construido un marco de trabajo para todo el proceso de la gestión de la demanda de la TI y como una solución que se plantea en esta tesis doctoral, consiste en la elaboración de una metodología, combinando e integrando marcos de trabajo y estándares relacionados con la gobernanza corporativa de la TI. La metodología propuesta está conformada por tres fases, cada fase con sus actividades principales, y cada actividad principal por un conjunto de sub-actividades. Además, se establecen los roles y responsabilidades de los altos ejecutivos para cada una de las actividades principales. Esta propuesta debe ser de fácil implantación y aplicable en las organizaciones, permitiendo a estas afrontar con éxito el desarrollo de sus negocios, con una mejor calidad, reduciendo los costes de operación y empleando el menor tiempo posible. La validación de la metodología propuesta se realizó a través de una encuesta online y un estudio de casos. En la encuesta de validación participaron 42 altos ejecutivos de diferentes empresas y el estudio de casos se realizó con 5 empresas internacionales. Las respuestas de los estudios fueron analizados, para determinar la aceptación o el rechazo de la metodología propuesta por los participantes, confirmando la validez y confiabilidad del estudio. Este es uno de los primeros estudios reportado con evidencias empíricas para el proceso de la gestión de la demanda estratégica de la TI. Los resultados de esta investigación han sido publicados en revistas y congresos internacionales. ABSTRACT In recent years, the globalized industrial development, diffusion and strategic use of IT in different sectors has grown exponentially. Proper use of IT has become a major concern for government bodies and organizations. Uncontrolled or mismanaged IT investments or improper IT use may compromise the achievement of an organization’s objectives, competitiveness and sustainability in the medium to long term. Business owners set out to use IT to outperform their competitors, enacting business processes effectively and efficiently. Many organizations have made significant investments in technology in order to achieve their aims. However, the deployment of these investments has not been managed properly in accordance with the policies and plans specified in the organizations’ business plans, and IT services have not been delivered in accordance with the specified objectives. This has generated significant losses and, worse still, has seriously damaged the image of organizations. Accordingly, we believe that IT strategic demand management is one of the key factors for business success which has not been overlooked by the boards of trustees or senior executives of organizations. The research begins with an extensive review of the literature. This review has identified two very important elements: IT demand and supply within the corporate governance of IT. We have found that information related to IT strategic demand management is scant. We conducted an exploratory study to learn how members of the board of directors and senior executives of an organization manage IT strategic demand. The survey, which was taken by 130 respondents, confirmed that standards or methodologies are needed to manage IT strategic demand. Based on the results, we have built a framework for the entire IT demand management process. The solution proposed in this thesis is to develop a methodology, combining and integrating frameworks and standards related to the corporate governance of IT. The proposed methodology is divided into three phases. Each phase is composed of a series of key activities, and each key activity is further split into minor activities. We also establish the roles and responsibilities of senior executives for each of the key activities. This proposal should be easy to implement and apply in organizations, enabling corporations to successfully conduct better quality business, reduce operating costs and save time. The proposed methodology was validated by means of an online survey and a case study. The validation survey was completed by 42 senior executives from different companies, and the case study was conducted at five international companies. The study results were analysed to determine the acceptance or rejection of the proposed methodology by the participants, confirming the validity and reliability of the study. This is one the first studies to report empirical evidence for the process of IT strategic demand management. The results of this research have been published in international journals and conferences.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Gestión Forestal Sostenible se define como “la administración y uso de los bosques y tierras forestales de forma e intensidad tales que mantengan su biodiversidad, productividad, capacidad de regeneración, vitalidad y su potencial para atender, ahora y en el futuro, las funciones ecológicas, económicas y sociales relevantes a escala local, nacional y global, y que no causan daño a otros ecosistemas” (MCPFE Conference, 1993). Dentro del proceso los procesos de planificación, en cualquier escala, es necesario establecer cuál será la situación a la que se quiere llegar mediante la gestión. Igualmente, será necesario conocer la situación actual, pues marcará la situación de partida y condicionará el tipo de actuaciones a realizar para alcanzar los objetivos fijados. Dado que, los Proyectos de Ordenación de Montes y sus respectivas revisiones son herramientas de planificación, durante la redacción de los mismos, será necesario establecer una serie de objetivos cuya consecución pueda verificarse de forma objetiva y disponer de una caracterización de la masa forestal que permita conocer la situación de partida. Esta tesis se centra en problemas prácticos, propios de una escala de planificación local o de Proyecto de Ordenación de Montes. El primer objetivo de la tesis es determinar distribuciones diamétricas y de alturas de referencia para masas regulares por bosquetes, empleando para ello el modelo conceptual propuesto por García-Abril et al., (1999) y datos procedentes de las Tablas de producción de Rojo y Montero (1996). Las distribuciones de referencia obtenidas permitirán guiar la gestión de masas irregulares y regulares por bosquetes. Ambos tipos de masas aparecen como una alternativa deseable en aquellos casos en los que se quiere potenciar la biodiversidad, la estabilidad, la multifuncionalidad del bosque y/o como alternativa productiva, especialmente indicada para la producción de madera de calidad. El segundo objetivo de la Tesis está relacionado con la necesidad de disponer de una caracterización adecuada de la masa forestal durante la redacción de los Proyectos de Ordenación de Montes y de sus respectivas revisiones. Con el fin de obtener estimaciones de variables forestales en distintas unidades territoriales de potencial interés para la Ordenación de Montes, así como medidas de la incertidumbre en asociada dichas estimaciones, se extienden ciertos resultados de la literatura de Estimación en Áreas Pequeñas. Mediante un caso de estudio, se demuestra el potencial de aplicación de estas técnicas en inventario forestales asistidos con información auxiliar procedente de sensores láser aerotransportados (ALS). Los casos de estudio se realizan empleando datos ALS similares a los recopilados en el marco del Plan Nacional de Ortofotografía Aérea (PNOA). Los resultados obtenidos muestran que es posible aumentar la eficiencia de los inventarios forestales tradicionales a escala de proyecto de Ordenación de Montes, mediante la aplicación de estimadores EBLUP (Empirical Best Linear Unbiased Predictor) con modelos a nivel de elemento poblacional e información auxiliar ALS similar a la recopilada por el PNOA. ABSTRACT According to MCPFE (1993) Sustainable Forest Management is “the stewardship and use of forests and forest lands in a way, and at a rate, that maintains their biodiversity, productivity, regeneration capacity, vitality and their potential to fulfill, now and in the future, relevant ecological, economic and social functions, at local, national, and global levels, and that does not cause damage to other ecosystems”. For forest management planning, at any scale, we must determine what situation is hoped to be achieved through management. It is also necessary to know the current situation, as this will mark the starting point and condition the type of actions to be performed in order to meet the desired objectives. Forest management at a local scale is no exception. This Thesis focuses on typical problems of forest management planning at a local scale. The first objective of this Thesis is to determine management objectives for group shelterwood management systems in terms of tree height and tree diameter reference distributions. For this purpose, the conceptual model proposed by García-Abril et al., (1999) is applied to the yield tables for Pinus sylvestris in Sierra de Guadrrama (Rojo y Montero, 1996). The resulting reference distributions will act as a guide in the management of forests treated under the group shelterwood management systems or as an approximated reference for the management of uneven aged forests. Both types of management systems are desirable in those cases where forest biodiversity, stability and multifunctionality are pursued goals. These management systems are also recommended as alternatives for the production of high quality wood. The second objective focuses on the need to adequately characterize the forest during the decision process that leads to local management. In order to obtain estimates of forest variables for different management units of potential interest for forest planning, as well as the associated measures of uncertainty in these estimates, certain results from Small Area Estimation Literature are extended to accommodate for the need of estimates and reliability measures in very small subpopulations containing a reduced number of pixels. A case study shows the potential of Small Area Estimation (SAE) techniques in forest inventories assisted with remotely sensed auxiliary information. The influence of the laser pulse density in the quality of estimates in different aggregation levels is analyzed. This study considers low laser pulse densities (0.5 returns/m2) similar to, those provided by large-scale Airborne Laser Scanner (ALS) surveys, such as the one conducted by the Spanish National Geographic Institute for about 80% of the Spanish territory. The results obtained show that it is possible to improve the efficiency of traditional forest inventories at local scale using EBLUP (Empirical Best Linear Unbiased Predictor) estimators based on unit level models and low density ALS auxiliary information.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La sequía afecta a todos los sectores de la sociedad y se espera que su frecuencia e intensidad aumente debido al cambio climático. Su gestión plantea importantes retos en el futuro. El enfoque de riesgo, que promueve una respuesta proactiva, se identifica como un marco de gestión apropiado que se está empezando a consolidar a nivel internacional. Sin embargo, es necesario contar con estudios sobre las características de la gestión de la sequía bajo este enfoque y sus implicaciones en la práctica. En esta tesis se evalúan diversos elementos que son relevantes para la gestión de la sequía, desde diferentes perspectivas, con especial énfasis en el componente social de la sequía. Para esta investigación se han desarrollado cinco estudios: (1) un análisis de las leyes de emergencia aprobadas durante la sequía 2005-2008 en España; (2) un estudio sobre la percepción de la sequía de los agricultores a nivel local; (3) una evaluación de las características y enfoque de gestión en seis casos de estudio a nivel europeo; (4) un análisis sistemático de los estudios de cuantificación de la vulnerabilidad a la sequía a nivel global; y (5) un análisis de los impactos de la sequía a partir en una base de datos europea. Los estudios muestran la importancia de la capacidad institucional como un factor que promueve y facilita la adopción del enfoque de riesgo. Al mismo tiempo, la falta de estudios de vulnerabilidad, el escaso conocimiento de los impactos y una escasa cultura de la evaluación post-sequía destacan como importantes limitantes para aprovechar el conocimiento que se genera en la gestión de un evento. A través del estudio de las leyes de sequía se evidencia la existencia de incoherencias entre cómo se define el problema de la sequía y las soluciones que se plantean, así como el uso de un discurso de securitización para perseguir objetivos más allá de la gestión de la sequía. El estudio de percepción permite identificar la existencia de diferentes problemas y percepciones de la sequía y muestra cómo los regantes utilizan principalmente los impactos para identificar y caracterizar la severidad de un evento, lo cual difiere de las definiciones predominantes a otros niveles de gestión. Esto evidencia la importancia de considerar la diversidad de definiciones y percepciones en la gestión, para realizar una gestión más ajustada a las necesidades de los diferentes sectores y colectivos. El análisis de la gestión de la sequía en seis casos de estudio a nivel europeo ha permitido identificar diferentes niveles de adopción del enfoque de riesgo en la práctica. El marco de análisis establecido, que se basa en seis dimensiones de análisis y 21 criterios, ha resultado ser una herramienta útil para diagnosticar los elementos que funcionan y los que es necesario mejorar en relación a la gestión del riesgo a la sequía. El análisis sistemático de los estudios de vulnerabilidad ha evidenciado la heterogeneidad en los marcos conceptuales utilizados así como debilidades en los factores de vulnerabilidad que se suelen incluir, en muchos casos derivada de la falta de datos. El trabajo sistemático de recolección de información sobre impactos de la sequía ha evidenciado la escasez de información sobre el tema a nivel europeo y la importancia de la gestión de la información. La base de datos de impactos desarrollada tiene un gran potencial como herramienta exploratoria y orientativa del tipo de impactos que produce la sequía en cada región, pero todavía presenta algunos retos respecto a su contenido, proceso de gestión y utilidad práctica. Existen importantes limitaciones vinculadas con el acceso y la disponibilidad de información y datos relevantes vinculados con la gestión de la sequía y todos sus componentes. La participación, los niveles de gestión, la perspectiva sectorial y las relaciones entre los componentes de gestión del riesgo considerados constituyen aspectos críticos que es necesario mejorar en el futuro. Así, los cinco artículos en su conjunto presentan ejemplos concretos que ayudan a conocer mejor la gestión de la sequía y que pueden resultar de utilidad para políticos, gestores y usuarios. ABSTRACT Drought affects all sectors and their frequency and intensity is expected to increase due to climate change. Drought management poses significant challenges in the future. Undertaking a drought risk management approach promotes a proactive response, and it is starting to consolidate internationally. However, it is still necessary to conduct studies on the characteristics of drought risk management and its practical implications. This thesis provides an evaluation of various relevant aspects of drought management from different perspectives and with special emphasis on the social component of droughts. For the purpose of this research a number of five studies have been carried out: (1) analysis of the emergency laws adopted during the 2005-2008 drought in Spain; (2) study of farmers perception of drought at a local level; (3) assessment of the characteristics and drought management issues in six case studies across Europe; (4) systematic analysis of drought vulnerability assessments; and (5) analysis of drought impacts from an European impacts text-based database. The results show the importance of institutional capacity as a factor that promotes and facilitates the adoption of a risk approach. In contrast, the following issues are identified as the main obstacles to take advantage of the lessons learnt: (1) lack of vulnerability studies, (2) limited knowledge about the impact and (3) limited availability of post-drought assessments Drought emergency laws evidence the existence of inconsistencies between drought problem definition and the measures proposed as solutions. Moreover, the securitization of the discourse pursue goals beyond management drought. The perception of drought by farmers helps to identify the existence of several definitions of drought. It also highlights the importance of impacts in defining and characterizing the severity of an event. However, this definition differs from the one used at other institutional and management level. As a conclusion, this remarks the importance of considering the diversity of definitions and perceptions to better tailor drought management to the needs of different sectors and stakeholders. The analysis of drought management in six case studies across Europe show different levels of risk adoption approach in practice. The analytical framework proposed is based on six dimensions and 21 criteria. This method has proven to be a useful tool in diagnosing the elements that work and those that need to be improved in relation to drought risk management. The systematic analysis of vulnerability assessment studies demonstrates the heterogeneity of the conceptual frameworks used. Driven by the lack of relevant data, the studies point out significant weaknesses of the vulnerabilities factors that are typically included The heterogeneity of the impact data collected at European level to build the European Drought Impact Reports Database (EDII) highlights the importance of information management. The database has great potential as exploratory tool and provides indicative useful information of the type of impacts that occurred in a particular region. However, it still presents some challenges regarding their content, the process of data collection and management and its usefulness. There are significant limitations associated with the access and availability of relevant information and data related to drought management and its components. The following improvement areas on critical aspects have been identified for the near future: participation, levels of drought management, sectorial perspective and in-depth assessment of the relationships between the components of drought risk management The five articles presented in this dissertation provides concrete examples of drought management evaluation that help to better understand drought management from a risk-based perspective which can be useful for policy makers, managers and users.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sequencing of Information Technology Infrastructure Library (ITIL) processes related to their order of implementation is one of the pending issues in the ITIL handbooks. Other frameworks and process models related to service management (e.g., COBIT, COSO and CMMI-SVC) are quite well described in the literature and their handbooks. However, the identifi cation of the fi rst process to be implemented has not been deeply analysed in the previous frameworks and models, and it is also a complex question to answer for organizations, especially Small and Medium Enterprises (SMEs). Moreover, SMEs are the organizations that have the largest presence in the world economy; offi cial data of General Business Directory, show that their range of presence in different countries around the world is between 93% and 99%, and the average of employment contribution is around 60%. Consequently, the improvement of information technology service management is of vital importance to accomplish in this type of enterprises. This research has focused on two surveys that aim at helping SMEs to select the ITIL process by which starting the implementation of ITIL. In the fi rst survey, data were gathered through a questionnaire to SMEs registered in the region of Madrid. The second survey obtained data from experts and enterprises in countries as Spain, Ecuador, Chile, Luxembourg, Colombia, Norway, El Salvador, and Venezuela. Finally, the results of both surveys show that the tendency for starting an ITIL implementation in SMEs points to one of the processes included in the Service Operation.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Customer evolution and changes in consumers, determine the fact that the quality of the interface between marketing and sales may represent a true competitive advantage for the firm. Building on multidimensional theoretical and empirical models developed in Europe and on social network analysis, the organizational interface between the marketing and sales departments of a multinational high-growth company with operations in Argentina, Uruguay and Paraguay is studied. Both, attitudinal and social network measures of information exchange are used to make operational the nature and quality of the interface and its impact on performance. Results show the existence of a positive relationship of formalization, joint planning, teamwork, trust and information transfer on interface quality, as well as a positive relationship between interface quality and business performance. We conclude that efficient design and organizational management of the exchange network are essential for the successful performance of consumer goods companies that seek to develop distinctive capabilities to adapt to markets that experience vertiginous changes

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Supply chain management works to bring the supplier, the distributor, and the customer into one cohesive process. The Supply Chain Council defined supply chain as ‘Supply Chain: The flow and transformation of raw materials into products from suppliers through production and distribution facilities to the ultimate consumer., and then Sunil Chopra and Meindl, (2001) have define Supply chain management as ‘Supply Chain Management involves the flows between and among stages in a supply chain to maximize total profitability.’ After 1950, supply chain management got a boost with the production and manufacturing sector getting highest attention. The inventory became the responsibility of the marketing, accounting and production areas. Order processing was part of accounting and sales. Supply chain management became one of the most powerful engines of business transformation. It is the one area where operational efficiency can be gained. It reduces organizations costs and enhances customer service. With the liberalization of world trade, globalization, and emergence of the new markets, many organizations have customers and competitions throughout the world, either directly or indirectly. Business communities are aware that global competitiveness is the key to the success of a business. Competitiveness is ability to produce, distribute and provide products and services for the open market in competition with others. The supply chain, a critical link between supplier, producer and customer is emerged now as an essential business process and a strategic lever, potential value contributor a differentiator for the success of any business. Supply chain management is the management of all internal and external processes or functions to satisfy a customer’s order (from raw materials through conversion and manufacture through logistics delivery.). Goods-either in raw form or processed, whole sale or retailed distribution, business or technology services, in everyday life- in the business or household- directly or indirectly supply chain is ubiquitously associated in expanding socio-economic development. Supply chain growth competitive performance and supporting strong growth impulse at micro as well as micro economic levels. Keeping the India vision at the core of the objective, the role of supply chain is to take up social economic challenges, improve competitive advantages, develop strategies, built capabilities, enhance value propositions, adapt right technology, collaborate with stakeholders and deliver environmentally sustainable outcomes with minimum resources.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Some of the recent proposals of web-based applications are oriented to provide advanced search services through virtual shops. Within this context, this paper proposes an advanced type of software application that simulates how a sales assistant dialogues with a consumer to dynamically configure a product according to particular needs. The paper presents the general knowl- edge model that uses artificial intelligence and knowledge-based techniques to simulate the configuration process. Finally, the paper illustrates the description with an example of an application in the field of photography equipment.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

This article tests a multidimensional model of the marketing and sales organizational interface, based on a previous one tested for European companies (Homburg et al., 2008), in a specific taxonomical configuration: a brand focused professional multinational, in three successful Latin American branches. Factor reliability and hypotheses were studied through a confirmatory factor analysis. Results show the existence of a positive relationship between formalization, joint planning, teamwork, information sharing, trust and interface quality. Interface quality and business performance show also a positive relationship. This empirical study contributes to the knowledge of the organizational enhancement of interactions in emerging markets

Relevância:

50.00% 50.00%

Publicador:

Resumo:

El deterioro del hormigón por ciclos de hielo-deshielo en presencia de sales fundentes es causa frecuente de problemas en los puentes e infraestructuras existentes en los países europeos. Los daños producidos por los ciclos de hielo-deshielo en el hormigón pueden ser internos, fundamentalmente la fisuración y/o externos como el descascarillamiento (desgaste superficial). La España peninsular presenta unas características geográficas y climáticas particulares. El 18% de la superficie tiene una altura superior a 1000mts y, además, la altura media geográfica con respecto al nivel del mar es de 660mts (siendo el segundo país más montañoso de toda Europa).Esto hace que la Red de Carreteras del Estado se vea afectada, durante determinados periodos, por fenómenos meteorológicos adversos, en particular por nevadas y heladas, que pueden comprometer las condiciones de vialidad para la circulación de vehículos. Por este motivo la Dirección General de Carreteras realiza trabajos anualmente (campañas de vialidad invernal, de 6 meses de duración) para el mantenimiento de la vialidad de las carreteras cuando éstas se ven afectadas por estos fenómenos. Existen protocolos y planes operativos que permiten sistematizar estos trabajos de mantenimiento que, además, se han intensificado en los últimos 10 años, y que se fundamentan en el empleo de sales fundentes, principalmente NaCl, con la misión de que no haya placas de hielo, ni nieve, en las carreteras. En zonas de fuerte oscilación térmica, que con frecuencia en España se localizan en la zona central del Pirineo, parte de la cornisa Cantábrica y Sistema Central, se producen importantes deterioros en las estructuras y paramentos de hormigón producidos por los ciclos de hielo- deshielo. Pero además el uso de fundentes de vialidad invernal acelera en gran medida la evolución de estos daños. Los tableros de hormigón de puentes de carretera de unos 40-50 años de antigüedad carecen, en general, de un sistema de impermeabilización, y están formados frecuentemente por un firme de mezcla asfáltica, una emulsión adherente y el hormigón de la losa. En la presente tesis se realiza una investigación que pretende reproducir en laboratorio los procesos que tienen lugar en el hormigón de tableros de puentes existentes de carreteras, de unos 40-50 años de antigüedad, que están expuestos durante largos periodos a sales fundentes, con objeto de facilitar la vialidad invernal, y a cambios drásticos de temperatura (hielo y deshielo). Por ello se realizaron cuatro campañas de investigación, teniendo en cuenta que, si bien nos basamos en la norma europea UNE-CEN/TS 12390-9 “Ensayos de hormigón endurecido. Resistencia al hielo-deshielo. Pérdida de masa”, se fabricaron probetas no estandarizadas para este ensayo, pensado en realidad para determinar la afección de los ciclos únicamente a la pérdida de masa. Las dimensiones de las probetas en nuestro caso fueron 150x300 mm, 75 x 150mm (cilíndricas normalizadas para roturas a compresión según la norma UNE-EN 12390-3) y 286x76x76 (prismáticas normalizadas para estudiar cambio de volumen según la norma ASTM C157), lo cual nos permitió realizar sobre las mismas probetas más ensayos, según se presentan en la tesis y, sobre todo, poder comparar los resultados con probetas extraídas de dimensiones similares en puentes existentes. En la primera campaña, por aplicación de la citada norma, se realizaron ciclos de H/D, con y sin contacto con sales de deshielo (NaCl en disolución del 3% según establece dicha norma). El hormigón fabricado en laboratorio, tratando de simular el de losas de tableros de puentes antiguos, presentó una fc de 22,6 MPa y relación agua/cemento de 0,65. Las probetas de hormigón fabricadas se sometieron a ciclos agresivos de hielo/deshielo (H/D), empleando una temperatura máxima de +20ºC y una temperatura mínima de -20ºC al objeto de poder determinar la sensibilidad de este ensayo tanto al tipo de hormigón elaborado como al tipo de probeta fabricado (cilíndrica y prismática). Esta campaña tuvo una segunda fase para profundizar más en el comportamiento de las probetas sometidas a ciclos H/D en presencia de sales. En la segunda campaña, realizada sobre probetas de hormigón fabricadas en laboratorio iguales a las anteriores, la temperaturas mínima del ensayo se subió a -14ºC, lo que nos permitió analizar el proceso de deterioro con más detalle. (Realizando una serie de ensayos de caracterización no destructivos y otros destructivos, y validando su aplicación a la detección de los deterioros causados tras los ensayos acelerados de hielodeshielo. También mediante aplicación de técnicas de microscopía electrónica.) La tercera campaña, se realizó sobre probetas de hormigón de laboratorio similares a las anteriores, fc de 29,3Mpa y relación a/c de 0,65, en las que se aplicó en una cara un revestimiento asfáltico de 2-4cms, según fueran prismáticas y cilíndricas respectivamente, compuesto por una mezcla asfáltica real (AC16), sobre una imprimación bituminosa. (Para simular el nivel de impermeabilización que produce un firme sobre el tablero de un puente) La cuarta campaña, se desarrolló tras una cuidadosa selección de dos puentes de hormigón de 40-50 años de antigüedad, expuestos y sensibles a deterioros de hielodeshielo, y en carreteras con aportación de fundentes. Una vez esto se extrajeron testigos de hormigón de zonas sanas (nervios del tablero), para realizar en laboratorio los mismos ensayos acelerados de hielo-deshielo y de caracterización, de la segunda campaña, basados en la misma norma. De los resultados obtenidos se concluye que cuando se emplean sales fundentes se acelera de forma significativa el deterioro, aumentando tanto el contenido de agua en los poros como el gradiente generado (mecanismo de deterioro físico). Las sales de deshielo aceleran claramente la aparición del daño, que se incrementa incluso en un factor de 5 según se constata en esta investigación para los hormigones ensayados. Pero además se produce un gradiente de cloruros que se ha detectado tanto en los hormigones diseñados en laboratorio como en los extraídos de puentes existentes. En casi todos los casos han aparecido cambios en la microestructura de la pasta de cemento (mecanismo de deterioro químico), confirmándose la formación de un compuesto en el gel CSH de la pasta de cemento, del tipo Ca2SiO3Cl2, que posiblemente está contribuyendo a la alteración de la pasta y a la aceleración de los daños en presencia de sales fundentes. Existe un periodo entre la aparición de fisuración y la pérdida de masa. Las fisuras progresan rápidamente desde la interfase de los áridos más pequeños y angulosos, facilitando así el deterioro del hormigón. Se puede deducir así que el tipo de árido afecta al deterioro. En el caso de los testigos con recubrimiento asfáltico, parece haberse demostrado que la precipitación de sales genera tensiones en las zonas de hormigón cercanas al recubrimiento, que terminan por fisurar el material. Y se constata que el mecanimo de deterioro químico, probablemente tenga más repercusión que el físico, por cuanto el recubrimiento asfáltico es capaz de retener suficiente agua, como para que el gradiente de contenido de agua en el hormigón sea mucho menor que sin el recubrimiento. Se constató, sin embargo, la importancia del gradiente de cloruros en el hormigon. Por lo que se deduce que si bien el recubrimiento asfáltico es ciertamente protector frente a los ciclos H/D, su protección disminuye en presencia de sales; es decir, los cloruros acabarán afectando al hormigón del tablero del puente. Finalmente, entre los hormigones recientes y los antiguos extraídos de puentes reales, se observa que existen diferencias significativas en cuanto a la resistencia a los ciclos H/D entre ellos. Los hormigones más recientes resultan, a igualdad de propiedades, más resistentes tanto a ciclos de H/D en agua como en sales. Posiblemente el hecho de que los hormigones de los puentes hayan estado expuestos a condiciones de temperaturas extremas durante largos periodos de tiempo les ha sensibilizado. La tesis realizada, junto con nuevos contrastes que se realicen en el futuro, nos permitirá implementar una metodología basada en la extracción de testigos de tableros de puente reales para someterlos a ensayos de hielo-deshielo, basados en la norma europea UNECEN/ TS 12390-9 aunque con probetas no normalizadas para el mismo, y, a su vez, realizar sobre estas probetas otros ensayos de caracterización destructivos, que posibilitarán evaluar los daños ocasionados por este fenómeno y su evolución temporal, para actuar consecuentemente priorizando intervenciones de impermeabilización y reparación en el parque de puentes de la RCE. Incluso será posible la elaboración de mapas de riesgo, en función de las zonas de climatología más desfavorable y de los tratamientos de vialidad invernal que se lleven a cabo. Concrete damage by freeze-thaw cycles in the presence of melting salts frequently causes problems on bridges and infrastructures in European countries. Damage caused by freeze-thaw cycles in the concrete can be internal, essentially cracking and / or external as flaking (surface weathering due to environmental action). The peninsular Spain presents specific climatic and geographical characteristics. 18% of the surface has a height greater than 1,000 m and the geographical average height from the sea level is 660 m (being the second most mountainous country in Europe). This makes the National Road Network affected during certain periods due to adverse weather, particularly snow and ice, which can compromise road conditions for vehicular traffic. For this reason the National Road Authority performs works annually (Winter Road Campaign, along 6 months) to maintain the viability of the roads when they are affected by these phenomena. There are protocols and operational plans that allow systematize these maintenance jobs, that also have intensified in the last 10 years, and which are based on the use of deicing salts, mainly NaCl, with the mission that no ice sheets, or snow appear on the roads. In areas of strong thermal cycling, which in Spain are located in the central area of the Pyrenees, part of the Cantabrian coast and Central System, significant deterioration take place in the structures and wall surfaces of concrete due to freeze-thaw. But also the use of deicing salts for winter maintenance greatly accelerated the development of such damages. The concrete decks for road bridges about 40-50 years old, lack generally a waterproofing system, and are often formed by a pavement of asphalt, an adhesive emulsion and concrete slab. In this thesis the research going on aims to reproduce in the laboratory the processes taking place in the concrete of an existing deck at road bridges, about 40-50 years old, they are exposed for long periods to icing salt, to be performed in order to facilitate winter maintenance, and drastic temperature changes (freezing and thawing). Therefore four campaigns of research were conducted, considering that while we rely on the European standard UNE-CEN/TS 12390-9 "Testing hardened concrete. Freezethaw resistance. Mass loss", nonstandard specimens were fabricated for this test, actually conceived to determine the affection of the cycles only to the mass loss. Dimensions of the samples were in our case 150x300 mm, 75 x 150mm (standard cylindrical specimens for compression fractures UNE-EN 12390-3) and 286x76x76 (standard prismatic specimens to study volume change ASTM C157), which allowed us to carry on same samples more trials, as presented in the thesis, and especially to compare the results with similar sized samples taken from real bridges. In the first campaign, by application of that European standard, freeze-thaw cycles, with and without contact with deicing salt (NaCl 3% solution in compliance with such standard) were performed. Concrete made in the laboratory, trying to simulate the old bridges, provided a compressive strength of 22.6 MPa and water/cement ratio of 0.65. In this activity, the concrete specimens produced were subjected to aggressive freeze/thaw using a maximum temperature of +20ºC and a minimum temperature of - 20°C in order to be able to determine the sensitivity of this test to the concrete and specimens fabricated. This campaign had a second phase to go deeper into the behavior of the specimens subjected to cycled freeze/thaw in the presence of salts. In the second campaign, conducted on similar concrete specimens manufactured in laboratory, temperatures of +20ºC and -14ºC were used in the tests, which allowed us to analyze the deterioration process in more detail (performing a series of non-destructive testing and other destructive characterization, validating its application to the detection of the damage caused after the accelerated freeze-thaw tests, and also by applying electron microscopy techniques). The third campaign was conducted on concrete specimens similar to the above manufactured in laboratory, both cylindrical and prismatic, which was applied on one side a 4 cm asphalt coating, consisting of a real asphalt mixture, on a bituminous primer (for simulate the level of waterproofing that produces a pavement on the bridge deck). The fourth campaign was developed after careful selection of two concrete bridges 40- 50 years old, exposed and sensitive to freeze-thaw damage, in roads with input of melting salts. Concrete cores were extracted from healthy areas, for the same accelerated laboratory freeze-thaw testing and characterization made for the second campaign, based on the same standard. From the results obtained it is concluded that when melting salts are employed deterioration accelerates significantly, thus increasing the water content in the pores, as the gradient. Besides, chloride gradient was detected both in the concrete designed in the laboratory and in the extracted in existing bridges. In all cases there have been changes in the microstructure of the cement paste, confirming the formation of a compound gel CSH of the cement paste, Ca2SiO3Cl2 type, which is possibly contributing to impair the cement paste and accelerating the damage in the presence of melting salts. The detailed study has demonstrated that the formation of new compounds can cause porosity at certain times of the cycles may decrease, paradoxically, as the new compound fills the pores, although this phenomenon does not stop the deterioration mechanism and impairments increase with the number of cycles. There is a period between the occurrence of cracking and mass loss. Cracks progress rapidly from the interface of the smallest and angular aggregate, thus facilitating the deterioration of concrete. It can be deduced so the aggregate type affects the deterioration. The presence of melting salts in the system clearly accelerates the onset of damage, which increases even by a factor of 5 as can be seen in this investigation for concrete tested. In the case of specimens with asphalt coating, it seems to have demonstrated that the precipitation of salts generate tensions in the areas close to the concrete coating that end up cracking the material. It follows that while the asphalt coating is certainly a protection against the freeze/thaw cycles, this protection decreases in the presence of salts; so the chlorides will finally affect the concrete bridge deck. Finally, among the recent concrete specimens and the old ones extracted from real bridges, it is observed that the mechanical strengths are very similar to each other, as well as the porosity values and the accumulation capacity after pore water saturation. However, there are significant differences in resistance to freeze/thaw cycles between them. More recent concrete are at equal properties more resistant both cycles freeze/thaw in water with or without salts. Possibly the fact that concrete bridges have been exposed to extreme temperatures for long periods of time has sensitized them. The study, along with new contrasts that occur in the future, allow us to implement a methodology based on the extraction of cores from the deck of real bridges for submission to freeze-thaw tests based on the European standard UNE-CEN/TS 12390-9 even with non-standard specimens for it, and in turn, performed on these samples other destructive characterization tests, which will enable to assess the damage caused by this phenomenon and its evolution, to act rightly prioritizing interventions improving the waterproofing and other repairs in the bridge stock of the National Road Network. It will even be possible to develop risk maps, depending on the worst weather areas and winter road treatments to be carried out.