62 resultados para MODELOS DE EVALUACIÓN
em Universidad Politécnica de Madrid
Resumo:
La complejidad en los proyectos y la complejidad en dirección de proyectos son conceptos cuyo interés va en aumento. En la primera parte de esta investigación se conceptualiza la complejidad en dirección de proyectos desde diferentes dimensiones y se caracteriza la evolución del término hasta la fecha. En una segunda parte se abordan las herramientas existentes para el análisis y evaluación de la complejidad en dirección de proyectos. La metodología desarrollada consiste en una investigación teórica, con la finalidad de conocer el estado del arte del tema en cuestión y su evolución en el tiempo. Tras el análisis realizado y la evolución de los estándares y tendencias internacionales, en esta investigación se propone la complejidad social, como una tercera dimensión de la dirección de proyectos complejos.
Resumo:
Este trabajo analiza la aplicación de los modelos de evaluación de las propiedades mecánicas de la normativa actual al hormigón autocompactante, un material que, debido a su consistencia especialmente fluida, no necesita de medios de compactación externos.
Resumo:
La formación de postgrado en ingeniería es muy importante para mejorar la competitividad y lograr el desarrollo en los países. Para ello es necesaria una fuerte vinculación de la universidad con su entorno socio económico de modo que los objetivos que se plantea en sus programas formativos sean coherentes con las necesidades reales de los beneficiarios: los estudiantes, la universidad y la comunidad. Es decir, los programas deben ser pertinentes. Y en los países en vías de desarrollo este tema es aún más importante. Se necesita modelos de evaluación que midan este grado de adecuación entre los objetivos de los programas con las necesidades de los estudiantes y las partes interesadas. Sin embargo, los modelos de evaluación existentes tienen principalmente fines de acreditación y están diseñados para evaluar la eficacia, es decir si los resultados obtenidos están de acuerdo con la misión y los objetivos planteados. Su objetivo no es medir la pertinencia. Esta investigación tiene como objetivo diseñar un modelo de evaluación de la pertinencia de maestrías en ingeniería y aplicarlo a un caso concreto. Se trata de maestrías que ya están en funcionamiento y son dictadas en una universidad en un país en desarrollo. Para diseñar el modelo se define primero el concepto de pertinencia de una maestría en ingeniería haciendo una revisión bibliográfica y consultando a expertos en los temas de pertinencia de la educación superior y formación en postgrado en ingeniería. Se utiliza una definición operativa que facilita luego la identificación de factores e indicadores de evaluación. Se identifica dos tipos de pertinencia: local y global. La pertinencia global está relacionada con la inserción de la maestría en el sistema global de producción de conocimiento. La pertinencia local tiene tres dimensiones: la personal, relacionada con la satisfacción de necesidades de los estudiantes, la institucional, relacionada con las necesidades e intereses de la universidad que acoge a la maestría y la pertinencia social, ligada a la satisfacción de necesidades y demandas de la comunidad local y nacional. El modelo diseñado es aplicado en la maestría en Ingeniería Civil con mención en Ingeniería Vial de la Universidad de Piura, Perú lo que permite obtener conclusiones para su aplicación en otras maestrías. ABSTRACT Graduate engineering education is very important to improve competitiveness and achieve development in countries. It is necessary a strong linkage between university and its socio economic environment, so that programs objectives are consistent with the real needs of the students, university and community. That is to say programs must be relevant. And in developing countries this issue is very important. Evaluation models to measure the degree of adequacy between the programs objectives with the needs of students and stakeholders is needed. However, existing evaluation models have mainly the purpose of accreditation and are designed to evaluate the efficacy. They evaluate if the results are consistent with the mission and objectives. Their goal is not to measure the relevance. This work aimed to design a model for evaluating the relevance of master's degrees in engineering and applied to a specific case. They must be masters already in operation and are taught at a university in a developing country. In order to build the model, first concept of relevance of a master's degree in engineering was defined. Literature was reviewed and we consulted experts on issues of relevance of higher education and graduate engineering education. An operational definition is used to facilitate the identification of factors and evaluation indicators. Local and global: two types of relevance were identified. The global relevance is related to the inclusion of Master in the global system of knowledge production. The local relevance has three dimensions: personal, related to meeting students' needs, institutional, related to the needs and interests of university that houses the Master and social relevance, linked to the satisfaction of needs and demands of local and national community. The designed model is applied to the Master degree in Civil Engineering with a major in Traffic Engineering of Universidad de Piura, Peru which allowed to obtain conclusions for application in other masters.
Resumo:
La innovación en Sistemas Intesivos en Software está alcanzando relevancia por múltiples razones: el software está presente en sectores como automóvil, teléfonos móviles o salud. Las empresas necesitan conocer aquellos factores que afectan a la innovación para incrementar las probabilidades de éxito en el desarrollo de sus productos y, la evaluación de productos sofware es un mecanismo potente para capturar este conocimiento. En consecuencia, las empresas necesitan evaluar sus productos desde la perpectiva de innovación para reducir la distancia entre los productos desarrollados y el mercado. Esto es incluso más relevante en el caso de los productos intensivos en software, donde el tiempo real, la oportunidad, complejidad, interoperabilidad, capacidad de respuesta y compartción de recursos son características críticas de los nuevos sistemas. La evaluación de la innovación de productos ya ha sido estudiada y se han definido algunos esquemas de evaluación pero no son específicos para Sistemas intensivos en Sofwtare; además, no se ha alcanzado consenso en los factores ni el procedimiento de evaluación. Por lo tanto, tiene sentido trabajar en la definición de un marco de evaluación de innovación enfocado a Sistemas intesivos en Software. Esta tesis identifica los elementos necesarios para construir in marco para la evaluación de de Sistemas intensivos en Software desde el punto de vista de la innovación. Se han identificado dos componentes como partes del marco de evaluación: un modelo de referencia y una herramienta adaptativa y personalizable para la realización de la evaluación y posicionamiento de la innovación. El modelo de referencia está compuesto por cuatro elementos principales que caracterizan la evaluación de innovación de productos: los conceptos, modelos de innovación, cuestionarios de evaluación y la evaluación de productos. El modelo de referencia aporta las bases para definir instancias de los modelos de evaluación de innovación de productos que pueden se evaluados y posicionados en la herramienta a través de cuestionarios y que de forma automatizada aporta los resultados de la evaluación y el posicionamiento respecto a la innovación de producto. El modelo de referencia ha sido rigurosamente construido aplicando modelado conceptual e integración de vistas junto con la aplicación de métodos cualitativos de investigación. La herramienta ha sido utilizada para evaluar productos como Skype a través de la instanciación del modelo de referencia. ABSTRACT Innovation in Software intensive Systems is becoming relevant for several reasons: software is present embedded in many sectors like automotive, robotics, mobile phones or heath care. Firms need to have knowledge about factors affecting the innovation to increase the probability of success in their product development and the assessment of innovation in software products is a powerful mechanism to capture this knowledge. Therefore, companies need to assess products from an innovation perspective to reduce the gap between their developed products and the market. This is even more relevant in the case of SiSs, where real time, timeliness, complexity, interoperability, reactivity, and resource sharing are critical features of a new system. Many authors have analysed product innovation assessment and some schemas have been developed but they are not specific to SiSs; in addition, there is no consensus about the factors or the procedures for performing an assessment. Therefore, it has sense to work in the definition of a customized software product innovation evaluation framework. This thesis identifies the elements needed to build a framework to assess software products from the innovation perspective. Two components have been identified as part of the framework to assess Software intensive Systems from the innovation perspective: a reference-model and an adaptive and customizable tool to perform the assessment and to position product innovation. The reference-model is composed by four main elements characterizing product innovation assessment: concepts, innovation models, assessment questionnaires and product assessment. The reference model provides the umbrella to define instances of product innovation assessment models that can be assessed and positioned through questionnaires in the proposed tool that also provides automation in the assessment and positioning of innovation. The reference-model has been rigorously built by applying conceptual modelling and view integration integrated with qualitative research methods. The tool has been used to assess products like Skype through models instantiated from the reference-model.
Resumo:
Los sistemas transaccionales tales como los programas informáticos para la planificación de recursos empresariales (ERP software) se han implementado ampliamente mientras que los sistemas analíticos para la gestión de la cadena de suministro (SCM software) no han tenido el éxito deseado por la industria de tecnología de información (TI). Aunque se documentan beneficios importantes derivados de las implantaciones de SCM software, las empresas industriales son reacias a invertir en este tipo de sistemas. Por una parte esto es debido a la falta de métodos que son capaces de detectar los beneficios por emplear esos sistemas, y por otra parte porque el coste asociado no está identificado, detallado y cuantificado suficientemente. Los esquemas de coordinación basados únicamente en sistemas ERP son alternativas válidas en la práctica industrial siempre que la relación coste-beneficio esta favorable. Por lo tanto, la evaluación de formas organizativas teniendo en cuenta explícitamente el coste debido a procesos administrativos, en particular por ciclos iterativos, es de gran interés para la toma de decisiones en el ámbito de inversiones en TI. Con el fin de cerrar la brecha, el propósito de esta investigación es proporcionar métodos de evaluación que permitan la comparación de diferentes formas de organización y niveles de soporte por sistemas informáticos. La tesis proporciona una amplia introducción, analizando los retos a los que se enfrenta la industria. Concluye con las necesidades de la industria de SCM software: unas herramientas que facilitan la evaluación integral de diferentes propuestas de organización. A continuación, la terminología clave se detalla centrándose en la teoría de la organización, las peculiaridades de inversión en TI y la tipología de software de gestión de la cadena de suministro. La revisión de la literatura clasifica las contribuciones recientes sobre la gestión de la cadena de suministro, tratando ambos conceptos, el diseño de la organización y su soporte por las TI. La clasificación incluye criterios relacionados con la metodología de la investigación y su contenido. Los estudios empíricos en el ámbito de la administración de empresas se centran en tipologías de redes industriales. Nuevos algoritmos de planificación y esquemas de coordinación innovadoras se desarrollan principalmente en el campo de la investigación de operaciones con el fin de proponer nuevas funciones de software. Artículos procedentes del área de la gestión de la producción se centran en el análisis de coste y beneficio de las implantaciones de sistemas. La revisión de la literatura revela que el éxito de las TI para la coordinación de redes industriales depende en gran medida de características de tres dimensiones: la configuración de la red industrial, los esquemas de coordinación y las funcionalidades del software. La literatura disponible está enfocada sobre todo en los beneficios de las implantaciones de SCM software. Sin embargo, la coordinación de la cadena de suministro, basándose en el sistema ERP, sigue siendo la práctica industrial generalizada, pero el coste de coordinación asociado no ha sido abordado por los investigadores. Los fundamentos de diseño organizativo eficiente se explican en detalle en la medida necesaria para la comprensión de la síntesis de las diferentes formas de organización. Se han generado varios esquemas de coordinación variando los siguientes parámetros de diseño: la estructura organizativa, los mecanismos de coordinación y el soporte por TI. Las diferentes propuestas de organización desarrolladas son evaluadas por un método heurístico y otro basado en la simulación por eventos discretos. Para ambos métodos, se tienen en cuenta los principios de la teoría de la organización. La falta de rendimiento empresarial se debe a las dependencias entre actividades que no se gestionan adecuadamente. Dentro del método heurístico, se clasifican las dependencias y se mide su intensidad basándose en factores contextuales. A continuación, se valora la idoneidad de cada elemento de diseño organizativo para cada dependencia específica. Por último, cada forma de organización se evalúa basándose en la contribución de los elementos de diseño tanto al beneficio como al coste. El beneficio de coordinación se refiere a la mejora en el rendimiento logístico - este concepto es el objeto central en la mayoría de modelos de evaluación de la gestión de la cadena de suministro. Por el contrario, el coste de coordinación que se debe incurrir para lograr beneficios no se suele considerar en detalle. Procesos iterativos son costosos si se ejecutan manualmente. Este es el caso cuando SCM software no está implementada y el sistema ERP es el único instrumento de coordinación disponible. El modelo heurístico proporciona un procedimiento simplificado para la clasificación sistemática de las dependencias, la cuantificación de los factores de influencia y la identificación de configuraciones que indican el uso de formas organizativas y de soporte de TI más o menos complejas. La simulación de eventos discretos se aplica en el segundo modelo de evaluación utilizando el paquete de software ‘Plant Simulation’. Con respecto al rendimiento logístico, por un lado se mide el coste de fabricación, de inventario y de transporte y las penalizaciones por pérdida de ventas. Por otro lado, se cuantifica explícitamente el coste de la coordinación teniendo en cuenta los ciclos de coordinación iterativos. El método se aplica a una configuración de cadena de suministro ejemplar considerando diversos parámetros. Los resultados de la simulación confirman que, en la mayoría de los casos, el beneficio aumenta cuando se intensifica la coordinación. Sin embargo, en ciertas situaciones en las que se aplican ciclos de planificación manuales e iterativos el coste de coordinación adicional no siempre conduce a mejor rendimiento logístico. Estos resultados inesperados no se pueden atribuir a ningún parámetro particular. La investigación confirma la gran importancia de nuevas dimensiones hasta ahora ignoradas en la evaluación de propuestas organizativas y herramientas de TI. A través del método heurístico se puede comparar de forma rápida, pero sólo aproximada, la eficiencia de diferentes formas de organización. Por el contrario, el método de simulación es más complejo pero da resultados más detallados, teniendo en cuenta parámetros específicos del contexto del caso concreto y del diseño organizativo. ABSTRACT Transactional systems such as Enterprise Resource Planning (ERP) systems have been implemented widely while analytical software like Supply Chain Management (SCM) add-ons are adopted less by manufacturing companies. Although significant benefits are reported stemming from SCM software implementations, companies are reluctant to invest in such systems. On the one hand this is due to the lack of methods that are able to detect benefits from the use of SCM software and on the other hand associated costs are not identified, detailed and quantified sufficiently. Coordination schemes based only on ERP systems are valid alternatives in industrial practice because significant investment in IT can be avoided. Therefore, the evaluation of these coordination procedures, in particular the cost due to iterations, is of high managerial interest and corresponding methods are comprehensive tools for strategic IT decision making. The purpose of this research is to provide evaluation methods that allow the comparison of different organizational forms and software support levels. The research begins with a comprehensive introduction dealing with the business environment that industrial networks are facing and concludes highlighting the challenges for the supply chain software industry. Afterwards, the central terminology is addressed, focusing on organization theory, IT investment peculiarities and supply chain management software typology. The literature review classifies recent supply chain management research referring to organizational design and its software support. The classification encompasses criteria related to research methodology and content. Empirical studies from management science focus on network types and organizational fit. Novel planning algorithms and innovative coordination schemes are developed mostly in the field of operations research in order to propose new software features. Operations and production management researchers realize cost-benefit analysis of IT software implementations. The literature review reveals that the success of software solutions for network coordination depends strongly on the fit of three dimensions: network configuration, coordination scheme and software functionality. Reviewed literature is mostly centered on the benefits of SCM software implementations. However, ERP system based supply chain coordination is still widespread industrial practice but the associated coordination cost has not been addressed by researchers. Fundamentals of efficient organizational design are explained in detail as far as required for the understanding of the synthesis of different organizational forms. Several coordination schemes have been shaped through the variation of the following design parameters: organizational structuring, coordination mechanisms and software support. The different organizational proposals are evaluated using a heuristic approach and a simulation-based method. For both cases, the principles of organization theory are respected. A lack of performance is due to dependencies between activities which are not managed properly. Therefore, within the heuristic method, dependencies are classified and their intensity is measured based on contextual factors. Afterwards the suitability of each organizational design element for the management of a specific dependency is determined. Finally, each organizational form is evaluated based on the contribution of the sum of design elements to coordination benefit and to coordination cost. Coordination benefit refers to improvement in logistic performance – this is the core concept of most supply chain evaluation models. Unfortunately, coordination cost which must be incurred to achieve benefits is usually not considered in detail. Iterative processes are costly when manually executed. This is the case when SCM software is not implemented and the ERP system is the only available coordination instrument. The heuristic model provides a simplified procedure for the classification of dependencies, quantification of influence factors and systematic search for adequate organizational forms and IT support. Discrete event simulation is applied in the second evaluation model using the software package ‘Plant Simulation’. On the one hand logistic performance is measured by manufacturing, inventory and transportation cost and penalties for lost sales. On the other hand coordination cost is explicitly considered taking into account iterative coordination cycles. The method is applied to an exemplary supply chain configuration considering various parameter settings. The simulation results confirm that, in most cases, benefit increases when coordination is intensified. However, in some situations when manual, iterative planning cycles are applied, additional coordination cost does not always lead to improved logistic performance. These unexpected results cannot be attributed to any particular parameter. The research confirms the great importance of up to now disregarded dimensions when evaluating SCM concepts and IT tools. The heuristic method provides a quick, but only approximate comparison of coordination efficiency for different organizational forms. In contrast, the more complex simulation method delivers detailed results taking into consideration specific parameter settings of network context and organizational design.
Resumo:
La mejora de la calidad del aire es una tarea eminentemente interdisciplinaria. Dada la gran variedad de ciencias y partes involucradas, dicha mejora requiere de herramientas de evaluación simples y completamente integradas. La modelización para la evaluación integrada (integrated assessment modeling) ha demostrado ser una solución adecuada para la descripción de los sistemas de contaminación atmosférica puesto que considera cada una de las etapas involucradas: emisiones, química y dispersión atmosférica, impactos ambientales asociados y potencial de disminución. Varios modelos de evaluación integrada ya están disponibles a escala continental, cubriendo cada una de las etapas antesmencionadas, siendo el modelo GAINS (Greenhouse Gas and Air Pollution Interactions and Synergies) el más reconocido y usado en el contexto europeo de toma de decisiones medioambientales. Sin embargo, el manejo de la calidad del aire a escala nacional/regional dentro del marco de la evaluación integrada es deseable. Esto sin embargo, no se lleva a cabo de manera satisfactoria con modelos a escala europea debido a la falta de resolución espacial o de detalle en los datos auxiliares, principalmente los inventarios de emisión y los patrones meteorológicos, entre otros. El objetivo de esta tesis es presentar los desarrollos en el diseño y aplicación de un modelo de evaluación integrada especialmente concebido para España y Portugal. El modelo AERIS (Atmospheric Evaluation and Research Integrated system for Spain) es capaz de cuantificar perfiles de concentración para varios contaminantes (NO2, SO2, PM10, PM2,5, NH3 y O3), el depósito atmosférico de especies de azufre y nitrógeno así como sus impactos en cultivos, vegetación, ecosistemas y salud como respuesta a cambios porcentuales en las emisiones de sectores relevantes. La versión actual de AERIS considera 20 sectores de emisión, ya sea equivalentes a sectores individuales SNAP o macrosectores, cuya contribución a los niveles de calidad del aire, depósito e impactos han sido modelados a través de matrices fuentereceptor (SRMs). Estas matrices son constantes de proporcionalidad que relacionan cambios en emisiones con diferentes indicadores de calidad del aire y han sido obtenidas a través de parametrizaciones estadísticas de un modelo de calidad del aire (AQM). Para el caso concreto de AERIS, su modelo de calidad del aire “de origen” consistió en el modelo WRF para la meteorología y en el modelo CMAQ para los procesos químico-atmosféricos. La cuantificación del depósito atmosférico, de los impactos en ecosistemas, cultivos, vegetación y salud humana se ha realizado siguiendo las metodologías estándar establecidas bajo los marcos internacionales de negociación, tales como CLRTAP. La estructura de programación está basada en MATLAB®, permitiendo gran compatibilidad con software típico de escritorio comoMicrosoft Excel® o ArcGIS®. En relación con los niveles de calidad del aire, AERIS es capaz de proveer datos de media anual y media mensual, así como el 19o valor horario más alto paraNO2, el 25o valor horario y el 4o valor diario más altos para SO2, el 36o valor diario más alto para PM10, el 26o valor octohorario más alto, SOMO35 y AOT40 para O3. En relación al depósito atmosférico, el depósito acumulado anual por unidad de area de especies de nitrógeno oxidado y reducido al igual que de azufre pueden ser determinados. Cuando los valores anteriormente mencionados se relacionan con características del dominio modelado tales como uso de suelo, cubiertas vegetales y forestales, censos poblacionales o estudios epidemiológicos, un gran número de impactos puede ser calculado. Centrándose en los impactos a ecosistemas y suelos, AERIS es capaz de estimar las superaciones de cargas críticas y las superaciones medias acumuladas para especies de nitrógeno y azufre. Los daños a bosques se calculan como una superación de los niveles críticos de NO2 y SO2 establecidos. Además, AERIS es capaz de cuantificar daños causados por O3 y SO2 en vid, maíz, patata, arroz, girasol, tabaco, tomate, sandía y trigo. Los impactos en salud humana han sido modelados como consecuencia de la exposición a PM2,5 y O3 y cuantificados como pérdidas en la esperanza de vida estadística e indicadores de mortalidad prematura. La exactitud del modelo de evaluación integrada ha sido contrastada estadísticamente con los resultados obtenidos por el modelo de calidad del aire convencional, exhibiendo en la mayoría de los casos un buen nivel de correspondencia. Debido a que la cuantificación de los impactos no es llevada a cabo directamente por el modelo de calidad del aire, un análisis de credibilidad ha sido realizado mediante la comparación de los resultados de AERIS con los de GAINS para un escenario de emisiones determinado. El análisis reveló un buen nivel de correspondencia en las medias y en las distribuciones probabilísticas de los conjuntos de datos. Las pruebas de verificación que fueron aplicadas a AERIS sugieren que los resultados son suficientemente consistentes para ser considerados como razonables y realistas. En conclusión, la principal motivación para la creación del modelo fue el producir una herramienta confiable y a la vez simple para el soporte de las partes involucradas en la toma de decisiones, de cara a analizar diferentes escenarios “y si” con un bajo coste computacional. La interacción con políticos y otros actores dictó encontrar un compromiso entre la complejidad del modeladomedioambiental con el carácter conciso de las políticas, siendo esto algo que AERIS refleja en sus estructuras conceptual y computacional. Finalmente, cabe decir que AERIS ha sido creado para su uso exclusivo dentro de un marco de evaluación y de ninguna manera debe ser considerado como un sustituto de los modelos de calidad del aire ordinarios. ABSTRACT Improving air quality is an eminently inter-disciplinary task. The wide variety of sciences and stakeholders that are involved call for having simple yet fully-integrated and reliable evaluation tools available. Integrated AssessmentModeling has proved to be a suitable solution for the description of air pollution systems due to the fact that it considers each of the involved stages: emissions, atmospheric chemistry, dispersion, environmental impacts and abatement potentials. Some integrated assessment models are available at European scale that cover each of the before mentioned stages, being the Greenhouse Gas and Air Pollution Interactions and Synergies (GAINS) model the most recognized and widely-used within a European policy-making context. However, addressing air quality at the national/regional scale under an integrated assessment framework is desirable. To do so, European-scale models do not provide enough spatial resolution or detail in their ancillary data sources, mainly emission inventories and local meteorology patterns as well as associated results. The objective of this dissertation is to present the developments in the design and application of an Integrated Assessment Model especially conceived for Spain and Portugal. The Atmospheric Evaluation and Research Integrated system for Spain (AERIS) is able to quantify concentration profiles for several pollutants (NO2, SO2, PM10, PM2.5, NH3 and O3), the atmospheric deposition of sulfur and nitrogen species and their related impacts on crops, vegetation, ecosystems and health as a response to percentual changes in the emissions of relevant sectors. The current version of AERIS considers 20 emission sectors, either corresponding to individual SNAP sectors or macrosectors, whose contribution to air quality levels, deposition and impacts have been modeled through the use of source-receptor matrices (SRMs). Thesematrices are proportionality constants that relate emission changes with different air quality indicators and have been derived through statistical parameterizations of an air qualitymodeling system (AQM). For the concrete case of AERIS, its parent AQM relied on the WRF model for meteorology and on the CMAQ model for atmospheric chemical processes. The quantification of atmospheric deposition, impacts on ecosystems, crops, vegetation and human health has been carried out following the standard methodologies established under international negotiation frameworks such as CLRTAP. The programming structure isMATLAB ® -based, allowing great compatibility with typical software such as Microsoft Excel ® or ArcGIS ® Regarding air quality levels, AERIS is able to provide mean annual andmean monthly concentration values, as well as the indicators established in Directive 2008/50/EC, namely the 19th highest hourly value for NO2, the 25th highest daily value and the 4th highest hourly value for SO2, the 36th highest daily value of PM10, the 26th highest maximum 8-hour daily value, SOMO35 and AOT40 for O3. Regarding atmospheric deposition, the annual accumulated deposition per unit of area of species of oxidized and reduced nitrogen as well as sulfur can be estimated. When relating the before mentioned values with specific characteristics of the modeling domain such as land use, forest and crops covers, population counts and epidemiological studies, a wide array of impacts can be calculated. When focusing on impacts on ecosystems and soils, AERIS is able to estimate critical load exceedances and accumulated average exceedances for nitrogen and sulfur species. Damage on forests is estimated as an exceedance of established critical levels of NO2 and SO2. Additionally, AERIS is able to quantify damage caused by O3 and SO2 on grapes, maize, potato, rice, sunflower, tobacco, tomato, watermelon and wheat. Impacts on human health aremodeled as a consequence of exposure to PM2.5 and O3 and quantified as losses in statistical life expectancy and premature mortality indicators. The accuracy of the IAM has been tested by statistically contrasting the obtained results with those yielded by the conventional AQM, exhibiting in most cases a good agreement level. Due to the fact that impacts cannot be directly produced by the AQM, a credibility analysis was carried out for the outputs of AERIS for a given emission scenario by comparing them through probability tests against the performance of GAINS for the same scenario. This analysis revealed a good correspondence in the mean behavior and the probabilistic distributions of the datasets. The verification tests that were applied to AERIS suggest that results are consistent enough to be credited as reasonable and realistic. In conclusion, the main reason thatmotivated the creation of this model was to produce a reliable yet simple screening tool that would provide decision and policy making support for different “what-if” scenarios at a low computing cost. The interaction with politicians and other stakeholders dictated that reconciling the complexity of modeling with the conciseness of policies should be reflected by AERIS in both, its conceptual and computational structures. It should be noted however, that AERIS has been created under a policy-driven framework and by no means should be considered as a substitute of the ordinary AQM.
Resumo:
Esta comunicación trata de resumir el trabajo realizado por el ITGE, BRGM, CCMA, IPE, ETSIMM y ENRESA en el proyecto titulado "Paleoclimatological Revision of Climate Evolution and Environment in Western Mediterranean Region. Evaluation of future evolution scenarios in the Iberian Peninsula", en el marco del Programa de la Comisión de las Comunidades Europeas sobre Gestión y Almacenamiento de Residuos Radioactivos (contrato CEC FI2WCT91- 0075).
Resumo:
La fisuración iniciada en la superficie de los pavimentos asfálticos constituye uno de los más frecuentes e importantes modos de deterioro que tienen lugar en los firmes bituminosos, como han demostrado los estudios teóricos y experimentales llevados a cabo en la última década. Sin embargo, este mecanismo de fallo no ha sido considerado por los métodos tradicionales de diseño de estos firmes. El concepto de firmes de larga duración se fundamenta en un adecuado seguimiento del proceso de avance en profundidad de estos deterioros y la intervención en el momento más apropiado para conseguir mantenerlos confinados como fisuras de profundidad parcial en la capa superficial más fácilmente accesible y reparable, de manera que pueda prolongarse la durabilidad y funcionalidad del firme y reducir los costes generalizados de su ciclo de vida. Por lo tanto, para la selección de la estrategia óptima de conservación de los firmes resulta esencial disponer de metodologías que posibiliten la identificación precisa in situ de la fisuración descendente, su seguimiento y control, y que además permitan una determinación fiable y con alto rendimiento de su profundidad y extensión. En esta Tesis Doctoral se presentan los resultados obtenidos mediante la investigación sistemática de laboratorio e in situ llevada a cabo para la obtención de datos sobre fisuración descendente en firmes asfálticos y para el estudio de procedimientos de evaluación de la profundidad de este tipo de fisuras empleando técnicas de ultrasonidos. Dichos resultados han permitido comprobar que la metodología no destructiva propuesta, de rápida ejecución, bajo coste y sencilla implementación (principalmente empleada hasta el momento en estructuras metálicas y de hormigón, debido a las dificultades que introduce la naturaleza viscoelástica de los materiales bituminosos) puede ser aplicada con suficiente fiabilidad y repetibilidad sobre firmes asfálticos. Las medidas resultan asimismo independientes del espesor total del firme. Además, permite resolver algunos de los inconvenientes frecuentes que presentan otros métodos de diagnóstico de las fisuras de pavimentos, tales como la extracción de testigos (sistema destructivo, de alto coste y prolongados tiempos de interrupción del tráfico) o algunas otras técnicas no destructivas como las basadas en medidas de deflexiones o el georradar, las cuales no resultan suficientemente precisas para la investigación de fisuras superficiales. Para ello se han realizado varias campañas de ensayos sobre probetas de laboratorio en las que se han estudiado diferentes condiciones empíricas como, por ejemplo, distintos tipos de mezclas bituminosas en caliente (AC, SMA y PA), espesores de firme y adherencias entre capas, temperaturas, texturas superficiales, materiales de relleno y agua en el interior de las grietas, posición de los sensores y un amplio rango de posibles profundidades de fisura. Los métodos empleados se basan en la realización de varias medidas de velocidad o de tiempo de transmisión del pulso ultrasónico sobre una única cara o superficie accesible del material, de manera que resulte posible obtener un coeficiente de transmisión de la señal (mediciones relativas o autocompensadas). Las mediciones se han realizado a bajas frecuencias de excitación mediante dos equipos de ultrasonidos diferentes dotados, en un caso, de transductores de contacto puntual seco (DPC) y siendo en el otro instrumento de contacto plano a través de un material especialmente seleccionado para el acoplamiento (CPC). Ello ha permitido superar algunos de los tradicionales inconvenientes que presenta el uso de los transductores convencionales y no precisar preparación previa de las superficies. La técnica de autocalibración empleada elimina los errores sistemáticos y la necesidad de una calibración local previa, demostrando el potencial de esta tecnología. Los resultados experimentales han sido comparados con modelos teóricos simplificados que simulan la propagación de las ondas ultrasónicas en estos materiales bituminosos fisurados, los cuales han sido deducidos previamente mediante un planteamiento analítico y han permitido la correcta interpretación de dichos datos empíricos. Posteriormente, estos modelos se han calibrado mediante los resultados de laboratorio, proporcionándose sus expresiones matemáticas generalizadas y gráficas para su uso rutinario en las aplicaciones prácticas. Mediante los ensayos con ultrasonidos efectuados en campañas llevadas a cabo in situ, acompañados de la extracción de testigos del firme, se han podido evaluar los modelos propuestos. El máximo error relativo promedio en la estimación de la profundidad de las fisuras al aplicar dichos modelos no ha superado el 13%, con un nivel de confianza del 95%, en el conjunto de todos los ensayos realizados. La comprobación in situ de los modelos ha permitido establecer los criterios y las necesarias recomendaciones para su utilización sobre firmes en servicio. La experiencia obtenida posibilita la integración de esta metodología entre las técnicas de auscultación para la gestión de su conservación. Abstract Surface-initiated cracking of asphalt pavements constitutes one of the most frequent and important types of distress that occur in flexible bituminous pavements, as clearly has been demonstrated in the technical and experimental studies done over the past decade. However, this failure mechanism has not been taken into consideration for traditional methods of flexible pavement design. The concept of long-lasting pavements is based on adequate monitoring of the depth and extent of these deteriorations and on intervention at the most appropriate moment so as to contain them in the surface layer in the form of easily-accessible and repairable partial-depth topdown cracks, thereby prolonging the durability and serviceability of the pavement and reducing the overall cost of its life cycle. Therefore, to select the optimal maintenance strategy for perpetual pavements, it becomes essential to have access to methodologies that enable precise on-site identification, monitoring and control of top-down propagated cracks and that also permit a reliable, high-performance determination of the extent and depth of cracking. This PhD Thesis presents the results of systematic laboratory and in situ research carried out to obtain information about top-down cracking in asphalt pavements and to study methods of depth evaluation of this type of cracking using ultrasonic techniques. These results have demonstrated that the proposed non-destructive methodology –cost-effective, fast and easy-to-implement– (mainly used to date for concrete and metal structures, due to the difficulties caused by the viscoelastic nature of bituminous materials) can be applied with sufficient reliability and repeatability to asphalt pavements. Measurements are also independent of the asphalt thickness. Furthermore, it resolves some of the common inconveniences presented by other methods used to evaluate pavement cracking, such as core extraction (a destructive and expensive procedure that requires prolonged traffic interruptions) and other non-destructive techniques, such as those based on deflection measurements or ground-penetrating radar, which are not sufficiently precise to measure surface cracks. To obtain these results, extensive tests were performed on laboratory specimens. Different empirical conditions were studied, such as various types of hot bituminous mixtures (AC, SMA and PA), differing thicknesses of asphalt and adhesions between layers, varied temperatures, surface textures, filling materials and water within the crack, different sensor positions, as well as an ample range of possible crack depths. The methods employed in the study are based on a series of measurements of ultrasonic pulse velocities or transmission times over a single accessible side or surface of the material that make it possible to obtain a signal transmission coefficient (relative or auto-calibrated readings). Measurements were taken at low frequencies by two short-pulse ultrasonic devices: one equipped with dry point contact transducers (DPC) and the other with flat contact transducers that require a specially-selected coupling material (CPC). In this way, some of the traditional inconveniences presented by the use of conventional transducers were overcome and a prior preparation of the surfaces was not required. The auto-compensating technique eliminated systematic errors and the need for previous local calibration, demonstrating the potential for this technology. The experimental results have been compared with simplified theoretical models that simulate ultrasonic wave propagation in cracked bituminous materials, which had been previously deduced using an analytical approach and have permitted the correct interpretation of the aforementioned empirical results. These models were subsequently calibrated using the laboratory results, providing generalized mathematical expressions and graphics for routine use in practical applications. Through a series of on-site ultrasound test campaigns, accompanied by asphalt core extraction, it was possible to evaluate the proposed models, with differences between predicted crack depths and those measured in situ lower than 13% (with a confidence level of 95%). Thereby, the criteria and the necessary recommendations for their implementation on in-service asphalt pavements have been established. The experience obtained through this study makes it possible to integrate this methodology into the evaluation techniques for pavement management systems.
Resumo:
En el campo de la ingeniería estructural como en otras ramas, es necesaria la calibración de modelos mediante soporte experimental debido a la complejidad que encierra el fenómeno que se intenta predecir. Las campañas experimentales llevadas a cabo por la comunidad científica a través de los años proporcionan información valiosa que puede ser empleada para la calibración y selección de modelos así como para la consolidación de modelos existentes. En el último caso, las técnicas empleadas para tal finalidad son fundamentalmente distintas a las de la selección de modelos (modelos ajustados con información experimental en común). Los códigos estructurales incluyen modelos de muy variado tipo que han ido consolidándose con la práctica. Con gran frecuencia sucede que tales modelos son diferentes en los referidos códigos aun cuando aborden el mismo objetivo. Tales diferencias son lógicas pues esos modelos no deben entenderse sino como elementos de un sistema más amplio de fiabilidad estructural que incluye todos los modelos utilizados así como el formato de seguridad establecido en cada uno de ellos. En el presente trabajo se realiza una comparación exhaustiva de modelos, empleando diferentes técnicas que permiten identificar patrones de comportamiento de los mismos. La metodología permite no sólo obtener una medida del ajuste y del poder predictivo de los modelos sino también del grado de conservadurismo. Los modelos analizados están relacionados con el fallo de vigas de hormigón reforzadas a flexión con materiales compuestos. La capacidad portante de estos elementos estructurales está frecuentemente condicionada por el despegue del refuerzo, el cual puede tener origen bien el extremo o en la zona de fisura de flexión o flexión-cortante.
Resumo:
En regiones en las que no se dispone de un modelo hidrológico correctamente calibrado para estimar la escorrentía, se puede recurrir a la utilización de la escorrentía directa simulada por los modelos climáticos o a la escorrentía calculada a partir de fórmulas climatológicas que emplean variables climáticas básicas como la precipitación, temperatura y radiación solar, simuladas por los modelos regionales de clima (MRC). El presente trabajo compara el comportamiento de la escorrentía directa obtenida por 10 simulaciones de los MRC del proyecto europeo PRUDENCE y la escorrentía media anual calculada a partir de la aplicación de cinco fórmulas climatológicas (Schreiber, Ol’dekop, Budyko, Turc-Pike, Zhang et al.) basadas en el índice de aridez, definido por la relación entre la evapotranspiración potencial y la precipitación. Series temporales mensuales de escorrentía, precipitación, temperatura y radiación solar son generadas a partir de las simulaciones de los MRC en 338 cuencas de España que cubren la totalidad del territorio peninsular, bajo condiciones de clima actual (periodo 1961-1990). La evapotranspiración potencial se obtiene usando el método presentado por Hargreaves. Estas formas funcionales estiman la relación entre la evapotranspiración actual y la precipitación y a través de un balance hídrico se calculan los valores de escorrentía anual. El comportamiento general de las variables climáticas simuladas por los MRC se caracteriza por presentar menor sesgo para precipitación y temperatura que para escorrentía. Empleando estadísticos de comparación se analiza la capacidad que tiene la escorrentía directa y la escorrentía anual calculada a partir de las fórmulas climáticas para reproducir los valores observados de escorrentía natural estimada por el modelo hidrológico distribuido SIMPA en las cuencas españolas. En total se generaron 10 series mensuales de escorrentía directa y 50 series de escorrentía anual basadas en el índice de aridez (cada fórmula climática aplicada a las 10 simulaciones de los MRC). Los resultados muestran que la fórmula de Schreiber produce la mejor aproximación a los valores observados y por tanto minimiza el sesgo predominante en la variable escorrentía. Adicionalmente, estos resultados se validan con las capas de escorrentía media anual de alta resolución proporcionada por la UNH/GRDC (University of New Hampshire/Global Runoff Data Centre) que preservan la exactitud de las medidas de las aportaciones observadas en las principales estaciones hidrológicas de todo el mundo, y que en la actualidad es el “mejor estimador” de la escorrentía terrestre sobre grandes extensiones. En este caso, los resultados muestran también que la fórmula de Schreiber estima mejor los valores de escorrentía anual que la escorrentía directa simulada por MRC.
Modelos de predicción de daños en fruta y sistemática para la evaluación de equipos hortofrutícolas.
Resumo:
Se han desarrollado en laboratorio distintos modelos de predicción de daños, para las especies y variedades más exportadas, con el fin de determinar la potencial aceptabilidad o rechazo de daños de acuerdo con la normativa comunitaria. Se han desarrollado modelos de predicción para cargas quasi-estáticas (compresiones) y dinámicas (impactos) que abarcan completamente el periodo de maduración comercial de los frutos. Se ha efectuado un proceso de simulación que integra la información obtenida en laboratorio a través de los modelos de predicción de daños con la correspondiente a la calibración de distintos frutos electrónicos (IS-100 y DEA-1, para cargas de impacto y compresión respectivamente). Se ha diseñado una metodología de evaluación que recoge tanto las propiedades mecánicas de los frutos en sus distintos estados de madurez como los registros correspondientes a los frutos electrónicos. La sistemática de evaluación permite determinar el estado actual tanto de la maquinaria como de los procesos de manipulación de fruta.
Resumo:
Este enfoque propone una evaluación alternativa al modelo de valuación tradicional apostando por una evaluación formativa que implica profundos cambios en el proceso de enseñanza y de aprendizaje. El propósito de este estudio es conocer el modelo de evaluación por competencias aplicado y propuesto por un grupo de profesores de Educación Física en Educación Secundaria Obligatoria (ESO) en la Comunidad de Madrid; así como sus respectivas técnicas e instrumentos de evaluación
Resumo:
La obtención de leyes de frecuencia de caudales de avenida mediante simulación hidrometeorológica requiere de la extensión de las series observadas de lluvia mediante series sintéticas que conserven sus propiedades extremales. Para cuencas pequeñas, cuya lluvia media pueda asimilarse a la registrada en un único pluviómetro, existen varios modelos puntuales que pueden realizar eficazmente la tarea. En el caso de cuencas medianas y grandes, deben utilizarse modelos multivariados, cuya calibración es más difícil que en el caso univariado. El objetivo de este trabajo es la simulación estocástica de lluvias a escala a través del empleo de un modelo multivariado en el tiempo y en el espacio. Para ello se ha empleado el programa Rainsim, que se basa en el modelo espacio-temporal de Neyman-Scott de pulsos rectangulares (e.g. Coperwait et al., 2002; Fowler et al., 2005; Burton et al., 2008). A partir de series históricas de lluvias se obtienen sus estadísticos, con los que se ajustan los parámetros del modelo para poder generar largas series de precipitaciones. En el trabajo se ha empleado el modelo Rainsim en un caso univariado y otro multivariado con tres pluviómetros, y se han comparado los resultados. El caso univariado es el embalse de Alloz, situado en la cuenca del Ebro, que cuenta con un pluviómetro con una serie histórica de 43 años con paso diario. En el caso multivariado se ha trabajado con el embalse de Fuensanta, situado en la cuenca del Segura, donde se escogieron tres pluviómetros (Gontar, Arguellite y Siles), que cuentan con series de datos de precipitación diaria de 31, 42 y 22 años. En los trabajos realizados se han obtenido resultados muy satisfactorios para el modelo puntual de un pluviómetro estudiado en la cuenca de Alloz, el comparar el comportamiento extremal de los datos observados y los datos simulados. En cuanto al modelo multivariado, los datos simulados presentan un comportamiento no tan acertado como en el caso univariado.
Resumo:
La presente memoria es el resultado de un proyecto cuya finalidad es evaluar la calidad de los servicios públicos de la ciudad de Madrid. Mediante la combinación de datos objetivos procedentes de datos abiertos y datos de redes sociales se consigue determinar el estado de calidad relativa de los servicios públicos de los 21 distritos que conforman Madrid
Resumo:
México es de los pocos países en el mundo que ha realizado dos grandes programas para la construcción de autopistas en colaboración con el sector privado. El primero, fue realizado entre 1989 y 1994, con resultados adversos por el mal diseño del esquema de concesiones; y, el segundo con mejores resultados, en operación desde 2003 mediante nuevos modelos de asociación público-privada (APP). El objetivo de la presente investigación es estudiar los modelos de asociación público-privada empleados en México para la provisión de infraestructura carretera, realizando el análisis y la evaluación de la distribución de riesgos entre el sector público y privado en cada uno de los modelos con el propósito de establecer una propuesta de reasignación de riesgos para disminuir el costo global y la incertidumbre de los proyectos. En la primera parte se describe el estado actual del conocimiento de las asociaciones público-privadas para desarrollar proyectos de infraestructura, incluyendo los antecedentes, la definición y las tipologías de los esquemas APP, así como la práctica internacional de programas como el modelo británico Private Finance Initiative (PFI), resultados de proyectos en la Unión Europea y programas APP en otros países. También, se destaca la participación del sector privado en el financiamiento de la infraestructura del transporte de México en la década de 1990. En los capítulos centrales se aborda el estudio de los modelos APP que se han utilizado en el país en la construcción de la red de carreteras de alta capacidad. Se presentan las características y los resultados del programa de autopistas 1989-94, así como el rescate financiero y las medidas de reestructuración de los proyectos concesionados, aspectos que obligaron a las autoridades mexicanas a cambiar la normatividad para la aprobación de los proyectos según su rentabilidad, modificar la legislación de caminos y diseñar nuevos esquemas de colaboración entre el gobierno y el sector privado. Los nuevos modelos APP vigentes desde 2003 son: nuevo modelo de concesiones para desarrollar autopistas de peaje, modelo de proyectos de prestación de servicios (peaje sombra) para modernizar carreteras existentes y modelo de aprovechamiento de activos para concesionar autopistas de peaje en operación a cambio de un pago. De estos modelos se realizaron estudios de caso en los que se determinan medidas de desempeño operativo (niveles de tráfico, costos y plazos de construcción) y rentabilidad financiera (tasa interna de retorno y valor presente neto). En la última parte se efectúa la identificación, análisis y evaluación de los riesgos que afectaron los costos, el tiempo de ejecución y la rentabilidad de los proyectos de ambos programas. Entre los factores de riesgo analizados se encontró que los más importantes fueron: las condiciones macroeconómicas del país (inflación, producto interno bruto, tipo de cambio y tasa de interés), deficiencias en la planificación de los proyectos (diseño, derecho de vía, tarifas, permisos y estimación del tránsito) y aportaciones públicas en forma de obra. Mexico is one of the few countries in the world that has developed two major programs for highway construction in collaboration with the private sector. The first one was carried out between 1989 and 1994 with adverse outcomes due to the wrong design of concession schemes; and, the second one, in operation since 2003, through new public-private partnership models (PPPs). The objective of this research is to study public-private partnership models used in Mexico for road infrastructure provision, performing the analysis and evaluation of risk’s distribution between the public and the private sector in each model in order to draw up a proposal for risk’s allocation to reduce the total cost and the uncertainty of projects. The first part describes the current state of knowledge in public-private partnership to develop infrastructure projects, including the history, definition and types of PPP models, as well as international practice of programs such as the British Private Finance Initiative (PFI) model, results in the European Union and PPP programs in other countries. Also, it stands out the private sector participation in financing of Mexico’s transport infrastructure in 1990s. The next chapters present the study of public-private partnerships models that have been used in the country in the construction of the high capacity road network. Characteristics and outcomes of the highway program 1989-94 are presented, as well as the financial bailout and restructuring measures of the concession projects, aspects that forced the Mexican authorities to change projects regulations, improve road’s legislation and design new schemes of cooperation between the Government and the private sector. The new PPP models since 2003 are: concession model to develop toll highways, private service contracts model (shadow toll) to modernize existing roads and highway assets model for the concession of toll roads in operation in exchange for a payment. These models were analyzed using case studies in which measures of operational performance (levels of traffic, costs and construction schedules) and financial profitability (internal rate of return and net present value) are determined. In the last part, the analysis and assessment of risks that affect costs, execution time and profitability of the projects are carried out, for both programs. Among the risk factors analyzed, the following ones were found to be the most important: country macroeconomic conditions (inflation, gross domestic product, exchange rate and interest rate), deficiencies in projects planning (design, right of way, tolls, permits and traffic estimation) and public contributions in the form of construction works.