1000 resultados para Validación clinicométrica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La fatiga superficial es uno de los principales problemas en las transmisiones mecánicas y es uno de los focos de atención de las investigaciones de los últimos anos en Tribología. La disminución de viscosidad de los lubricantes para la mejora de la eficiencia, el aumento de las potencias a transmitir, el aumento de la vida de los componentes o la mejora de su fiabilidad han supuesto que los fenómenos de fatiga superficial hayan cobrado especial relevancia, especialmente los fenómenos de pitting y micropitting en cajas multiplicadoras/reductoras de grandes potencias de aplicación, por ejemplo, en el sector eólico. Como todo fenómeno de fatiga, el pitting y micropitting son debidos a la aplicación de cargas ciclicas. Su aparición depende de las presiones y tensiones cortantes en el contacto entre dos superficies que al encontrarse en rodadura y deslizamiento varian con el tiempo. La principal consecuencia de la fatiga superficial es la aparición de hoyuelos de diferente magnitud segun la escala del fenómeno (pitting o micropitting) en la superficie del material. La aparición de estos hoyuelos provoca la perdida de material, induce vibraciones y sobrecargas en el elemento que finalmente acaba fallando. Debido a la influencia de la presión y tensión cortante en el contacto, la aparición de fatiga depende fuertemente del lubricante que se encuentre entre las dos superficies y de las condiciones de funcionamiento en las cuales este trabajando. Cuando el contacto trabaja en condiciones de lubricacion mixta-elastohidrodinamica tiende a aparecer micropitting debido a las altas tensiones localizadas en las proximidades de las asperezas, mientras que si el régimen es de lubricación completa el tipo de fatiga superficial suele ser pitting debido a las tensiones mas suavizadas y menos concentradas. En esta Tesis Doctoral se han analizado todos estos factores de influencia que controlan el pitting y el micropitting prestando especial atención al efecto del lubricante. Para ello, se ha dado un enfoque conjunto a ambos fenómenos resolviendo las ecuaciones involucradas en el contacto elastohidrodinamico no-Newtoniano (la ecuación de Reynolds, la deformación elástica de los sólidos y la reologia del lubricante) para conocer la presión y la tensión cortante en el contacto. Conocidas estas, se resuelve el campo de tensiones en el interior del material y, finalmente, se aplican criterios de fatiga multiaxial (Crossland, Dang Van y Liu-Mahadevan) para conocer si el material falla o no falla. Con la metodología desarrollada se ha analizado el efecto sobre las tensiones y la aparición de la fatiga superficial del coeficiente viscosidad-presion, de la compresibilidad, del espesor especifico de película y de la fricción así como de la influencia de las propiedades a fatiga del material y de las condiciones de funcionamiento (radios de contacto, velocidad, deslizamiento, carga y temperatura). Para la validación de los resultados se han utilizado resultados teóricos y experimentales de otros autores junto con normas internacionales de amplia utilización en el mundo industrial, entre otras, para el diseño y calculo de engranajes. A parte del trabajo realizado por simulación y cálculo de los diferentes modelos desarrollados, se ha realizado un importante trabajo experimental que ha servido no solo para validar la herramienta desarrollada sino que además ha permitido incorporar al estudio factores no considerados en los modelos, como los aditivos del lubricante. Se han realizado ensayos de medida del coeficiente de fricción en una maquina de ensayo puntual con la que se ha validado el cálculo del coeficiente de fricción y se ha desarrollado un proceso de mejora del coeficiente de fricción mediante texturizado superficial en contactos puntuales elastohidrodinamicos mediante fotolitografia y ataque quimico. Junto con los ensayos de medida de fricción en contacto puntual se han realizado ensayos de fricción y fatiga superficial en contacto lineal mediante una maquina de discos que ha permitido evaluar la influencia de diferentes aditivos (modificadores de fricción, antidesgaste y extrema-presion) en la aparición de fatiga superficial (pitting y micropitting) y la fricción en el contacto. Abstract Surface fatigue is one of the most important problems of mechanical transmissions and therefore has been one of the main research topics on Tribology during the last years. On the one hand, industrial demand on fuel economy has led to reduce lubricant viscosity in order to improve efficiency. On the other hand, the requirements of power and life of machine elements are continuously increasing, together with the improvements in reliability. As a consequence, surface fatigue phenomena have become critical in machinery, in particular pitting and micropitting in high power gearboxes of every kind of machines, e.g., wind turbines or cranes. In line with every fatigue phenomena, pitting and micropitting are caused by cyclic loads. Their appearance depends on the evolution of pressures and shear stresses with time, throughout the contact between surfaces under rolling and sliding conditions. The main consequence of surface fatigue is the appearance of pits on the surface. The size of the pits is related to the scale of the fatigue: pitting or micropitting. These pits cause material loss, vibrations and overloads until the final failure is reached. Due to the great influence of the pressures and shear stresses in surface fatigue, the appearance of pits depends directly on the lubricant and the operating conditions. When the contact works under mixed regime (or under elastohydrodynamic but close to mixed regime) the main fatigue failure is micropitting because of the high pressures located near the asperities. In contrast, when the contact works under elastohydrodynamic fully flooded conditions the typical fatigue failure is pitting. In this Ph.D. Thesis, the main factors with influence on pitting and micropitting phenomena are analyzed, with special attention to the effect of the lubricant. For this purpose, pitting and micropitting are studied together by solving the equations involved in the non-Newtonian elastohydrodynamic contact. Thus, pressure and shear stress distributions are found by taking into account Reynolds equation, elastic deflection of the solids and lubricant rheology. Subsequently, the stress field inside the material can be calculated and different multiaxial fatigue criteria (Crossland, Dang Van and Liu- Mahadevan) can be applied to predict whether fatigue failure is reached. The influences of the main parameters on pressure and surface fatigue have been studied, taking into account the lubricant compressibility and its viscosity-pressure coefficient, the specific film thickness, the friction coefficient and the fatigue properties of the contacting materials, together with the operating conditions (contact radius, mean velocity, sliding velocity, load and temperature). Several theoretical and experimental studies of different authors have been used to validate all the results obtained, together with international standards used worldwide in gear design industry. Moreover, an experimental stage has been carried out in order to validate the calculation methods and introduce additional influences not included previously, e.g., lubricant additives. The experimentation includes different friction tests in point contacts performed with a tribological equipment in order to validate the results given by the calculations. Furthermore, the reduction and optimization of the friction coefficient is analyzed by means of textured surfaces, obtained combining photolithography and chemical etching techniques. Besides the friction tests with point contact, friction and surface fatigue tests have also been performed with line contact in a tribological test rig. This equipment is also used to study the influence of different types of additives (friction modifiers, anti-wear and extreme-pressure additives) on surface fatigue (pitting and micropitting).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo de esta investigación es desarrollar una metodología para estimar los potenciales impactos económicos y de transporte generados por la aplicación de políticas en el sector transporte. Los departamentos de transporte y otras instituciones gubernamentales relacionadas se encuentran interesadas en estos análisis debido a que son presentados comúnmente de forma errónea por la insuficiencia de datos o por la falta de metodologías adecuadas. La presente investigación tiene por objeto llenar este vacío haciendo un análisis exhaustivo de las técnicas disponibles que coincidan con ese propósito. Se ha realizado un análisis que ha identificado las diferencias cuando son aplicados para la valoración de los beneficios para el usuario o para otros efectos como aspectos sociales. Como resultado de ello, esta investigación ofrece un enfoque integrado que incluye un modelo Input-Output de múltiples regiones basado en la utilidad aleatoria (RUBMRIO), y un modelo de red de transporte por carretera. Este modelo permite la reproducción con mayor detalle y realismo del transporte de mercancías que por medio de su estructura sectorial identifica los vínculos de las compras y ventas inter-industriales dentro de un país utilizando los servicios del transporte de mercancías. Por esta razón, el modelo integrado es aplicable a diversas políticas de transporte. En efecto, el enfoque se ha aplicado para estudiar los efectos macroeconómicos regionales de la implementación de dos políticas diferentes en el sistema de transporte de mercancías de España, tales como la tarificación basada en la distancia recorrida por vehículo-kilómetro (€/km) aplicada a los vehículos del transporte de mercancías, y para la introducción de vehículos más largos y pesados de mercancías en la red de carreteras de España. El enfoque metodológico se ha evaluado caso por caso teniendo en cuenta una selección de la red de carreteras que unen las capitales de las regiones españolas. También se ha tenido en cuenta una dimensión económica a través de una tabla Input-Output de múltiples regiones (MRIO) y la base de datos de conteo de tráfico existente para realizar la validación del modelo. El enfoque integrado reproduce las condiciones de comercio observadas entre las regiones usando el sistema de transporte de mercancías por carretera, y que permite por comparación con los escenarios de políticas, determinar las contribuciones a los cambios distributivos y generativos. Así pues, el análisis estima los impactos económicos en cualquier región considerando los cambios en el Producto Interno Bruto (PIB) y el empleo. El enfoque identifica los cambios en el sistema de transporte a través de todos los caminos de la red de transporte a través de las medidas de efectividad (MOEs). Los resultados presentados en esta investigación proporcionan evidencia sustancial de que en la evaluación de las políticas de transporte, es necesario establecer un vínculo entre la estructura económica de las regiones y de los servicios de transporte. Los análisis muestran que para la mayoría de las regiones del país, los cambios son evidentes para el PIB y el empleo, ya que el comercio se fomenta o se inhibe. El enfoque muestra cómo el tráfico se desvía en ambas políticas, y también determina detalles de las emisiones de contaminantes en los dos escenarios. Además, las políticas de fijación de precios o de regulación de los sistemas de transporte de mercancías por carretera dirigidas a los productores y consumidores en las regiones promoverán transformaciones regionales afectando todo el país, y esto conduce a conclusiones diferentes. Así mismo, este enfoque integrado podría ser útil para evaluar otras políticas y otros países en todo el mundo. The purpose of this research is to develop a methodological approach aimed at assessing the potential economic and transportation impacts of transport policies. Transportation departments and other related government parties are interested in such analysis because it is commonly misrepresented for the insufficiency of data and suitable methodologies available. This research is directed at filling this gap by making a comprehensive analysis of the available techniques that match with that purpose. The differences when they are applied for the valuation of user benefits or for other impacts as social matters have been identified. As a result, this research presents an integrated approach which includes both a random utility-based multiregional Input-Output model (RUBMRIO), and a road transport network model. This model accounts for freight transport with more detail and realism because its commodity-based structure traces the linkages of inter-industry purchases and sales that use freight services within a given country. For this reason, the integrated model is applicable to various transport policies. In fact, the approach is applied to study the regional macroeconomic effects of implementing two different policies in the freight transport system of Spain, such as a distance-based charge in vehicle-kilometer (€/km) for Heavy Goods Vehicles (HGVs), and the introduction of Longer and Heavier Vehicles (LHVs) in the road network of Spain. The methodological approach has been evaluated on a case by case basis considering a selected road network of highways linking the capitals of the Spanish regions. It has also considered an economic dimension through a Multiregional Input Output Table (MRIO) and the existing traffic count database used in the model validation. The integrated approach replicates observed conditions of trade among regions using road freight transport systems that determine contributions to distributional and generative changes by comparison with policy scenarios. Therefore, the model estimates economic impacts in any given area by considering changes in Gross Domestic Product (GDP), employment (jobs), and in the transportation system across all paths of the transport network considering Measures of effectiveness (MOEs). The results presented in this research provide substantive evidence that in the assessment of transport policies it is necessary to establish a link between the economic structure of regions and the transportation services. The analysis shows that for most regions in the country, GDP and employment changes are noticeable when trade is encouraged or discouraged. This approach shows how traffic is diverted in both policies, and also provides details of the pollutant emissions in both scenarios. Furthermore, policies, such as pricing or regulation of road freight transportation systems, directed to producers and consumers in regions will promote different regional transformations across the country, and this lead to different conclusions. In addition, this integrated approach could be useful to assess other policies and countries worldwide.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La inmensa mayoría de los flujos de relevancia ingenieril permanecen sin estudiar en el marco de la teoría de estabilidad global. Esto es debido a dos razones fundamentalmente, las dificultades asociadas con el análisis de los flujos turbulentos y los inmensos recursos computacionales requeridos para obtener la solución del problema de autovalores asociado al análisis de inestabilidad de flujos tridimensionales, también conocido como problema TriGlobal. En esta tesis se aborda el problema asociado con la tridimensionalidad. Se ha desarrollado una metodología general para obtener soluciones de problemas de análisis modal de las inestabilidades lineales globales mediante el acoplamiento de métodos de evolución temporal, desarrollados en este trabajo, con códigos de mecánica de fluidos computacional de segundo orden, utilizados de forma general en la industria. Esta metodología consiste en la resolución del problema de autovalores asociado al análisis de inestabilidad mediante métodos de proyección en subespacios de Krylov, con la particularidad de que dichos subespacios son generados por medio de la integración temporal de un vector inicial usando cualquier código de mecánica de fluidos computacional. Se han elegido tres problemas desafiantes en función de la exigencia de recursos computacionales necesarios y de la complejidad física para la demostración de la presente metodología: (i) el flujo en el interior de una cavidad tridimensional impulsada por una de sus tapas, (ii) el flujo alrededor de un cilindro equipado con aletas helicoidales a lo largo su envergadura y (iii) el flujo a través de una cavidad abierta tridimensinal en ausencia de homogeneidades espaciales. Para la validación de la tecnología se ha obtenido la solución del problema TriGlobal asociado al flujo en la cavidad tridimensional, utilizando el método de evolución temporal desarrollado acoplado con los operadores numéricos de flujo incompresible del código CFD OpenFOAM (código libre). Los resultados obtenidos coinciden plentamente con la literatura. La aplicación de esta metodología al estudio de inestabilidades globales de flujos abiertos tridimensionales ha proporcionado por primera vez, información sobre la transición tridimensional de estos flujos. Además, la metodología ha sido adaptada para resolver problemas adjuntos TriGlobales, permitiendo el control de flujo basado en modificaciones de las inestabilidades globales. Finalmente, se ha demostrado que la cantidad moderada de los recursos computacionales requeridos para la solución del problema de valor propio TriGlobal usando este método numérico, junto a su versatilidad al poder acoplarse a cualquier código aerodinámico, permite la realización de análisis de inestabilidad global y control de flujos complejos de relevancia industrial. Abstract Most flows of engineering relevance still remain unexplored in a global instability theory context for two reasons. First, because of the difficulties associated with the analysis of turbulent flows and, second, for the formidable computational resources required for the solution of the eigenvalue problem associated with the instability analysis of three-dimensional base flows, also known as TriGlobal problem. In this thesis, the problem associated with the three-dimensionality is addressed by means of the development of a general approach to the solution of large-scale global linear instability analysis by coupling a time-stepping approach with second order aerodynamic codes employed in industry. Three challenging flows in the terms of required computational resources and physical complexity have been chosen for demonstration of the present methodology; (i) the flow inside a wall-bounded three-dimensional lid-driven cavity, (ii) the flow past a cylinder fitted with helical strakes and (iii) the flow over a inhomogeneous three-dimensional open cavity. Results in excellent agreement with the literature have been obtained for the three-dimensional lid-driven cavity by using this methodology coupled with the incompressible solver of the open-source toolbox OpenFOAM®, which has served as validation. Moreover, significant physical insight of the instability of three-dimensional open flows has been gained through the application of the present time-stepping methodology to the other two cases. In addition, modifications to the present approach have been proposed in order to perform adjoint instability analysis of three-dimensional base flows and flow control; validation and TriGlobal examples are presented. Finally, it has been demonstrated that the moderate amount of computational resources required for the solution of the TriGlobal eigenvalue problem using this method enables the performance of instability analysis and control of flows of industrial relevance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La predicción de energía eólica ha desempeñado en la última década un papel fundamental en el aprovechamiento de este recurso renovable, ya que permite reducir el impacto que tiene la naturaleza fluctuante del viento en la actividad de diversos agentes implicados en su integración, tales como el operador del sistema o los agentes del mercado eléctrico. Los altos niveles de penetración eólica alcanzados recientemente por algunos países han puesto de manifiesto la necesidad de mejorar las predicciones durante eventos en los que se experimenta una variación importante de la potencia generada por un parque o un conjunto de ellos en un tiempo relativamente corto (del orden de unas pocas horas). Estos eventos, conocidos como rampas, no tienen una única causa, ya que pueden estar motivados por procesos meteorológicos que se dan en muy diferentes escalas espacio-temporales, desde el paso de grandes frentes en la macroescala a procesos convectivos locales como tormentas. Además, el propio proceso de conversión del viento en energía eléctrica juega un papel relevante en la ocurrencia de rampas debido, entre otros factores, a la relación no lineal que impone la curva de potencia del aerogenerador, la desalineación de la máquina con respecto al viento y la interacción aerodinámica entre aerogeneradores. En este trabajo se aborda la aplicación de modelos estadísticos a la predicción de rampas a muy corto plazo. Además, se investiga la relación de este tipo de eventos con procesos atmosféricos en la macroescala. Los modelos se emplean para generar predicciones de punto a partir del modelado estocástico de una serie temporal de potencia generada por un parque eólico. Los horizontes de predicción considerados van de una a seis horas. Como primer paso, se ha elaborado una metodología para caracterizar rampas en series temporales. La denominada función-rampa está basada en la transformada wavelet y proporciona un índice en cada paso temporal. Este índice caracteriza la intensidad de rampa en base a los gradientes de potencia experimentados en un rango determinado de escalas temporales. Se han implementado tres tipos de modelos predictivos de cara a evaluar el papel que juega la complejidad de un modelo en su desempeño: modelos lineales autorregresivos (AR), modelos de coeficientes variables (VCMs) y modelos basado en redes neuronales (ANNs). Los modelos se han entrenado en base a la minimización del error cuadrático medio y la configuración de cada uno de ellos se ha determinado mediante validación cruzada. De cara a analizar la contribución del estado macroescalar de la atmósfera en la predicción de rampas, se ha propuesto una metodología que permite extraer, a partir de las salidas de modelos meteorológicos, información relevante para explicar la ocurrencia de estos eventos. La metodología se basa en el análisis de componentes principales (PCA) para la síntesis de la datos de la atmósfera y en el uso de la información mutua (MI) para estimar la dependencia no lineal entre dos señales. Esta metodología se ha aplicado a datos de reanálisis generados con un modelo de circulación general (GCM) de cara a generar variables exógenas que posteriormente se han introducido en los modelos predictivos. Los casos de estudio considerados corresponden a dos parques eólicos ubicados en España. Los resultados muestran que el modelado de la serie de potencias permitió una mejora notable con respecto al modelo predictivo de referencia (la persistencia) y que al añadir información de la macroescala se obtuvieron mejoras adicionales del mismo orden. Estas mejoras resultaron mayores para el caso de rampas de bajada. Los resultados también indican distintos grados de conexión entre la macroescala y la ocurrencia de rampas en los dos parques considerados. Abstract One of the main drawbacks of wind energy is that it exhibits intermittent generation greatly depending on environmental conditions. Wind power forecasting has proven to be an effective tool for facilitating wind power integration from both the technical and the economical perspective. Indeed, system operators and energy traders benefit from the use of forecasting techniques, because the reduction of the inherent uncertainty of wind power allows them the adoption of optimal decisions. Wind power integration imposes new challenges as higher wind penetration levels are attained. Wind power ramp forecasting is an example of such a recent topic of interest. The term ramp makes reference to a large and rapid variation (1-4 hours) observed in the wind power output of a wind farm or portfolio. Ramp events can be motivated by a broad number of meteorological processes that occur at different time/spatial scales, from the passage of large-scale frontal systems to local processes such as thunderstorms and thermally-driven flows. Ramp events may also be conditioned by features related to the wind-to-power conversion process, such as yaw misalignment, the wind turbine shut-down and the aerodynamic interaction between wind turbines of a wind farm (wake effect). This work is devoted to wind power ramp forecasting, with special focus on the connection between the global scale and ramp events observed at the wind farm level. The framework of this study is the point-forecasting approach. Time series based models were implemented for very short-term prediction, this being characterised by prediction horizons up to six hours ahead. As a first step, a methodology to characterise ramps within a wind power time series was proposed. The so-called ramp function is based on the wavelet transform and it provides a continuous index related to the ramp intensity at each time step. The underlying idea is that ramps are characterised by high power output gradients evaluated under different time scales. A number of state-of-the-art time series based models were considered, namely linear autoregressive (AR) models, varying-coefficient models (VCMs) and artificial neural networks (ANNs). This allowed us to gain insights into how the complexity of the model contributes to the accuracy of the wind power time series modelling. The models were trained in base of a mean squared error criterion and the final set-up of each model was determined through cross-validation techniques. In order to investigate the contribution of the global scale into wind power ramp forecasting, a methodological proposal to identify features in atmospheric raw data that are relevant for explaining wind power ramp events was presented. The proposed methodology is based on two techniques: principal component analysis (PCA) for atmospheric data compression and mutual information (MI) for assessing non-linear dependence between variables. The methodology was applied to reanalysis data generated with a general circulation model (GCM). This allowed for the elaboration of explanatory variables meaningful for ramp forecasting that were utilized as exogenous variables by the forecasting models. The study covered two wind farms located in Spain. All the models outperformed the reference model (the persistence) during both ramp and non-ramp situations. Adding atmospheric information had a noticeable impact on the forecasting performance, specially during ramp-down events. Results also suggested different levels of connection between the ramp occurrence at the wind farm level and the global scale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los sistemas de recomendación son potentes herramientas de filtrado de información que permiten a usuarios solicitar sugerencias sobre ítems que cubran sus necesidades. Tradicionalmente estas recomendaciones han estado basadas en opiniones de los mismos, así como en datos obtenidos de su consumo histórico o comportamiento en el propio sistema. Sin embargo, debido a la gran penetración y uso de los dispositivos móviles en nuestra sociedad, han surgido nuevas oportunidades en el campo de los sistemas de recomendación móviles gracias a la información contextual que se puede obtener sobre la localización o actividad de los usuarios. Debido a este estilo de vida en el que todo tiende a la movilidad y donde los usuarios están plenamente interconectados, la información contextual no sólo es física, sino que también adquiere una dimensión social. Todo esto ha dado lugar a una nueva área de investigación relacionada con los Sistemas de Recomendación Basados en Contexto (CARS) móviles donde se busca incrementar el nivel de personalización de las recomendaciones al usar dicha información. Por otro lado, este nuevo escenario en el que los usuarios llevan en todo momento un terminal móvil consigo abre la puerta a nuevas formas de recomendar. Sustituir el tradicional patrón de uso basado en petición-respuesta para evolucionar hacia un sistema proactivo es ahora posible. Estos sistemas deben identificar el momento más adecuado para generar una recomendación sin una petición explícita del usuario, siendo para ello necesario analizar su contexto. Esta tesis doctoral propone un conjunto de modelos, algoritmos y métodos orientados a incorporar proactividad en CARS móviles, a la vez que se estudia el impacto que este tipo de recomendaciones tienen en la experiencia de usuario con el fin de extraer importantes conclusiones sobre "qué", "cuándo" y "cómo" se debe notificar proactivamente. Con este propósito, se comienza planteando una arquitectura general para construir CARS móviles en escenarios sociales. Adicionalmente, se propone una nueva forma de representar el proceso de recomendación a través de una interfaz REST, lo que permite crear una arquitectura independiente de dispositivo y plataforma. Los detalles de su implementación tras su puesta en marcha en el entorno bancario español permiten asimismo validar el sistema construido. Tras esto se presenta un novedoso modelo para incorporar proactividad en CARS móviles. Éste muestra las ideas principales que permiten analizar una situación para decidir cuándo es apropiada una recomendación proactiva. Para ello se presentan algoritmos que establecen relaciones entre lo propicia que es una situación y cómo esto influye en los elementos a recomendar. Asimismo, para demostrar la viabilidad de este modelo se describe su aplicación a un escenario de recomendación para herramientas de creación de contenidos educativos. Siguiendo el modelo anterior, se presenta el diseño e implementación de nuevos interfaces móviles de usuario para recomendaciones proactivas, así como los resultados de su evaluación entre usuarios, lo que aportó importantes conclusiones para identificar cuáles son los factores más relevantes a considerar en el diseño de sistemas proactivos. A raíz de los resultados anteriores, el último punto de esta tesis presenta una metodología para calcular cuán apropiada es una situación de cara a recomendar de manera proactiva siguiendo el modelo propuesto. Como conclusión, se describe la validación llevada a cabo tras la aplicación de la arquitectura, modelo de recomendación y métodos descritos en este trabajo en una red social de aprendizaje europea. Finalmente, esta tesis discute las conclusiones obtenidas a lo largo de la extensa investigación llevada a cabo, y que ha propiciado la consecución de una buena base teórica y práctica para la creación de sistemas de recomendación móviles proactivos basados en información contextual. ABSTRACT Recommender systems are powerful information filtering tools which offer users personalized suggestions about items whose aim is to satisfy their needs. Traditionally the information used to make recommendations has been based on users’ ratings or data on the item’s consumption history and transactions carried out in the system. However, due to the remarkable growth in mobile devices in our society, new opportunities have arisen to improve these systems by implementing them in ubiquitous environments which provide rich context-awareness information on their location or current activity. Because of this current all-mobile lifestyle, users are socially connected permanently, which allows their context to be enhanced not only with physical information, but also with a social dimension. As a result of these novel contextual data sources, the advent of mobile Context-Aware Recommender Systems (CARS) as a research area has appeared to improve the level of personalization in recommendation. On the other hand, this new scenario in which users have their mobile devices with them all the time offers the possibility of looking into new ways of making recommendations. Evolving the traditional user request-response pattern to a proactive approach is now possible as a result of this rich contextual scenario. Thus, the key idea is that recommendations are made to the user when the current situation is appropriate, attending to the available contextual information without an explicit user request being necessary. This dissertation proposes a set of models, algorithms and methods to incorporate proactivity into mobile CARS, while the impact of proactivity is studied in terms of user experience to extract significant outcomes as to "what", "when" and "how" proactive recommendations have to be notified to users. To this end, the development of this dissertation starts from the proposal of a general architecture for building mobile CARS in scenarios with rich social data along with a new way of managing a recommendation process through a REST interface to make this architecture multi-device and cross-platform compatible. Details as regards its implementation and evaluation in a Spanish banking scenario are provided to validate its usefulness and user acceptance. After that, a novel model is presented for proactivity in mobile CARS which shows the key ideas related to decide when a situation warrants a proactive recommendation by establishing algorithms that represent the relationship between the appropriateness of a situation and the suitability of the candidate items to be recommended. A validation of these ideas in the area of e-learning authoring tools is also presented. Following the previous model, this dissertation presents the design and implementation of new mobile user interfaces for proactive notifications. The results of an evaluation among users testing these novel interfaces is also shown to study the impact of proactivity in the user experience of mobile CARS, while significant factors associated to proactivity are also identified. The last stage of this dissertation merges the previous outcomes to design a new methodology to calculate the appropriateness of a situation so as to incorporate proactivity into mobile CARS. Additionally, this work provides details about its validation in a European e-learning social network in which the whole architecture and proactive recommendation model together with its methods have been implemented. Finally, this dissertation opens up a discussion about the conclusions obtained throughout this research, resulting in useful information from the different design and implementation stages of proactive mobile CARS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo de Tesis se desarrolla en el marco de los escenarios de ejecución distribuida de servicios móviles y contribuye a la definición y desarrollo del concepto de usuario prosumer. El usuario prosumer se caracteriza por utilizar su teléfono móvil para crear, proveer y ejecutar servicios. Este nuevo modelo de usuario contribuye al avance de la sociedad de la información, ya que el usuario prosumer se transforma de creador de contenidos a creador de servicios (estos últimos formados por contenidos y la lógica para acceder a ellos, procesarlos y representarlos). El objetivo general de este trabajo de Tesis es la provisión de un modelo de creación, distribución y ejecución de servicios para entorno móvil que permita a los usuarios no programadores (usuarios prosumer), pero expertos en un determinado dominio, crear y ejecutar sus propias aplicaciones y servicios. Para ello se definen, desarrollan e implementan metodologías, procesos, algoritmos y mecanismos adaptables a dominios específicos, para construir entornos de ejecución distribuida de servicios móviles para usuarios prosumer. La provisión de herramientas de creación adaptadas a usuarios no expertos es una tendencia actual que está siendo desarrollada en distintos trabajos de investigación. Sin embargo, no se ha propuesto una metodología de desarrollo de servicios que involucre al usuario prosumer en el proceso de diseño, desarrollo, implementación y validación de servicios. Este trabajo de Tesis realiza un estudio de las metodologías y tecnologías más innovadoras relacionadas con la co‐creación y utiliza este análisis para definir y validar una metodología que habilita al usuario para ser el responsable de la creación de servicios finales. Siendo los entornos móviles prosumer (mobile prosumer environments) una particularización de los entornos de ejecución distribuida de servicios móviles, en este trabajo se tesis se investiga en técnicas de adaptación, distribución, coordinación de servicios y acceso a recursos identificando como requisitos las problemáticas de este tipo de entornos y las características de los usuarios que participan en los mismos. Se contribuye a la adaptación de servicios definiendo un modelo de variabilidad que soporte la interdependencia entre las decisiones de personalización de los usuarios, incorporando mecanismos de guiado y detección de errores. La distribución de servicios se implementa utilizando técnicas de descomposición en árbol SPQR, cuantificando el impacto de separar cualquier servicio en distintos dominios. Considerando el plano de comunicaciones para la coordinación en la ejecución de servicios distribuidos hemos identificado varias problemáticas, como las pérdidas de enlace, conexiones, desconexiones y descubrimiento de participantes, que resolvemos utilizando técnicas de diseminación basadas en publicación subscripción y algoritmos Gossip. Para lograr una ejecución flexible de servicios distribuidos en entorno móvil, soportamos la adaptación a cambios en la disponibilidad de los recursos, proporcionando una infraestructura de comunicaciones para el acceso uniforme y eficiente a recursos. Se han realizado validaciones experimentales para evaluar la viabilidad de las soluciones propuestas, definiendo escenarios de aplicación relevantes (el nuevo universo inteligente, prosumerización de servicios en entornos hospitalarios y emergencias en la web de la cosas). Abstract This Thesis work is developed in the framework of distributed execution of mobile services and contributes to the definition and development of the concept of prosumer user. The prosumer user is characterized by using his mobile phone to create, provide and execute services. This new user model contributes to the advancement of the information society, as the prosumer is transformed from producer of content, to producer of services (consisting of content and logic to access them, process them and represent them). The overall goal of this Thesis work is to provide a model for creation, distribution and execution of services for the mobile environment that enables non‐programmers (prosumer users), but experts in a given domain, to create and execute their own applications and services. For this purpose I define, develop and implement methodologies, processes, algorithms and mechanisms, adapted to specific domains, to build distributed environments for the execution of mobile services for prosumer users. The provision of creation tools adapted to non‐expert users is a current trend that is being developed in different research works. However, it has not been proposed a service development methodology involving the prosumer user in the process of design, development, implementation and validation of services. This thesis work studies innovative methodologies and technologies related to the co‐creation and relies on this analysis to define and validate a methodological approach that enables the user to be responsible for creating final services. Being mobile prosumer environments a specific case of environments for distributed execution of mobile services, this Thesis work researches in service adaptation, distribution, coordination and resource access techniques, and identifies as requirements the challenges of such environments and characteristics of the participating users. I contribute to service adaptation by defining a variability model that supports the dependency of user personalization decisions, incorporating guiding and error detection mechanisms. Service distribution is implemented by using decomposition techniques based on SPQR trees, quantifying the impact of separating any service in different domains. Considering the communication level for the coordination of distributed service executions I have identified several problems, such as link losses, connections, disconnections and discovery of participants, which I solve using dissemination techniques based on publish‐subscribe communication models and Gossip algorithms. To achieve a flexible distributed service execution in mobile environments, I support adaptation to changes in the availability of resources, while providing a communication infrastructure for the uniform and efficient access to resources. Experimental validations have been conducted to assess the feasibility of the proposed solutions, defining relevant application scenarios (the new intelligent universe, service prosumerization in hospitals and emergency situations in the web of things).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta tesis doctoral se aborda el desarrollo de técnicas interferométricas para radares de alta resolución en milimétricas. Específicamente, se centra en el desarrollo de técnicas para radares terrestres y en concreto aquellas relacionadas con el seguimiento, clasificación y generación de imágenes de blancos móviles. Aparte del desarrollo teórico y simulación de las diferentes técnicas, uno de los grandes retos de esta tesis es la verificación experimental de las mismas. Para este propósito, se empleará un prototipo de sensor radar interferométrico de muy alta resolución y de ondas milimétricas. El primer capítulo de la tesis realiza una pequeña introducción a las técnicas interferométricas y presenta los objetivos, motivación y organización del presente trabajo. El segundo capítulo hace una pequeña introducción a los radares interferométricos de alta resolución en milimétricas y presenta el sensor radar experimental con el que se llevarán a cabo la validación de las distintas técnicas presentadas. El tercer capítulo recoge las distintas técnicas interferométricas desarrolladas para el seguimiento y cálculo de la altura de blancos móviles en radares de alta resolución. Entre ellas se encuentran: el seguimiento de blancos móviles en sucesión de imágenes ISAR, el cálculo de altura de blancos en imágenes radar bidimensionales distancia-tiempo y su equivalente en imágenes distancia-Doppler. El cuarto capítulo presenta una aplicación de las técnicas interferométricas para la vigilancia de tráfico en carreteras. Se describirán dos configuraciones radar que permiten calcular la velocidad de todos los blancos iluminados por el radar identificando de manera unívoca a los blancos en función del carril por el que circulen. El quinto capítulo presenta técnicas interferométricas aplicadas a la vigilancia en entornos marítimos basadas en la generación de imágenes interferométricas. Para demostrar la viabilidad del uso de estas imágenes se ha desarrollado un simulador de blancos móviles extensos realistas. Abstract This Ph. D thesis deals with the development of radar interferometry techniques for high-resolution millimeter wave sensors. It focuses on the development of techniques for ground-based radars and specifically those related to monitoring, classification and imaging of moving targets. Apart from the theoretical development and simulation, another major technical challenge of this thesis is the experimental verification of the different techniques. For that purpuse, a very high resolution interferometric millimeter wave radar sensor is used. The first chapter of the thesis makes a brief introduction to the interferometric techniques and shows the goals, motivation and organization of this work. The second chapter provides a brief introduction to high resolution interferometric radars in millimeter waves and presents the experimental radar sensor which will be used for the validation of the various techniques presented. The third chapter presents the different interferometric techniques developed for monitoring and obtaining the height of moving targets in high resolution radars. Among them are: tracking of moving targets in a succession of ISAR images, targets height calculation using bidimensional range-time radar images and the equivalente technique using range-Doppler images. The fourth chapter presents the application of interferometric techniques for road traffic monitoring. Two radar configurations are described. Both of them are able to obtain the speed for simultaneuslly illuminated targets, and univocally identify each target based on the detected road lane. The fifth chapter presents the application of interferometric techniques to maritime surveillance based on interferometric imaging. To demonstrate the feasibility of the presented techniques a realistic simulator of extended moving targets has been developed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El aumento de las capacidades de interconexión de dispositivos de todo tipo está suponiendo una revolución en el campo de la prestación de servicios, tanto en la cantidad como en la variedad. Esta evolución ha puesto de manifiesto la necesidad de abordar un desarrollo tecnológico sin precedentes, donde la previsión de dispositivos interconectados e interoperando entre sí y con las personas alcanza cifras del orden de los millardos. Esta idea de un mundo de cosas interconectadas ha dado lugar a una visión que se ha dado en llamar Internet de las Cosas. Un mundo donde las cosas de cualquier tipo pueden interactuar con otras cosas, incluyendo las que forman parte de redes con recurso limitados. Y esto además conduce a la creación de servicios compuestos que superan a la suma de las partes. Además de la relevancia tecnológica, esta nueva visión enlaza con la de la Ciudad del Futuro. Un concepto que recurre a la convergencia de la energía, el transporte y las tecnologías de la información y las comunicaciones para definir una forma mediante la que lograr el crecimiento sostenible y competitivo, mejorando así la calidad de vida y abriendo el gobierno de las ciudades a la participación ciudadana. En la línea de desarrollo que permite avanzar hacia la consecución de tales objetivos, este Proyecto Fin de Carrera propone una forma de virtualizar los servicios ofrecidos por la diversidad de dispositivos que van adquiriendo la capacidad de interoperar en una red. Para ello se apoya en el uso de una capa de intermediación orientada a servicios, nSOM, desarrollada en la EUITT. Sobre esta arquitectura se proponen como objetivos el diseño y desarrollo de una pasarela de servicios que haga accesibles desde la web los recursos ofrecidos en una red de sensores; el diseño y desarrollo de un registro de dispositivos y servicios en concordancia a la propuesta de arquitectura de referencia para Internet de las Cosas; y el estudio y diseño de un marco para la composición de servicios orquestados en redes de recursos limitados. Para alcanzar estos objetivos primero se abordará un estudio del estado del arte donde se profundizará en el conocimiento de la las tecnologías para la interoperatividad entre cosas, abordando los principios de las redes inalámbricas de sensores y actuadores, las arquitecturas para las comunicaciones Máquina a Máquina e Internet de las Cosas, y la visión de la Web de las Cosas. Seguidamente se tratarán las tecnologías de red y de servicios de interés, para finalizar con un breve repaso a las tecnologías para la composición de servicios. Le seguirá una descripción detallada de la arquitectura nSOM y del diseño propuesto para este proyecto. Finalmente se propondrá un escenario sobre el que se llevarán a cabo diferentes pruebas de validación. ABSTRACT. The increasing of the capabilities of all kind of devices is causing a revolution in the field of the provision of services, both in quantity and in diversity. This situation has highlighted the need to address unprecedented technological development, where the forecast of interconnected and interoperable devices between them and human beings reaches the order of billions. And these numbers go further when the connectivity of constrained networks is taken into account. This idea of an interconnected world of things has led to a vision that has been called "The Internet of Things". It’s a vision of a world where things of any kind can interact with other things, even those in the domain of a constrained network. This also leads to the creation of new composed services that exceed the sum of the parts. Besides the technological interest, this new vision relates with the one from the Smart City. A concept that uses the convergence of the energy, the transport, and the information and communication technologies to define a way to achieve sustainable and competitive growth, improving the quality of life, and opening the governance of the cities to the participation. In the development pathway to reach these goals, this Final Degree Dissertation proposes a way for the virtualization of the services offered by the variety of devices that are reaching the ability to interoperate in a network. For this it is supported by a service oriented middleware called nSOM that has been developed at EUITT. Using this architecture the goals proposed for this project are the design and development of a service gateway that makes available the resources of a sensor network through a web interface; the design and development of a Device & Service Registry according to the reference architecture proposal for the Internet of Things; and the study and design of a composition framework for orchestrated services in constrained networks. To achieve these goals this dissertation begins with a State of the Art study where the background knowledge about the technologies in use for the interoperation of things will be settled. At first it starts talking about Wireless Sensor and Actuator Networks, the architectures for Machine-to-Machine communication and Internet of Things, and also the concepts for the Web of Things vision. Next the related network and services technologies are explored, ending with a brief review of service composition technologies. Then will follow a detailed description of the nSOM architecture, and also of the proposed design for this project. Finally a scenario will be proposed where a series of validation tests will be conducted.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el presente Trabajo de Fin de Grado se abordan diferentes aspectos del diseño, implementación y vericación de un sistema de tiempo real de características especiales, el satélite UPMSat-2. Este proyecto, llevado a cabo por un grupo de trabajo formado por profesores, alumnos y personal de la Universidad Politecnica de Madrid (UPM), tiene como objetivo el desarrollo de un microsatélite como plataforma de demostración tecnológica en órbita. Parte de este grupo de trabajo es el Grupo de Sistemas de Tiempo Real y Arquitectura de Servicios Telemáticos (STRAST), del cual el alumno forma parte y que tiene a cargo el diseño e implementación tanto del software de abordo como del software de tierra. Dentro de estas asignaciones, el alumno ha trabajado en tres aspectos principales: el diseño e implementación de diferentes manejadores de dispositivos, el diseño de un algoritmo para la gestión de la memoria no volátil y la configuración y prueba de un sistema de validación de software para un subsistema del satélite. Tanto la memoria de estas tareas como las bases y fundamentos tecnológicos aplicados se desarrollan en el documento. ------------------------------------------------ ----------------------------------------------------------------------------------- Diferent aspects of the design, implementation and validation of an specific Real Time System, the UPMSat-2 satellite, are described in this final report. UPMSat-2 project is aimed at developing an experimental microsatellite that can be used as a technology demonstrator for several research groups at UPM. The Real-Time Systems Group at UPM (STRAST) is responsible for designing and building all the on-board and ground-segment software for the satellite. In relation to this, three main task have been carried out and are described in this document: the design and implementation of three diferent device drivers, the design of an algorithm to manage the nonvolatile memory and the configuration and test of a software validation facility to test the UPMSat-2 Attitude Determination and Control System (ADCS) subsystem. Detailed information of these tasks and their technological basis are presented in the rest of the document.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis está incluida dentro del campo del campo de Multiband Orthogonal Frequency Division Multiplexing Ultra Wideband (MB-OFDM UWB), el cual ha adquirido una gran importancia en las comunicaciones inalámbricas de alta tasa de datos en la última década. UWB surgió con el objetivo de satisfacer la creciente demanda de conexiones inalámbricas en interiores y de uso doméstico, con bajo coste y alta velocidad. La disponibilidad de un ancho de banda grande, el potencial para alta velocidad de transmisión, baja complejidad y bajo consumo de energía, unido al bajo coste de implementación, representa una oportunidad única para que UWB se convierta en una solución ampliamente utilizada en aplicaciones de Wireless Personal Area Network (WPAN). UWB está definido como cualquier transmisión que ocupa un ancho de banda de más de 20% de su frecuencia central, o más de 500 MHz. En 2002, la Comisión Federal de Comunicaciones (FCC) definió que el rango de frecuencias de transmisión de UWB legal es de 3.1 a 10.6 GHz, con una energía de transmisión de -41.3 dBm/Hz. Bajo las directrices de FCC, el uso de la tecnología UWB puede aportar una enorme capacidad en las comunicaciones de corto alcance. Considerando las ecuaciones de capacidad de Shannon, incrementar la capacidad del canal requiere un incremento lineal en el ancho de banda, mientras que un aumento similar de la capacidad de canal requiere un aumento exponencial en la energía de transmisión. En los últimos años, s diferentes desarrollos del UWB han sido extensamente estudiados en diferentes áreas, entre los cuales, el protocolo de comunicaciones inalámbricas MB-OFDM UWB está considerado como la mejor elección y ha sido adoptado como estándar ISO/IEC para los WPANs. Combinando la modulación OFDM y la transmisión de datos utilizando las técnicas de salto de frecuencia, el sistema MB-OFDM UWB es capaz de soportar tasas de datos con que pueden variar de los 55 a los 480 Mbps, alcanzando una distancia máxima de hasta 10 metros. Se esperara que la tecnología MB-OFDM tenga un consumo energético muy bajo copando un are muy reducida en silicio, proporcionando soluciones de bajo coste que satisfagan las demandas del mercado. Para cumplir con todas estas expectativas, el desarrollo y la investigación del MBOFDM UWB deben enfrentarse a varios retos, como son la sincronización de alta sensibilidad, las restricciones de baja complejidad, las estrictas limitaciones energéticas, la escalabilidad y la flexibilidad. Tales retos requieren un procesamiento digital de la señal de última generación, capaz de desarrollar sistemas que puedan aprovechar por completo las ventajas del espectro UWB y proporcionar futuras aplicaciones inalámbricas en interiores. Esta tesis se centra en la completa optimización de un sistema de transceptor de banda base MB-OFDM UWB digital, cuyo objetivo es investigar y diseñar un subsistema de comunicación inalámbrica para la aplicación de las Redes de Sensores Inalámbricas Visuales. La complejidad inherente de los procesadores FFT/IFFT y el sistema de sincronización así como la alta frecuencia de operación para todos los elementos de procesamiento, se convierten en el cuello de la botella para el diseño y la implementación del sistema de UWB digital en base de banda basado en MB-OFDM de baja energía. El objetivo del transceptor propuesto es conseguir baja energía y baja complejidad bajo la premisa de un alto rendimiento. Las optimizaciones están realizadas tanto a nivel algorítmico como a nivel arquitectural para todos los elementos del sistema. Una arquitectura hardware eficiente en consumo se propone en primer lugar para aquellos módulos correspondientes a núcleos de computación. Para el procesado de la Transformada Rápida de Fourier (FFT/IFFT), se propone un algoritmo mixed-radix, basado en una arquitectura con pipeline y se ha desarrollado un módulo de Decodificador de Viterbi (VD) equilibrado en coste-velocidad con el objetivo de reducir el consumo energético e incrementar la velocidad de procesamiento. También se ha implementado un correlador signo-bit simple basado en la sincronización del tiempo de símbolo es presentado. Este correlador es usado para detectar y sincronizar los paquetes de OFDM de forma robusta y precisa. Para el desarrollo de los subsitemas de procesamiento y realizar la integración del sistema completo se han empleado tecnologías de última generación. El dispositivo utilizado para el sistema propuesto es una FPGA Virtex 5 XC5VLX110T del fabricante Xilinx. La validación el propuesta para el sistema transceptor se ha implementado en dicha placa de FPGA. En este trabajo se presenta un algoritmo, y una arquitectura, diseñado con filosofía de co-diseño hardware/software para el desarrollo de sistemas de FPGA complejos. El objetivo principal de la estrategia propuesta es de encontrar una metodología eficiente para el diseño de un sistema de FPGA configurable optimizado con el empleo del mínimo esfuerzo posible en el sistema de procedimiento de verificación, por tanto acelerar el periodo de desarrollo del sistema. La metodología de co-diseño presentada tiene la ventaja de ser fácil de usar, contiene todos los pasos desde la propuesta del algoritmo hasta la verificación del hardware, y puede ser ampliamente extendida para casi todos los tipos de desarrollos de FPGAs. En este trabajo se ha desarrollado sólo el sistema de transceptor digital de banda base por lo que la comprobación de señales transmitidas a través del canal inalámbrico en los entornos reales de comunicación sigue requiriendo componentes RF y un front-end analógico. No obstante, utilizando la metodología de co-simulación hardware/software citada anteriormente, es posible comunicar el sistema de transmisor y el receptor digital utilizando los modelos de canales propuestos por IEEE 802.15.3a, implementados en MATLAB. Por tanto, simplemente ajustando las características de cada modelo de canal, por ejemplo, un incremento del retraso y de la frecuencia central, podemos estimar el comportamiento del sistema propuesto en diferentes escenarios y entornos. Las mayores contribuciones de esta tesis son: • Se ha propuesto un nuevo algoritmo 128-puntos base mixto FFT usando la arquitectura pipeline multi-ruta. Los complejos multiplicadores para cada etapa de procesamiento son diseñados usando la arquitectura modificada shiftadd. Los sistemas word length y twiddle word length son comparados y seleccionados basándose en la señal para cuantización del SQNR y el análisis de energías. • El desempeño del procesador IFFT es analizado bajo diferentes situaciones aritméticas de bloques de punto flotante (BFP) para el control de desbordamiento, por tanto, para encontrar la arquitectura perfecta del algoritmo IFFT basado en el procesador FFT propuesto. • Para el sistema de receptor MB-OFDM UWB se ha empleado una sincronización del tiempo innovadora, de baja complejidad y esquema de compensación, que consiste en funciones de Detector de Paquetes (PD) y Estimación del Offset del tiempo. Simplificando el cross-correlation y maximizar las funciones probables solo a sign-bit, la complejidad computacional se ve reducida significativamente. • Se ha propuesto un sistema de decodificadores Viterbi de 64 estados de decisión-débil usando velocidad base-4 de arquitectura suma-comparaselecciona. El algoritmo Two-pointer Even también es introducido en la unidad de rastreador de origen con el objetivo de conseguir la eficiencia en el hardware. • Se han integrado varias tecnologías de última generación en el completo sistema transceptor basebanda , con el objetivo de implementar un sistema de comunicación UWB altamente optimizado. • Un diseño de flujo mejorado es propuesto para el complejo sistema de implementación, el cual puede ser usado para diseños de Cadena de puertas de campo programable general (FPGA). El diseño mencionado no sólo reduce dramáticamente el tiempo para la verificación funcional, sino también provee un análisis automático como los errores del retraso del output para el sistema de hardware implementado. • Un ambiente de comunicación virtual es establecido para la validación del propuesto sistema de transceptores MB-OFDM. Este método es provisto para facilitar el uso y la conveniencia de analizar el sistema digital de basebanda sin parte frontera analógica bajo diferentes ambientes de comunicación. Esta tesis doctoral está organizada en seis capítulos. En el primer capítulo se encuentra una breve introducción al campo del UWB, tanto relacionado con el proyecto como la motivación del desarrollo del sistema de MB-OFDM. En el capítulo 2, se presenta la información general y los requisitos del protocolo de comunicación inalámbrica MBOFDM UWB. En el capítulo 3 se habla de la arquitectura del sistema de transceptor digital MB-OFDM de banda base . El diseño del algoritmo propuesto y la arquitectura para cada elemento del procesamiento está detallado en este capítulo. Los retos de diseño del sistema que involucra un compromiso de discusión entre la complejidad de diseño, el consumo de energía, el coste de hardware, el desempeño del sistema, y otros aspectos. En el capítulo 4, se ha descrito la co-diseñada metodología de hardware/software. Cada parte del flujo del diseño será detallado con algunos ejemplos que se ha hecho durante el desarrollo del sistema. Aprovechando esta estrategia de diseño, el procedimiento de comunicación virtual es llevado a cabo para probar y analizar la arquitectura del transceptor propuesto. Los resultados experimentales de la co-simulación y el informe sintético de la implementación del sistema FPGA son reflejados en el capítulo 5. Finalmente, en el capítulo 6 se incluye las conclusiones y los futuros proyectos, y también los resultados derivados de este proyecto de doctorado. ABSTRACT In recent years, the Wireless Visual Sensor Network (WVSN) has drawn great interest in wireless communication research area. They enable a wealth of new applications such as building security control, image sensing, and target localization. However, nowadays wireless communication protocols (ZigBee, Wi-Fi, and Bluetooth for example) cannot fully satisfy the demands of high data rate, low power consumption, short range, and high robustness requirements. New communication protocol is highly desired for such kind of applications. The Ultra Wideband (UWB) wireless communication protocol, which has increased in importance for high data rate wireless communication field, are emerging as an important topic for WVSN research. UWB has emerged as a technology that offers great promise to satisfy the growing demand for low-cost, high-speed digital wireless indoor and home networks. The large bandwidth available, the potential for high data rate transmission, and the potential for low complexity and low power consumption, along with low implementation cost, all present a unique opportunity for UWB to become a widely adopted radio solution for future Wireless Personal Area Network (WPAN) applications. UWB is defined as any transmission that occupies a bandwidth of more than 20% of its center frequency, or more than 500 MHz. In 2002, the Federal Communications Commission (FCC) has mandated that UWB radio transmission can legally operate in the range from 3.1 to 10.6 GHz at a transmitter power of -41.3 dBm/Hz. Under the FCC guidelines, the use of UWB technology can provide enormous capacity over short communication ranges. Considering Shannon’s capacity equations, increasing the channel capacity requires linear increasing in bandwidth, whereas similar channel capacity increases would require exponential increases in transmission power. In recent years, several different UWB developments has been widely studied in different area, among which, the MB-OFDM UWB wireless communication protocol is considered to be the leading choice and has recently been adopted in the ISO/IEC standard for WPANs. By combing the OFDM modulation and data transmission using frequency hopping techniques, the MB-OFDM UWB system is able to support various data rates, ranging from 55 to 480 Mbps, over distances up to 10 meters. The MB-OFDM technology is expected to consume very little power and silicon area, as well as provide low-cost solutions that can satisfy consumer market demands. To fulfill these expectations, MB-OFDM UWB research and development have to cope with several challenges, which consist of high-sensitivity synchronization, low- complexity constraints, strict power limitations, scalability, and flexibility. Such challenges require state-of-the-art digital signal processing expertise to develop systems that could fully take advantages of the UWB spectrum and support future indoor wireless applications. This thesis focuses on fully optimization for the MB-OFDM UWB digital baseband transceiver system, aiming at researching and designing a wireless communication subsystem for the Wireless Visual Sensor Networks (WVSNs) application. The inherent high complexity of the FFT/IFFT processor and synchronization system, and high operation frequency for all processing elements, becomes the bottleneck for low power MB-OFDM based UWB digital baseband system hardware design and implementation. The proposed transceiver system targets low power and low complexity under the premise of high performance. Optimizations are made at both algorithm and architecture level for each element of the transceiver system. The low-power hardwareefficient structures are firstly proposed for those core computation modules, i.e., the mixed-radix algorithm based pipelined architecture is proposed for the Fast Fourier Transform (FFT/IFFT) processor, and the cost-speed balanced Viterbi Decoder (VD) module is developed, in the aim of lowering the power consumption and increasing the processing speed. In addition, a low complexity sign-bit correlation based symbol timing synchronization scheme is presented so as to detect and synchronize the OFDM packets robustly and accurately. Moreover, several state-of-the-art technologies are used for developing other processing subsystems and an entire MB-OFDM digital baseband transceiver system is integrated. The target device for the proposed transceiver system is Xilinx Virtex 5 XC5VLX110T FPGA board. In order to validate the proposed transceiver system in the FPGA board, a unified algorithm-architecture-circuit hardware/software co-design environment for complex FPGA system development is presented in this work. The main objective of the proposed strategy is to find an efficient methodology for designing a configurable optimized FPGA system by using as few efforts as possible in system verification procedure, so as to speed up the system development period. The presented co-design methodology has the advantages of easy to use, covering all steps from algorithm proposal to hardware verification, and widely spread for almost all kinds of FPGA developments. Because only the digital baseband transceiver system is developed in this thesis, the validation of transmitting signals through wireless channel in real communication environments still requires the analog front-end and RF components. However, by using the aforementioned hardware/software co-simulation methodology, the transmitter and receiver digital baseband systems get the opportunity to communicate with each other through the channel models, which are proposed from the IEEE 802.15.3a research group, established in MATLAB. Thus, by simply adjust the characteristics of each channel model, e.g. mean excess delay and center frequency, we can estimate the transmission performance of the proposed transceiver system through different communication situations. The main contributions of this thesis are: • A novel mixed radix 128-point FFT algorithm by using multipath pipelined architecture is proposed. The complex multipliers for each processing stage are designed by using modified shift-add architectures. The system wordlength and twiddle word-length are compared and selected based on Signal to Quantization Noise Ratio (SQNR) and power analysis. • IFFT processor performance is analyzed under different Block Floating Point (BFP) arithmetic situations for overflow control, so as to find out the perfect architecture of IFFT algorithm based on the proposed FFT processor. • An innovative low complex timing synchronization and compensation scheme, which consists of Packet Detector (PD) and Timing Offset Estimation (TOE) functions, for MB-OFDM UWB receiver system is employed. By simplifying the cross-correlation and maximum likelihood functions to signbit only, the computational complexity is significantly reduced. • A 64 state soft-decision Viterbi Decoder system by using high speed radix-4 Add-Compare-Select architecture is proposed. Two-pointer Even algorithm is also introduced into the Trace Back unit in the aim of hardware-efficiency. • Several state-of-the-art technologies are integrated into the complete baseband transceiver system, in the aim of implementing a highly-optimized UWB communication system. • An improved design flow is proposed for complex system implementation which can be used for general Field-Programmable Gate Array (FPGA) designs. The design method not only dramatically reduces the time for functional verification, but also provides automatic analysis such as errors and output delays for the implemented hardware systems. • A virtual communication environment is established for validating the proposed MB-OFDM transceiver system. This methodology is proved to be easy for usage and convenient for analyzing the digital baseband system without analog frontend under different communication environments. This PhD thesis is organized in six chapters. In the chapter 1 a brief introduction to the UWB field, as well as the related work, is done, along with the motivation of MBOFDM system development. In the chapter 2, the general information and requirement of MB-OFDM UWB wireless communication protocol is presented. In the chapter 3, the architecture of the MB-OFDM digital baseband transceiver system is presented. The design of the proposed algorithm and architecture for each processing element is detailed in this chapter. Design challenges of such system involve trade-off discussions among design complexity, power consumption, hardware cost, system performance, and some other aspects. All these factors are analyzed and discussed. In the chapter 4, the hardware/software co-design methodology is proposed. Each step of this design flow will be detailed by taking some examples that we met during system development. Then, taking advantages of this design strategy, the Virtual Communication procedure is carried out so as to test and analyze the proposed transceiver architecture. Experimental results from the co-simulation and synthesis report of the implemented FPGA system are given in the chapter 5. The chapter 6 includes conclusions and future work, as well as the results derived from this PhD work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sobre la puesta en valor de la arquitectura vernácula y popular y, especialmente, aquella que ha sufrido el paso del tiempo y por tanto la validación de la historia y el tiempo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo fundamental de la presente tesis doctoral es el diseño de una arquitectura cognitiva, que pueda ser empleada para la navegación autónoma de vehículos aéreos no tripulados conocidos como UAV (Unmanned Aerial Vehicle). Dicha arquitectura cognitiva se apoya en la definición de una librería de comportamientos, que aportarán la inteligencia necesaria al UAV para alcanzar los objetivos establecidos, en base a la información sensorial recopilada del entorno de operación. La navegación autónoma del UAV se apoyará en la utilización de un mapa topológico visual, consistente en la definición de un grafo que engloba mediante nodos los diferentes landmarks ubicados en el entorno, y que le servirán al UAV de guía para alcanzar su objetivo. Los arcos establecidos entre los nodos del mapa topológico, le proporcionarán de la información necesaria para establecer el rumbo más adecuado para alcanzar el siguiente landmark a visitar, siguiendo siempre una secuencia lógica de navegación, basada en la distancia entre un determinado landmark con respecto al objetivo final ó landmark destino. La arquitectura define un mecanismo híbrido de control, el cual puede conmutar entre dos diferentes modos de navegación. El primero es el denominado como Search Mode, el cual se activará cuando el UAV se encuentre en un estado desconocido dentro del entorno, para lo cual hará uso de cálculos basado en la entropía para la búsqueda de posibles landmarks. Se empleará como estrategia novedosa la idea de que la entropía de una imagen tiene una correlación directa con respecto a la probabilidad de que dicha imagen contenga uno ó varios landmarks. De esta forma, la estrategia para la búsqueda de nuevos landmarks en el entorno, se basará en un proceso continuo de maximización de la entropía. Si por el contrario el UAV identifica la existencia de un posible landmark entre los definidos en su mapa topológico, se considerará que está sobre un estado conocido, por lo que se conmutará al segundo modo de navegación denominado como Homing Mode, el cual se encargará de calcular señales de control para la aproximación del UAV al landmark localizado. Éste último modo implementa un control dual basado en dos tipos de controladores (FeedForward/FeedBack) que mediante su combinación, aportarán al UAV señales de control cada vez más óptimas, además de llevar a cabo un entrenamiento continuo y en tiempo real. Para cumplir con los requisitos de ejecución y aprendizaje en tiempo real de la arquitectura, se han tomado como principales referencias dos paradigmas empleados en diferentes estudios dentro del área de la robótica, como son el paradigma de robots de desarrollo (developmental robots) basado en un aprendizaje del robot en tiempo real y de forma adaptativa con su entorno, así como del paradigma de modelos internos (internal models) basado en los resultados obtenidos a partir de estudios neurocientíficos del cerebelo humano; dicho modelo interno sirve de base para la construcción del control dual de la arquitectura. Se presentarán los detalles de diseño e implementación de los diferentes módulos que componen la arquitectura cognitiva híbrida, y posteriormente, los diferentes resultados obtenidos a partir de las pruebas experimentales ejecutadas, empleando como UAV la plataforma robótica aérea de AR.Drone. Como resultado final se ha obtenido una validación completa de la arquitectura cognitiva híbrida objetivo de la tesis, cumplimento con la totalidad de requisitos especificados y garantizando su viabilidad como aplicación operativa en el mundo real. Finalmente, se muestran las distintas conclusiones a las cuales se ha llegado a partir de los resultados experimentales, y se presentan las diferentes líneas de investigación futuras que podrán ser ejecutadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los últimos años, el desarrollo industrial a nivel globalizado en los diferentes sectores, la difusión de la TI y el uso estratégico de la misma, han crecido de manera exponencial. El uso adecuado de esta, se ha convertido en una gran preocupación para los órganos de gobierno de las organizaciones ya que la falta de dirección y control en las inversiones que se realizan en ellas, así como un uso inadecuado de las mismas pueden comprometer la consecución de los objetivos de la organización, su competitividad y su sostenibilidad a medio-largo plazo. La preocupación de los propietarios de los negocios es mejorar su rendimiento con la ayuda de la TI frente a sus competidores, realizando los procesos de negocio de una manera eficaz y eficiente, por lo que muchas organizaciones han realizado inversiones importantes en la adquisición de tecnología para lograr sus propósitos. Sin embargo la ejecución de estas inversiones no se ha gestionado adecuadamente, conforme a las políticas y planes especificados en los planes de negocio de la organización y la entrega de los servicios de TI no ha sido conforme a los objetivos previstos, generando pérdidas importantes y lo que es peor un gran deterioro de la imagen de la organización, por lo que consideramos a la gestión de la demanda estratégica de la TI como uno de los factores claves para el éxito de los negocios, el cual no ha sido tomada en cuenta por los consejos de gobierno o los altos ejecutivos de las organizaciones. La investigación comienza con una amplia revisión de la literatura, identificando dos elementos muy importantes, la demanda y el suministro de la TI dentro de la gobernanza corporativa de la TI; notándose la escasa información relacionado con la gestión de la demanda estratégica de la TI. Se realizó un estudio exploratorio para conocer como los miembros del consejo de administración y altos ejecutivos de una organización gestionan la demanda estratégica de la TI, obteniendo una respuesta de 130 encuestados, donde se confirma que hace falta normas o metodologías para la gestión de la demanda estratégica de la TI. En base a estos resultados se ha construido un marco de trabajo para todo el proceso de la gestión de la demanda de la TI y como una solución que se plantea en esta tesis doctoral, consiste en la elaboración de una metodología, combinando e integrando marcos de trabajo y estándares relacionados con la gobernanza corporativa de la TI. La metodología propuesta está conformada por tres fases, cada fase con sus actividades principales, y cada actividad principal por un conjunto de sub-actividades. Además, se establecen los roles y responsabilidades de los altos ejecutivos para cada una de las actividades principales. Esta propuesta debe ser de fácil implantación y aplicable en las organizaciones, permitiendo a estas afrontar con éxito el desarrollo de sus negocios, con una mejor calidad, reduciendo los costes de operación y empleando el menor tiempo posible. La validación de la metodología propuesta se realizó a través de una encuesta online y un estudio de casos. En la encuesta de validación participaron 42 altos ejecutivos de diferentes empresas y el estudio de casos se realizó con 5 empresas internacionales. Las respuestas de los estudios fueron analizados, para determinar la aceptación o el rechazo de la metodología propuesta por los participantes, confirmando la validez y confiabilidad del estudio. Este es uno de los primeros estudios reportado con evidencias empíricas para el proceso de la gestión de la demanda estratégica de la TI. Los resultados de esta investigación han sido publicados en revistas y congresos internacionales. ABSTRACT In recent years, the globalized industrial development, diffusion and strategic use of IT in different sectors has grown exponentially. Proper use of IT has become a major concern for government bodies and organizations. Uncontrolled or mismanaged IT investments or improper IT use may compromise the achievement of an organization’s objectives, competitiveness and sustainability in the medium to long term. Business owners set out to use IT to outperform their competitors, enacting business processes effectively and efficiently. Many organizations have made significant investments in technology in order to achieve their aims. However, the deployment of these investments has not been managed properly in accordance with the policies and plans specified in the organizations’ business plans, and IT services have not been delivered in accordance with the specified objectives. This has generated significant losses and, worse still, has seriously damaged the image of organizations. Accordingly, we believe that IT strategic demand management is one of the key factors for business success which has not been overlooked by the boards of trustees or senior executives of organizations. The research begins with an extensive review of the literature. This review has identified two very important elements: IT demand and supply within the corporate governance of IT. We have found that information related to IT strategic demand management is scant. We conducted an exploratory study to learn how members of the board of directors and senior executives of an organization manage IT strategic demand. The survey, which was taken by 130 respondents, confirmed that standards or methodologies are needed to manage IT strategic demand. Based on the results, we have built a framework for the entire IT demand management process. The solution proposed in this thesis is to develop a methodology, combining and integrating frameworks and standards related to the corporate governance of IT. The proposed methodology is divided into three phases. Each phase is composed of a series of key activities, and each key activity is further split into minor activities. We also establish the roles and responsibilities of senior executives for each of the key activities. This proposal should be easy to implement and apply in organizations, enabling corporations to successfully conduct better quality business, reduce operating costs and save time. The proposed methodology was validated by means of an online survey and a case study. The validation survey was completed by 42 senior executives from different companies, and the case study was conducted at five international companies. The study results were analysed to determine the acceptance or rejection of the proposed methodology by the participants, confirming the validity and reliability of the study. This is one the first studies to report empirical evidence for the process of IT strategic demand management. The results of this research have been published in international journals and conferences.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta metodología se ha desarrollado en el marco de un proyecto que es el objeto del Convenio Específico de Colaboración entre el Instituto Geográfico Nacional y la Escuela de Topografía de la Universidad Politécnica de Madrid relativo a la investigación, desarrollo, formación y difusión de conocimientos en el campo de las tecnologías de la información geográfica (TIG) para la investigación y desarrollo de la tecnología y metodología adecuada para la optimización de la información de la Base de Datos de Líneas Límite de la Dirección General del Instituto Geográfico Nacional. El fin fundamental del mismo es desarrollar una metodología para mejorar la precisión de la Base de Datos de Líneas Límite que tiene el Instituto Geográfico Nacional. La exigencia actual de calidad y seguridad en la descripción geométrica de las líneas límite obliga a optimizar dicha descripción mediante la aplicación de nuevas tecnologías no existentes en el momento del levantamiento, y al diseño de metodologías adecuadas que, minimizando los tiempos y costes de ejecución, consideren asimismo los distintos agentes que participan en España en la definición de las líneas límite. Para desarrollar dicha metodología será necesario en primer lugar digitalizar la información de los cuadernos de campo y las actas de deslinde existentes en el Instituto Geográfico Nacional, para que sea un trabajo abordable desde las tecnologías actuales; posteriormente, volcar la información referente a las líneas límite sobre ortofotografías a escala 1:5.000, a partir de los datos de los cuadernos de campo digitalizados. Se propondrá un nuevo sistema de gestión, tratamiento y almacenamiento de las líneas límite, con información sobre su linaje (origen de datos, precisión), así como el formato de salida de las propias líneas límite. Para controlar la calidad de la metodología propuesta, se deberá validar la misma mediante un estudio teórico de lamedida de rendimientos y precisiones y su verificación mediante toma de datos en campo. Particularmente, se llevará a cabo dicha validación en un conjunto de 140 líneas límite de 36 municipios de la provincia de Ávila y Segovia (los comprendidos en las hojas 556 y 457 del Mapa Topográfico Nacional 1:50.000). Una vez contrastada la metodología y efectuados los oportunos procesos de refinamiento, se redactarán las conclusiones de todo el proyecto, que englobarán las recomendaciones de trabajo y las precisiones resultantes, los rendimientos de los diferentes procesos y los costes que se generen mediante el empleo de la nueva metodología. ABSTARCT: This paper introduces the development of a methodology for the optimisation of the municipal boundaries database of the Instituto Geográfico Nacional. This project has arisen as part of a collaboration agreement between the Instituto Geográfico Nacional and the Escuela de Topografía of the Universidad Politécnica de Madrid which seeks to promote research, development and training in Geographic Information Technologies. Current quality requirements demand the use of new technologies to improve the accuracy of the geometrical description of municipal boundaries. These technologies didn’t exist when the municipal boundaries were first drawn up. Besides, it is convenient to design an appropriate methodology that minimises both costs and time employed. The two main steps in the process are: first, the conversion of all the available data (fixing boundary minutes and field survey notebooks) into digital format in order to make possible their integration in a CAD system; and second, the display and visual overlay of these digital data over an 1:5000 orthophotography of the study area, to identify the boundary monuments. A new system will be proposed to manage, process and storage municipal boundaries information, including its lineage; an output format for these data will be designed as well. In addition, a quality control will be designed to audit this scheme using Data Analysis and Statistical Inference techniques. Moreover, GPS technology will be used to get some boundary monuments co-ordinates to check the results of the proposed methodology. The complete scheme will be tested in a study area corresponding to Ávila and Segovia provinces comprising 140 boundary segments from 36 municipalities.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tanto el tema de esta investigación, como sus objetivos, fundamentos, materiales seleccionados y parte experimental para alcanzarlos, han sido promovidos por la situación y el estado de las construcciones de hormigón armado que se comenzaron a realizar en España a partir del año 1975, con hormigones y morteros de cemento que contenían cenizas volantes hasta un 20 %, en principio, y hasta un 35 %, más tarde, de su dosificación de cemento Portland (CP), los cuales y en contra de lo esperado, han demandado y continúan demandando, muy a pesar de sus aparentes bondades de todo tipo que se les atribuían, una necesidad de mejora de sus prestaciones, especialmente, debido a un nivel inesperadamente bajo de la durabilidad de algunas obras construidas con los mismos. Todo era debido, en definitiva, a que las adiciones puzolánicas, naturales y artificiales, tales como las cenizas volantes, referidas antes, se vienen utilizando reglamentariamente para la fabricación de cementos y/o de sus productos derivados, hormigones, morteros y pastas, en la mayor parte de los países industrializados, desde hace ya más de tres décadas aproximadamente, en las mismas condiciones e idénticos usos constructivos que los hormigones y morteros de CP puro, viniendo además, dictada dicha utilización de estos materiales residuales, hoy sub-productos industriales, por cuestiones medioambientales y/o económicas, principalmente, motivo por el cual esta Tesis Doctoral ha pretendido responder también, adecuadamente y de manera esquemática (en forma de diagrama de flujo), a los criterios que deben de tenerse en cuenta a la hora de su selección y caracterización normalizada y reglamentada de estas adiciones minerales activas, sobre todo, antes de su dosificación y uso en forma del denominado cemento Portland con puzolana, o con ceniza volante, o con esquistos calcinados o con puzolanas calcinadas o con humo de sílice, cemento Portland mixto, cemento puzolánico o cemento compuesto, para que dichos problemas no se le produzcan al hormigón armado ni en masa. De aquí el enfoque tan particular y especial de esta investigación, al haberla circunscrito únicamente a las puzolanas naturales y artificiales, por considerarlas todas ellas, independientemente de por su origen, como materiales constituidos por pequeñas fracciones cristalinas distribuidas aleatoriamente en una matriz mayoritariamente vítrea y/o amorfa, la cual es la que le confiere su reactividad con el hidróxido de calcio en forma de cal apagada o de portlandita procedente de la hidratación del CP. A su vez, dichas fracciones vítreas y/o amorfas están constituidas, en su mayor parte, por sílice reactiva, SiO2r-, alúmina reactiva, Al2O3r-, y óxido de hierro reactivo, Fe2O3r-, recibiendo además, en conjunto, el nombre específico de "factores hidráulicos" de la puzolana, los cuales, por lo común, difieren cuantitativamente de sus contenidos totales, determinados por fusión alcalina mediante procedimientos normalizados. De los tres óxidos reactivos mencionados y desde el punto de vista técnico, los más importantes por su mayor presencia en casi todas las puzolanas naturales y artificiales y, también, transcendencia en la durabilidad química que les pueden llegar a conferir al hormigón armado y en masa, mortero o pasta de cemento que las contenga, son la SiO2r- y la Al2O3r-. El primero de los dos, la SiO2r-, reacciona nada más que con la portlandita (y el Ca(OH)2) para formar geles C-S-H, más tarde transformados en tobermoritas o en jennitas, semejantes a los que originan la alita y la belita del CP en su hidratación. Y desde el punto de vista normativo, la presencia de esta fracción silícica reactiva en las puzolanas viene regulada por la norma EN 197-1, de modo general, siendo además referida por la norma EN 450-1:2006, en el contexto de las cenizas volantes en su adición al hormigón, como "un polvo fino de partículas principalmente de forma esférica y cristalina, procedentes de la combustión de carbón pulverizado, que tiene propiedades puzolánicas y que está compuesto fundamentalmente de SiO2 y Al2O3". Además y de acuerdo con la primera de las dos normas, "El contenido de dióxido de silicio reactivo (definido y determinado según la norma EN 196-2 o su equivalente la UNE 80225) no debe ser inferior al 25 % en masa". Por su parte, cuantiosos estudios experimentales realizados por Talero solo y con otros investigadores, han demostrado que si la puzolana no es adecuada en calidad ni en cantidad, la durabilidad del cemento del que forme parte, y, por consiguiente, de los productos derivados que con él se fabriquen, hormigones, morteros, pastas y prefabricados, puede llegar a ser anormalmente baja, porque la alúmina reactiva, Al2O3r-, o alúmina tetra- o penta-coordinada que la constituye, se implica como tal, de una forma muy directa y con resultados totalmente contrapuestos incluso, en los ataques químicos agresivos naturales que se les producen, provenientes de terrenos y aguas selenitosas (sulfatos, que atacan en su caso al propio material hormigón, mortero y pasta que la contiene para formar ettringita de rápida formación, ett-rf, la cual puede llegar incluso a provocar un ataque rápido del yeso), del rocío marino y de las sales de deshielo (cloruros, que atacan, en cambio, a las armaduras de acero del hormigón provocándoles su corrosión electroquímica por "picadura", si bien, en este otro ataque químico, dicha Al2O3r- lo que origina es sal de Friedel de rápida formación, sF-rf, también, cuyo efecto es, en cambio, colmatador y protector, en definitiva, de dicha corrosión electroquímica), del agua de mar (acción agresiva mutua de cloruros y sulfatos), de la carbonatación, de la reactividad árido-álcali, además de intervenir en la liberación del calor de hidratación, así como también, en el comportamiento reológico de sus pastas, etc., acortándoles de este modo su durabilidad prevista y, en ocasiones, muy seriamente incluso. Pero lo más paradójico de todo es, que a pesar de su referido comportamiento totalmente contrapuesto, frente a sulfatos y cloruros, - aún no se dispone de un método de análisis químico para su determinación cuantitativa, que sea además relativamente sencillo en su operatividad, veraz, preciso, de respuesta rápida, desde el punto de vista técnico de la construcción (no más de 28 días), repetible, reproducible, que no implique peligro alguno para la seguridad vital de las personas que lo tengan que manipular y poner en práctica, económico, y que sirva también tanto para investigación -vertiente científica-, como, sobre todo, para control de calidad -vertiente técnica-, - y ni mucho menos tampoco se dispone todavía, de especificación química alguna que precise el contenido máximo de Al2O3r- (%) que tiene que poseer una puzolana natural o artificial, para poder ser añadida al cemento Portland y/o al hormigón que va a estar sometido a un determinado ataque químico agresivo de los mencionados antes, y, en especial, a sulfatos, a cloruros o al agua de mar. Y para mayor justificación de ambas necesidades, se ha de decir también que la vigente Instrucción de Hormigón Estructural EHE-08 no contempla tampoco especificación química alguna sobre los "factores hidráulicos", en general, ni del contenido de Al2O3r-(%) de las cenizas volantes, muy en particular, en su Artículo 30º "Adiciones", ni en ningún otro Artículo, a pesar de que sí contempla, en cambio, - otras especificaciones químicas que carecen del necesario significado en cuanto a la necesidad de llevar explícita o implícitamente, el mensaje de la Durabilidad Química deseado, y - el Artículo 37º, el cual y para mayor abundamiento se titula paradójicamente "Durabilidad del hormigón y de las armaduras". Asimismo, tampoco se contempla en la última versión que acaba de publicarse de la norma EN 197-1 titulada: "Cementos. Parte 1: Composición, especificaciones y criterios de conformidad de los cementos comunes". Ni tampoco, en la norma EN 450-1:2006 titulada "Cenizas volantes para hormigón. Parte 1: Definiciones, especificaciones y criterios de conformidad", ni en la vigente Instrucción española para la Recepción de Cementos, RC-08, ni en la norma ASTM C618-03 tampoco. La única especificación química que ambas normas, la europea y la norteamericana, refieren es aquella que dice que la suma de los contenidos porcentuales de SiO2 total, Al2O3 total y Fe2O3 total, de la puzolana natural o artificial, ha de ser mayor o igual que 70 %, definiendo, además, a las puzolanas de este modo tan genérico: "materiales silíceos o silíceos y aluminosos, que por sí mismos no poseen valor cementante alguno, pero que finamente divididos y en presencia de humedad, reaccionarán químicamente con hidróxido de calcio a temperaturas ordinarias para formar compuestos que poseen propiedades cementantes". Por consiguiente y de acuerdo con todo lo anterior, el objetivo primordial de esta Tesis Doctoral ha sido: Diseñar y poner a punto un nuevo método analítico de utilidad técnica (que la duración máxima del ensayo no sea mayor de 28 días), para determinar el contenido de alúmina reactiva, vítrea o amorfa, Al2O3r-, de las puzolanas naturales y artificiales. Y una vez puesto a punto, validarlo a nivel de su repetibilidad, de acuerdo con parámetros estadísticos apropiados, poniendo especial énfasis en los criterios de aceptación establecidos por la American Association of Official Analytical Chemists (AOAC). Y para conseguirlo, la innovación de esta investigación se ha basado en los siguientes fundamentos generales, a saber: - Toda la alúmina de cualquier puzolana natural o artificial, capaz de ser atacada, disuelta y lixiviada en 28 días, por la portlandita o por el hidróxido de calcio, Ca(OH)2, en medio acuoso, es considerada como alúmina reactiva, Al2O3r-. - Dicha fracción alumínica reactiva de la puzolana natural o artificial se tiene que encontrar, además, en el estado físico-químico de poder reaccionar químicamente también, en presencia de hidróxido de calcio, cloruro de sodio y agua, para originar monocloro¿aluminato de calcio hidratado, C3A·CaCl2·10H2O, o sal de Friedel. Además, dicho estado físico-químico de la puzolana ha de ser acorde con la definición de alúmina reactiva adoptada en esta investigación en razón de las prestaciones reales de durabilidad química que le puede llegar a conferir a los cementos de mezcla y a sus productos derivados, hormigones, morteros y pastas, que se fabriquen con la misma. - La originalidad de este nuevo método analítico, respecto a los demás métodos ya existentes, reside en que la cuantificación de dicha fracción alumínica reactiva de la puzolana natural o artificial, se realiza mediante cálculo estequiométrico, basándose, para ello, en dicha reacción química de formación de sal de Friedel precisamente, tras 28 días de hidratación básica-salina acelerada de la puzolana natural o artificial, habiéndose realizado, además, en esta investigación dicha determinación cuantitativa de la cantidad de sal de Friedel originada por cada puzolana, mediante dos técnicas analíticas instrumentales que fueron las siguientes: el análisis termogravimétrico (variante I ó I-I en su caso) y el método de Rietveld con la difracción de Rayos X en polvo (variante II). - La reacción química de formación de sal de Friedel tras 28 días de hidratación básica-salina acelerada de las puzolanas que se analicen, se optimizó para asegurar que el único compuesto químico de aluminio y cloro formado fuese sal de Friedel nada más (dosificando para ello en cantidad adecuada los reactivos químicos necesarios: Ca(OH)2, NaCl y agua destilada), manteniendo, además y por otra parte, el compromiso apropiado entre el máximo rendimiento de dicha reacción química (ataque, disolución y lixiviación en 28 días, de toda la alúmina reactiva de la puzolana) y el modo y medios más adecuados de acelerarlo para conseguirlo fue a 40°C de temperatura, con agitación constante y cierre hermético del reactor. - La aplicabilidad y selectividad del nuevo método analítico, objeto de esta Tesis Doctoral, fue estudiada con una serie de puzolanas naturales y artificiales españolas, silíceas y/o silíceas y aluminosas en naturaleza, que fueron las siguientes: M0 (metacaolín 0), M1 (M0 con 50 % de cuarzo), C y L (puzolanas naturales de las Islas Canarias), CV10 y CV17 (cenizas volantes), A (puzolana natural de Almagro), O (puzolana natural de Olot) y HS (humo de sílice). - Todas las adiciones minerales anteriores cumplieron con los principales requisitos físicos y químicos que son preceptivos para poder considerarlas, antes de todo, como puzolanas, lo que era indispensable y de obligado cumplimiento, para poderles determinar su contenido total de Al2O3r- (%) mediante el nuevo método analítico. Estos condicionantes fueron los siguientes: grado adecuado de finura de molido o tamaño medio de partícula (según la norma EN 451-2), haber sido analizadas químicamente antes de todo (según la norma EN 196-2 ó la ASTM C311), con el fin de determinarles especialmente, sus contenidos totales de SiO2 (%), Al2O3 (%) y Fe2O3 (%), haberles determinado, además, su contenido de sílice reactiva, SiO2r- (%) (según la norma UNE 80225), y haber cumplido con el ensayo de puzolanicidad o de Frattini (según la norma EN 196-5) a la edad de 28 días al menos. Este último requisito, otrora de obligado cumplimiento hasta el año 1988, para cualquier puzolana natural y artificial que una fábrica de cementos pretendiera introducir en el proceso de fabricación de un nuevo cemento puzolánico o cemento tipo CEM IV, ha logrado así, que se tenga que volver utilizar de nuevo de forma obligada con esta Tesis Doctoral. Y los resultados obtenidos con el nuevo método analítico de los contenidos de Al2O3r-(%) de las puzolanas seleccionadas, fueron los siguientes: - Mediante su variante I: M0 29.9 %, M1 16.9 %, CV10 11.4 %, L 12.3 %, C 12.6 %, A 8.0 %, CV17 9.5 % y O 6.3 % de Al2O3r-, y - Mediante su variante II: M0 30.7 %, M1 15.4 %, CV10 14.7%, L 11.8 %, C 11.1 %, A 8.9 %, CV17 9.6 % y O 6.8 % de Al2O3r-. Finalmente, todos ellos fueron contrastados, además, mediante la calibración y validación del nuevo método analítico, con los valores de referencia obtenidos de esas mismas puzolanas, los cuales se les habían determinado mediante el método de Florentín, consistente en atacar, disolver y lixiviar también toda la fracción alumínica soluble de la puzolana (y además, aquella silícica y férrica que la constituyen a la par), pero, en especial, su contenido total de alúmina reactiva, mediante un ataque básico (con Ca(OH)2 en medio acuoso a temperatura del laboratorio, habiendo sido, además, su duración hasta 1 año), seguido de otro ácido (con HCl, d = 1.12), habiéndose obtenido esta vez los siguientes resultados de sus contenidos de Al2O3r- (%): M0 28.8 %, M1 16.7 %, CV10 9.7 %, L 11.2 %, C 12.2 %, A 13.0 %, CV17 10.6 % y O 9.5 %. Dicha validación realizada ha puesto de manifiesto, en términos generales, que el nuevo método analítico es más fidedigno que el de Florentín, por lo que resulta ser totalmente apropiado para obtener los resultados que se han pretendido, además de proporcionarlos en un espacio de tiempo relativamente corto (28 días a lo sumo) y a un coste económico razonable por no elevado (salvo error u omisión y libre de impuestos directos e indirectos, el coste económico estimado de la variante I estaría en torno a 800.00 - 900.00 €/puzolana -caso más probable-, y aproximadamente una tercera parte nada más, en el caso de que la edad máxima del ensayo acelerado sea 7 días nada más -caso menos probable-), y, por consiguiente, técnicamente aceptable, al cumplir, además, en todo el rango considerado de variabilidad posible de concentraciones o contenidos del analito buscado en la puzolana, con tales parámetros de validación como son: linealidad (los resultados obtenidos son directamente proporcionales a la señal-respuesta instrumental recibida), sensibilidad, precisión excelente, repetibilidad satisfactoria de los valores obtenidos de los contenidos de Al2O3r- de todas y cada una de las adiciones puzolánicas seleccionadas, confirmando, por ello, la universalidad de su uso. Finalmente, las ventajas del nuevo método analítico, respecto a los métodos ya existentes recopilados de la bibliografía (el método de Florentín, el método de López Ruiz -HF 40 % y HNO3 2N-, el método de Murat y Driouche para arcillas -HF 0.5M-, el método de Arjuan, Silbee y Roy para cenizas volantes -HF 1 %- y su modificación por Fernández-Jiménez y cols. -HF 1 %, 27Al NMR MAS y XRD (método de Rietveld)-, y el método de determinación de la relación SiO2r-/Al2O3r- para arcillas y cenizas volantes por Ruiz-Santaquiteria y cols. -HF 1 %, NaOH 8M y ICP-AES-) son, principalmente, estar exento de peligro alguno para la seguridad vital de las personas que lo tengan que manipular y poner en práctica, ser bastante apropiado para control de calidad además de para investigación, su considerable menor coste económico, su relativamente corto espacio de tiempo que se necesita para obtener la respuesta-resultado pretendida (28 días a lo sumo), así como su universalidad y selectividad, puesto que además, su aplicabilidad es para todo tipo de adiciones puzolánicas naturales o artificiales, como así lo demuestran los resultados obtenidos de los materiales puzolánicos naturales y artificiales seleccionados y analizados, en un rango de concentraciones del analito -contenido de alúmina reactiva, Al2O3r- (%)-, desde el 5 % hasta el 30 % en masa, rango éste que, por otra parte, comprende prácticamente TODAS las adiciones puzolanas naturales y artificiales existentes en el mercado transnacional y las aún por existir. Por consiguiente y de acuerdo con lo anterior, el nuevo método analítico, ya sea realizado mediante su variante I o la II, debido, - en primer lugar, a los fundamentados planteamientos relativos a su procedimiento experimental -modus operandi- el cual ha sido aplicado a una amplia gama de puzolanas naturales y artificiales, y - en segundo lugar, debido a la calidad de los resultados obtenidos con un grado de precisión y repetibilidad excelentes, ha demostrado poseer una gran utilidad científica -para investigación-, pero, sobre todo, técnica -para control de calidad de adiciones puzolánicas naturales y artificiales que se adicionan habitualmente al cemento Portland en fábrica y/o a sus hormigones y morteros en planta-, además de ser representativos los valores obtenidos mediante el mismo respecto a la más que probable durabilidad química que cada una de ellas puede llegarle a conferir al hormigón armado y en masa, mortero y pasta del que forme parte, así como también su cantidad adecuada de sustitución parcial de cada cemento Portland para conseguirla, acorde con sus propias prestaciones químico-físicas o físico-químicas que puede llegarle a conferir, según sea su carácter químico (alumínico, alumínico-silícico, silícico-alumínico, silícico-férrico-alumínico o silícico), forma y tamaño medio de su partícula. Por último, el nuevo método analítico ha demostrado cumplir además, con todos los requisitos de obligado cumplimiento que establece la norma ISO/IEC 17025 sobre la calidad y fiabilidad de nuevos métodos o procedimientos analíticos no normalizados todavía, para poder ser propuesto en un futuro próximo, ante la Comisión de AENOR correspondiente, con objeto de comenzar un expediente para su certificación y normalización. ________________________________________________________________________________ Both the subject of this research, its objectives, fundamentals, materials selected and experimental part to achieve, have all been promoted by the situation and the state of reinforced concrete constructions that began performing in Spain from 1975, with concrete and mortars cement containing fly ash up to 20 %, in principle, and later, up to 35 % to its content of Portland cement, which and against expected, demanded a need to improve their performance, especially due to an unexpectedly low level of durability of some works built with them, despite, however, its apparent benefits of all kinds are ascribed to them. Ultimately, the natural or artificial pozzolanic additions, such as fly ash specially, referred to above, have been used with regulation to manufacture cements and/or its derivatives, concretes, mortars, cement pastes, in the most industrialized countries. More than three decades ago, under the same conditions and identical construction mainly uses concretes and mortars plain Portland cement, besides coming, given that use of these waste materials, industrial by-products today for environmental and/or economic issues. For this reason, this Doctoral Thesis aims to answer properly and schematically (in the form of flow chart), the criteria to be taken into account when selection and characterization standardized for these active mineral additions, especially prior to choosing and use in the so-called Portland Cement (PC) pozzolan, or with fly ash or with calcined shales or with calcined pozzolans or with silica fume or PC mixed or pozzolanic cement or compound cement, for that such pathology problems will not occur when reinforced concretes nor mass concretes are used for building. Hence the very particular and special focus about this research, having confined only to the natural or artificial pozzolans, considering them all, regardless of their origin, approach as materials consisting of small crystalline fractions randomly distributed in a largely vitreous and/or amorphous matrix, which confers their reactivity with calcium hydroxide in the form of slaked lime or portlandite from PC. In turn, these vitreous and/or amorphous fractions consist in its greater part, by reactive silica, SiO2r-, reactive alumina, Al2O3r-, and reactive iron oxide, Fe2O3r-, which also receive, in conjunction, the specific name of "hydraulic factors" of the pozzolan. Usually, they all differs in quantity of their respective total contents of the SiO2 (%), Al2O3 (%) and Fe2O3 (%) determined the pozzolan by alkaline fusion by means of standard procedures. Of the three above-mentioned oxides reagents and from the technical point of view, the most important for its increased presence in every one of the natural or artificial pozzolans and also significance in the chemical durability that can get them to give the concrete mortar or cement paste which contain them, are SiO2r- and Al2O3r-. From the first two, the SiO2r- reacts with portlandite only, released in the hydration of the PC (and with Ca(OH)2), to form C-S-H gels, transformed in tobermorites or jennites later on, similar to C-S-H gels also originating from the alite and belite hydration in the CP. From the standardization criteria point of view, the presence of this silicic fraction in pozzolans is regulated at first, by the European standard EN 197-1, in general, also being referred by the EN 450-1:2006, in the context of the fly ash in addition to the concrete, as a "fine powder of spherical particles mainly crystalline form. It is from the combustion of pulverized coal, which have pozzolanic properties and is mainly composed of SiO2 and Al2O3". In addition and according to the EN 197-1 standard, the reactive silica content (which can be defined and determined in accordance with EN 197-1 standard or its UNE 80225 standard) must not be lower than 25 % of its mass. Meanwhile, considerable experimental studies by Talero and Talero et al, have shown that if the pozzolan is not adequate in quality nor quantity, the durability of cement that is part and, therefore, of its derivative products, concretes, mortars and pastes cement, can become abnormally low because its reactive alumina, Al2O3r- (%), content or tetra- or penta-coordinated alumina which involves itself in a very direct and totally mixed and conflicting results even at all aggressive chemical attack natural to produce to the concrete, mortar and paste with inadequate natural and/or artificial pozzolans, such as those from the selenitous land and waters (sulfates, strikes if the material itself concrete, mortar and paste that contain them, for rapid forming ettringite form, ett-rf, which can even cause rapid gypsum attack to said concrete). In contrast, sea spray and de-icing salts (chlorides strikes the reinforced steel concrete causing them electrochemical corrosion by "bite", although in that other chemical attack, such Al2O3r- causes rapid Friedel's salt formation, Fs-rf, too, to cause protector effect of the electrochemical corrosion of reinforcements for these chlorides), seawater (mutual aggressive action of chlorides and sulfates), carbonation, alkali-silica reaction, and, in addition, to influence the release of hydration heat, as well as in the rheological behavior of the pastes, etc., decreasing/shorting them thus their expected durability and sometimes even very seriously. But the most ironic thing is, that despite its referral totally opposed, compared to sulfates and chlorides, behaviour, - far not available is, a chemical analysis method for its quantitative determination, which is also relatively simple in operation, accurate, precise, rapid response, from a technical point of view for building (no more than 28 days), repeatable, reproducible, not involving danger to life safety of the people who need to manipulate and implement, economic, and also serve for both scientific research and technical side, and - has yet to be any chemical specification that sets maximum levels for Al2O3r-(%) in the natural or artificial pozzolan to be added to the cement and/or to the concrete that will be subject to a particularly aggressive chemical attack from those mentioned above, and in particular, to sulphates, chlorides or sea water. And for the sake of and justification of this need, it has to be said that the current Spanish Instruction for Structural Concrete EHE-08 does not provide any specification on "hydraulic factors" in general, nor the content of Al2O3r- (%) in fly ash, very particular, as Article 30º "Additions", or any other Article, although does provide, however, other chemical specifications lacking the necessary meaning in terms of the message Chemical Durability mentioned, nor the Article 37º which and for greater sake, is paradoxically entitled "Durability of the concrete and of their reinforcements". It has also not contemplated in the latest version just released from EN 197-1 standard entitled "Cement Part 1: Composition, specifications and conformity criteria for common cements". Nor, in EN 450-1:2006 entitled "Fly ash for concrete Part 1: Definitions, specifications and conformity criteria", nor by current Spanish Instruction for Cement Reception, RC-08, nor the ASTM C618-03 Standard either. The only chemical specification that both Standards, European and American, refer is one that says that the sum of the total contents of SiO2 (%), Al2O3 (%) and Fe2O3 (%) of natural and artificial pozzolan, must be greater than or equal to 70 % , defining pozzolans thus: "siliceous or aluminous and siliceous materials, which themselves do not have any cementitious value but finely divided and in the presence of moisture it reacts with calcium hydroxide at ordinary temperatures to form compounds possessing cementitious properties". Consequently and according to everything related before, the primary objective of this Doctoral Thesis has been: To design and start-up a new quantitative analytical method of technical utility (the maximum test duration is not more than 28 days), to determine the content of reactive alumina content, Al2O3r- (%), vitreous or amorphous alumina, of natural and artificial pozzolans. And once designed, validate at repeatability level and in accordance with appropriate statistical parameters with special emphasis on the acceptance criteria established by the American Association of Official Analytical Chemists (AOAC). And to achieve this, the innovation of this research has been based on the following general principles, namely: - All the alumina in any pozzolan, natural or artificial, that can be attacked, dissolved and leached by portlandite or calcium hydroxide, Ca(OH)2, in aqueous medium, is considered reactive alumina, Al2O3r-. - This aluminic fraction of natural or artificial pozzolan to analyze and study, has to be in such physical-chemical state that it can react in the presence of calcium hydroxide, sodium chloride and water status and to cause monochloro-aluminate hydrated calcium, C3A·CaCl2·10H2O or Friedel's salt. Moreover, such physical-chemical state of the pozzolan must be consistent with the definition of reactive alumina adopted in this research because of the actual performance of chemical durability that can reach confer on blended cements and their derivatives, concretes, mortars and pastes that are manufactured with the same. - The originality of this new analytical method, compared to the other methods for determining reactive alumina existing (collected in abbreviated form in the state of the art of this report), is the quantification of such aluminic fraction of natural or artificial pozzolans is performed by stoichiometric calculation based on this, in the chemical reaction of Friedel's salt formation after 28 days of the analysis of saline-basic hydration accelerated natural or artificial pozzolan also performed in this research, and the quantitative determination of the Friedel's salt has been performed by two instrumental analytical techniques known as thermogravimetric analysis (variant I), and Rietveld method with X-ray powder diffraction (variant II). - The chemical reaction of Friedel's salt formation after 28 days of accelerated saline-basic hydration of the selected natural and artificial pozzolan, was optimized to ensure that the single chemical compound of aluminium and chlorine formed was Friedel's salt only (dosing for this purpose in amount suitable chemical reagents: Ca(OH)2, NaCl and distilled water), and, on the other hand, maintaining the appropriate compromise between the highest yield from the chemical reaction (attack, dissolution and leaching in 28 days, all reactive alumina of pozzolan) and to accelerate the etching media, which were 40°C temperature, constant stirring and sealing the reactor. - The applicability and selectivity of the new analytical method, the subject of this Doctoral Thesis, was studied with a series of Spanish natural and artificial pozzolans, siliceous or siliceous and aluminous in nature, which were as follows: M0 (metakaolin 0), M1 (M0 with 50 % quartz), L and C (natural pozzolans of the Canary Islands), CV10 (fly ash 10), CV17 (fly ash 17), A (natural pozzolan of Almagro), O (natural pozzolan of Olot), and HS (silica fume). - All mineral admixtures were selected satisfied the physical and chemical requirements proposed to consider them as pozzolan, which was mandatory, so its Al2O3r- (%) content can determine by the new analytical method. These conditions were as follows: adequate degree of fineness of grind or average particle size (according to EN 451-2 standard), have been analyzed chemically (according to EN 196-2 or ASTM C311 standards), in order to determine their total contents of SiO2 (%), Al2O3 (%) and Fe2O3 (%), mainly, having also determined its reactive silica content, SiO2r- (%) (UNE 80225 standard), and fulfilled with testing of pozzolanicity or Frattini test (according to EN 196-5 standard) at 28 days age at least. The last criteria was mandatory until 1988, for any natural and artificial pozzolan to a factory intended to introduce cements in the manufacturing process of a new Portland cement type CEM IV pozzolanic additions, and with this Doctoral Thesis has made is to be used once again mandatory. And the results obtained using the new analytical method, of the Al2O3r- (%) content for each selected pozzolan, were as follows: - by its variant I: M0 29.9 % , M1 16.9 % , CV10 11.4 % , L 12.3 % , C 12.6 % , A 8.0 % , CV17 9.5 % and O 6.3 % of Al2O3r-, and - by its variant II: M0 30.7 % , M1 15.4 % , CV10 14.7% % , L 11.8 % , C 11.1 % , A 8.9 % , CV17 9.6 % and O 6.8 % of Al2O3r-. Finally, they would all be further contrasted by the calibration and validation of new analytical method, with reference values obtained from these same natural and artificial pozzolans, which had been given by the method of Florentin, consisting of attack, dissolve and leached with a basic attack (with Ca(OH)2 in aqueous medium and laboratory temperature, having also been its duration up to 1 year), followed by another acid attack (HCl, d = 1.12), all soluble aluminic fraction of pozzolan, and in particular their total content of reactive alumina, Al2O3r-(%), was this time as follows: M0 28.8 %, M1 16.7 %, CV10 9.7 %, L 11.2 %, C 12.2 %, A 13.0 %, CV17 10.6 % and O 9.5 % (and their siliceous and iron contents that are at par). This validation has shown on the new analytical method is more reliable than Florentin method, so it turns out to be entirely appropriate to get the results that have been tried by the same, besides providing them a relatively short space of time (28 days at most) and reasonably no high economic cost (unless mistake -free direct and indirect taxes, such economic cost would be between 800.00 - 900.00 €/pozzolan (most likely case), and about an one-third part around, in the event that the maximum age of the accelerated test is 7 days only (less likely case). So it is technically acceptable, to consider the range of possible variability of concentrations or contents pozzolan analyte with validation parameters such as: linearity (the results obtained are directly proportional to the instrumental response signal received), excellent sensitivity and accuracy, satisfactory repeatability values from the contents of each and Al2O3r- (%) each selected pozzolan, confirming therefore universal use. Finally, the advantages of the new analytical method over existing methods compiled from literature (Florentin method , the Lopez Ruiz method -HF and HNO3 40 % 2N-, the method of Murat and Driouche for clays -0.5M HF-, the method of Arjuan, Roy and Silbee for fly ash -HF 1 %- and its modification by Fernández-Jiménez et al -HF 1 %, 27Al MAS NMR and XRD (Rietveld method)-, and the method for determining the SiO2r-/Al2O3r- clay and fly ash ratio of Santaquiteria Ruiz et al -HF 1 %, NaOH 8M and ICP-AES-) are primarily and relatively short time get the result intended answer (28 days at most), its considerable lower cost, free from danger to the life safety of the people who need to manipulate and put in practice as well as its universality and selectivity, since it is applicable for all types of natural or artificial pozzolans, as it has been shown by the results of selected natural and artificial pozzolanic materials and analyzed in a range of analyte concentrations -reactive alumina, Al2O3r- (%) content- from 5 % to 30 % by mass, this range, on the other hand, includes virtually ALL existing transnational market in natural and artificial pozzolans and still exist. Therefore and in accordance with the above, the new analytical method is already performed by the variant I or II, because, - firstly, grounded to experimental approaches concerning its experimental procedure -"modus operandi"- which has been applied to a wide range of natural and artificial pozzolans, and - secondly, due to the quality of the results obtained with a great degree of accuracy and repeatability, it has been shown to possess significant scientific value in the research, but especially technical value -for quality control of natural and artificial pozzolans commonly added to Portland cement factory and/or directly to their concrete and mortar in plant-, and also be representative enough of the values obtained by the same probable chemical durability that each of them can reach out to give the concrete mortar and paste to which it belongs, as well as proper amount of partial replacement of Portland cement. To get in line with their own chemical-physical or physical-chemical features which can come to confer, as its chemical character (aluminic, silicic-aluminic, aluminic-silicic, aluminic-ferric-silicic or ferric-silicic), form and medium size of its particle is. Finally, the new analytical method has proven to meet all mandatory requirements established by ISO/IEC 17025 on the quality and reliability of new methods or analytical procedures are not standardized yet, in order to be considered appropriate this new analytical method, in this Doctoral Thesis it is to be proposed in the near future, before the corresponding AENOR (Spanish Association for Standardization and Certification) Commission, to start a procedure for certification and standardization.