713 resultados para Mercancías peligrosas-Transporte-Control de calidad


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con objeto de mejorar las prestaciones de los materiales y en particular los materiales de construcción, se está estudiando la incorporación de nano partículas en la fabricación de morteros y hormigones. En este trabajo se estudia el efecto en la durabilidad de un hormigón autocompactante al incorporar nanosílice. Para ello se han seleccionado dos dosificaciones de nano sílice, 2,5% y 5% y se ha comparado su comportamiento con un hormigón autocompactante con la misma relación de material cementante. Se han evaluado las diferencias de comportamiento tanto en estado fresco como endurecido. En el trabajo se ha analizado el comportamiento mecánico (resistencia a compresión), microestructural (porosimetría por intrusión de mercurio, análisis termogravimétrico y micrografía) y durable, (migración de cloruros, difusión de cloruros y resistividad eléctrica), de las dosificaciones seleccionadas. Los resultados de los ensayos de resistencia a compresión muestran una relación directa entre éste parámetro y el porcentaje de nano sílice adicionada. Los resultados de la caracterización microestructural ponen de manifiesto un refinamiento de la matriz porosa, con aumento de la cantidad de geles hidratados y reducción del tamaño de poro, más significativo cuanto mayor es el porcentaje de adición. Las imágenes de SEM revelan cambios en la morfología de los productos hidratados de la matriz cementicia. Se observa un aumento significativo de la resistencia del material a la penetración de cloruros cuando se incorpora la nano sílice. Los coeficientes tanto de migración como de difusión de cloruros se reducen a menos de la mitad con la adición del 2,5% de nano sílice, no existiendo diferencias significativas en dichos coeficientes en las mezclas con 2,5% y 5% de nano adición. La resistividad eléctrica se revela como un parámetro que si bien sigue la misma tendencia que el coeficiente de migración, el orden de magnitud de las variaciones entre las distintas dosificaciones existen diferencias significativas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con objeto de mejorar las prestaciones de los materiales y en particular los materiales de construcción, se está estudiando la incorporación de nano partículas en la fabricación de morteros y hormigones. En este trabajo se estudia el efecto en la durabilidad de un hormigón autocompactante al incorporar nanosílice. Para ello se han seleccionado dos dosificaciones de nano sílice, 2,5% y 5% y se ha comparado su comportamiento con un hormigón autocompactante con la misma relación de material cementante. Se han evaluado las diferencias de comportamiento tanto en estado fresco como endurecido. En el trabajo se ha analizado el comportamiento mecánico (resistencia a compresión), microestructural (porosimetría por intrusión de mercurio, análisis termogravimétrico y micrografía) y durable, (migración de cloruros, difusión de cloruros y resistividad eléctrica), de las dosificaciones seleccionadas. Los resultados de los ensayos de resistencia a compresión muestran una relación directa entre éste parámetro y el porcentaje de nano sílice adicionada. Los resultados de la caracterización microestructural ponen de manifiesto un refinamiento de la matriz porosa, con aumento de la cantidad de geles hidratados y reducción del tamaño de poro, más significativo cuanto mayor es el porcentaje de adición. Las imágenes de SEM revelan cambios en la morfología de los productos hidratados de la matriz cementicia. Se observa un aumento significativo de la resistencia del material a la penetración de cloruros cuando se incorpora la nano sílice. Los coeficientes tanto de migración como de difusión de cloruros se reducen a menos de la mitad con la adición del 2,5% de nano sílice, no existiendo diferencias significativas en dichos coeficientes en las mezclas con 2,5% y 5% de nano adición. La resistividad eléctrica se revela como un parámetro que si bien sigue la misma tendencia que el coeficiente de migración , el orden de magnitud de las variaciones entre las distintas dosificaciones existen diferencias significativas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los nuevos títulos de grado en la Universidad española generados a raíz del proceso de Bolonia,inciden en una nueva dimensión: las competencias genéricas que deben adquirir los estudiantes universitarios. Pero ¿cómo armonizar el desarrollo y evaluación de dichas competencias con la actual actividad docente? En este trabajo se expone un modelo que permite la citada armonización con un mínimo de “ruido” y de esfuerzo complementario por parte de los docentes. En el modelo propuesto primero se hace una selección y una ordenación de las competencias que se quieren incorporar en un plan de estudios. Se hace una proyección de las competencias en los cuatrimestres y asignaturas del plan de estudios. La introducción de las competencias en las asignaturas asignadas se hace a través del diseño de actividades de formación, desarrollo y evaluación de la competencia. La segunda componente del modelo propuesto tiene por objeto coordinar las acciones que implementen la transversalidad de las competencias bajo desarrollo tanto en espacio como en tiempo. Por último, existen un conjunto de actividades destinadas a realizar el control de calidad del proceso propuesto. Este modelo se está implementado en las dos titulaciones de grado impartidas por la Escuela Universitaria de Informática de la Universidad Politécnica de Madrid durante el curso 2012/13. La coordinación se ha mostrado especialmente difícil dado la falta de experie ncia y el desconocimiento en este campo y las reticencias de algunos docentes a implicarse en este proceso. El modelo demuestra varias bondades: flexibilidad, aplicabilidad, extensibilidad, universalidad,globalidad y economía. ABSTRACT: The new degrees in Spanish University, generated as a result of the Bologna process, affect a new dimension: the generic competences to be acquired by university students. But, how can we harmonize the development and evaluation of these competencies with current teaching? This paper presents a model that allows the aforementioned harmonization with minimal "noise" and additional effort on the part of teachers. The proposed model first makes a selection and organization of competences that are to be incorporated into a curriculum. The following is a projection of competences in the semesters and curriculum subjects. The introduction of competences in the subjects assigned is carried out by designing activities of training, development and assessment. The second component of the proposed model is focused on coordinating actions to implement the transverse character of competences in both space and time. Finally, there are a set of activities to perform quality control of the proposed process. This model is being implemented in two degree taught by the School of Computer Science at the Universidad Politécnica de Madrid during the year 2012/13. Coordination has been particularly difficult given the lack of experience and lack of knowledge in this field and the reluctance of teachers to engage in this process.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El software es, cada vez más, una parte muy importante de cualquier circuito electrónico moderno, por ejemplo, un circuito realizado con algún tipo de microprocesador debe incorporar un programa de control por pequeño que sea. Al utilizarse programas informáticos en los circuitos electrónicos modernos, es muy aconsejable, por no decir imprescindible, realizar una serie de pruebas de calidad del diseño realizado. Estas pruebas son cada vez más complicadas de realizar debido al gran tamaño del software empleado en los sistemas actuales, por este motivo, es necesario estructurar una serie de pruebas con el fin de realizar un sistema de calidad, y en algunos casos, un sistema que no presente ningún peligro para el ser humano o el medio ambiente. Esta propuesta consta de la explicación de las técnicas de diseño de pruebas que existen actualmente (por lo menos las más básicas ya que es un tema muy extenso) para realizar el control de calidad del software que puede contener un sistema embebido. Además, muchos circuitos electrónicos, debido a su control o exigencia hardware, es imprescindible que sean manipulados por algún programa que requiera más que un simple microprocesador, me refiero a que se deban controlar por medio de un pequeño programa manipulado por un sistema operativo, ya sea Linux, AIX, Unix, Windows, etc., en este caso el control de calidad se debería llevar a cabo con otras técnicas de diseño. También se puede dar el caso que el circuito electrónico a controlar se deba hacer por medio de una página web. El objetivo es realizar un estudio de las actuales técnicas de diseño de pruebas que están orientadas al desarrollo de sistemas embebidos. ABSTRACT. Software is increasingly a very important part of any modern electronic circuit, for example, a circuit made with some type of microprocessor must incorporate a control program no matter the small it is. When computer programs are used in modern electronic circuits, it is quite advisable if not indispensable to perform a series of quality tests of the design. These tests are becoming more and more difficult to be performed due to the large size of the software used in current systems, which is why it is necessary to structure a series of tests in order to perform a quality system, and in some cases, a system with no danger to humans or to the environment. This proposal consists of an explanation of the techniques used in the tests (at least the most basic ones since it is a very large topic) for quality control of software which may contain an embedded system. In addition, a lot of electronic circuits, due to its control or required hardware, it is essential to be manipulated by a program that requires more than a simple microprocessor, I mean that they must be controlled by means of a small program handled by an operating system, being Linux, AIX, Unix, Windows, etc., in this case the quality control should be carried out with other design techniques. The objective is to study the current test design techniques that are geared to the development of embedded systems. It can also occur that the electronic circuit should be controlled by means of a web page.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La calidad del hormigón prefabricado se determina mediante ensayos de rotura a compresión en probetas transcurridos los 28 días de curado, según establece la EHE-08. Sin embargo, en la plantas de prefabricados es necesario además saber cuándo el hormigón está listo para ser procesado (destensado, cortado, trasladado), por lo que es necesario hacer ensayos de resistencia a la compresión entre las 48 y 72 horas, este tiempo se determina a partir de la experiencia previa adquirida y depende de las condiciones de cada planta. Si las probetas no han alcanzado el valor establecido, normalmente debido a un cambio en las condiciones climatológicas o en los materiales utilizados como el tipo de cemento o agregados, la solución adoptada suele ser dejar curar el material más horas en la pista para que alcance la resistencia necesaria para ser procesado. Si sigue sin alcanzarla, lo cual sucede muy ocasionalmente, se intenta analizar cuál ha sido el motivo, pudiéndose tirar toda la producción de ese día si se comprueba que ha sido un fallo en la fabricación de la línea, y no un fallo de la probeta. Por tanto, esta metodología de control de calidad, basada en técnicas destructivas, supone dos tipos de problemas, costes y representatividad. Los métodos no destructivos que más se han aplicado para caracterizar el proceso de curado del hormigón son los ultrasónicos y la medida de la temperatura como se recoge en la bibliografía consultada. Hay diferentes modelos que permiten establecer una relación entre la temperatura y el tiempo de curado para estimar la resistencia a compresión del material, y entre la velocidad de propagación ultrasónica y la resistencia. Aunque estas relaciones no son generales, se han obtenido muy buenos resultados, ejemplo de ello es el modelo basado en la temperatura, Maturity Method, que forma parte de la norma de la ASTM C 1074 y en el mercado hay disponibles equipos comerciales (maturity meters) para medir el curado del hormigón. Además, es posible diseñar sistemas de medida de estos dos parámetros económicos y robustos; por lo cual es viable la realización de una metodología para el control de calidad del curado que pueda ser implantado en las plantas de producción de prefabricado. En este trabajo se ha desarrollado una metodología que permite estimar la resistencia a la compresión del hormigón durante el curado, la cual consta de un procedimiento para el control de calidad del prefabricado y un sistema inalámbrico de sensores para la medida de la temperatura y la velocidad ultrasónica. El procedimiento para el control de calidad permite realizar una predicción de la resistencia a compresión a partir de un modelo basado en la temperatura de curado y otros dos basados en la velocidad, método de tiempo equivalente y método lineal. El sistema inalámbrico de sensores desarrollado, WilTempUS, integra en el mismo dispositivo sensores de temperatura, humedad relativa y ultrasonidos. La validación experimental se ha realizado mediante monitorizaciones en probetas y en las líneas de prefabricados. Los resultados obtenidos con los modelos de estimación y el sistema de medida desarrollado muestran que es posible predecir la resistencia en prefabricados de hormigón en planta con errores comparables a los aceptables por norma en los ensayos de resistencia a compresión en probetas. ABSTRACT Precast concrete quality is determined by compression tests breakage on specimens after 28 days of curing, as established EHE-08. However, in the precast plants is also necessary to know when the concrete is ready to be processed (slack, cut, moved), so it is necessary to test the compressive strength between 48 and 72 hours. This time is determined from prior experience and depends on the conditions of each plant. If the samples have not reached the set value, usually due to changes in the weather conditions or in the materials used as for example the type of cement or aggregates, the solution usually adopted is to cure the material on track during more time to reach the required strength for processing. If the material still does not reach this strength, which happens very occasionally, the reason of this behavior is analyzed , being able to throw the entire production of that day if there was a failure in the manufacturing line, not a failure of the specimen. Therefore, this method of quality control, using destructive techniques, involves two kinds of problems, costs and representativeness. The most used non-destructive methods to characterize the curing process of concrete are those based on ultrasonic and temperature measurement as stated in the literature. There are different models to establish a relationship between temperature and the curing time to estimate the compressive strength of the material, and between the ultrasonic propagation velocity and the compressive strength. Although these relationships are not general, they have been very successful, for example the Maturity Method is based on the temperature measurements. This method is part of the standards established in ASTM C 1074 and there are commercial equipments available (maturity meters) in the market to measure the concrete curing. Furthermore, it is possible to design inexpensive and robust systems to measure ultrasounds and temperature. Therefore is feasible to determine a method for quality control of curing to be implanted in the precast production plants. In this work, it has been developed a methodology which allows to estimate the compressive strength of concrete during its curing process. This methodology consists of a procedure for quality control of the precast concrete and a wireless sensor network to measure the temperature and ultrasonic velocity. The procedure for quality control allows to predict the compressive strength using a model based on the curing temperature and two other models based on ultrasonic velocity, the equivalent time method and the lineal one. The wireless sensor network, WilTempUS, integrates is the same device temperature, relative humidity and ultrasonic sensors. The experimental validation has been carried out in cubic specimens and in the production plants. The results obtained with the estimation models and the measurement system developed in this thesis show that it is possible to predict the strength in precast concrete plants with errors within the limits of the standards for testing compressive strength specimens.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Las centrales nucleares necesitan de personal altamente especializado y formado. Es por ello por lo que el sector de la formación especializada en centrales nucleares necesita incorporar los últimos avances en métodos formativos. Existe una gran cantidad de cursos de formación presenciales y es necesario transformar dichos cursos para utilizarlos con las nuevas tecnologías de la información. Para ello se necesitan equipos multidisciplinares, en los que se incluyen ingenieros, que deben identificar los objetivos formativos, competencias, contenidos y el control de calidad del propio curso. En este proyecto se utilizan técnicas de ingeniería del conocimiento como eje metodológico para transformar un curso de formación presencial en formación on-line a través de tecnologías de la información. En la actualidad, las nuevas tecnologías de la información y comunicación están en constante evolución. De esta forma se han sumergido en el mundo transformando la visión que teníamos de éste para dar lugar a nuevas oportunidades. Es por ello que este proyecto busca la unión entre el e-learning y el mundo empresarial. El objetivo es el diseño, en plataforma e-learning, de un curso técnico que instruya a operadores de sala de control de una central nuclear. El trabajo realizado en este proyecto ha sido, además de transformar un curso presencial en on-line, en obtener una metodología para que otros cursos se puedan transformar. Para conseguir este cometido, debemos preocuparnos tanto por el contenido de los cursos como por su gestión. Por este motivo, el proyecto comienza con definiciones básicas de terminología propia de e-learning. Continúa con la generación de una metodología que aplique la gestión de conocimiento para transformar cualquier curso presencial a esta plataforma. Definida la metodología, se aplicará para el diseño del curso específico de Coeficientes Inherentes de Reactividad. Finaliza con un estudio económico que dé viabilidad al proyecto y con la creación de un modelo económico que estime el precio para cualquier curso futuro. Abstract Nuclear power plants need highly specialized and trained personnel. Thus, nuclear power plant Specialized Training Sector requires the incorporation of the latest advances in training methods. A large array of face-to-face training courses exist and it has become necessary to transform said courses in order to apply them with the new information systems available. For this, multidisciplinary equipment is needed where the engineering workforce must identify educational objectives, competences and abilities, contents and quality control of the different courses. In this project, knowledge engineering techniques are employed as the methodological axis in order to transform a face-to-face training course into on-line training through the use of new information technologies. Nowadays, new information and communication technologies are in constant evolution. They have introduced themselves into our world, transforming our previous vision of them, leading to new opportunities. For this reason, the present Project seeks to unite the use of e-learning and the Business and Corporate world. The main objective is the design, in an e-learning platform, of a technical course that will train nuclear power plant control-room operators. The work carried out in this Project has been, in addition to the transformation of a face-to-face course into an online one, the obtainment of a methodology to employ in the future transformation of other courses. In order to achieve this mission, our interest must focus on the content as well as on the management of the various courses. Hence, the Project starts with basic definitions of e-learning terminology. Next, a methodology that applies knowledge management for the transformation of any face-to-face course into e-learning has been generated. Once this methodology is defined, it has been applied for the design process of the Inherent Coefficients of Reactivity course. Finally, an economic study has been developed in order to determine the viability of the Project and an economic model has been created to estimate the price of any given course

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El presente proyecto tiene como objeto la puesta a punto de métodos de análisis de combustibles basados en la espectrometría atómica, centrándose en un equipo de absorción atómica que, como su nombre indica, funciona bajo el principio de la absorción atómica y un equipo ICP que trabaja por plasma acoplado inductivamente y que se rige bajo el principio espectrométrico de la emisión atómica. La finalidad de la puesta a punto de ambos métodos es llevar un control de calidad periódico sobre los combustibles. Se pondrán a punto dos métodos normalizados de ensayos, uno bajo la norma UNE EN 16135 para la determinación del contenido de manganeso en gasolinas; otro bajo la norma EN 16576 para determinar el contenido de manganeso y de hierro en gasóleos de automoción. La puesta a punto de ambos métodos tiene un procedimiento asociado que se puede resumir en cuatro pasos: lectura de la norma, creación del método en el software informático con el que trabaja el equipo, calibración del mismo y realización del estudio de exactitud del método. Abstract The aim of this project is to tune up analytical methods based on the principle of the atomic spectrometry, focusing on testing equipment which works under the principle of atomic absorption and Inductively Coupled Plasma (ICP) equipment governed under the principle of atomic emission. The purpose of tuning up both methods is to perform a quality control on fuels. Two different standard methods will be developed: One under the standard UNE EN 16135 for measuring the content of manganese in gasolines; the other one under the standard EN 16576 for the determination of manganese and iron content in middle distillate fuels. Tune up of both methods procedure can be summarized in four steps: Reading the standard, creation of the method on the computer software associated to the equipment, calibration of the equipment and completion of accuracy study.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este Trabajo de Fin de Grado se diseña, implementa y evalúa un sistema se digitalización de muestras de esputo basado en telefonía móvil e integrable con TuberSpot. Además, se proponen técnicas de procesamiento de imagen para el control de calidad del análisis y se implementa un mecanismo para evaluar la eficiencia de la inteligencia colectiva y la gamificación en este contexto. El sistema de adquisición propuesto utiliza smartphones, adaptadores móvil-microscopio y una aplicación Android. El protocolo de adquisición se ha diseñado conforme a un estudio realizado con personal médico cualificado. El control de calidad se basa en la inserción de bacilos simulados en las imágenes. Para la evaluación de eficiencia de TuberSpot se crea, en colaboración con médicos especialistas, un repositorio de imágenes en las que posición y número de bacilos quedan registrados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En las ciudades europeas, los patrones de movilidad son cada vez más complejos debido fundamentalmente a un crecimiento sostenido de la población así como a la tendencia de dispersión de los núcleos urbanos. En consecuencia, muchos de los usuarios del transporte público se ven obligados a combinar varios modos o servicios de transporte para completar sus viajes diarios. Por tanto, el mayor reto de las ciudades es conseguir una mejora e incremento en la movilidad mientras que al mismo tiempo se reducen problemas como la congestión, los accidentes y la contaminación (COM, 2006). Un principio básico para lograr una movilidad sostenible es reducir los inconvenientes y molestias derivados de la transferencia o ruptura del viaje. En este sentido, los intercambiadores de transporte público juegan un papel fundamental como nodos de la red urbana de transporte y la calidad del servicio prestado en ellos tiene una influencia directa sobre la experiencia diaria de los viajeros. Como señaló Terzis and Last (2002), un intercambiador de transportes urbano eficiente debe ser competitivo y al mismo tiempo, debe ser atractivo para los usuarios dado que sus experiencias físicas y sus reacciones psicológicas se ven influenciadas de manera significativa por el diseño y operación del intercambiador. Sin embargo, todavía no existen standards o normativas a nivel europeo que especifiquen como deberían ser estos intercambiadores. Esta tesis doctoral proporciona conocimientos y herramientas de análisis dirigidas a planificadores y gestores de los propios intercambiadores con el fin de entender mejor el funcionamiento de los intercambiadores y gestionar así los recursos disponibles. Así mismo, esta tesis identifica los factores clave en el diseño y operación de intercambiadores urbanos de transporte y proporciona algunas guías generales de planificación en base a ellos. Dado que las percepciones de los usuarios son particularmente importantes para definir políticas adecuadas para intercambiadores, se diseñó y se llevó a cabo en 2013 una encuesta de satisfacción al viajero en tres intercambiadores de transporte urbano europeos: Moncloa (Madrid, España), Kamppi (Helsinki, Finlandia) e Ilford Railway Station ( Londres, Reino Unido). En resumen, esta tesis pone de relieve la naturaleza ambivalente de los intercambiadores urbanos de transporte, es decir, como nodos de la red de transporte y como lugares en sí mismos donde los usuarios pasan tiempo dentro de ellos y propone algunas recomendaciones para hacer más atractivos los intercambiadores a los usuarios. Travel patterns in European urban areas are becoming increasingly complex due to a sustained increase in the urban population and the trend towards urban sprawl. Consequently, many public transport users need to combine several modes or transport services to complete their daily trips. Therefore, the challenge facing all major cities is how to increase mobility while at the same time reducing congestion, accididents and pollution (COM, 2006). Reducing the inconvenience inherent in transferring between modes is a basic principle for achieving sustainable mobility. In this regard, transport interchanges play a key role as urban transport network nodes, and the quality of the service provided in them has a direct influence on travellers' daily experience. As noted by Terzis and Last (2000), an efficient urban transport interchange must be competitive and, at the same time, be attractive for users given that their physical experiences and psychological reactions are significantly influenced by the design and operation of the interchange. However, yet there are no standards or regulations specifying the form these interchanges should take in Europe. This doctoral thesis provides knowledge and analysis tools addressed to developers and managers in order to understand better the performance of an urban transport interchange and manage the available resources properly. Likewise, key factors of the design and operation of urban transport interchanges are identified and some 'Planning guidelines' are proposed on the basis on them. Since the users' perceptions of their experience are particularly important for achieving the most appropriate policy measures for interchanges, an ad‐hoc travellers' satisfaction survey was designed and carried out in 2013 at three European transport interchanges: Moncloa (Madrid, Spain), Kamppi (Helsinki, Finland) and Ilford Railway Station (London, United Kingdom) In summary, this thesis highlights the ambivalent nature of the urban transport interchanges, i.e. as nodes within the transport network and as places where users spending time and proposes some policy recommendations in order to make urban transport interchanges attractive for users.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El cuidado del medio ambiente está cada vez más arraigado en nuestras vidas y la arquitectura no se puede quedar atrás. Este trabajo intenta abordar problemas de sostenibilidad en distintos niveles: desde la eficiencia energética del propio edificio a la eficiencia de la ciudad, proponiendo una actuación de redensificación de los centros urbanos frente a la expansión de la ciudad, con los ahorros en transporte, tiempo y calidad de vida que supone. Todo esto solo será útil y viable si la economía lo permite, por lo que buscaremos que la operación tenga un coste nulo o incluso que pueda resultar económicamente lucrativa. De esta forma y a través de un ejemplo concreto, pretendo demostrar la viabilidad de una rehabilitación energética que pueda ser costeada con los beneficios de ampliar el edificio existente, dando lugar a una ciudad más densa y eficiente. Esto solo será posible en los casos en los que la edificabilidad no esté agotada. El caso que se trata en el trabajo tiene una elevada edificabilidad remanente, se localiza en una zona céntrica de Madrid y tiene una bajísima calificación energética, lo que lo convierte en un ejemplo paradigmático.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se ha procedido al análisis estadístico de un banco de datos de algo más de nueve mil probetas de tamaño estructural ensayadas a lo largo de la década final del s. XX y la inicial del s. XXI, provenientes de masas forestales de coníferas españolas. Las especies estudiadas (pinus sylsvestris, p. halepensis, p. pinaster, p. radiata, p. nigra) representan más del 80% de la superficie forestal española cubierta por coníferas, y ninguna especie de relevancia por volumen potencial de corta a medio plazo ha quedado excluida (quizá con la única excepción de p. pinea, y, con matices juniperus thurifera). Por lo tanto, puede considerarse una información razonablemente representativa de la población de coníferas españolas (en adelante, población objetivo), si bien los procedimientos de muestreo presentan marcadas diferencias en función de las especies. Los procedimientos de ensayo se han atenido, esencialmente, a la normativa europea de referencia, así como a la normativa española de clasificación de madera aserrada, básicamente UNE 56544, con los matices propios de las sucesivas ediciones de las indicadas normas durante un período de unos veinte años. El estudio se ha realizado con el objeto de caracterizar el estado de naturaleza de los principales parámetros resistentes la población objetivo (densidad, módulo de elasticidad longitudinal, y tensión de rotura en flexión pura), así como identificar posibles inconsistencias en la normativa vigente relacionada. Los resultados se han elaborado de forma operativa para su utilización, en una primera aproximación, en la ejecución de cálculos directos de fiabilidad estructural, tal como se plantean en las normativas ISO 2394, ISO 12491, ISO 13822, UNE EN 1990, Código Técnico de la Edificación español y Código Modelo Probabilístico. Inequívocamente, las variables resistentes de referencia de las coníferas españolas susceptibles de uso estructural presentan una variabilidad significativamente superior a la habitual en coníferas de origen en el Centro y Norte de Europa, así como en Norteamérica (en adelante, poblaciones de comparación). Esta diferencia es extrema en el caso de la resistencia, importante en el caso de la rigidez, y prácticamente testimonial en el caso de la densidad. Por otra parte, la rigidez y la densidad de la población objetivo es mucho mayor, para el mismo valor de la resistencia, que las de las poblaciones de comparación. Asimismo, las correlaciones entre las tres variables básicas son inferiores en la población objetivo respecto a la de comparación. Estos hechos llevan a que la aplicación del sistema de clases resistentes en uso conduzca a situaciones de dimensionado poco racionales, y marcadamente antieconómicas. Si bien el objeto del estudio no es el establecimiento de una “jerarquía” estructural de especies, sí deben subrayarse algunos aspectos particulares por especies. El p. nigra tiene los mayores valores centrales y los menores de dispersión de toda la población objetivo, y mayores valores centrales que cualquier referencia de la población de comparación: para la misma fiabilidad objetivo en supuestos habituales, en p.nigra puede ser necesario en torno a un 20% menos de volumen de madera que en p. sylvestris, y en torno a un 40% que en p. radiata . El p. radiata y el p. pinaster presentan los menores valores de centralidad y los mayores de dispersión, de toda la muestra objetivo en formatos aserrados (con la excepción de la densidad: el p. radiata presenta valores muy bajos, pero atípicamente baja variabilidad). Especies habitualmente “no consideradas” como el p. pinea, presentan valores notablemente altos de centralidad, especialmente en la variable densidad. Otro caso de interés es p. halepensis, con prestaciones estructurales muy elevadas, teniendo en cuenta la proveniencia de masas carentes de un manejo adecuado (a efectos de producción maderable). Al contrario que en las poblaciones de comparación, la densidad de las coníferas españolas se representa claramente por distribuciones lognormales, frente a las distribuciones normales que se consideran en la literatura para la misma variable básica. Esto no tiene consecuencias relevantes en la fiabilidad estructural de las uniones, debido a los bajos coeficientes de variación (entre el 10 y 13%, típicamente). Para la tensión de rotura en flexión, parece haber una marcada diferencia entre el tipo de distribución que representa a las poblaciones no clasificadas o rechazadas (que es claramente Lognormal) y la que representa a las poblaciones clasificadas (que parece ser de tipo Weibull de tres parámetros). La distinción va más allá de la sutileza matemática: si la distribución fuese lognormal para todos los casos, la ineficiencia de la aplicación del sistema de clases resistentes aún sería más acusada que lo anteriormente indicado. La distribución normal, sólo representa adecuadamente el estado de naturaleza del módulo de elasticidad y la tensión de rotura de maderas no escuadradas (cilindradas, descortezadas, o simplemente desramadas), y del módulo de elasticidad de las muestras rechazadas. Las coníferas no clasificadas, arrojan valores relativamente elevados de resistencia, lo que hace pensar en la conveniencia de la definición de un “protocolo de mínimos” para posibilitar su uso en el marco normativo actual. Se ha ejemplificado cómo de la aplicación de técnicas probabilísticas utilizando como fundamento los resultados del análisis realizado, resulta un ahorro material potencialmente notable en la población objetivo (en la horquilla del 30 al 60%, dependiendo del estado límite que gobierne el dimensionamiento), respecto a la aplicación directa de los protocolos normativos a partir de la aplicación de la norma de clasificación española. Complementariamente, se han elaborado modelos de variabilidad de los parámetros de las distribuciones propuestas, al objeto de facilitar la aplicación de técnicas de actualización bayesiana. Estas técnicas tienen particular relevancia en el entorno español, por dos razones. Una de ellas, es que suponen, de hecho, la única manera de tratar la cuestión de la seguridad de estructuras prexistentes en un marco matemático-formal consistente con la normativa. La otra, es que permiten la utilización de maderas procedentes de medios de producción con niveles de control de calidad mínimos, incluso casi inexistentes, con inversiones en coste de ensayos comparativamente irrelevantes. ABSTRACT A group of databases making a total of ca. 9.000 beams produced by sawing coniferous species from Spain, tested according EN 384 (1) and visually graded according Spanish standards were analyzed. The main goal was to reach a detailed comprehension about the true state of nature of the three reference structural properties (density, MOR and MOE), in the conditions the material reaches the real market. This goal has been addressed through the detailed adjustment of the proper probabilistic model to the data available. The most important outcome has been the proposal of a set of distribution parameters for the target species, ready to be used in direct probabilistic calculation. This use is exemplified through structural reliability calculations, establishing a priori data for Bayesian reliability updating, Spanish code calibration suggestions, and parameters proposal for the Probabilistic Model Code (2).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El control de calidad en pinturas, barnices y recubrimientos afines está relacionado con su composición, formulación y caracterización. Al hablar de recubrimientos nos referimos a pinturas, temple, barnices, esmaltes, lacas, imprimaciones, e incluso recubrimientos electrolíticos. Se puede definir una pintura líquida como una mezcla heterogénea de componentes que una vez aplicada y seca se transforma en una película continua de espesor más o menos uniforme, sin pegajosidad al tacto y con las características o aptitud al uso con la que ha sido diseñada. Los componentes de la pintura varían en gran manera en función del tipo de acabado que se requiera y de las condiciones de aplicación y secado. El proceso de fabricación de pinturas es totalmente físico y se efectúa en cuatro fases: dispersión, molido, dilución y ajuste de viscosidad. Hay distintos tipos de pinturas al agua: temple, pintura al cemento, pintura a la cal, pintura al silicato y pintura plástica. El desarrollo y aplicación cada vez mayor de las pinturas hidrosolubles en todos los sectores permite reducir la emisión de grandes cantidades de disolventes orgánicos a la atmósfera y reduce en gran medida los riesgos de incendio. Por su utilización hay tres tipos de productos hidrosolubles: pinturas plásticas para decoración (emulsiones y dispersiones), pinturas electroforéticas (anaforesis y cataforesis) y pinturas hidrosolubles industriales (resinas en solución y en dispersión). Entre otros componentes formadores de la película se destaca el papel de los aceites y los pigmentos en sus distintas tipologías. En función del ratio pigmento/ resina en peso las pinturas se clasifican en acabados, imprimaciones, aparejos y masillas. Se desarrolla el procedimiento operativo para fabricar pintura al agua y distintos procedimientos matemáticos para calcular composiciones adecuadas de base de la molienda. A continuación se exponen distintos ensayos de control de calidad en pintura referidos a distintos aspectos: contenido de producto, estado de conservación en el envase y estabilidad al almacenaje, determinación de la densidad, porcentaje de sólidos, poder cubriente y rendimiento superficial específico; de los ensayos en pintura húmeda se destaca, entre otros aspectos la medida del índice de nivelación y la tendencia al descuelgue; de los ensayos en pintura aplicada y seca, se determina la resistencia al frote en húmedo; también se hace referencia a la viscosidad y la tensión superficial y su influencia en las pinturas, así como algunas cuestiones sobre el diseño de pinturas y afines, y a defectos en las pinturas, sus causas y posibles soluciones. Para terminar, se desarrollan algunos aspectos medioambientales relacionados con las pinturas y sus componentes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tesis doctoral presenta un procedimiento integral de control de calidad en centrales fotovoltaicas, que comprende desde la fase inicial de estimación de las expectativas de producción hasta la vigilancia del funcionamiento de la instalación una vez en operación, y que permite reducir la incertidumbre asociada su comportamiento y aumentar su fiabilidad a largo plazo, optimizando su funcionamiento. La coyuntura de la tecnología fotovoltaica ha evolucionado enormemente en los últimos años, haciendo que las centrales fotovoltaicas sean capaces de producir energía a unos precios totalmente competitivos en relación con otras fuentes de energía. Esto hace que aumente la exigencia sobre el funcionamiento y la fiabilidad de estas instalaciones. Para cumplir con dicha exigencia, es necesaria la adecuación de los procedimientos de control de calidad aplicados, así como el desarrollo de nuevos métodos que deriven en un conocimiento más completo del estado de las centrales, y que permitan mantener la vigilancia sobre las mismas a lo largo del tiempo. Además, los ajustados márgenes de explotación actuales requieren que durante la fase de diseño se disponga de métodos de estimación de la producción que comporten la menor incertidumbre posible. La propuesta de control de calidad presentada en este trabajo parte de protocolos anteriores orientados a la fase de puesta en marcha de una instalación fotovoltaica, y las complementa con métodos aplicables a la fase de operación, prestando especial atención a los principales problemas que aparecen en las centrales a lo largo de su vida útil (puntos calientes, impacto de la suciedad, envejecimiento…). Además, incorpora un protocolo de vigilancia y análisis del funcionamiento de las instalaciones a partir de sus datos de monitorización, que incluye desde la comprobación de la validez de los propios datos registrados hasta la detección y el diagnóstico de fallos, y que permite un conocimiento automatizado y detallado de las plantas. Dicho procedimiento está orientado a facilitar las tareas de operación y mantenimiento, de manera que se garantice una alta disponibilidad de funcionamiento de la instalación. De vuelta a la fase inicial de cálculo de las expectativas de producción, se utilizan los datos registrados en las centrales para llevar a cabo una mejora de los métodos de estimación de la radiación, que es la componente que más incertidumbre añade al proceso de modelado. El desarrollo y la aplicación de este procedimiento de control de calidad se han llevado a cabo en 39 grandes centrales fotovoltaicas, que totalizan una potencia de 250 MW, distribuidas por varios países de Europa y América Latina. ABSTRACT This thesis presents a comprehensive quality control procedure to be applied in photovoltaic plants, which covers from the initial phase of energy production estimation to the monitoring of the installation performance, once it is in operation. This protocol allows reducing the uncertainty associated to the photovoltaic plants behaviour and increases their long term reliability, therefore optimizing their performance. The situation of photovoltaic technology has drastically evolved in recent years, making photovoltaic plants capable of producing energy at fully competitive prices, in relation to other energy sources. This fact increases the requirements on the performance and reliability of these facilities. To meet this demand, it is necessary to adapt the quality control procedures and to develop new methods able to provide a more complete knowledge of the state of health of the plants, and able to maintain surveillance on them over time. In addition, the current meagre margins in which these installations operate require procedures capable of estimating energy production with the lower possible uncertainty during the design phase. The quality control procedure presented in this work starts from previous protocols oriented to the commissioning phase of a photovoltaic system, and complete them with procedures for the operation phase, paying particular attention to the major problems that arise in photovoltaic plants during their lifetime (hot spots, dust impact, ageing...). It also incorporates a protocol to control and analyse the installation performance directly from its monitoring data, which comprises from checking the validity of the recorded data itself to the detection and diagnosis of failures, and which allows an automated and detailed knowledge of the PV plant performance that can be oriented to facilitate the operation and maintenance of the installation, so as to ensure a high operation availability of the system. Back to the initial stage of calculating production expectations, the data recorded in the photovoltaic plants is used to improved methods for estimating the incident irradiation, which is the component that adds more uncertainty to the modelling process. The development and implementation of the presented quality control procedure has been carried out in 39 large photovoltaic plants, with a total power of 250 MW, located in different European and Latin-American countries.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este proyecto de fin de carrera surge como una necesidad de realizar un control de calidad en un Sistema de Información Geográfico (SIG en adelante). En el caso de GISProp, su objetivo es el de localizar en un conjunto de objetos cartográficos si existe superficie duplicada con algún otro objeto cartográfico del mismo tipo. Para ello, se utilizan técnicas de agrupamiento espacial, sistemas expertos y una aplicación GIS para obtener el área de los objetos cartográficos. Además, los datos geo-espaciales pueden variar en el tiempo, por lo tanto, se debe tener en cuenta los elementos que varían y comparar única y exclusivamente los objetos cartográficos que correspondan con aquellos que se encuentren en su área de influencia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Hoy en día existe una preocupación creciente por la calidad del software entregado en los proyectos que se realizan a lo largo del mundo. El trabajo de fin de grado que va a ser desarrollado en estas páginas pretende demostrar la importancia de la realización de tests funcionales durante el proceso de desarrollo de software para que el proyecto alcance la calidad requerida tan demandada en estos días. Para ello, después de una pequeña introducción a la historia del software, se presentarán y compararán diversos tipos de metodologías de desarrollo de software, tanto pesadas (cascada, espiral, etc.) como ágiles (Extreme Programming y Scrum), se enfatizará en dichas metodologías ágiles y cómo el proceso de testing y control de calidad encaja perfectamente con la filosofía de las citadas metodologías ágiles. Se desarrollará una explicación del papel de QA en el desarrollo de software, asi como una explicación de los tipos de test existentes, y las herramientas, tecnologías y patrones que existen a disposición de aquellos que quieran desempeñar el papel de QA. Para complementar el punto de vista teórico de este trabajo se presentará un caso práctico real realizado en la empresa bq bajo una metodología Scrum. Dicho caso práctico muestra el uso de ciertas herramientas y su aporte para el control de calidad del proyecto bajo desarrollo, demostrando su importancia. Se realizará énfasis en el proceso de automatización de ciertas baterías de test (llamadas test suites), mostrando desde el planteamiento inicial de las diferentes historias de usuario y la batería de test, pasando por la elección de las tecnologías más adecuadas para la elaboración de los test hasta llegar al lanzamiento de dicha batería de pruebas y la comprobación de éstas. El punto de vista práctico quedará complementado por una explicación del framework nightwatch.js, framework utilizado en el desarrollo del proyecto en bq para la automatización de test funcionales. Esta explicación comprenderá tanto la configuración y uso del framework como el uso de patrones y la estructura de las pruebas. ABSTRACT Nowadays there is a growing concern about the Quality of the software delivered in the projects that are made all around the world. This final project will try to prove the importance of performing functional tests during the Software Development Process in order to be able to reach the demanded Quality. To fulfill this objective, different types of Software Development methodologies will be presented and compared. Heavy methodologies (waterfall, spiral methodologies, etc.) as well as agile methodologies (Extreme Programming and Scrum). There will be an emphasis in the second kind (agile methodologies) and how the testing and quality assurance process fits perfectly in their philosophy. A deep explanation of the role that Quality Assurance holds on software development will be presented, as well as an explanation on the current types of testing and an explanation of the different tools; technologies and patrons that exist to help anyone who wants to perform the role of QA. To complement the theoretical perspective of this work a real case study, performed at the company bq under a Scrum methodology, will be presented. The mentioned study covers the use of certain tools and their input for the quality assurance of the project under development, proving its relevance. Emphasis will be made in the process of conducting a set of tests (called test suite), showing from the initial approach of the different users stories and the set of tests, going through the choosing of the most suitable technologies for the tests development, and ending with the performance of this battery of tests and their checkout. The practical point of view will be complemented by a deep explanation of the creation process using the nightwatch.js automated test framework, used in the project in bq. This explanation will cover both the configuration and use of the framework as the use of patterns and structure of the tests.