926 resultados para Laboratories - Quality control
Resumo:
Five test runs were performed to assess possible bias when performing the loss on ignition (LOI) method to estimate organic matter and carbonate content of lake sediments. An accurate and stable weight loss was achieved after 2 h of burning pure CaCO3 at 950 °C, whereas LOI of pure graphite at 530 °C showed a direct relation to sample size and exposure time, with only 40-70% of the possible weight loss reached after 2 h of exposure and smaller samples losing weight faster than larger ones. Experiments with a standardised lake sediment revealed a strong initial weight loss at 550 °C, but samples continued to lose weight at a slow rate at exposure of up to 64 h, which was likely the effect of loss of volatile salts, structural water of clay minerals or metal oxides, or of inorganic carbon after the initial burning of organic matter. A further test-run revealed that at 550 °C samples in the centre of the furnace lost more weight than marginal samples. At 950 °C this pattern was still apparent but the differences became negligible. Again, LOI was dependent on sample size. An analytical LOI quality control experiment including ten different laboratories was carried out using each laboratory's own LOI procedure as well as a standardised LOI procedure to analyse three different sediments. The range of LOI values between laboratories measured at 550 °C was generally larger when each laboratory used its own method than when using the standard method. This was similar for 950 °C, although the range of values tended to be smaller. The within-laboratory range of LOI measurements for a given sediment was generally small. Comparisons of the results of the individual and the standardised method suggest that there is a laboratory-specific pattern in the results, probably due to differences in laboratory equipment and/or handling that could not be eliminated by standardising the LOI procedure. Factors such as sample size, exposure time, position of samples in the furnace and the laboratory measuring affected LOI results, with LOI at 550 °C being more susceptible to these factors than LOI at 950 °C. We, therefore, recommend analysts to be consistent in the LOI method used in relation to the ignition temperatures, exposure times, and the sample size and to include information on these three parameters when referring to the method.
Resumo:
In France, farmers commission about 250,000 soil-testing analyses per year to assist them managing soil fertility. The number and diversity of origin of the samples make these analyses an interesting and original information source regarding cultivated topsoil variability. Moreover, these analyses relate to several parameters strongly influenced by human activity (macronutrient contents, pH...), for which existing cartographic information is not very relevant. Compiling the results of these analyses into a database makes it possible to re-use these data within both a national and temporal framework. A database compilation relating to data collected over the period 1990-2009 has been recently achieved. So far, commercial soil-testing laboratories approved by the Ministry of Agriculture have provided analytical results from more than 2,000,000 samples. After the initial quality control stage, analytical results from more than 1,900,000 samples were available in the database. The anonymity of the landholders seeking soil analyses is perfectly preserved, as the only identifying information stored is the location of the nearest administrative city to the sample site. We present in this dataset a set of statistical parameters of the spatial distributions for several agronomic soil properties. These statistical parameters are calculated for 4 different nested spatial entities (administrative areas: e.g. regions, departments, counties and agricultural areas) and for 4 time periods (1990-1994, 1995-1999, 2000-2004, 2005-2009). Two kinds of agronomic soil properties are available: the firs one correspond to the quantitative variables like the organic carbon content and the second one corresponds to the qualitative variables like the texture class. For each spatial unit and temporal period, we calculated the following statistics stets: the first set is calculated for the quantitative variables and corresponds to the number of samples, the mean, the standard deviation and, the 2-,4-,10-quantiles; the second set is calculated for the qualitative variables and corresponds to the number of samples, the value of the dominant class, the number of samples of the dominant class, the second dominant class, the number of samples of the second dominant class.
Resumo:
Para la implementación de un sistema de control de calidad es necesario tener una clara visión de los procesos involucrados, las responsabilidades, organización, registros de la calidad, acciones preventivas y correctivas. En la actualidad se exige un enfoque integrador, donde se estructuran actividades y recursos físicos. Es por ello que los diagramas de flujo tienen una importancia fundamental en las decisiones de dirección. Entre los distintos diagramas de flujo posibles, en este trabajo se propone utilizar los de procesos que permiten ordenar secuencialmente una serie de actividades y recursos físicos. Se presenta un diagrama de flujo en la elaboración de vino blanco en una bodega experimental. A través de él se puede conocer la lógica del proceso de elaboración, realizar un diagnóstico del proceso, detectar los puntos críticos de control que puedan provocar deterioro en la calidad del producto o del ambiente. También es un punto de partida para armar y poner en funcionamiento un plan de inspección y ensayos, para la documentación necesaria en las auditorías y una técnica para detectar puntos de contaminación ambiental.
Resumo:
A partir de la aceptación de la biblioteca como parte del ciclo de creación, organización y diseminación del conocimiento cambió el concepto de la misma de una entidad cerrada hacia un sistema dinámico en constante interacción con su entorno. Así se la reconoció como una institución social más que como una colección de documentos. Desde entonces se percibió a la biblioteca como una entidad en la que se podía aplicar los principios de gestión. Desde entonces se utilizaron distintas herramientas de gestión para la toma de decisiones en el ámbito de las bibliotecas. Entre estas herramientas son de gran importancia en el control estadístico de procesos los gráficos de control, utilizados para medir la estabilidad de un proceso a través del tiempo. Han tenido amplia aplicación en el control estadístico de la calidad, comenzando en el ámbito industrial. Hoy su aplicación se ha extendido a una gran variedad de disciplinas incluyen empresas de servicios y unidades administrativas. Aquí se presentan a los gráficos de control como una importante herramienta de gestión aplicada a los procesos técnicos permitiendo su evaluación y el monitoreo de su desempeño a partir de la utilización de indicadores y otros datos de carácter diagnóstico
Resumo:
A partir de la aceptación de la biblioteca como parte del ciclo de creación, organización y diseminación del conocimiento cambió el concepto de la misma de una entidad cerrada hacia un sistema dinámico en constante interacción con su entorno. Así se la reconoció como una institución social más que como una colección de documentos. Desde entonces se percibió a la biblioteca como una entidad en la que se podía aplicar los principios de gestión. Desde entonces se utilizaron distintas herramientas de gestión para la toma de decisiones en el ámbito de las bibliotecas. Entre estas herramientas son de gran importancia en el control estadístico de procesos los gráficos de control, utilizados para medir la estabilidad de un proceso a través del tiempo. Han tenido amplia aplicación en el control estadístico de la calidad, comenzando en el ámbito industrial. Hoy su aplicación se ha extendido a una gran variedad de disciplinas incluyen empresas de servicios y unidades administrativas. Aquí se presentan a los gráficos de control como una importante herramienta de gestión aplicada a los procesos técnicos permitiendo su evaluación y el monitoreo de su desempeño a partir de la utilización de indicadores y otros datos de carácter diagnóstico
Resumo:
A partir de la aceptación de la biblioteca como parte del ciclo de creación, organización y diseminación del conocimiento cambió el concepto de la misma de una entidad cerrada hacia un sistema dinámico en constante interacción con su entorno. Así se la reconoció como una institución social más que como una colección de documentos. Desde entonces se percibió a la biblioteca como una entidad en la que se podía aplicar los principios de gestión. Desde entonces se utilizaron distintas herramientas de gestión para la toma de decisiones en el ámbito de las bibliotecas. Entre estas herramientas son de gran importancia en el control estadístico de procesos los gráficos de control, utilizados para medir la estabilidad de un proceso a través del tiempo. Han tenido amplia aplicación en el control estadístico de la calidad, comenzando en el ámbito industrial. Hoy su aplicación se ha extendido a una gran variedad de disciplinas incluyen empresas de servicios y unidades administrativas. Aquí se presentan a los gráficos de control como una importante herramienta de gestión aplicada a los procesos técnicos permitiendo su evaluación y el monitoreo de su desempeño a partir de la utilización de indicadores y otros datos de carácter diagnóstico
Resumo:
A database containing the global and diffuse components of the surface solar hourly irradiation measured from 1 January 2004 to 31 December 2010 at eight stations of the Egyptian Meteorological Authority is presented. For three of these sites (Cairo, Aswan, and El-Farafra), the direct component is also available. In addition, a series of meteorological variables including surface pressure, relative humidity, temperature, wind speed and direction is provided at the same hourly resolution at all stations. The details of the experimental sites and instruments used for the acquisition are given. Special attention is paid to the quality of the data and the procedure applied to flag suspicious or erroneous measurements is described in details. Between 88 and 99% of the daytime measurements are validated by this quality control. Except at Barrani where the number is lower (13500), between 20000 and 29000 measurements of global and diffuse hourly irradiation are available at all sites for the 7-year period. Similarly, from 9000 to 13000 measurements of direct hourly irradiation values are provided for the three sites where this component is measured. With its high temporal resolution this consistent irradiation and meteorological database constitutes a reliable source to estimate the potential of solar energy in Egypt. It is also adapted to the study of high-frequency atmospheric processes such as the impact of aerosols on atmospheric radiative transfer. In the next future, it is planned to complete regularly the present 2004-2010 database.
Resumo:
In the last decades, a striking amount of hydrographic data, covering the most part of Mediterranean basin, have been generated by the efforts made to characterize the oceanography and ecology of the basin. On the other side, the improvement in technologies, and the consequent perfecting of sampling and analytical techniques, provided data even more reliable than in the past. Nutrient data enter fully in this context, but suffer of the fact of having been produced by a large number of uncoordinated research programs and of being often deficient in quality control, with data bases lacking of intercalibration. In this study we present a computational procedure based on robust statistical parameters and on the physical dynamic properties of the Mediterranean sea and its morphological characteristics, to partially overcome the above limits in the existing data sets. Through a data pre filtering based on the outlier analysis, and thanks to the subsequent shape analysis, the procedure identifies the inconsistent data and for each basin area identifies a characteristic set of shapes (vertical profiles). Rejecting all the profiles that do not follow any of the spotted shapes, the procedure identifies all the reliable profiles and allows us to obtain a data set that can be considered more internally consistent than the existing ones.