825 resultados para learning with errors


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Pós-graduação em Ciência da Computação - IBILCE

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Caffeine determination using a fast-scan voltammetric procedure at a carbon fiber ultramicroelectrode (CF-UME) is described. The CF-UME was submitted to electrochemical pretreatment. Parameters such as number of acquisition cycles, scan rate, potential window, and the electrochemical surface pretreatment were optimized. Using the optimized conditions, it was possible to achieve a LDR from 10.0 up to 200 mu mol L-1, with a LOD of 3.33 mu mol L-1. The method has been applied in the determination of caffeine in commercial samples, with errors of 1.0-3.5% in relation to the label values and recoveries of 97-114% within the linear range.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Caffeine determination using a fast-scan voltammetric procedure at a carbon fiber ultramicroelectrode (CF-UME) is described. The CF-UME was submitted to electrochemical pretreatment. Parameters such as number of acquisition cycles, scan rate, potential window, and the electrochemical surface pretreatment were optimized. Using the optimized conditions, it was possible to achieve a LDR from 10.0 up to 200 μmol L-1, with a LOD of 3.33 μmol L-1. The method has been applied in the determination of caffeine in commercial samples, with errors of 1.0-3.5% in relation to the label values and recoveries of 97-114% within the linear range.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Die Arbeit behandelt das Problem der Skalierbarkeit von Reinforcement Lernen auf hochdimensionale und komplexe Aufgabenstellungen. Unter Reinforcement Lernen versteht man dabei eine auf approximativem Dynamischen Programmieren basierende Klasse von Lernverfahren, die speziell Anwendung in der Künstlichen Intelligenz findet und zur autonomen Steuerung simulierter Agenten oder realer Hardwareroboter in dynamischen und unwägbaren Umwelten genutzt werden kann. Dazu wird mittels Regression aus Stichproben eine Funktion bestimmt, die die Lösung einer "Optimalitätsgleichung" (Bellman) ist und aus der sich näherungsweise optimale Entscheidungen ableiten lassen. Eine große Hürde stellt dabei die Dimensionalität des Zustandsraums dar, die häufig hoch und daher traditionellen gitterbasierten Approximationsverfahren wenig zugänglich ist. Das Ziel dieser Arbeit ist es, Reinforcement Lernen durch nichtparametrisierte Funktionsapproximation (genauer, Regularisierungsnetze) auf -- im Prinzip beliebig -- hochdimensionale Probleme anwendbar zu machen. Regularisierungsnetze sind eine Verallgemeinerung von gewöhnlichen Basisfunktionsnetzen, die die gesuchte Lösung durch die Daten parametrisieren, wodurch die explizite Wahl von Knoten/Basisfunktionen entfällt und so bei hochdimensionalen Eingaben der "Fluch der Dimension" umgangen werden kann. Gleichzeitig sind Regularisierungsnetze aber auch lineare Approximatoren, die technisch einfach handhabbar sind und für die die bestehenden Konvergenzaussagen von Reinforcement Lernen Gültigkeit behalten (anders als etwa bei Feed-Forward Neuronalen Netzen). Allen diesen theoretischen Vorteilen gegenüber steht allerdings ein sehr praktisches Problem: der Rechenaufwand bei der Verwendung von Regularisierungsnetzen skaliert von Natur aus wie O(n**3), wobei n die Anzahl der Daten ist. Das ist besonders deswegen problematisch, weil bei Reinforcement Lernen der Lernprozeß online erfolgt -- die Stichproben werden von einem Agenten/Roboter erzeugt, während er mit der Umwelt interagiert. Anpassungen an der Lösung müssen daher sofort und mit wenig Rechenaufwand vorgenommen werden. Der Beitrag dieser Arbeit gliedert sich daher in zwei Teile: Im ersten Teil der Arbeit formulieren wir für Regularisierungsnetze einen effizienten Lernalgorithmus zum Lösen allgemeiner Regressionsaufgaben, der speziell auf die Anforderungen von Online-Lernen zugeschnitten ist. Unser Ansatz basiert auf der Vorgehensweise von Recursive Least-Squares, kann aber mit konstantem Zeitaufwand nicht nur neue Daten sondern auch neue Basisfunktionen in das bestehende Modell einfügen. Ermöglicht wird das durch die "Subset of Regressors" Approximation, wodurch der Kern durch eine stark reduzierte Auswahl von Trainingsdaten approximiert wird, und einer gierigen Auswahlwahlprozedur, die diese Basiselemente direkt aus dem Datenstrom zur Laufzeit selektiert. Im zweiten Teil übertragen wir diesen Algorithmus auf approximative Politik-Evaluation mittels Least-Squares basiertem Temporal-Difference Lernen, und integrieren diesen Baustein in ein Gesamtsystem zum autonomen Lernen von optimalem Verhalten. Insgesamt entwickeln wir ein in hohem Maße dateneffizientes Verfahren, das insbesondere für Lernprobleme aus der Robotik mit kontinuierlichen und hochdimensionalen Zustandsräumen sowie stochastischen Zustandsübergängen geeignet ist. Dabei sind wir nicht auf ein Modell der Umwelt angewiesen, arbeiten weitestgehend unabhängig von der Dimension des Zustandsraums, erzielen Konvergenz bereits mit relativ wenigen Agent-Umwelt Interaktionen, und können dank des effizienten Online-Algorithmus auch im Kontext zeitkritischer Echtzeitanwendungen operieren. Wir demonstrieren die Leistungsfähigkeit unseres Ansatzes anhand von zwei realistischen und komplexen Anwendungsbeispielen: dem Problem RoboCup-Keepaway, sowie der Steuerung eines (simulierten) Oktopus-Tentakels.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

There is a range of tempos within which listeners can identify familiar tunes (around 0.8 to 6.0 notes/s). Faster and slower tunes are difficult to identify. The authors assessed fast and slow melody-identification thresholds for 80 listeners ages 17–79 years with expertise varying from musically untrained to professional. On fast-to-slow (FS) trials the tune started at a very fast tempo and slowed until the listener identified it. Slow-to-fast (SF) trials started slow and accelerated. Tunes either retained their natural rhythms or were stylized isochronous versions. Increased expertise led to better performance for both FS and SF thresholds (r = .45). Performance declined uniformly across the 62-year age range in the FS condition (r = .27). SF performance was unaffected by age. Although early encoding processes may slow with age, expertise has a greater effect. Musical expertise involves perceptual learning with melodies at a wide range of tempos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Abstract Within the field of neuroscientific research on second language learning, considerable attention has been devoted to functional and recently also structural changes related to second language acquisition. The present literature review summarizes studies that investigated structural changes related to bilingualism. Furthermore, as recent evidence has suggested that native-like exposure to a second language (i.e., a naturalistic learning setting or immersion) considerably impacts second language learning, all findings are reflected with respect to the learning environment. Aggregating the existing evidence, we conclude that structural changes in left inferior frontal and inferior parietal regions have been observed in studies on cortical gray matter changes, while the anterior parts of the corpus callosum have been repeatedly found to reflect bilingualism in studies on white matter (WM) connectivity. Regarding the learning environment, no cortical alterations can be attributed specifically to naturalistic or classroom learning. With regard to WM changes, one might tentatively propose that changes in IFOF and SLF are possibly more prominently observed in studies investigating bilinguals with a naturalistic learning experience. However, future studies are needed to replicate and strengthen the existing evidence and to directly test the impact of naturalistic exposure on structural brain plasticity.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Es un hecho que las Tecnologías de la Información y la Comunicación (TIC) han modificado nuestras prácticas sociales. También lo es que los jóvenes nacidos en los últimos años parecen haberse apropiado de ellas con gran habilidad. Sin embargo, luego de varios años enseñando TIC a alumnos de profesorados universitarios de la Facultad de Humanidades y Ciencias de la Educación (FaHCE) de la Universidad Nacional de la Plata, observamos que sus desempeños en relación a dichas tecnologías no parecía ni suficiente ni apropiado de acuerdo a los estándares internacionales y regionales vigentes de competencias digitales para el nivel universitario. Como estrategia didáctica superadora implementamos un diseño de instrucción basado en el modelo de aula extendida con e-actividades, buscando ampliar el contacto de los estudiantes con la propuesta de la asignatura, cuantitativa y cualitativamente. Luego, al haber obtenido algunas señales auspiciosas en cuanto el desarrollo de las competencias digitales de nuestros alumnos, nos formulamos la hipótesis que orientó nuestro trabajo: Las e-actividades en un modelo de aula extendida podrían favorecer el desarrollo de las competencias digitales académicas de los estudiantes de profesorados universitarios. Emprendimos entonces esta investigación que, con el objetivo principal de mejorar las competencias digitales de nuestros estudiantes, dirigimos en dos direcciones: Indagar cuáles son los niveles de conocimientos digitales deseables para un alumno futuro docente del siglo XXI. En base a la revisión documental sobre este tema, consideramos que un estudiante de profesorado universitario posee competencias digitales si, además de dominarlas, las valora y es consciente de cómo ellas contribuyen a su formación académica y de cómo seguirán haciéndolo en su desempeño profesional futuro, consciente al mismo tiempo de que las TIC no poseen un potencial transformador en sí mismas, sino en función del uso que se haga de ellas. Comprobar la veracidad de nuestra hipótesis sobre los potenciales beneficios de las e-actividades en la formación digital de nuestros estudiantes, y de verificarse este supuesto, destacar las condiciones de calidad según las cuales deberían diseñarse

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La Biblioteca Médica Nacional de Cuba ha puesto en marcha un programa de alfabetización informacional para adiestrar a sus usuarios y fomentar en ellos las habilidades necesarias para el uso de bases de datos, así como para fomentar el uso de estrategias de búsquedas bien diseñadas y validadas por los bibliotecarios especialistas en información. En el presente trabajo se describen contenidos y habilidades que se fomentan en el curso "Cochrane Library: La Medicina Basada en Evidencias", cuyo objetivo es que el usuario domine esta base de datos y el concepto de medicina basada en evidencias para la toma de mejores decisiones en la atención médica. Durante el curso se introduce además el Modelo Big 6, como guía del pensamiento para resolver problemas de información que facilite la búsqueda y la organización de la información médica basada en evidencias. Igualmente, se capacita al estudiante para que diseñe productos informativos, como boletines electrónicos, que le permitan tanto presentar los resultados de búsquedas de información como promover información para el cuidado de la salud en el futuro

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Es un hecho que las Tecnologías de la Información y la Comunicación (TIC) han modificado nuestras prácticas sociales. También lo es que los jóvenes nacidos en los últimos años parecen haberse apropiado de ellas con gran habilidad. Sin embargo, luego de varios años enseñando TIC a alumnos de profesorados universitarios de la Facultad de Humanidades y Ciencias de la Educación (FaHCE) de la Universidad Nacional de la Plata, observamos que sus desempeños en relación a dichas tecnologías no parecía ni suficiente ni apropiado de acuerdo a los estándares internacionales y regionales vigentes de competencias digitales para el nivel universitario. Como estrategia didáctica superadora implementamos un diseño de instrucción basado en el modelo de aula extendida con e-actividades, buscando ampliar el contacto de los estudiantes con la propuesta de la asignatura, cuantitativa y cualitativamente. Luego, al haber obtenido algunas señales auspiciosas en cuanto el desarrollo de las competencias digitales de nuestros alumnos, nos formulamos la hipótesis que orientó nuestro trabajo: Las e-actividades en un modelo de aula extendida podrían favorecer el desarrollo de las competencias digitales académicas de los estudiantes de profesorados universitarios. Emprendimos entonces esta investigación que, con el objetivo principal de mejorar las competencias digitales de nuestros estudiantes, dirigimos en dos direcciones: Indagar cuáles son los niveles de conocimientos digitales deseables para un alumno futuro docente del siglo XXI. En base a la revisión documental sobre este tema, consideramos que un estudiante de profesorado universitario posee competencias digitales si, además de dominarlas, las valora y es consciente de cómo ellas contribuyen a su formación académica y de cómo seguirán haciéndolo en su desempeño profesional futuro, consciente al mismo tiempo de que las TIC no poseen un potencial transformador en sí mismas, sino en función del uso que se haga de ellas. Comprobar la veracidad de nuestra hipótesis sobre los potenciales beneficios de las e-actividades en la formación digital de nuestros estudiantes, y de verificarse este supuesto, destacar las condiciones de calidad según las cuales deberían diseñarse

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La Biblioteca Médica Nacional de Cuba ha puesto en marcha un programa de alfabetización informacional para adiestrar a sus usuarios y fomentar en ellos las habilidades necesarias para el uso de bases de datos, así como para fomentar el uso de estrategias de búsquedas bien diseñadas y validadas por los bibliotecarios especialistas en información. En el presente trabajo se describen contenidos y habilidades que se fomentan en el curso "Cochrane Library: La Medicina Basada en Evidencias", cuyo objetivo es que el usuario domine esta base de datos y el concepto de medicina basada en evidencias para la toma de mejores decisiones en la atención médica. Durante el curso se introduce además el Modelo Big 6, como guía del pensamiento para resolver problemas de información que facilite la búsqueda y la organización de la información médica basada en evidencias. Igualmente, se capacita al estudiante para que diseñe productos informativos, como boletines electrónicos, que le permitan tanto presentar los resultados de búsquedas de información como promover información para el cuidado de la salud en el futuro

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La Biblioteca Médica Nacional de Cuba ha puesto en marcha un programa de alfabetización informacional para adiestrar a sus usuarios y fomentar en ellos las habilidades necesarias para el uso de bases de datos, así como para fomentar el uso de estrategias de búsquedas bien diseñadas y validadas por los bibliotecarios especialistas en información. En el presente trabajo se describen contenidos y habilidades que se fomentan en el curso "Cochrane Library: La Medicina Basada en Evidencias", cuyo objetivo es que el usuario domine esta base de datos y el concepto de medicina basada en evidencias para la toma de mejores decisiones en la atención médica. Durante el curso se introduce además el Modelo Big 6, como guía del pensamiento para resolver problemas de información que facilite la búsqueda y la organización de la información médica basada en evidencias. Igualmente, se capacita al estudiante para que diseñe productos informativos, como boletines electrónicos, que le permitan tanto presentar los resultados de búsquedas de información como promover información para el cuidado de la salud en el futuro

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Las aplicaciones de la teledetección al seguimiento de lo que ocurre en la superficie terrestre se han ido multiplicando y afinando con el lanzamiento de nuevos sensores por parte de las diferentes agencias espaciales. La necesidad de tener información actualizada cada poco tiempo y espacialmente homogénea, ha provocado el desarrollo de nuevos programas como el Earth Observing System (EOS) de la National Aeronautics and Space Administration (NASA). Uno de los sensores que incorpora el buque insignia de ese programa, el satélite TERRA, es el Multi-angle Imaging SpectroRadiometer (MISR), diseñado para capturar información multiangular de la superficie terrestre. Ya desde los años 1970, se conocía que la reflectancia de las diversas ocupaciones y usos del suelo variaba en función del ángulo de observación y de iluminación, es decir, que eran anisotrópicas. Tal variación estaba además relacionada con la estructura tridimensional de tales ocupaciones, por lo que se podía aprovechar tal relación para obtener información de esa estructura, más allá de la que pudiera proporcionar la información meramente espectral. El sensor MISR incorpora 9 cámaras a diferentes ángulos para capturar 9 imágenes casi simultáneas del mismo punto, lo que permite estimar con relativa fiabilidad la respuesta anisotrópica de la superficie terrestre. Varios trabajos han demostrado que se pueden estimar variables relacionadas con la estructura de la vegetación con la información que proporciona MISR. En esta Tesis se ha realizado una primera aplicación a la Península Ibérica, para comprobar su utilidad a la hora de estimar variables de interés forestal. En un primer paso se ha analizado la variabilidad temporal que se produce en los datos, debido a los cambios en la geometría de captación, es decir, debido a la posición relativa de sensores y fuente de iluminación, que en este caso es el Sol. Se ha comprobado cómo la anisotropía es mayor desde finales de otoño hasta principios de primavera debido a que la posición del Sol es más cercana al plano de los sensores. También se ha comprobado que los valores máximo y mínimo se van desplazando temporalmente entre el centro y el extremo angular. En la caracterización multiangular de ocupaciones del suelo de CORINE Land Cover que se ha realizado, se puede observar cómo la forma predominante en las imágenes con el Sol más alto es convexa con un máximo en la cámara más cercana a la fuente de iluminación. Sin embargo, cuando el Sol se encuentra mucho más bajo, ese máximo es muy externo. Por otra parte, los datos obtenidos en verano son mucho más variables para cada ocupación que los de noviembre, posiblemente debido al aumento proporcional de las zonas en sombra. Para comprobar si la información multiangular tiene algún efecto en la obtención de imágenes clasificadas según ocupación y usos del suelo, se han realizado una serie de clasificaciones variando la información utilizada, desde sólo multiespectral, a multiangular y multiespectral. Los resultados muestran que, mientras para las clasificaciones más genéricas la información multiangular proporciona los peores resultados, a medida que se amplían el número de clases a obtener tal información mejora a lo obtenido únicamente con información multiespectral. Por otra parte, se ha realizado una estimación de variables cuantitativas como la fracción de cabida cubierta (Fcc) y la altura de la vegetación a partir de información proporcionada por MISR a diferentes resoluciones. En el valle de Alcudia (Ciudad Real) se ha estimado la fracción de cabida cubierta del arbolado para un píxel de 275 m utilizando redes neuronales. Los resultados muestran que utilizar información multiespectral y multiangular puede mejorar casi un 20% las estimaciones realizadas sólo con datos multiespectrales. Además, las relaciones obtenidas llegan al 0,7 de R con errores inferiores a un 10% en Fcc, siendo éstos mucho mejores que los obtenidos con el producto elaborado a partir de datos multiespectrales del sensor Moderate Resolution Imaging Spectroradiometer (MODIS), también a bordo de Terra, para la misma variable. Por último, se ha estimado la fracción de cabida cubierta y la altura efectiva de la vegetación para 700.000 ha de la provincia de Murcia, con una resolución de 1.100 m. Los resultados muestran la relación existente entre los datos espectrales y los multiangulares, obteniéndose coeficientes de Spearman del orden de 0,8 en el caso de la fracción de cabida cubierta de la vegetación, y de 0,4 en el caso de la altura efectiva. Las estimaciones de ambas variables con redes neuronales y diversas combinaciones de datos, arrojan resultados con R superiores a 0,85 para el caso del grado de cubierta vegetal, y 0,6 para la altura efectiva. Los parámetros multiangulares proporcionados en los productos elaborados con MISR a 1.100 m, no obtienen buenos resultados por sí mismos pero producen cierta mejora al incorporarlos a la información espectral. Los errores cuadráticos medios obtenidos son inferiores a 0,016 para la Fcc de la vegetación en tanto por uno, y 0,7 m para la altura efectiva de la misma. Regresiones geográficamente ponderadas muestran además que localmente se pueden obtener mejores resultados aún mejores, especialmente cuando hay una mayor variabilidad espacial de las variables estimadas. En resumen, la utilización de los datos proporcionados por MISR ofrece una prometedora vía de mejora de resultados en la media-baja resolución, tanto para la clasificación de imágenes como para la obtención de variables cuantitativas de la estructura de la vegetación. ABSTRACT Applications of remote sensing for monitoring what is happening on the land surface have been multiplied and refined with the launch of new sensors by different Space Agencies. The need of having up to date and spatially homogeneous data, has led to the development of new programs such as the Earth Observing System (EOS) of the National Aeronautics and Space Administration (NASA). One of the sensors incorporating the flagship of that program, the TERRA satellite, is Multi-angle Imaging Spectroradiometer (MISR), designed to capture the multi-angle information of the Earth's surface. Since the 1970s, it was known that the reflectance of various land covers and land uses varied depending on the viewing and ilumination angles, so they are anisotropic. Such variation was also related to the three dimensional structure of such covers, so that one could take advantage of such a relationship to obtain information from that structure, beyond which spectral information could provide. The MISR sensor incorporates 9 cameras at different angles to capture 9 almost simultaneous images of the same point, allowing relatively reliable estimates of the anisotropic response of the Earth's surface. Several studies have shown that we can estimate variables related to the vegetation structure with the information provided by this sensor, so this thesis has made an initial application to the Iberian Peninsula, to check their usefulness in estimating forest variables of interest. In a first step we analyzed the temporal variability that occurs in the data, due to the changes in the acquisition geometry, i.e. the relative position of sensor and light source, which in this case is the Sun. It has been found that the anisotropy is greater from late fall through early spring due to the Sun's position closer to the plane of the sensors. It was also found that the maximum and minimum values are displaced temporarily between the center and the ends. In characterizing CORINE Land Covers that has been done, one could see how the predominant form in the images with the highest sun is convex with a maximum in the camera closer to the light source. However, when the sun is much lower, the maximum is external. Moreover, the data obtained for each land cover are much more variable in summer that in November, possibly due to the proportional increase in shadow areas. To check whether the information has any effect on multi-angle imaging classification of land cover and land use, a series of classifications have been produced changing the data used, from only multispectrally, to multi-angle and multispectral. The results show that while for the most generic classifications multi-angle information is the worst, as there are extended the number of classes to obtain such information it improves the results. On the other hand, an estimate was made of quantitative variables such as canopy cover and vegetation height using information provided by MISR at different resolutions. In the valley of Alcudia (Ciudad Real), we estimated the canopy cover of trees for a pixel of 275 m by using neural networks. The results showed that using multispectral and multiangle information can improve by almost 20% the estimates that only used multispectral data. Furthermore, the relationships obtained reached an R coefficient of 0.7 with errors below 10% in canopy cover, which is much better result than the one obtained using data from the Moderate Resolution Imaging Spectroradiometer (MODIS), also onboard Terra, for the same variable. Finally we estimated the canopy cover and the effective height of the vegetation for 700,000 hectares in the province of Murcia, with a spatial resolution of 1,100 m. The results show a relationship between the spectral and the multi-angle data, and provide estimates of the canopy cover with a Spearman’s coefficient of 0.8 in the case of the vegetation canopy cover, and 0.4 in the case of the effective height. The estimates of both variables using neural networks and various combinations of data, yield results with an R coefficient greater than 0.85 for the case of the canopy cover, and 0.6 for the effective height. Multi-angle parameters provided in the products made from MISR at 1,100 m pixel size, did not produce good results from themselves but improved the results when included to the spectral information. The mean square errors were less than 0.016 for the canopy cover, and 0.7 m for the effective height. Geographically weighted regressions also showed that locally we can have even better results, especially when there is high spatial variability of estimated variables. In summary, the use of the data provided by MISR offers a promising way of improving remote sensing performance in the low-medium spatial resolution, both for image classification and for the estimation of quantitative variables of the vegetation structure.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Several authors have analysed the changes of the probability density function of the solar radiation with different time resolutions. Some others have approached to study the significance of these changes when produced energy calculations are attempted. We have undertaken different transformations to four Spanish databases in order to clarify the interrelationship between radiation models and produced energy estimations. Our contribution is straightforward: the complexity of a solar radiation model needed for yearly energy calculations, is very low. Twelve values of monthly mean of solar radiation are enough to estimate energy with errors below 3%. Time resolutions better than hourly samples do not improve significantly the result of energy estimations.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La calidad del hormigón prefabricado se determina mediante ensayos de rotura a compresión en probetas transcurridos los 28 días de curado, según establece la EHE-08. Sin embargo, en la plantas de prefabricados es necesario además saber cuándo el hormigón está listo para ser procesado (destensado, cortado, trasladado), por lo que es necesario hacer ensayos de resistencia a la compresión entre las 48 y 72 horas, este tiempo se determina a partir de la experiencia previa adquirida y depende de las condiciones de cada planta. Si las probetas no han alcanzado el valor establecido, normalmente debido a un cambio en las condiciones climatológicas o en los materiales utilizados como el tipo de cemento o agregados, la solución adoptada suele ser dejar curar el material más horas en la pista para que alcance la resistencia necesaria para ser procesado. Si sigue sin alcanzarla, lo cual sucede muy ocasionalmente, se intenta analizar cuál ha sido el motivo, pudiéndose tirar toda la producción de ese día si se comprueba que ha sido un fallo en la fabricación de la línea, y no un fallo de la probeta. Por tanto, esta metodología de control de calidad, basada en técnicas destructivas, supone dos tipos de problemas, costes y representatividad. Los métodos no destructivos que más se han aplicado para caracterizar el proceso de curado del hormigón son los ultrasónicos y la medida de la temperatura como se recoge en la bibliografía consultada. Hay diferentes modelos que permiten establecer una relación entre la temperatura y el tiempo de curado para estimar la resistencia a compresión del material, y entre la velocidad de propagación ultrasónica y la resistencia. Aunque estas relaciones no son generales, se han obtenido muy buenos resultados, ejemplo de ello es el modelo basado en la temperatura, Maturity Method, que forma parte de la norma de la ASTM C 1074 y en el mercado hay disponibles equipos comerciales (maturity meters) para medir el curado del hormigón. Además, es posible diseñar sistemas de medida de estos dos parámetros económicos y robustos; por lo cual es viable la realización de una metodología para el control de calidad del curado que pueda ser implantado en las plantas de producción de prefabricado. En este trabajo se ha desarrollado una metodología que permite estimar la resistencia a la compresión del hormigón durante el curado, la cual consta de un procedimiento para el control de calidad del prefabricado y un sistema inalámbrico de sensores para la medida de la temperatura y la velocidad ultrasónica. El procedimiento para el control de calidad permite realizar una predicción de la resistencia a compresión a partir de un modelo basado en la temperatura de curado y otros dos basados en la velocidad, método de tiempo equivalente y método lineal. El sistema inalámbrico de sensores desarrollado, WilTempUS, integra en el mismo dispositivo sensores de temperatura, humedad relativa y ultrasonidos. La validación experimental se ha realizado mediante monitorizaciones en probetas y en las líneas de prefabricados. Los resultados obtenidos con los modelos de estimación y el sistema de medida desarrollado muestran que es posible predecir la resistencia en prefabricados de hormigón en planta con errores comparables a los aceptables por norma en los ensayos de resistencia a compresión en probetas. ABSTRACT Precast concrete quality is determined by compression tests breakage on specimens after 28 days of curing, as established EHE-08. However, in the precast plants is also necessary to know when the concrete is ready to be processed (slack, cut, moved), so it is necessary to test the compressive strength between 48 and 72 hours. This time is determined from prior experience and depends on the conditions of each plant. If the samples have not reached the set value, usually due to changes in the weather conditions or in the materials used as for example the type of cement or aggregates, the solution usually adopted is to cure the material on track during more time to reach the required strength for processing. If the material still does not reach this strength, which happens very occasionally, the reason of this behavior is analyzed , being able to throw the entire production of that day if there was a failure in the manufacturing line, not a failure of the specimen. Therefore, this method of quality control, using destructive techniques, involves two kinds of problems, costs and representativeness. The most used non-destructive methods to characterize the curing process of concrete are those based on ultrasonic and temperature measurement as stated in the literature. There are different models to establish a relationship between temperature and the curing time to estimate the compressive strength of the material, and between the ultrasonic propagation velocity and the compressive strength. Although these relationships are not general, they have been very successful, for example the Maturity Method is based on the temperature measurements. This method is part of the standards established in ASTM C 1074 and there are commercial equipments available (maturity meters) in the market to measure the concrete curing. Furthermore, it is possible to design inexpensive and robust systems to measure ultrasounds and temperature. Therefore is feasible to determine a method for quality control of curing to be implanted in the precast production plants. In this work, it has been developed a methodology which allows to estimate the compressive strength of concrete during its curing process. This methodology consists of a procedure for quality control of the precast concrete and a wireless sensor network to measure the temperature and ultrasonic velocity. The procedure for quality control allows to predict the compressive strength using a model based on the curing temperature and two other models based on ultrasonic velocity, the equivalent time method and the lineal one. The wireless sensor network, WilTempUS, integrates is the same device temperature, relative humidity and ultrasonic sensors. The experimental validation has been carried out in cubic specimens and in the production plants. The results obtained with the estimation models and the measurement system developed in this thesis show that it is possible to predict the strength in precast concrete plants with errors within the limits of the standards for testing compressive strength specimens.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

RESUMEN. A partir de las diferentes definiciones entre “caer” o “estar” en la paranoia y los conceptos que se le relacionan, esta investigación descubre las diferentes herramientas proyectuales que permiten utilizar la arquitectura como medio para conducir a la sociedad al error, al delirio. Asumiendo que hoy en día el modo en el que se percibe la realidad es consecuencia de un proceso de moldeamiento psíquico, se realiza un proceso retroactivo en Coney Island (1900) y el Gueto de Varsovia (1940) para estudiar, confrontar y poner en duda los distintos formas de aprendizaje con los que actualmente se proyecta. Se pretende, tomando conciencia de lo anterior, plantear las bases de un nuevo método proyectual que sabiendo que es delirante juega con su funcionamiento paranoico. ABSTRACT. From the different definitions between "fall" or "to be" in the paranoia and its related concepts, this research finds out different tools which uses Architecture as a means to lead society to failure, delirium. Assuming that today the way reality is perceived is the result of a mental shaping process,a retrospective process in Coney Island (1900) and the Warsaw Ghetto (1940) is done in order to explore, confront and question various forms of learning with are currently used to design in architecture. It is intended, becoming aware of the above, to lay the groundwork for a new methodological approach in conception that knowing it is delirious, plays with its paranoid functioning.