71 resultados para non-destructive testing, seal integrity, packaging quality


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Apples can be considered as having a complex system formed by several structures at different organization levels: macroscale (mayor que100 ?m) and microscale (menor que100 ?m). This work implements 2D T1/T2 global and localized relaxometry sequences on whole apples to be able to perform an intensive non-destructive and non-invasive microstructure study. The 2D T1/T2 cross-correlation spectroscopy allows the extraction of quantitative information about the water compartmentation in different subcellular organelles. A clear difference is found as sound apples show neat peaks for water in different subcellular compartments, such as vacuolar, cytoplasmatic and extracellular water, while in watercore-affected tissues such compartments appear merged. Localized relaxometry allows for the predefinition of slices in order to understand the microstructure of a particular region of the fruit, providing information that cannot be derived from global 2D T1/T2 relaxometry.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los pernos conectores aportan múltiples ventajas de uso, entre las que se encuentra el elevado margen de seguridad que ofrecen sus soldaduras ejecutadas mediante arco eléctrico. Estas soldaduras, aunque ampliamente fiables, son difícilmente comprobadas mediante ensayos no destructivos. Aparte de la inspección visual, que aporta gran información sobre la calidad de ejecución de la soldadura, el resto de ensayos no destructivos (líquidos penetrantes, partículas magnéticas, ultrasonidos, radiografías, etc.) resultan inviables en estos elementos. Por otro lado, los ensayos acústicos de piezas metálicas han existido siempre. Su comprobación se basaba en el análisis por medio de ¿un oído fino¿ del sonido resultante tras ser golpeado el elemento a evaluar. Con estas premisas se plantea el presente estudio de inspección de las soldaduras en pernos conectores mediante su espectro acústico. Analíticamente, la investigación se ha centrado en el cálculo informático de los primeros modos propios de vibración mediante elementos finitos. Se han modelizado diferentes grados de penetración de la soldadura mediante la modificación de las condiciones de contorno. Se ha observado que variando el número de movimientos coaccionados en los nodos pertenecientes a la soldadura se produce una reducción en su frecuencia de vibración.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Apples can be considered as having a complex system formed by several structures at different organization levels: macroscale (>100 μm) and microscale (<100 μm). This work implements 2D T1/T2 global and localized relaxometry sequences on whole apples to be able to perform an intensive non-destructive and non-invasive microstructure study. The 2D T1/T2 cross-correlation spectroscopy allows the extraction of quantitative information about the water compartmentation in different subcellular organelles. A clear difference is found as sound apples show neat peaks for water in different subcellular compartments, such as vacuolar, cytoplasmatic and extracellular water, while in watercore-affected tissues such compartments appear merged. Localized relaxometry allows for the predefinition of slices in order to understand the microstructure of a particular region of the fruit, providing information that cannot be derived from global 2D T1/T2 relaxometry.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper studies the relationship between aging, physical changes and the results of non-destructive testing of plywood. 176 pieces of plywood were tested to analyze their actual and estimated density using non-destructive methods (screw withdrawal force and ultrasound wave velocity) during a laboratory aging test. From the results of statistical analysis it can be concluded that there is a strong relationship between the non-destructive measurements carried out, and the decline in the physical properties of the panels due to aging. The authors propose several models to estimate board density. The best results are obtained with ultrasound. A reliable prediction of the degree of deterioration (aging) of board is presented. Breeder blanket materials have to produce tritium from lithium while fulfilling several strict conditions. In particular, when dealing with materials to be applied in fusion reactors, one of the key questions is the study of light ions retention, which can be produced by transmutation reactions and/or introduced by interaction with the plasma. In ceramic breeders the understanding of the hydrogen isotopes behaviour and specially the diffusion of tritium to the surface is crucial. Moreover the evolution of the microstructure during irradiation with energetic ions, neutrons and electrons is complex because of the interaction of a high number of processes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Freezing of water or salt solution in concrete pores is a main cause for severe damage and significant reduction of the service life. Most of the freeze-thaw (F-T) accelerated tests measure the scaling of concrete by weighting. This paper presents complementary procedures based on the use of strain gages and ultrasonic pulse velocity (UPV) for measuring the deterioration of concrete due to freezing and thawing. These non-destructive testing (NDT) procedures are applied to two types of concretes, one susceptible to F-T damage and the other does not. The results show a good correlation between scaling and the measurements obtained with NDT. Showing NDT the advantage to detect before the damage and to perform continuous measurement

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Safety is one of the most important feature in the aviation industry, and this involves too many factors. One of these is the aircraft maintenance. Over time, the procedures have been changing, and improving themselves. Non Destructive Testing (NDT) appeared in the late 19th century as a great option, because it enabled to inspect any structure without damaging it. Nowadays, there are several kinds of NDT, but ultrasound is one of the most widely used. This Master Thesis is devoted to an innovative ultrasound technique for crack detection. A technique, whose main aim lies in getting a good location of defects from a few measures, breaking with the currently widespread methods, as phased array. It is not necessary to use trains of waves, only discrete excitations, which means a great saving of time and energy. This work is divided into two steps: the first is to develop a multiphysics simulator, which is able to solve linear elasticity 3D problems (via Finite Element Method, FEM). This simulator allows to obtain in a computationally efficient way the displacement field for different frequencies and excitations. The solution of this elastic problem is needed to be used in the second step, which consists of generating a code that implements a mathematical tool named topological derivative, allowing to locate defects in the studied domain. In this work, the domain is a plate, and the defect is a hidden spherical void. The simulator has been developed using open source software (Elmer, Gmsh, ...), achieving a highly versatile simulator, which allows to change the configuration easily: domain size and shape, number and position of transducers, etc. Just one comercial software is used, Matlab. It is used to implement the topological derivative. In this work, the performance of the method is tested in several examples comparing the results when one or more frequencies are considered for different configurations of emisors/receptors.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El deterioro del hormigón por ciclos de hielo-deshielo en presencia de sales fundentes es causa frecuente de problemas en los puentes e infraestructuras existentes en los países europeos. Los daños producidos por los ciclos de hielo-deshielo en el hormigón pueden ser internos, fundamentalmente la fisuración y/o externos como el descascarillamiento (desgaste superficial). La España peninsular presenta unas características geográficas y climáticas particulares. El 18% de la superficie tiene una altura superior a 1000mts y, además, la altura media geográfica con respecto al nivel del mar es de 660mts (siendo el segundo país más montañoso de toda Europa).Esto hace que la Red de Carreteras del Estado se vea afectada, durante determinados periodos, por fenómenos meteorológicos adversos, en particular por nevadas y heladas, que pueden comprometer las condiciones de vialidad para la circulación de vehículos. Por este motivo la Dirección General de Carreteras realiza trabajos anualmente (campañas de vialidad invernal, de 6 meses de duración) para el mantenimiento de la vialidad de las carreteras cuando éstas se ven afectadas por estos fenómenos. Existen protocolos y planes operativos que permiten sistematizar estos trabajos de mantenimiento que, además, se han intensificado en los últimos 10 años, y que se fundamentan en el empleo de sales fundentes, principalmente NaCl, con la misión de que no haya placas de hielo, ni nieve, en las carreteras. En zonas de fuerte oscilación térmica, que con frecuencia en España se localizan en la zona central del Pirineo, parte de la cornisa Cantábrica y Sistema Central, se producen importantes deterioros en las estructuras y paramentos de hormigón producidos por los ciclos de hielo- deshielo. Pero además el uso de fundentes de vialidad invernal acelera en gran medida la evolución de estos daños. Los tableros de hormigón de puentes de carretera de unos 40-50 años de antigüedad carecen, en general, de un sistema de impermeabilización, y están formados frecuentemente por un firme de mezcla asfáltica, una emulsión adherente y el hormigón de la losa. En la presente tesis se realiza una investigación que pretende reproducir en laboratorio los procesos que tienen lugar en el hormigón de tableros de puentes existentes de carreteras, de unos 40-50 años de antigüedad, que están expuestos durante largos periodos a sales fundentes, con objeto de facilitar la vialidad invernal, y a cambios drásticos de temperatura (hielo y deshielo). Por ello se realizaron cuatro campañas de investigación, teniendo en cuenta que, si bien nos basamos en la norma europea UNE-CEN/TS 12390-9 “Ensayos de hormigón endurecido. Resistencia al hielo-deshielo. Pérdida de masa”, se fabricaron probetas no estandarizadas para este ensayo, pensado en realidad para determinar la afección de los ciclos únicamente a la pérdida de masa. Las dimensiones de las probetas en nuestro caso fueron 150x300 mm, 75 x 150mm (cilíndricas normalizadas para roturas a compresión según la norma UNE-EN 12390-3) y 286x76x76 (prismáticas normalizadas para estudiar cambio de volumen según la norma ASTM C157), lo cual nos permitió realizar sobre las mismas probetas más ensayos, según se presentan en la tesis y, sobre todo, poder comparar los resultados con probetas extraídas de dimensiones similares en puentes existentes. En la primera campaña, por aplicación de la citada norma, se realizaron ciclos de H/D, con y sin contacto con sales de deshielo (NaCl en disolución del 3% según establece dicha norma). El hormigón fabricado en laboratorio, tratando de simular el de losas de tableros de puentes antiguos, presentó una fc de 22,6 MPa y relación agua/cemento de 0,65. Las probetas de hormigón fabricadas se sometieron a ciclos agresivos de hielo/deshielo (H/D), empleando una temperatura máxima de +20ºC y una temperatura mínima de -20ºC al objeto de poder determinar la sensibilidad de este ensayo tanto al tipo de hormigón elaborado como al tipo de probeta fabricado (cilíndrica y prismática). Esta campaña tuvo una segunda fase para profundizar más en el comportamiento de las probetas sometidas a ciclos H/D en presencia de sales. En la segunda campaña, realizada sobre probetas de hormigón fabricadas en laboratorio iguales a las anteriores, la temperaturas mínima del ensayo se subió a -14ºC, lo que nos permitió analizar el proceso de deterioro con más detalle. (Realizando una serie de ensayos de caracterización no destructivos y otros destructivos, y validando su aplicación a la detección de los deterioros causados tras los ensayos acelerados de hielodeshielo. También mediante aplicación de técnicas de microscopía electrónica.) La tercera campaña, se realizó sobre probetas de hormigón de laboratorio similares a las anteriores, fc de 29,3Mpa y relación a/c de 0,65, en las que se aplicó en una cara un revestimiento asfáltico de 2-4cms, según fueran prismáticas y cilíndricas respectivamente, compuesto por una mezcla asfáltica real (AC16), sobre una imprimación bituminosa. (Para simular el nivel de impermeabilización que produce un firme sobre el tablero de un puente) La cuarta campaña, se desarrolló tras una cuidadosa selección de dos puentes de hormigón de 40-50 años de antigüedad, expuestos y sensibles a deterioros de hielodeshielo, y en carreteras con aportación de fundentes. Una vez esto se extrajeron testigos de hormigón de zonas sanas (nervios del tablero), para realizar en laboratorio los mismos ensayos acelerados de hielo-deshielo y de caracterización, de la segunda campaña, basados en la misma norma. De los resultados obtenidos se concluye que cuando se emplean sales fundentes se acelera de forma significativa el deterioro, aumentando tanto el contenido de agua en los poros como el gradiente generado (mecanismo de deterioro físico). Las sales de deshielo aceleran claramente la aparición del daño, que se incrementa incluso en un factor de 5 según se constata en esta investigación para los hormigones ensayados. Pero además se produce un gradiente de cloruros que se ha detectado tanto en los hormigones diseñados en laboratorio como en los extraídos de puentes existentes. En casi todos los casos han aparecido cambios en la microestructura de la pasta de cemento (mecanismo de deterioro químico), confirmándose la formación de un compuesto en el gel CSH de la pasta de cemento, del tipo Ca2SiO3Cl2, que posiblemente está contribuyendo a la alteración de la pasta y a la aceleración de los daños en presencia de sales fundentes. Existe un periodo entre la aparición de fisuración y la pérdida de masa. Las fisuras progresan rápidamente desde la interfase de los áridos más pequeños y angulosos, facilitando así el deterioro del hormigón. Se puede deducir así que el tipo de árido afecta al deterioro. En el caso de los testigos con recubrimiento asfáltico, parece haberse demostrado que la precipitación de sales genera tensiones en las zonas de hormigón cercanas al recubrimiento, que terminan por fisurar el material. Y se constata que el mecanimo de deterioro químico, probablemente tenga más repercusión que el físico, por cuanto el recubrimiento asfáltico es capaz de retener suficiente agua, como para que el gradiente de contenido de agua en el hormigón sea mucho menor que sin el recubrimiento. Se constató, sin embargo, la importancia del gradiente de cloruros en el hormigon. Por lo que se deduce que si bien el recubrimiento asfáltico es ciertamente protector frente a los ciclos H/D, su protección disminuye en presencia de sales; es decir, los cloruros acabarán afectando al hormigón del tablero del puente. Finalmente, entre los hormigones recientes y los antiguos extraídos de puentes reales, se observa que existen diferencias significativas en cuanto a la resistencia a los ciclos H/D entre ellos. Los hormigones más recientes resultan, a igualdad de propiedades, más resistentes tanto a ciclos de H/D en agua como en sales. Posiblemente el hecho de que los hormigones de los puentes hayan estado expuestos a condiciones de temperaturas extremas durante largos periodos de tiempo les ha sensibilizado. La tesis realizada, junto con nuevos contrastes que se realicen en el futuro, nos permitirá implementar una metodología basada en la extracción de testigos de tableros de puente reales para someterlos a ensayos de hielo-deshielo, basados en la norma europea UNECEN/ TS 12390-9 aunque con probetas no normalizadas para el mismo, y, a su vez, realizar sobre estas probetas otros ensayos de caracterización destructivos, que posibilitarán evaluar los daños ocasionados por este fenómeno y su evolución temporal, para actuar consecuentemente priorizando intervenciones de impermeabilización y reparación en el parque de puentes de la RCE. Incluso será posible la elaboración de mapas de riesgo, en función de las zonas de climatología más desfavorable y de los tratamientos de vialidad invernal que se lleven a cabo. Concrete damage by freeze-thaw cycles in the presence of melting salts frequently causes problems on bridges and infrastructures in European countries. Damage caused by freeze-thaw cycles in the concrete can be internal, essentially cracking and / or external as flaking (surface weathering due to environmental action). The peninsular Spain presents specific climatic and geographical characteristics. 18% of the surface has a height greater than 1,000 m and the geographical average height from the sea level is 660 m (being the second most mountainous country in Europe). This makes the National Road Network affected during certain periods due to adverse weather, particularly snow and ice, which can compromise road conditions for vehicular traffic. For this reason the National Road Authority performs works annually (Winter Road Campaign, along 6 months) to maintain the viability of the roads when they are affected by these phenomena. There are protocols and operational plans that allow systematize these maintenance jobs, that also have intensified in the last 10 years, and which are based on the use of deicing salts, mainly NaCl, with the mission that no ice sheets, or snow appear on the roads. In areas of strong thermal cycling, which in Spain are located in the central area of the Pyrenees, part of the Cantabrian coast and Central System, significant deterioration take place in the structures and wall surfaces of concrete due to freeze-thaw. But also the use of deicing salts for winter maintenance greatly accelerated the development of such damages. The concrete decks for road bridges about 40-50 years old, lack generally a waterproofing system, and are often formed by a pavement of asphalt, an adhesive emulsion and concrete slab. In this thesis the research going on aims to reproduce in the laboratory the processes taking place in the concrete of an existing deck at road bridges, about 40-50 years old, they are exposed for long periods to icing salt, to be performed in order to facilitate winter maintenance, and drastic temperature changes (freezing and thawing). Therefore four campaigns of research were conducted, considering that while we rely on the European standard UNE-CEN/TS 12390-9 "Testing hardened concrete. Freezethaw resistance. Mass loss", nonstandard specimens were fabricated for this test, actually conceived to determine the affection of the cycles only to the mass loss. Dimensions of the samples were in our case 150x300 mm, 75 x 150mm (standard cylindrical specimens for compression fractures UNE-EN 12390-3) and 286x76x76 (standard prismatic specimens to study volume change ASTM C157), which allowed us to carry on same samples more trials, as presented in the thesis, and especially to compare the results with similar sized samples taken from real bridges. In the first campaign, by application of that European standard, freeze-thaw cycles, with and without contact with deicing salt (NaCl 3% solution in compliance with such standard) were performed. Concrete made in the laboratory, trying to simulate the old bridges, provided a compressive strength of 22.6 MPa and water/cement ratio of 0.65. In this activity, the concrete specimens produced were subjected to aggressive freeze/thaw using a maximum temperature of +20ºC and a minimum temperature of - 20°C in order to be able to determine the sensitivity of this test to the concrete and specimens fabricated. This campaign had a second phase to go deeper into the behavior of the specimens subjected to cycled freeze/thaw in the presence of salts. In the second campaign, conducted on similar concrete specimens manufactured in laboratory, temperatures of +20ºC and -14ºC were used in the tests, which allowed us to analyze the deterioration process in more detail (performing a series of non-destructive testing and other destructive characterization, validating its application to the detection of the damage caused after the accelerated freeze-thaw tests, and also by applying electron microscopy techniques). The third campaign was conducted on concrete specimens similar to the above manufactured in laboratory, both cylindrical and prismatic, which was applied on one side a 4 cm asphalt coating, consisting of a real asphalt mixture, on a bituminous primer (for simulate the level of waterproofing that produces a pavement on the bridge deck). The fourth campaign was developed after careful selection of two concrete bridges 40- 50 years old, exposed and sensitive to freeze-thaw damage, in roads with input of melting salts. Concrete cores were extracted from healthy areas, for the same accelerated laboratory freeze-thaw testing and characterization made for the second campaign, based on the same standard. From the results obtained it is concluded that when melting salts are employed deterioration accelerates significantly, thus increasing the water content in the pores, as the gradient. Besides, chloride gradient was detected both in the concrete designed in the laboratory and in the extracted in existing bridges. In all cases there have been changes in the microstructure of the cement paste, confirming the formation of a compound gel CSH of the cement paste, Ca2SiO3Cl2 type, which is possibly contributing to impair the cement paste and accelerating the damage in the presence of melting salts. The detailed study has demonstrated that the formation of new compounds can cause porosity at certain times of the cycles may decrease, paradoxically, as the new compound fills the pores, although this phenomenon does not stop the deterioration mechanism and impairments increase with the number of cycles. There is a period between the occurrence of cracking and mass loss. Cracks progress rapidly from the interface of the smallest and angular aggregate, thus facilitating the deterioration of concrete. It can be deduced so the aggregate type affects the deterioration. The presence of melting salts in the system clearly accelerates the onset of damage, which increases even by a factor of 5 as can be seen in this investigation for concrete tested. In the case of specimens with asphalt coating, it seems to have demonstrated that the precipitation of salts generate tensions in the areas close to the concrete coating that end up cracking the material. It follows that while the asphalt coating is certainly a protection against the freeze/thaw cycles, this protection decreases in the presence of salts; so the chlorides will finally affect the concrete bridge deck. Finally, among the recent concrete specimens and the old ones extracted from real bridges, it is observed that the mechanical strengths are very similar to each other, as well as the porosity values and the accumulation capacity after pore water saturation. However, there are significant differences in resistance to freeze/thaw cycles between them. More recent concrete are at equal properties more resistant both cycles freeze/thaw in water with or without salts. Possibly the fact that concrete bridges have been exposed to extreme temperatures for long periods of time has sensitized them. The study, along with new contrasts that occur in the future, allow us to implement a methodology based on the extraction of cores from the deck of real bridges for submission to freeze-thaw tests based on the European standard UNE-CEN/TS 12390-9 even with non-standard specimens for it, and in turn, performed on these samples other destructive characterization tests, which will enable to assess the damage caused by this phenomenon and its evolution, to act rightly prioritizing interventions improving the waterproofing and other repairs in the bridge stock of the National Road Network. It will even be possible to develop risk maps, depending on the worst weather areas and winter road treatments to be carried out.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente tesis propone un nuevo método de cartografía de ensayos no destructivos en edificios históricos mediante el uso de técnicas basadas en SIG. Primeramente, se define el método por el cual es posible elaborar y convertir una cartografía 3D basada en nubes de puntos de un elemento arquitectónico obtenida mediante fotogrametría, en cartografía raster y vectorial, legible por los sistemas SIG mediante un sistema de coordenadas particular que referencian cada punto de la nube obtenida por fotogrametría. A esta cartografía inicial la denominaremos cartografía base. Después, se define el método por el cual los puntos donde se realiza un ensayo NDT se referencian al sistema de coordenadas del plano base, lo que permite la generación de cartografías de los ensayos referenciadas y la posibilidad de obtener sobre un mismo plano base diferentes datos de múltiples ensayos. Estas nuevas cartografías las denominaremos cartografías de datos, y se demostrará la utilidad de las mismas en el estudio del deterioro y la humedad. Se incluirá el factor tiempo en las cartografías, y se mostrará cómo este nuevo hecho posibilita el trabajo interdisciplinar en la elaboración del diagnóstico. Finalmente, se generarán nuevas cartografías inéditas hasta entonces consistentes en la combinación de diferentes cartografías de datos con la misma planimetría base. Estas nuevas cartografías, darán pie a la obtención de lo que se ha definido como mapas de isograma de humedad, mapa de isograma de salinidad, factor de humedad, factor de evaporación, factor de salinidad y factor de degradación del material. Mediante este sistema se facilitará una mejor visión del conjunto de los datos obtenidos en el estudio del edificio histórico, lo que favorecerá la correcta y rigurosa interpretación de los datos para su posterior restauración. ABSTRACT This research work proposes a new mapping method of non-destructive testing in historical buildings, by using techniques based on GIS. First of all, the method that makes it possible to produce and convert a 3D map based on cloud points from an architectural element obtained by photogrammetry, are defined, as raster and vector, legible by GIS mapping systems using a particular coordinate system that will refer each cloud point obtained by photogrammetry. This initial mapping will be named base planimetry. Afterwards, the method by which the points where the NDT test is performed are referenced to the coordinate system of the base plane , which allows the generation of maps of the referenced tests and the possibility of obtaining different data from multiple tests on the same base plane. These new maps will be named mapping data and their usefulness will be demonstrated in the deterioration and moisture study. The time factor in maps will be included, and how this new fact will enable the interdisciplinary work in the elaboration of the diagnosis will be proved. Finally, new maps (unpublished until now) will be generated by combining different mapping from the same planimetry data base. These new maps will enable us to obtain what have been called isograma moisture maps, isograma salinity- maps, humidity factor, evaporation factor, salinity factor and the material degradation factor. This system will provide a better vision of all data obtained in the study of historical buildings , and will ease the proper and rigorous data interpretation for its subsequent restoration.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La artroplastia de cadera se considera uno de los mayores avances quirúrgicos de la Medicina. La aplicación de esta técnica de Traumatología se ha incrementado notablemente en los últimos anos, a causa principalmente del progresivo incremento de la esperanza de vida. En efecto, con la edad aumentan los problemas de artrosis y osteoporosis, enfermedades típicas de las articulaciones y de los huesos que requieren en muchos casos la sustitución protésica total o parcial de la articulación. El buen comportamiento funcional de una prótesis depende en gran medida de la estabilidad primaria, es decir, el correcto anclaje de la prótesis en el momento de su implantación. Las prótesis no cementadas basan su éxito a largo plazo en la osteointegración que tiene lugar entre el material protésico y el tejido óseo, y para lograrla es imprescindible conseguir unas buenas condiciones de estabilidad primaria. El aflojamiento aséptico es la principal causa de fallo de artroplastia total de cadera. Este es un fenómeno en el que, debido a complejas interacciones de factores mecánicos y biológicos, se producen movimientos relativos que comprometen la funcionalidad del implante. La minimización de los correspondientes danos depende en gran medida de la detección precoz del aflojamiento. Para lograr la detección temprana del aflojamiento aséptico del vástago femoral se han ensayado diferentes técnicas, tanto in vivo como in vitro: análisis numéricos y técnicas experimentales basadas en sensores de movimientos provocados por cargas transmitidas natural o artificialmente, tales como impactos o vibraciones de distintas frecuencias. Los montajes y procedimientos aplicados son heterogéneos y, en muchas ocasiones, complejos y costosos, no existiendo acuerdo sobre una técnica simple y eficaz de aplicación general. Asimismo, en la normativa vigente que regula las condiciones que debe cumplir una prótesis previamente a su comercialización, no hay ningún apartado referido específicamente a la evaluación de la bondad del diseño del vástago femoral con respecto a la estabilidad primaria. El objetivo de esta tesis es desarrollar una metodología para el análisis, in vitro, de la estabilidad de un vástago femoral implantado, a fin de poder evaluar las técnicas de implantación y los diferentes diseños de prótesis previamente a su oferta en el mercado. Además se plantea como requisito fundamental que el método desarrollado sea sencillo, reversible, repetible, no destructivo, con control riguroso de parámetros (condiciones de contorno de cargas y desplazamientos) y con un sistema de registro e interpretación de resultados rápido, fiable y asequible. Como paso previo, se ha realizado un análisis cualitativo del problema de contacto en la interfaz hueso-vástago aplicando una técnica optomecánica del campo continuo (fotoelasticidad). Para ello se han fabricado tres modelos en 2D del conjunto hueso-vástago, simulando tres tipos de contactos en la interfaz: contacto sin adherencia y con holgura, contacto sin adherencia y sin holgura, y contacto con adherencia y homogéneo. Aplicando la misma carga a cada modelo, y empleando la técnica de congelación de tensiones, se han visualizado los correspondientes estados tensionales, siendo estos más severos en el modelo de unión sin adherencia, como cabía esperar. En todo caso, los resultados son ilustrativos de la complejidad del problema de contacto y confirman la conveniencia y necesidad de la vía experimental para el estudio del problema. Seguidamente se ha planteado un ensayo dinámico de oscilaciones libres con instrumentación de sensores resistivos tipo galga extensométrica. Las muestras de ensayo han sido huesos fémur en todas sus posibles variantes: modelos simplificados, hueso sintético normalizado y hueso de cadáver, seco y fresco. Se ha diseñado un sistema de empotramiento del extremo distal de la muestra (fémur) con control riguroso de las condiciones de anclaje. La oscilación libre de la muestra se ha obtenido mediante la liberación instantánea de una carga estética determinada y aplicada previamente, bien con una maquina de ensayo o bien por gravedad. Cada muestra se ha instrumentado con galgas extensométricas convencionales cuya señal se ha registrado con un equipo dinámico comercial. Se ha aplicado un procedimiento de tratamiento de señal para acotar, filtrar y presentar las respuestas de los sensores en el dominio del tiempo y de la frecuencia. La interpretación de resultados es de tipo comparativo: se aplica el ensayo a una muestra de fémur Intacto que se toma de referencia, y a continuación se repite el ensayo sobre la misma muestra con una prótesis implantada; la comparación de resultados permite establecer conclusiones inmediatas sobre los efectos de la implantación de la prótesis. La implantación ha sido realizada por un cirujano traumatólogo utilizando las mismas técnicas e instrumental empleadas en el quirófano durante la práctica clínica real, y se ha trabajado con tres vástagos femorales comerciales. Con los resultados en el dominio del tiempo y de la frecuencia de las distintas aplicaciones se han establecido conclusiones sobre los siguientes aspectos: Viabilidad de los distintos tipos de muestras sintéticas: modelos simplificados y fémur sintético normalizado. Repetibilidad, linealidad y reversibilidad del ensayo. Congruencia de resultados con los valores teóricos deducidos de la teoría de oscilaciones libres de barras. Efectos de la implantación de tallos femorales en la amplitud de las oscilaciones, amortiguamiento y frecuencias de oscilación. Detección de armónicos asociados a la micromovilidad. La metodología se ha demostrado apta para ser incorporada a la normativa de prótesis, es de aplicación universal y abre vías para el análisis de la detección y caracterización de la micromovilidad de una prótesis frente a las cargas de servicio. ABSTRACT Total hip arthroplasty is considered as one of the greatest surgical advances in medicine. The application of this technique on Traumatology has increased significantly in recent years, mainly due to the progressive increase in life expectancy. In fact, advanced age increases osteoarthritis and osteoporosis problems, which are typical diseases of joints and bones, and in many cases require full or partial prosthetic replacement on the joint. Right functional behavior of prosthesis is highly dependent on the primary stability; this means it depends on the correct anchoring of the prosthesis at the time of implantation. Uncemented prosthesis base their long-term success on the quality of osseointegration that takes place between the prosthetic material and bone tissue, and to achieve this good primary stability conditions is mandatory. Aseptic loosening is the main cause of failure in total hip arthroplasty. This is a phenomenon in which relative movements occur, due to complex interactions of mechanical and biological factors, and these micromovements put the implant functionality at risk. To minimize possible damage, it greatly depends on the early detection of loosening. For this purpose, various techniques have been tested both in vivo and in vitro: numerical analysis and experimental techniques based on sensors for movements caused by naturally or artificially transmitted loads, such as impacts or vibrations at different frequencies. The assemblies and methods applied are heterogeneous and, in many cases, they are complex and expensive, with no agreement on the use of a simple and effective technique for general purposes. Likewise, in current regulations for governing the conditions to be fulfilled by the prosthesis before going to market, there is no specific section related to the evaluation of the femoral stem design in relation to primary stability. The aim of this thesis is to develop a in vitro methodology for analyzing the stability of an implanted femoral stem, in order to assess the implantation techniques and the different prosthesis designs prior to its offer in the market. We also propose as a fundamental requirement that the developed testing method should be simple, reversible, repeatable, non-destructive, with close monitoring of parameters (boundary conditions of loads and displacements) and with the availability of a register system to record and interpret results in a fast, reliable and affordable manner. As a preliminary step, we have performed a qualitative analysis of the contact problems in the bone-stem interface, through the application of a continuous field optomechanical technique (photoelasticity). For this proposal three 2D models of bone–stem set, has been built simulating three interface contact types: loosened an unbounded contact, unbounded and fixed contact, and bounded homogeneous contact. By means of applying the same load to each model, and using the stress freezing technique, it has displayed the corresponding stress states, being more severe as expected, in the unbounded union model. In any case, the results clearly show the complexity of the interface contact problem, and they confirm the need for experimental studies about this problem. Afterward a free oscillation dynamic test has been done using resistive strain gauge sensors. Test samples have been femur bones in all possible variants: simplified models, standardized synthetic bone, and dry and cool cadaveric bones. An embedding system at the distal end of the sample with strong control of the anchoring conditions has been designed. The free oscillation of the sample has been obtained by the instantaneous release of a static load, which was previously determined and applied to the sample through a testing machine or using the gravity force. Each sample was equipped with conventional strain gauges whose signal is registered with a marketed dynamic equipment. Then, it has applied a signal processing procedure to delimit, filter and present the time and frequency response signals from the sensors. Results are interpreted by comparing different trials: the test is applied to an intact femur sample which is taken as a reference, and then this test is repeated over the same sample with an implanted prosthesis. From comparison between results, immediate conclusions about the effects of the implantation of the prosthesis can be obtained. It must be said that the implementation has been made by an expert orthopedic surgeon using the same techniques and instruments as those used in clinical surgery. He has worked with three commercial femoral stems. From the results obtained in the time and frequency domains for the different applications the following conclusions have been established: Feasibility of the different types of synthetic samples: simplified models and standardized synthetic femur. Repeatability, linearity and reversibility of the testing method. Consistency of results with theoretical values deduced from the bars free oscillations theory. Effects of introduction of femoral stems in the amplitude, damping and frequencies of oscillations Detection of micromobility associated harmonics. This methodology has been proved suitable to be included in the standardization process of arthroplasty prosthesis, it is universally applicable and it allows establishing new methods for the analysis, detection and characterization of prosthesis micromobility due to functional loads.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los sistemas empotrados han sido concebidos tradicionalmente como sistemas de procesamiento específicos que realizan una tarea fija durante toda su vida útil. Para cumplir con requisitos estrictos de coste, tamaño y peso, el equipo de diseño debe optimizar su funcionamiento para condiciones muy específicas. Sin embargo, la demanda de mayor versatilidad, un funcionamiento más inteligente y, en definitiva, una mayor capacidad de procesamiento comenzaron a chocar con estas limitaciones, agravado por la incertidumbre asociada a entornos de operación cada vez más dinámicos donde comenzaban a ser desplegados progresivamente. Esto trajo como resultado una necesidad creciente de que los sistemas pudieran responder por si solos a eventos inesperados en tiempo diseño tales como: cambios en las características de los datos de entrada y el entorno del sistema en general; cambios en la propia plataforma de cómputo, por ejemplo debido a fallos o defectos de fabricación; y cambios en las propias especificaciones funcionales causados por unos objetivos del sistema dinámicos y cambiantes. Como consecuencia, la complejidad del sistema aumenta, pero a cambio se habilita progresivamente una capacidad de adaptación autónoma sin intervención humana a lo largo de la vida útil, permitiendo que tomen sus propias decisiones en tiempo de ejecución. Éstos sistemas se conocen, en general, como sistemas auto-adaptativos y tienen, entre otras características, las de auto-configuración, auto-optimización y auto-reparación. Típicamente, la parte soft de un sistema es mayoritariamente la única utilizada para proporcionar algunas capacidades de adaptación a un sistema. Sin embargo, la proporción rendimiento/potencia en dispositivos software como microprocesadores en muchas ocasiones no es adecuada para sistemas empotrados. En este escenario, el aumento resultante en la complejidad de las aplicaciones está siendo abordado parcialmente mediante un aumento en la complejidad de los dispositivos en forma de multi/many-cores; pero desafortunadamente, esto hace que el consumo de potencia también aumente. Además, la mejora en metodologías de diseño no ha sido acorde como para poder utilizar toda la capacidad de cómputo disponible proporcionada por los núcleos. Por todo ello, no se están satisfaciendo adecuadamente las demandas de cómputo que imponen las nuevas aplicaciones. La solución tradicional para mejorar la proporción rendimiento/potencia ha sido el cambio a unas especificaciones hardware, principalmente usando ASICs. Sin embargo, los costes de un ASIC son altamente prohibitivos excepto en algunos casos de producción en masa y además la naturaleza estática de su estructura complica la solución a las necesidades de adaptación. Los avances en tecnologías de fabricación han hecho que la FPGA, una vez lenta y pequeña, usada como glue logic en sistemas mayores, haya crecido hasta convertirse en un dispositivo de cómputo reconfigurable de gran potencia, con una cantidad enorme de recursos lógicos computacionales y cores hardware empotrados de procesamiento de señal y de propósito general. Sus capacidades de reconfiguración han permitido combinar la flexibilidad propia del software con el rendimiento del procesamiento en hardware, lo que tiene la potencialidad de provocar un cambio de paradigma en arquitectura de computadores, pues el hardware no puede ya ser considerado más como estático. El motivo es que como en el caso de las FPGAs basadas en tecnología SRAM, la reconfiguración parcial dinámica (DPR, Dynamic Partial Reconfiguration) es posible. Esto significa que se puede modificar (reconfigurar) un subconjunto de los recursos computacionales en tiempo de ejecución mientras el resto permanecen activos. Además, este proceso de reconfiguración puede ser ejecutado internamente por el propio dispositivo. El avance tecnológico en dispositivos hardware reconfigurables se encuentra recogido bajo el campo conocido como Computación Reconfigurable (RC, Reconfigurable Computing). Uno de los campos de aplicación más exóticos y menos convencionales que ha posibilitado la computación reconfigurable es el conocido como Hardware Evolutivo (EHW, Evolvable Hardware), en el cual se encuentra enmarcada esta tesis. La idea principal del concepto consiste en convertir hardware que es adaptable a través de reconfiguración en una entidad evolutiva sujeta a las fuerzas de un proceso evolutivo inspirado en el de las especies biológicas naturales, que guía la dirección del cambio. Es una aplicación más del campo de la Computación Evolutiva (EC, Evolutionary Computation), que comprende una serie de algoritmos de optimización global conocidos como Algoritmos Evolutivos (EA, Evolutionary Algorithms), y que son considerados como algoritmos universales de resolución de problemas. En analogía al proceso biológico de la evolución, en el hardware evolutivo el sujeto de la evolución es una población de circuitos que intenta adaptarse a su entorno mediante una adecuación progresiva generación tras generación. Los individuos pasan a ser configuraciones de circuitos en forma de bitstreams caracterizados por descripciones de circuitos reconfigurables. Seleccionando aquellos que se comportan mejor, es decir, que tienen una mejor adecuación (o fitness) después de ser evaluados, y usándolos como padres de la siguiente generación, el algoritmo evolutivo crea una nueva población hija usando operadores genéticos como la mutación y la recombinación. Según se van sucediendo generaciones, se espera que la población en conjunto se aproxime a la solución óptima al problema de encontrar una configuración del circuito adecuada que satisfaga las especificaciones. El estado de la tecnología de reconfiguración después de que la familia de FPGAs XC6200 de Xilinx fuera retirada y reemplazada por las familias Virtex a finales de los 90, supuso un gran obstáculo para el avance en hardware evolutivo; formatos de bitstream cerrados (no conocidos públicamente); dependencia de herramientas del fabricante con soporte limitado de DPR; una velocidad de reconfiguración lenta; y el hecho de que modificaciones aleatorias del bitstream pudieran resultar peligrosas para la integridad del dispositivo, son algunas de estas razones. Sin embargo, una propuesta a principios de los años 2000 permitió mantener la investigación en el campo mientras la tecnología de DPR continuaba madurando, el Circuito Virtual Reconfigurable (VRC, Virtual Reconfigurable Circuit). En esencia, un VRC en una FPGA es una capa virtual que actúa como un circuito reconfigurable de aplicación específica sobre la estructura nativa de la FPGA que reduce la complejidad del proceso reconfiguración y aumenta su velocidad (comparada con la reconfiguración nativa). Es un array de nodos computacionales especificados usando descripciones HDL estándar que define recursos reconfigurables ad-hoc: multiplexores de rutado y un conjunto de elementos de procesamiento configurables, cada uno de los cuales tiene implementadas todas las funciones requeridas, que pueden seleccionarse a través de multiplexores tal y como ocurre en una ALU de un microprocesador. Un registro grande actúa como memoria de configuración, por lo que la reconfiguración del VRC es muy rápida ya que tan sólo implica la escritura de este registro, el cual controla las señales de selección del conjunto de multiplexores. Sin embargo, esta capa virtual provoca: un incremento de área debido a la implementación simultánea de cada función en cada nodo del array más los multiplexores y un aumento del retardo debido a los multiplexores, reduciendo la frecuencia de funcionamiento máxima. La naturaleza del hardware evolutivo, capaz de optimizar su propio comportamiento computacional, le convierten en un buen candidato para avanzar en la investigación sobre sistemas auto-adaptativos. Combinar un sustrato de cómputo auto-reconfigurable capaz de ser modificado dinámicamente en tiempo de ejecución con un algoritmo empotrado que proporcione una dirección de cambio, puede ayudar a satisfacer los requisitos de adaptación autónoma de sistemas empotrados basados en FPGA. La propuesta principal de esta tesis está por tanto dirigida a contribuir a la auto-adaptación del hardware de procesamiento de sistemas empotrados basados en FPGA mediante hardware evolutivo. Esto se ha abordado considerando que el comportamiento computacional de un sistema puede ser modificado cambiando cualquiera de sus dos partes constitutivas: una estructura hard subyacente y un conjunto de parámetros soft. De esta distinción, se derivan dos lineas de trabajo. Por un lado, auto-adaptación paramétrica, y por otro auto-adaptación estructural. El objetivo perseguido en el caso de la auto-adaptación paramétrica es la implementación de técnicas de optimización evolutiva complejas en sistemas empotrados con recursos limitados para la adaptación paramétrica online de circuitos de procesamiento de señal. La aplicación seleccionada como prueba de concepto es la optimización para tipos muy específicos de imágenes de los coeficientes de los filtros de transformadas wavelet discretas (DWT, DiscreteWavelet Transform), orientada a la compresión de imágenes. Por tanto, el objetivo requerido de la evolución es una compresión adaptativa y más eficiente comparada con los procedimientos estándar. El principal reto radica en reducir la necesidad de recursos de supercomputación para el proceso de optimización propuesto en trabajos previos, de modo que se adecúe para la ejecución en sistemas empotrados. En cuanto a la auto-adaptación estructural, el objetivo de la tesis es la implementación de circuitos auto-adaptativos en sistemas evolutivos basados en FPGA mediante un uso eficiente de sus capacidades de reconfiguración nativas. En este caso, la prueba de concepto es la evolución de tareas de procesamiento de imagen tales como el filtrado de tipos desconocidos y cambiantes de ruido y la detección de bordes en la imagen. En general, el objetivo es la evolución en tiempo de ejecución de tareas de procesamiento de imagen desconocidas en tiempo de diseño (dentro de un cierto grado de complejidad). En este caso, el objetivo de la propuesta es la incorporación de DPR en EHW para evolucionar la arquitectura de un array sistólico adaptable mediante reconfiguración cuya capacidad de evolución no había sido estudiada previamente. Para conseguir los dos objetivos mencionados, esta tesis propone originalmente una plataforma evolutiva que integra un motor de adaptación (AE, Adaptation Engine), un motor de reconfiguración (RE, Reconfiguration Engine) y un motor computacional (CE, Computing Engine) adaptable. El el caso de adaptación paramétrica, la plataforma propuesta está caracterizada por: • un CE caracterizado por un núcleo de procesamiento hardware de DWT adaptable mediante registros reconfigurables que contienen los coeficientes de los filtros wavelet • un algoritmo evolutivo como AE que busca filtros wavelet candidatos a través de un proceso de optimización paramétrica desarrollado específicamente para sistemas caracterizados por recursos de procesamiento limitados • un nuevo operador de mutación simplificado para el algoritmo evolutivo utilizado, que junto con un mecanismo de evaluación rápida de filtros wavelet candidatos derivado de la literatura actual, asegura la viabilidad de la búsqueda evolutiva asociada a la adaptación de wavelets. En el caso de adaptación estructural, la plataforma propuesta toma la forma de: • un CE basado en una plantilla de array sistólico reconfigurable de 2 dimensiones compuesto de nodos de procesamiento reconfigurables • un algoritmo evolutivo como AE que busca configuraciones candidatas del array usando un conjunto de funcionalidades de procesamiento para los nodos disponible en una biblioteca accesible en tiempo de ejecución • un RE hardware que explota la capacidad de reconfiguración nativa de las FPGAs haciendo un uso eficiente de los recursos reconfigurables del dispositivo para cambiar el comportamiento del CE en tiempo de ejecución • una biblioteca de elementos de procesamiento reconfigurables caracterizada por bitstreams parciales independientes de la posición, usados como el conjunto de configuraciones disponibles para los nodos de procesamiento del array Las contribuciones principales de esta tesis se pueden resumir en la siguiente lista: • Una plataforma evolutiva basada en FPGA para la auto-adaptación paramétrica y estructural de sistemas empotrados compuesta por un motor computacional (CE), un motor de adaptación (AE) evolutivo y un motor de reconfiguración (RE). Esta plataforma se ha desarrollado y particularizado para los casos de auto-adaptación paramétrica y estructural. • En cuanto a la auto-adaptación paramétrica, las contribuciones principales son: – Un motor computacional adaptable mediante registros que permite la adaptación paramétrica de los coeficientes de una implementación hardware adaptativa de un núcleo de DWT. – Un motor de adaptación basado en un algoritmo evolutivo desarrollado específicamente para optimización numérica, aplicada a los coeficientes de filtros wavelet en sistemas empotrados con recursos limitados. – Un núcleo IP de DWT auto-adaptativo en tiempo de ejecución para sistemas empotrados que permite la optimización online del rendimiento de la transformada para compresión de imágenes en entornos específicos de despliegue, caracterizados por tipos diferentes de señal de entrada. – Un modelo software y una implementación hardware de una herramienta para la construcción evolutiva automática de transformadas wavelet específicas. • Por último, en cuanto a la auto-adaptación estructural, las contribuciones principales son: – Un motor computacional adaptable mediante reconfiguración nativa de FPGAs caracterizado por una plantilla de array sistólico en dos dimensiones de nodos de procesamiento reconfigurables. Es posible mapear diferentes tareas de cómputo en el array usando una biblioteca de elementos sencillos de procesamiento reconfigurables. – Definición de una biblioteca de elementos de procesamiento apropiada para la síntesis autónoma en tiempo de ejecución de diferentes tareas de procesamiento de imagen. – Incorporación eficiente de la reconfiguración parcial dinámica (DPR) en sistemas de hardware evolutivo, superando los principales inconvenientes de propuestas previas como los circuitos reconfigurables virtuales (VRCs). En este trabajo también se comparan originalmente los detalles de implementación de ambas propuestas. – Una plataforma tolerante a fallos, auto-curativa, que permite la recuperación funcional online en entornos peligrosos. La plataforma ha sido caracterizada desde una perspectiva de tolerancia a fallos: se proponen modelos de fallo a nivel de CLB y de elemento de procesamiento, y usando el motor de reconfiguración, se hace un análisis sistemático de fallos para un fallo en cada elemento de procesamiento y para dos fallos acumulados. – Una plataforma con calidad de filtrado dinámica que permite la adaptación online a tipos de ruido diferentes y diferentes comportamientos computacionales teniendo en cuenta los recursos de procesamiento disponibles. Por un lado, se evolucionan filtros con comportamientos no destructivos, que permiten esquemas de filtrado en cascada escalables; y por otro, también se evolucionan filtros escalables teniendo en cuenta requisitos computacionales de filtrado cambiantes dinámicamente. Este documento está organizado en cuatro partes y nueve capítulos. La primera parte contiene el capítulo 1, una introducción y motivación sobre este trabajo de tesis. A continuación, el marco de referencia en el que se enmarca esta tesis se analiza en la segunda parte: el capítulo 2 contiene una introducción a los conceptos de auto-adaptación y computación autonómica (autonomic computing) como un campo de investigación más general que el muy específico de este trabajo; el capítulo 3 introduce la computación evolutiva como la técnica para dirigir la adaptación; el capítulo 4 analiza las plataformas de computación reconfigurables como la tecnología para albergar hardware auto-adaptativo; y finalmente, el capítulo 5 define, clasifica y hace un sondeo del campo del hardware evolutivo. Seguidamente, la tercera parte de este trabajo contiene la propuesta, desarrollo y resultados obtenidos: mientras que el capítulo 6 contiene una declaración de los objetivos de la tesis y la descripción de la propuesta en su conjunto, los capítulos 7 y 8 abordan la auto-adaptación paramétrica y estructural, respectivamente. Finalmente, el capítulo 9 de la parte 4 concluye el trabajo y describe caminos de investigación futuros. ABSTRACT Embedded systems have traditionally been conceived to be specific-purpose computers with one, fixed computational task for their whole lifetime. Stringent requirements in terms of cost, size and weight forced designers to highly optimise their operation for very specific conditions. However, demands for versatility, more intelligent behaviour and, in summary, an increased computing capability began to clash with these limitations, intensified by the uncertainty associated to the more dynamic operating environments where they were progressively being deployed. This brought as a result an increasing need for systems to respond by themselves to unexpected events at design time, such as: changes in input data characteristics and system environment in general; changes in the computing platform itself, e.g., due to faults and fabrication defects; and changes in functional specifications caused by dynamically changing system objectives. As a consequence, systems complexity is increasing, but in turn, autonomous lifetime adaptation without human intervention is being progressively enabled, allowing them to take their own decisions at run-time. This type of systems is known, in general, as selfadaptive, and are able, among others, of self-configuration, self-optimisation and self-repair. Traditionally, the soft part of a system has mostly been so far the only place to provide systems with some degree of adaptation capabilities. However, the performance to power ratios of software driven devices like microprocessors are not adequate for embedded systems in many situations. In this scenario, the resulting rise in applications complexity is being partly addressed by rising devices complexity in the form of multi and many core devices; but sadly, this keeps on increasing power consumption. Besides, design methodologies have not been improved accordingly to completely leverage the available computational power from all these cores. Altogether, these factors make that the computing demands new applications pose are not being wholly satisfied. The traditional solution to improve performance to power ratios has been the switch to hardware driven specifications, mainly using ASICs. However, their costs are highly prohibitive except for some mass production cases and besidesthe static nature of its structure complicates the solution to the adaptation needs. The advancements in fabrication technologies have made that the once slow, small FPGA used as glue logic in bigger systems, had grown to be a very powerful, reconfigurable computing device with a vast amount of computational logic resources and embedded, hardened signal and general purpose processing cores. Its reconfiguration capabilities have enabled software-like flexibility to be combined with hardware-like computing performance, which has the potential to cause a paradigm shift in computer architecture since hardware cannot be considered as static anymore. This is so, since, as is the case with SRAMbased FPGAs, Dynamic Partial Reconfiguration (DPR) is possible. This means that subsets of the FPGA computational resources can now be changed (reconfigured) at run-time while the rest remains active. Besides, this reconfiguration process can be triggered internally by the device itself. This technological boost in reconfigurable hardware devices is actually covered under the field known as Reconfigurable Computing. One of the most exotic fields of application that Reconfigurable Computing has enabled is the known as Evolvable Hardware (EHW), in which this dissertation is framed. The main idea behind the concept is turning hardware that is adaptable through reconfiguration into an evolvable entity subject to the forces of an evolutionary process, inspired by that of natural, biological species, that guides the direction of change. It is yet another application of the field of Evolutionary Computation (EC), which comprises a set of global optimisation algorithms known as Evolutionary Algorithms (EAs), considered as universal problem solvers. In analogy to the biological process of evolution, in EHW the subject of evolution is a population of circuits that tries to get adapted to its surrounding environment by progressively getting better fitted to it generation after generation. Individuals become circuit configurations representing bitstreams that feature reconfigurable circuit descriptions. By selecting those that behave better, i.e., with a higher fitness value after being evaluated, and using them as parents of the following generation, the EA creates a new offspring population by using so called genetic operators like mutation and recombination. As generations succeed one another, the whole population is expected to approach to the optimum solution to the problem of finding an adequate circuit configuration that fulfils system objectives. The state of reconfiguration technology after Xilinx XC6200 FPGA family was discontinued and replaced by Virtex families in the late 90s, was a major obstacle for advancements in EHW; closed (non publicly known) bitstream formats; dependence on manufacturer tools with highly limiting support of DPR; slow speed of reconfiguration; and random bitstream modifications being potentially hazardous for device integrity, are some of these reasons. However, a proposal in the first 2000s allowed to keep investigating in this field while DPR technology kept maturing, the Virtual Reconfigurable Circuit (VRC). In essence, a VRC in an FPGA is a virtual layer acting as an application specific reconfigurable circuit on top of an FPGA fabric that reduces the complexity of the reconfiguration process and increases its speed (compared to native reconfiguration). It is an array of computational nodes specified using standard HDL descriptions that define ad-hoc reconfigurable resources; routing multiplexers and a set of configurable processing elements, each one containing all the required functions, which are selectable through functionality multiplexers as in microprocessor ALUs. A large register acts as configuration memory, so VRC reconfiguration is very fast given it only involves writing this register, which drives the selection signals of the set of multiplexers. However, large overheads are introduced by this virtual layer; an area overhead due to the simultaneous implementation of every function in every node of the array plus the multiplexers, and a delay overhead due to the multiplexers, which also reduces maximum frequency of operation. The very nature of Evolvable Hardware, able to optimise its own computational behaviour, makes it a good candidate to advance research in self-adaptive systems. Combining a selfreconfigurable computing substrate able to be dynamically changed at run-time with an embedded algorithm that provides a direction for change, can help fulfilling requirements for autonomous lifetime adaptation of FPGA-based embedded systems. The main proposal of this thesis is hence directed to contribute to autonomous self-adaptation of the underlying computational hardware of FPGA-based embedded systems by means of Evolvable Hardware. This is tackled by considering that the computational behaviour of a system can be modified by changing any of its two constituent parts: an underlying hard structure and a set of soft parameters. Two main lines of work derive from this distinction. On one side, parametric self-adaptation and, on the other side, structural self-adaptation. The goal pursued in the case of parametric self-adaptation is the implementation of complex evolutionary optimisation techniques in resource constrained embedded systems for online parameter adaptation of signal processing circuits. The application selected as proof of concept is the optimisation of Discrete Wavelet Transforms (DWT) filters coefficients for very specific types of images, oriented to image compression. Hence, adaptive and improved compression efficiency, as compared to standard techniques, is the required goal of evolution. The main quest lies in reducing the supercomputing resources reported in previous works for the optimisation process in order to make it suitable for embedded systems. Regarding structural self-adaptation, the thesis goal is the implementation of self-adaptive circuits in FPGA-based evolvable systems through an efficient use of native reconfiguration capabilities. In this case, evolution of image processing tasks such as filtering of unknown and changing types of noise and edge detection are the selected proofs of concept. In general, evolving unknown image processing behaviours (within a certain complexity range) at design time is the required goal. In this case, the mission of the proposal is the incorporation of DPR in EHW to evolve a systolic array architecture adaptable through reconfiguration whose evolvability had not been previously checked. In order to achieve the two stated goals, this thesis originally proposes an evolvable platform that integrates an Adaptation Engine (AE), a Reconfiguration Engine (RE) and an adaptable Computing Engine (CE). In the case of parametric adaptation, the proposed platform is characterised by: • a CE featuring a DWT hardware processing core adaptable through reconfigurable registers that holds wavelet filters coefficients • an evolutionary algorithm as AE that searches for candidate wavelet filters through a parametric optimisation process specifically developed for systems featured by scarce computing resources • a new, simplified mutation operator for the selected EA, that together with a fast evaluation mechanism of candidate wavelet filters derived from existing literature, assures the feasibility of the evolutionary search involved in wavelets adaptation In the case of structural adaptation, the platform proposal takes the form of: • a CE based on a reconfigurable 2D systolic array template composed of reconfigurable processing nodes • an evolutionary algorithm as AE that searches for candidate configurations of the array using a set of computational functionalities for the nodes available in a run time accessible library • a hardware RE that exploits native DPR capabilities of FPGAs and makes an efficient use of the available reconfigurable resources of the device to change the behaviour of the CE at run time • a library of reconfigurable processing elements featured by position-independent partial bitstreams used as the set of available configurations for the processing nodes of the array Main contributions of this thesis can be summarised in the following list. • An FPGA-based evolvable platform for parametric and structural self-adaptation of embedded systems composed of a Computing Engine, an evolutionary Adaptation Engine and a Reconfiguration Engine. This platform is further developed and tailored for both parametric and structural self-adaptation. • Regarding parametric self-adaptation, main contributions are: – A CE adaptable through reconfigurable registers that enables parametric adaptation of the coefficients of an adaptive hardware implementation of a DWT core. – An AE based on an Evolutionary Algorithm specifically developed for numerical optimisation applied to wavelet filter coefficients in resource constrained embedded systems. – A run-time self-adaptive DWT IP core for embedded systems that allows for online optimisation of transform performance for image compression for specific deployment environments characterised by different types of input signals. – A software model and hardware implementation of a tool for the automatic, evolutionary construction of custom wavelet transforms. • Lastly, regarding structural self-adaptation, main contributions are: – A CE adaptable through native FPGA fabric reconfiguration featured by a two dimensional systolic array template of reconfigurable processing nodes. Different processing behaviours can be automatically mapped in the array by using a library of simple reconfigurable processing elements. – Definition of a library of such processing elements suited for autonomous runtime synthesis of different image processing tasks. – Efficient incorporation of DPR in EHW systems, overcoming main drawbacks from the previous approach of virtual reconfigurable circuits. Implementation details for both approaches are also originally compared in this work. – A fault tolerant, self-healing platform that enables online functional recovery in hazardous environments. The platform has been characterised from a fault tolerance perspective: fault models at FPGA CLB level and processing elements level are proposed, and using the RE, a systematic fault analysis for one fault in every processing element and for two accumulated faults is done. – A dynamic filtering quality platform that permits on-line adaptation to different types of noise and different computing behaviours considering the available computing resources. On one side, non-destructive filters are evolved, enabling scalable cascaded filtering schemes; and on the other, size-scalable filters are also evolved considering dynamically changing computational filtering requirements. This dissertation is organized in four parts and nine chapters. First part contains chapter 1, the introduction to and motivation of this PhD work. Following, the reference framework in which this dissertation is framed is analysed in the second part: chapter 2 features an introduction to the notions of self-adaptation and autonomic computing as a more general research field to the very specific one of this work; chapter 3 introduces evolutionary computation as the technique to drive adaptation; chapter 4 analyses platforms for reconfigurable computing as the technology to hold self-adaptive hardware; and finally chapter 5 defines, classifies and surveys the field of Evolvable Hardware. Third part of the work follows, which contains the proposal, development and results obtained: while chapter 6 contains an statement of the thesis goals and the description of the proposal as a whole, chapters 7 and 8 address parametric and structural self-adaptation, respectively. Finally, chapter 9 in part 4 concludes the work and describes future research paths.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La termografía es un método de inspección y diagnóstico basado en la radiación infrarroja que emiten los cuerpos. Permite medir dicha radiación a distancia y sin contacto, obteniendo un termograma o imagen termográfica, objeto de estudio de este proyecto. Todos los cuerpos que se encuentren a una cierta temperatura emiten radiación infrarroja. Sin embargo, para hacer una inspección termográfica hay que tener en cuenta la emisividad de los cuerpos, capacidad que tienen de emitir radiación, ya que ésta no sólo depende de la temperatura del cuerpo, sino también de sus características superficiales. Las herramientas necesarias para conseguir un termograma son principalmente una cámara termográfica y un software que permita su análisis. La cámara percibe la emisión infrarroja de un objeto y lo convierte en una imagen visible, originalmente monocromática. Sin embargo, después es coloreada por la propia cámara o por un software para una interpretación más fácil del termograma. Para obtener estas imágenes termográficas existen varias técnicas, que se diferencian en cómo la energía calorífica se transfiere al cuerpo. Estas técnicas se clasifican en termografía pasiva, activa y vibrotermografía. El método que se utiliza en cada caso depende de las características térmicas del cuerpo, del tipo de defecto a localizar o la resolución espacial de las imágenes, entre otros factores. Para analizar las imágenes y así obtener diagnósticos y detectar defectos, es importante la precisión. Por ello existe un procesado de las imágenes, para minimizar los efectos provocados por causas externas, mejorar la calidad de la imagen y extraer información de las inspecciones realizadas. La termografía es un método de ensayo no destructivo muy flexible y que ofrece muchas ventajas. Por esta razón el campo de aplicación es muy amplio, abarcando desde aplicaciones industriales hasta investigación y desarrollo. Vigilancia y seguridad, ahorro energético, medicina o medio ambiente, son algunos de los campos donde la termografía aportaimportantes beneficios. Este proyecto es un estudio teórico de la termografía, donde se describen detalladamente cada uno de los aspectos mencionados. Concluye con una aplicación práctica, creando una cámara infrarroja a partir de una webcam, y realizando un análisis de las imágenes obtenidas con ella. Con esto se demuestran algunas de las teorías explicadas, así como la posibilidad de reconocer objetos mediante la termografía. Thermography is a method of testing and diagnosis based on the infrared radiation emitted by bodies. It allows to measure this radiation from a distance and with no contact, getting a thermogram or thermal image, object of study of this project. All bodies that are at a certain temperature emit infrared radiation. However, making a thermographic inspection must take into account the emissivity of the body, capability of emitting radiation. This not only depends on the temperature of the body, but also on its surface characteristics. The tools needed to get a thermogram are mainly a thermal imaging camera and software that allows analysis. The camera sees the infrared emission of an object and converts it into a visible image, originally monochrome. However, after it is colored by the camera or software for easier interpretation of thermogram. To obtain these thermal images it exists various techniques, which differ in how heat energy is transferred to the body. These techniques are classified into passive thermography, active and vibrotermografy. The method used in each case depends on the thermal characteristics of the body, the type of defect to locate or spatial resolution of images, among other factors. To analyze the images and obtain diagnoses and defects, accuracy is important. Thus there is a image processing to minimize the effects caused by external causes, improving image quality and extract information from inspections. Thermography is a non-­‐destructive test method very flexible and offers many advantages. So the scope is very wide, ranging from industrial applications to research and development.Surveillance and security, energy saving, environmental or medicine are some of the areas where thermography provides significant benefits. This project is a theoretical study of thermography, which describes in detail each of these aspects. It concludes with a practical application, creating an infrared camera from a webcam, and making an analysis of the images obtained with it. This will demonstrate some of the theories explained as well as the ability to recognize objects by thermography.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Time domain laser reflectance spectroscopy (TDRS) was applied for the first time to evaluate internal fruit quality. This technique, known in medicine-related knowledge areas, has not been used before in agricultural or food research. It allows the simultaneous non-destructive measuring of two optical characteristics of the tissues: light scattering and absorption. Models to measure firmness, sugar & acid contents in kiwifruit, tomato, apple, peach, nectarine and other fruits were built using sequential statistical techniques: principal component analysis, multiple stepwise linear regression, clustering and discriminant analysis. Consistent correlations were established between the two parameters measured with TDRS, i.e. absorption & transport scattering coefficients, with chemical constituents (sugars and acids) and firmness, respectively. Classification models were built to sort fruits into three quality grades, according to their firmness, soluble solids and acidity.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The application of Rheology to study biological systems is a new and very extensive matter, in which melon is absolutely unknown. The goal of this work is to determine some physical characteristics of this fruit, immediately after harvest and during its conservation in cold storage. Portugal and Spain are the most interested countries in these studies, as they are important producers of melon. The varieties Branco da Leziria and Piel de sapo were chosen because they are the most popular in both countries. The fruit were studied on the day they were harvested, and then were conserved in cold storage in the "Instituto del Frio" in Madrid, and they were periodically tested again. Thus during seven days the same fruits, and new fruits, were picked up and tested. On the first day of testing we had 20 fruits to study and at the end of the testing period we had used 80 fruits. The results from the non-destructive impact test were very significant and they may contribute to standardise methods to measure fruit maturity. These results were confirmed by those obtained from compression tests. The results obtained during the Impact tests with melon were similar to those obtained previously with other fruits. There is a close relationship between the results of the Impact tests and Compression tests. Tests like Impact and Compression can be adapted to melon, varieties 'Piel de Sapo" and 'Branco de Leziria', allowing us to continue further work with this species. The great number of data obtained during performance of the tests allowed us to go on with this work and to contribute to standardise methods of measurement and expression of characteristics of a new biological product. During the "Impact damage in fruits and vegetables" workshop, held in Zaragoza in 1990, these matters were included in the priority list.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The consumption of melon (Cucumis melo L.) has been, until several years ago, regional, seasonal and without commercial interest. Recent commercial changes and world wide transportation have changed this situation. Melons from 3 different ripeness stages at harvest and 7 cold storage periods have been analysed by destructive and non destructive tests. Chemical, physical, mechanical (non destructive impact, compression, skin puncture and Magness- Taylor) and sensory tests were carried out in order to select the best test to assess quality and to determine the optimal ripeness stage at harvest. Analysis of variance and Principal Component Analysis were performed to study the data. The mechanical properties based on non-destructive Impact and Compression can be used to monitor cold storage evolution. They can also be used at harvest to segregate the highest ripeness stage (41 days after anthesis DAA) in relation to less ripe stages (34 and 28 DAA).Only 34 and 41 DAA reach a sensory evaluation above 50 in a scale from 0-100.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Non-destructive measurement of fruit quality has been an important objective through recent years (Abbott, 1999). Near infrared spectroscopy (NIR) is applicable to the cuantification of chemicals in foods and NIK "laser spectroscopy" can be used to estimate the firmness of fruits. However, die main limitation of current optical techniques that measure light transmission is that they do not account for the coupling between absorption and scattering inside the tissue, when quantifying the intensity o f reemitted light. The solution o f this l i m i t a t i o n was the goal o f the present work.