783 resultados para gravità, modifica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se analiza a continuación la regulación de los criterios de valoración de suelo y de otros bienes y derechos en la Ley 8/2007, de 28 de mayo, de suelo, que modifica de forma sustancial el régimen urbanístico del derecho de propiedad, y, en consecuencia, el sistema de valoraciones vinculado a aquel

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las tecnologías de vídeo en 3D han estado al alza en los últimos años, con abundantes avances en investigación unidos a una adopción generalizada por parte de la industria del cine, y una importancia creciente en la electrónica de consumo. Relacionado con esto, está el concepto de vídeo multivista, que abarca el vídeo 3D, y puede definirse como un flujo de vídeo compuesto de dos o más vistas. El vídeo multivista permite prestaciones avanzadas de vídeo, como el vídeo estereoscópico, el “free viewpoint video”, contacto visual mejorado mediante vistas virtuales, o entornos virtuales compartidos. El propósito de esta tesis es salvar un obstáculo considerable de cara al uso de vídeo multivista en sistemas de comunicación: la falta de soporte para esta tecnología por parte de los protocolos de señalización existentes, que hace imposible configurar una sesión con vídeo multivista mediante mecanismos estándar. Así pues, nuestro principal objetivo es la extensión del Protocolo de Inicio de Sesión (SIP) para soportar la negociación de sesiones multimedia con flujos de vídeo multivista. Nuestro trabajo se puede resumir en tres contribuciones principales. En primer lugar, hemos definido una extensión de señalización para configurar sesiones SIP con vídeo 3D. Esta extensión modifica el Protocolo de Descripción de Sesión (SDP) para introducir un nuevo atributo de nivel de medios, y un nuevo tipo de dependencia de descodificación, que contribuyen a describir los formatos de vídeo 3D que pueden emplearse en una sesión, así como la relación entre los flujos de vídeo que componen un flujo de vídeo 3D. La segunda contribución consiste en una extensión a SIP para manejar la señalización de videoconferencias con flujos de vídeo multivista. Se definen dos nuevos paquetes de eventos SIP para describir las capacidades y topología de los terminales de conferencia, por un lado, y la configuración espacial y mapeo de flujos de una conferencia, por el otro. También se describe un mecanismo para integrar el intercambio de esta información en el proceso de inicio de una conferencia SIP. Como tercera y última contribución, introducimos el concepto de espacio virtual de una conferencia, o un sistema de coordenadas que incluye todos los objetos relevantes de la conferencia (como dispositivos de captura, pantallas, y usuarios). Explicamos cómo el espacio virtual se relaciona con prestaciones de conferencia como el contacto visual, la escala de vídeo y la fidelidad espacial, y proporcionamos reglas para determinar las prestaciones de una conferencia a partir del análisis de su espacio virtual, y para generar espacios virtuales durante la configuración de conferencias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el presente trabajo se estudia la influencia de la radiación UV sobre las propiedades mecánicas y las superficies de fractura de un polímero artificial bioinspirado en la seda de araña. Las fibras de seda de araña constituyen un material enormemente atractivo ya que su elevada resistencia y deformabilidad lo convierten en el material con mayor trabajo hasta rotura de los conocidos hasta el momento. Además se ha encontrado que posee una elevada biocompatibilidad y un comportamiento biodegradable. Debido a estas excelentes propiedades se han dedicado importantes esfuerzos a intentar producir fibras inspiradas en la seda de araña. Fruto de estos esfuerzos es el polímero artificial estudiado en este trabajo. Dicho polímero presenta una secuencia de aminoácidos inspirada en la spidroína 1, que es una de las dos proteínas que conforman la seda de araña natural. Uno de los factores más perjudiciales para los polímeros es la radiación ultravioleta (UV), de presencia ubicua en aplicaciones al aire libre, ya que puede provocar la modificación de sus enlaces covalentes y, como consecuencia, modificar sus propiedades mecánicas. Para evaluar el efecto de la radiación UV sobre el material bioinspirado se ha estudiado el comportamiento a tracción simple de fibras sometidas a diferentes tiempos de irradiación con luz UV de longitud de onda de 254 nm. Se ha observado que la radiación UV de 254 nm modifica considerablemente las propiedades mecánicas de este material a tiempos de exposición elevados (a partir de 3 días de irradiación). Además se ha estudiado el comportamiento a fractura de este material cuando es irradiado con luz UV. Se ha observado que a medida que aumenta el tiempo de irradiación las superficies de fractura comienzan a ser cada vez más planas, obteniéndose un aspecto extremadamente especular para muestras irradiadas durante 16 días

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabajo analiza la influencia de parámetros mecánicos, desde la geometría y el modelo constitutivo (material de Holzapfel, que es una matriz neo-hookena reforzada bidireccionalmente con fibras de colágeno y elastina dispuestas de forma simétrica), en la bifurcación tipo abultamiento de cilindros huecos sometidos a presión interna y carga axial, relacionado con la formación de aneurismas en enfermedades cardiovasculares. Se valida una formulación analítica de las condiciones de bifurcación para cilindros de pared delgada sometidos al tipo de carga mencionado. Se analiza la influencia de los siguientes parámetros: dispersión de las fibras en cilindros de pared delgada, dispersión de las fibras en cilindros de pared gruesa, espesor de la pared del cilindro, orientación de las fibras, longitud del cilindro, imperfección geométrica y capas en el espesor. Los resultados muestran un acoplamiento entre los alargamientos circunferenciales y axiales para los que se produce la bifurcación. Se observa como este acoplamiento modifica cualitativamente y de forma relevante los resultados, existiendo una dependencia de estos a ambos valores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este Trabajo fin de master se explicará el funcionamiento de la fotocatálisis que presentan los materiales con adición de óxido de titanio en tamaño de nanopartículas, el cual les confiere ciertas cualidades especiales. Una vez conocido el funcionamiento de la fotocatálisis se estudiará la influencia de ciertos factores, que no han sido tratados en profundidad hasta el momento en los materiales en base cemento, para mejorar las propiedades autolimpiantes, como son; el tipo de cemento o la rugosidad superficial, ya que sin duda, la composición que tenga el cemento y la rugosidad que se le confiera en los acabados, influirá en el comportamiento autolimpiante, por ello se hace necesario un estudio en el que se evaluarán que cementos proporcionan una mayor efectividad en función de sus composición y que rugosidad superficial funciona mejor en la autolimpieza, debido a esto se estudiarán morteros con acabados lisos y con distintas rugosidades hasta 1.5mm de irregularidad. Para poder realizar este estudio se elaborará una caracterización de los morteros, que se utilizarán en la evaluación de las cualidades autolimpiantes, comparándolos con otros de idéntica dosificación, pero sin adición de oxido de titanio. Posteriormente sabiendo cuantitativamente cuales son sus características y si la adición de oxido de titanio modifica alguna de sus propiedades, pasar a evaluar sus características autolimpiantes, esto se hará, añadiendo a las probetas perfectamente curadas por inmersión durante mas de 28 días, distintos colorantes en disoluciones acuosa, como son la Rodamina B y el Azul de metileno. Una vez coloreadas las probetas, se medirá la degradación del color mediante un aparato conocido como espectrofotómetro, el cual nos dirá la variación de color en escala CIELAB. Con estos datos se podrá cuantificar de una manera más o menos precisa cuales son los cementos que presentan unas cualidades autolimpiantes mejores y cuales son los acabados superficiales, que presentan mayor autolimpieza, datos importantes de conocer a la hora de fabricar elementos a los cuales se les quiera dotar de este tipo de cualidades.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La corrosión bajo tensiones (SCC) es un problema de gran importancia en las aleaciones de aluminio de máxima resistencia (serie Al-Zn-Mg-Cu). La utilización de tratamientos térmicos sobremadurados, en particular el T73, ha conseguido prácticamente eliminar la susceptibilidad a corrosión bajo tensiones en dichas aleaciones pero a costa de reducir su resistencia mecánica. Desde entonces se ha tratado de optimizar simultáneamente ambos comportamientos, encontrándose para ello diversos inconvenientes entre los que destacan: la dificultad de medir experimentalmente el crecimiento de grieta por SCC, y el desconocimiento de las causas y el mecanismo por el cual se produce la SCC. Los objetivos de esta Tesis son mejorar el sistema de medición de grietas y profundizar en el conocimiento de la SCC, con el fin de obtener tratamientos térmicos que aúnen un óptimo comportamiento tanto en SCC como mecánico en las aleaciones de aluminio de máxima resistencia utilizadas en aeronáutica. Para conseguir los objetivos anteriormente descritos se han realizado unos cuarenta tratamientos térmicos diferentes, de los cuales la gran mayoría son nuevos, para profundizar en el conocimiento de la influencia de la microestructura (fundamentalmente, de los precipitados coherentes) en el comportamiento de las aleaciones Al-Zn-Mg-Cu, y estudiar la viabilidad de nuevos tratamientos apoyados en el conocimiento adquirido. Con el fin de obtener unos resultados aplicables a productos o semiproductos de aplicación aeronáutica, los tratamientos térmicos se han realizado a trozos grandes de una plancha de 30 mm de espesor de la aleación de aluminio 7475, muy utilizada en las estructuras aeronáuticas. Asimismo con el objeto de conseguir una mayor fiabilidad de los resultados obtenidos se han utilizado, normalmente, tres probetas de cada tratamiento para los diferentes ensayos realizados. Para la caracterización de dichos tratamientos se han utilizado diversas técnicas: medida de dureza y conductividad eléctrica, ensayos de tracción, calorimetría diferencial de barrido (DSC), metalografía, fractografía, microscopia electrónica de transmisión (MET) y de barrido (MEB), y ensayos de crecimiento de grieta en probeta DCB, que a su vez han permitido hacer una estimación del comportamiento en tenacidad del material. Las principales conclusiones del estudio realizado se pueden resumir en las siguientes: Se han diseñado y desarrollado nuevos métodos de medición de grieta basados en el empleo de la técnica de ultrasonidos, que permiten medir el crecimiento de grieta por corrosión bajo tensiones con la precisión y fiabilidad necesarias para valorar adecuadamente la susceptibilidad a corrosión bajo tensiones. La mejora de medida de la posición del frente de grieta ha dado lugar, entre otras cosas, a la definición de un nuevo ensayo a iniciación en probetas preagrietadas. Asimismo, se ha deducido una nueva ecuación que permite calcular el factor de intensidad de tensiones existente en punta de grieta en probetas DCB teniendo en cuenta la influencia de la desviación del plano de crecimiento de la grieta del plano medio de la probeta. Este aspecto ha sido determinante para poder explicar los resultados experimentales obtenidos ya que el crecimiento de la grieta por un plano paralelo al plano medio de la probeta DCB pero alejado de él reduce notablemente el factor de intensidades de tensiones que actúa en punta de grieta y modifica las condiciones reales del ensayo. Por otro lado, se han identificado los diferentes constituyentes de la microestructura de precipitación de todos los tratamientos térmicos estudiados y, en especial, se ha conseguido constatar (mediante MET y DSC) la existencia de zonas de Guinier-Preston del tipo GP(II) en la microestructura de numerosos tratamientos térmicos (no descrita en la bibliografía para las aleaciones del tipo de la estudiada) lo que ha permitido establecer una nueva interpretación de la evolución de la microestructura en los diferentes tratamientos. Al hilo de lo anterior, se han definido nuevas secuencias de precipitación para este tipo de aleaciones, que han permitido entender mejor la constitución de la microestructura y su relación con las propiedades en los diferentes tratamientos térmicos estudiados. De igual manera, se ha explicado el papel de los diferentes microconstituyentes en diversas propiedades mecánicas (propiedades a tracción, dureza y tenacidad KIa); en particular, el estudio realizado de la relación de la microestructura con la tenacidad KIa es inédito. Por otra parte, se ha correlacionado el comportamiento en corrosión bajo tensiones, tanto en la etapa de incubación de grieta como en la de propagación, con las características medidas de los diferentes constituyentes microestructurales de los tratamientos térmicos ensayados, tanto de interior como de límite de grano, habiéndose obtenido que la microestructura de interior de grano tiene una mayor influencia en el comportamiento en corrosión bajo tensiones que la de límite de grano. De forma especial, se ha establecido la importancia capital, y muy negativa, de la presencia en la microestructura de zonas de Guinier-Preston en el crecimiento de la grieta por corrosión bajo tensiones. Finalmente, como consecuencia de todo lo anterior, se ha propuesto un nuevo mecanismo por el que se produce la corrosión bajo tensiones en este tipo de aleaciones de aluminio, y que de forma muy resumida se puede concretar lo siguiente: la acumulación de hidrógeno (formado, básicamente, por un proceso corrosivo de disolución anódica) delante de la zonas GP (en especial, de las zonas GP(I)) próximas a la zona libre de precipitados que se desarrolla alrededor del límite de grano provoca enfragilización local y causa el rápido crecimiento de grieta característico de algunos tratamientos térmicos de este tipo de aleaciones. ABSTRACT The stress corrosion cracking (SCC) is a major problem in the aluminum alloys of high resistance (series Al-Zn-Mg-Cu). The use of overaged heat treatments, particularly T73 has achieved virtually eliminate the susceptibility to stress corrosion cracking in such alloys but at the expense of reducing its mechanical strength. Since then we have tried to simultaneously optimize both behaviors, several drawbacks found for it among them: the difficulty of measuring experimentally the SCC crack growth, and ignorance of the causes and the mechanism by which SCC occurs. The objectives of this thesis are to improve the measurement system of cracks and deeper understanding of the SCC, in order to obtain heat treatments that combine optimum performance in both SCC and maximum mechanical strength in aluminum alloys used in aerospace To achieve the above objectives have been made about forty different heat treatments, of which the vast majority are new, to deepen the understanding of the influence of microstructure (mainly of coherent precipitates) in the behavior of the alloys Al -Zn-Mg-Cu, and study the feasibility of new treatments supported by the knowledge gained. To obtain results for products or semi-finished aircraft application, heat treatments were performed at a large pieces plate 30 mm thick aluminum alloy 7475, widely used in aeronautical structures. Also in order to achieve greater reliability of the results obtained have been used, normally, three specimens of each treatment for various tests. For the characterization of these treatments have been used several techniques: measurement of hardness and electrical conductivity, tensile testing, differential scanning calorimetry (DSC), metallography, fractography, transmission (TEM) and scanning (SEM) electron microscopy, and crack growth tests on DCB specimen, which in turn have allowed to estimate the behavior of the material in fracture toughness. The main conclusions of the study can be summarized as follows: We have designed and developed new methods for measuring crack based on the use of the ultrasound technique, for measuring the growth of stress corrosion cracks with the accuracy and reliability needed to adequately assess the susceptibility to stress corrosion. Improved position measurement of the crack front has resulted, among other things, the definition of a new initiation essay in pre cracked specimens. Also, it has been inferred a new equation to calculate the stress intensity factor in crack tip existing in DCB specimens considering the influence of the deviation of the plane of the crack growth of the medium plane of the specimen. This has been crucial to explain the experimental results obtained since the crack growth by a plane parallel to the medium plane of the DCB specimen but away from it greatly reduces the stress intensity factor acting on the crack tip and modifies the actual conditions of the essay. Furthermore, we have identified the various constituents of the precipitation microstructure of all heat treatments studied and, in particular note has been achieved (by TEM and DSC) the existence of the type GP (II) of Guinier-Preston zones in the microstructure of several heat treatments (not described in the literature for alloys of the type studied) making it possible to establish a new interpretation of the evolution of the microstructure in the different treatments. In line with the above, we have defined new precipitation sequences for these alloys, which have allowed a better understanding of the formation of the microstructure in relation to the properties of different heat treatments studied. Similarly, explained the role of different microconstituents in various mechanical properties (tensile properties, hardness and toughness KIa), in particular, the study of the relationship between the tenacity KIa microstructure is unpublished. Moreover, has been correlated to the stress corrosion behavior, both in the incubation step as the crack propagation, with the measured characteristics of the various microstructural constituents heat treatments tested, both interior and boundary grain, having obtained the internal microstructure of grain has a greater influence on the stress corrosion cracking behavior in the grain boundary. In a special way, has established the importance, and very negative, the presence in the microstructure of Guinier-Preston zones in crack growth by stress corrosion. Finally, following the above, we have proposed a new mechanism by which stress corrosion cracking occurs in this type of aluminum alloy, and, very briefly, one can specify the following: the accumulation of hydrogen (formed basically by a corrosive process of anodic dissolution) in front of the GP zones (especially the GP (I) zones) near the precipitates free zone that develops around grain boundary causes local embrittlement which characterizes rapid crack growth of some heat treatments such alloys.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El litoral , históricamente considerado un medio físico de recursos inagotables y de tolerancia ilimitada , está actualmente en muchas zonas de nuestro país en un preocupante estado de congestión poniendo en peligro tanto la sostenibilidad de las actividades que en él se desarrollan , como la preservación del medio natural en que se enmarca . Desde hace ya varias décadas se ha creado una economia de servicios florecientes ( turismo ) que exige a su vez una serie de inversiones en actuaciones que necesita de una coordinación territorial y de una planificación temporal ordenadas así como una gestión eficaz . Esta nueva gestión debe resolver los problemas derivados de las interacciones entre los distintos agentes implicados , principalmente , los diferentes que lo componen ( aire , agua y tierra ) , y los tres subsistemas presentes ( físico y ambiental , económico-social e institucional ) . La alteración de cualquiera de ellos modifica el equilibrio existente , por lo que conseguir la preservación de este equilibrio dentro de los límites razonables en una estrategia sostenible e integrada es el objetivo fundamental de la gestión integrada sostenible del litoral .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este documento trata de la instalación del sistema de provisión de abonados “Provisioning Gateway” (PG) para el proyecto Machine to Machine (M2M) de Ericsson, una tecnología que permite definir los abonados o dispositivos serán usados en las comunicaciones máquina a máquina. El proyecto ha sido realizado en Ericsson para una compañía de telefonía de España. Se hablará de la evolución que han sufrido las redes de comunicaciones en los últimos años y las aplicaciones que surgen a partir de ellas. Se hará especial hincapié en la tecnología de red más utilizada hoy en día, el 3G, y en su sucesora, el 4G, detallando las novedades que incorpora. Después se describirá el trabajo realizado por el ingeniero de Ericsson durante la instalación del PG (Provisioning Gateway), un nodo de la red a través del cual la compañía telefónica da de alta a los abonados, modifica sus parámetros o los elimina de la base de datos. Se explicarán las distintas fases de las que se compone la instalación, tanto la parte hardware como la parte software y por último las pruebas de verificación con el cliente. Por último se darán algunas conclusiones sobre el trabajo realizado y los conocimientos adquiridos. ABSTRACT This document describes the installation of Provisioning Gateway system (PG) for Machine to Machine (M2M) project in Ericsson, which is a technology that allows companies to define the subscribers that will be used of machine to Machine communications. This project has been developed in Ericsson for a Spanish telecommunication company. The evolution of telecommunication networks is going to be introduced, describing al the services developed in parallel. 3G technology will be describer in a deeper way because it is the most used technology nowadays and 4G because it represents the future in telecommunications. Después se describirá el trabajo realizado por el ingeniero de Ericsson durante la instalación del PG (Provisioning Gateway), un nodo de la red a través del cuál la compañía telefónica da de alta a los abonados, modifica sus parámetros o los elimina de la base de datos. Se explicarán las distintas fases de las que se compone la instalación, tanto la parte hardware como la parte software y por último las pruebas de verificación con el cliente. Furthermore, this document shows the installation process of PG system made by the Ericsson´s engineer. Telecommunication companies use PG for creating, defining and deleting subscribers from the database. The different steps of the installation procedure will be described among this document, talking about hardware and software installation and the final acceptant test. Finally, some conclusions about the work done and experience learned will be exposed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Tesis Doctoral presenta las investigaciones y los trabajos desarrollados durante los años 2008 a 2012 para el análisis y diseño de un patrón primario de ruido térmico de banda ancha en tecnología coaxial. Para ubicar esta Tesis en su campo científico es necesario tomar conciencia de que la realización de mediciones fiables y trazables forma parte del sostenimiento del bienestar de una sociedad moderna y juega un papel crítico en apoyo de la competitividad económica, la fabricación y el comercio, así como de la calidad de vida. En el mundo moderno actual, una infraestructura de medición bien desarrollada genera confianza en muchas facetas de nuestra vida diaria, porque nos permite el desarrollo y fabricación de productos fiables, innovadores y de alta calidad; porque sustenta la competitividad de las industrias y su producción sostenible; además de contribuir a la eliminación de barreras técnicas y de dar soporte a un comercio justo, garantizar la seguridad y eficacia de la asistencia sanitaria, y por supuesto, dar respuesta a los grandes retos de la sociedad moderna en temas tan complicados como la energía y el medio ambiente. Con todo esto en mente se ha desarrollado un patrón primario de ruido térmico con el fin de aportar al sistema metrológico español un nuevo patrón primario de referencia capaz de ser usado para desarrollar mediciones fiables y trazables en el campo de la medida y calibración de dispositivos de ruido electromagnético de radiofrecuencia y microondas. Este patrón se ha planteado para que cumpla en el rango de 10 MHz a 26,5 GHz con las siguientes especificaciones: Salida nominal de temperatura de ruido aproximada de ~ 83 K. Incertidumbre de temperatura de ruido menor que ± 1 K en todo su rango de frecuencias. Coeficiente de reflexión en todo su ancho de banda de 0,01 a 26,5 GHz lo más bajo posible. Se ha divido esta Tesis Doctoral en tres partes claramente diferenciadas. La primera de ellas, que comprende los capítulos 1, 2, 3, 4 y 5, presenta todo el proceso de simulaciones y ajustes de los parámetros principales del dispositivo con el fin de dejar definidos los que resultan críticos en su construcción. A continuación viene una segunda parte compuesta por el capítulo 6 en donde se desarrollan los cálculos necesarios para obtener la temperatura de ruido a la salida del dispositivo. La tercera y última parte, capítulo 7, se dedica a la estimación de la incertidumbre de la temperatura de ruido del nuevo patrón primario de ruido obtenida en el capítulo anterior. Más concretamente tenemos que en el capítulo 1 se hace una exhaustiva introducción del entorno científico en donde se desarrolla este trabajo de investigación. Además se detallan los objetivos que se persiguen y se presenta la metodología utilizada para conseguirlos. El capítulo 2 describe la caracterización y selección del material dieléctrico para el anillo del interior de la línea de transmisión del patrón que ponga en contacto térmico los dos conductores del coaxial para igualar las temperaturas entre ambos y mantener la impedancia característica de todo el patrón primario de ruido. Además se estudian las propiedades dieléctricas del nitrógeno líquido para evaluar su influencia en la impedancia final de la línea de transmisión. En el capítulo 3 se analiza el comportamiento de dos cargas y una línea de aire comerciales trabajando en condiciones criogénicas. Se pretende con este estudio obtener la variación que se produce en el coeficiente de reflexión al pasar de temperatura ambiente a criogénica y comprobar si estos dispositivos resultan dañados por trabajar a temperaturas criogénicas; además se estudia si se modifica su comportamiento tras sucesivos ciclos de enfriamiento – calentamiento, obteniendo una cota de la variación para poder así seleccionar la carga que proporcione un menor coeficiente de reflexión y una menor variabilidad. En el capítulo 4 se parte del análisis de la estructura del anillo de material dieléctrico utilizada en la nota técnica NBS 1074 del NIST con el fin de obtener sus parámetros de dispersión que nos servirán para calcular el efecto que produce sobre el coeficiente de reflexión de la estructura coaxial completa. Además se realiza un estudio posterior con el fin de mejorar el diseño de la nota técnica NBS 1074 del NIST, donde se analiza el anillo de material dieléctrico, para posteriormente realizar modificaciones en la geometría de la zona donde se encuentra éste con el fin de reducir la reflexión que produce. Concretamente se estudia el ajuste del radio del conductor interior en la zona del anillo para que presente la misma impedancia característica que la línea. Y para finalizar se obtiene analíticamente la relación entre el radio del conductor interior y el radio de la transición de anillo térmico para garantizar en todo punto de esa transición la misma impedancia característica, manteniendo además criterios de robustez del dispositivo y de fabricación realistas. En el capítulo 5 se analiza el comportamiento térmico del patrón de ruido y su influencia en la conductividad de los materiales metálicos. Se plantean las posibilidades de que el nitrógeno líquido sea exterior a la línea o que éste penetre en su interior. En ambos casos, dada la simetría rotacional del problema, se ha simulado térmicamente una sección de la línea coaxial, es decir, se ha resuelto un problema bidimensional, aunque los resultados son aplicables a la estructura real tridimensional. Para la simulación térmica se ha empleado la herramienta PDE Toolbox de Matlab®. En el capítulo 6 se calcula la temperatura de ruido a la salida del dispositivo. Se parte del estudio de la aportación a la temperatura de ruido final de cada sección que compone el patrón. Además se estudia la influencia de las variaciones de determinados parámetros de los elementos que conforman el patrón de ruido sobre las características fundamentales de éste, esto es, el coeficiente de reflexión a lo largo de todo el dispositivo. Una vez descrito el patrón de ruido electromagnético se procede, en el capítulo 7, a describir los pasos seguidos para estimar la incertidumbre de la temperatura de ruido electromagnético a su salida. Para ello se utilizan dos métodos, el clásico de la guía para la estimación de la incertidumbre [GUM95] y el método de simulación de Monte Carlo. En el capítulo 8 se describen las conclusiones y lo logros conseguidos. Durante el desarrollo de esta Tesis Doctoral se ha obtenido un dispositivo novedoso susceptible de ser patentado, que ha sido registrado en la Oficina Española de Patentes y Marcas (O.E.P.M.) en Madrid, de conformidad con lo establecido en el artículo 20 de la Ley 11/1986, de 20 de Marzo, de Patentes, con el título Patrón Primario de Ruido Térmico de Banda Ancha (Referencia P-101061) con fecha 7 de febrero de 2011. ABSTRACT This Ph. D. work describes a number of investigations that were performed along the years 2008 to 2011, as a preparation for the study and design of a coaxial cryogenic reference noise standard. Reliable and traceable measurement underpins the welfare of a modern society and plays a critical role in supporting economic competitiveness, manufacturing and trade as well as quality of life. In our modern world, a well developed measurement infrastructure gives confidence in many aspects of our daily life, for example by enabling the development and manufacturing of reliable, high quality and innovative products; by supporting industry to be competitive and sustainable in its production; by removing technical barriers to trade and supporting fair trade; by ensuring safety and effectiveness of healthcare; by giving response to the major challenges in key sectors such energy and environment, etc. With all this in mind we have developed a primary standard thermal noise with the aim of providing the Spanish metrology system with a new primary standard for noise reference. This standard will allow development of reliable and traceable measurements in the field of calibration and measurement of electromagnetic noise RF and microwave devices. This standard has been designed to work in the frequency range from 10 MHz to 26.5 GHz, meeting the following specifications: 1. Noise temperature output is to be nominally ~ 83 K. 2. Noise temperature uncertainty less than ± 1 K in the frequency range from 0.01 to 26.5 GHz. 3. Broadband performance requires as low a reflection coefficient as possible from 0.01 to 26.5 GHz. The present Ph. D. work is divided into three clearly differentiated parts. The first one, which comprises Chapters 1 to 5, presents the whole process of simulation and adjustment of the main parameters of the device in order to define those of them which are critical for the manufacturing of the device. Next, the second part consists of Chapter 6 where the necessary computations to obtain the output noise temperature of the device are carried out. The third and last part, Chapter 7, is devoted to the estimation of the uncertainty related to the noise temperature of the noise primary standard as obtained in the preceding chapter. More specifically, Chapter 1 provides a thorough introduction to the scientific and technological environment where this research takes place. It also details the objectives to be achieved and presents the methodology used to achieve them. Chapter 2 describes the characterization and selection of the bead dielectric material inside the transmission line, intended to connect the two coaxial conductors equalizing the temperature between the two of them and thus keeping the characteristic impedance constant for the whole standard. In addition the dielectric properties of liquid nitrogen are analyzed in order to assess their influence on the impedance of the transmission line. Chapter 3 analyzes the behavior of two different loads and of a commercial airline when subjected to cryogenic working conditions. This study is intended to obtain the variation in the reflection coefficient when the temperature changes from room to cryogenic temperature, and to check whether these devices can be damaged as a result of working at cryogenic temperatures. Also we try to see whether the load changes its behavior after successive cycles of cooling / heating, in order to obtain a bound for the allowed variation of the reflection coefficient of the load. Chapter 4 analyzes the ring structure of the dielectric material used in the NBS technical note 1074 of NIST, in order to obtain its scattering parameters that will be used for computation of its effect upon the reflection coefficient of the whole coaxial structure. Subsequently, we perform a further investigation with the aim of improving the design of NBS technical note 1074 of NIST, and modifications are introduced in the geometry of the transition area in order to reduce the reflection it produces. We first analyze the ring, specifically the influence of the radius of inner conductor of the bead, and then make changes in its geometry so that it presents the same characteristic impedance as that of the line. Finally we analytically obtain the relationship between the inner conductor radius and the radius of the transition from ring, in order to ensure the heat flow through the transition thus keeping the same reflection coefficient, and at the same time meeting the robustness requirements and the feasibility of manufacturing. Chapter 5 analyzes the thermal behavior of the noise standard and its influence on the conductivity of metallic materials. Both possibilities are raised that the liquid nitrogen is kept outside the line or that it penetrates inside. In both cases, given the rotational symmetry of the structure, we have simulated a section of coaxial line, i.e. the equivalent two-dimensional problem has been resolved, although the results are applicable to the actual three-dimensional structure. For thermal simulation Matlab™ PDE Toolbox has been used. In Chapter 6 we compute the output noise temperature of the device. The starting point is the analysis of the contribution to the overall noise temperature of each section making up the standard. Moreover the influence of the variations in the parameters of all elements of the standard is analyzed, specifically the variation of the reflection coefficient along the entire device. Once the electromagnetic noise standard has been described and analyzed, in Chapter 7 we describe the steps followed to estimate the uncertainty of the output electromagnetic noise temperature. This is done using two methods, the classic analytical approach following the Guide to the Estimation of Uncertainty [GUM95] and numerical simulations made with the Monte Carlo method. Chapter 8 discusses the conclusions and achievements. During the development of this thesis, a novel device was obtained which was potentially patentable, and which was finally registered through the Spanish Patent and Trademark Office (SPTO) in Madrid, in accordance with the provisions of Article 20 of Law 11/1986 about Patents, dated March 20th, 1986. It was registered under the denomination Broadband Thermal Noise Primary Standard (Reference P-101061) dated February 7th, 2011.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La optimización de parámetros tales como el consumo de potencia, la cantidad de recursos lógicos empleados o la ocupación de memoria ha sido siempre una de las preocupaciones principales a la hora de diseñar sistemas embebidos. Esto es debido a que se trata de sistemas dotados de una cantidad de recursos limitados, y que han sido tradicionalmente empleados para un propósito específico, que permanece invariable a lo largo de toda la vida útil del sistema. Sin embargo, el uso de sistemas embebidos se ha extendido a áreas de aplicación fuera de su ámbito tradicional, caracterizadas por una mayor demanda computacional. Así, por ejemplo, algunos de estos sistemas deben llevar a cabo un intenso procesado de señales multimedia o la transmisión de datos mediante sistemas de comunicaciones de alta capacidad. Por otra parte, las condiciones de operación del sistema pueden variar en tiempo real. Esto sucede, por ejemplo, si su funcionamiento depende de datos medidos por el propio sistema o recibidos a través de la red, de las demandas del usuario en cada momento, o de condiciones internas del propio dispositivo, tales como la duración de la batería. Como consecuencia de la existencia de requisitos de operación dinámicos es necesario ir hacia una gestión dinámica de los recursos del sistema. Si bien el software es inherentemente flexible, no ofrece una potencia computacional tan alta como el hardware. Por lo tanto, el hardware reconfigurable aparece como una solución adecuada para tratar con mayor flexibilidad los requisitos variables dinámicamente en sistemas con alta demanda computacional. La flexibilidad y adaptabilidad del hardware requieren de dispositivos reconfigurables que permitan la modificación de su funcionalidad bajo demanda. En esta tesis se han seleccionado las FPGAs (Field Programmable Gate Arrays) como los dispositivos más apropiados, hoy en día, para implementar sistemas basados en hardware reconfigurable De entre todas las posibilidades existentes para explotar la capacidad de reconfiguración de las FPGAs comerciales, se ha seleccionado la reconfiguración dinámica y parcial. Esta técnica consiste en substituir una parte de la lógica del dispositivo, mientras el resto continúa en funcionamiento. La capacidad de reconfiguración dinámica y parcial de las FPGAs es empleada en esta tesis para tratar con los requisitos de flexibilidad y de capacidad computacional que demandan los dispositivos embebidos. La propuesta principal de esta tesis doctoral es el uso de arquitecturas de procesamiento escalables espacialmente, que son capaces de adaptar su funcionalidad y rendimiento en tiempo real, estableciendo un compromiso entre dichos parámetros y la cantidad de lógica que ocupan en el dispositivo. A esto nos referimos con arquitecturas con huellas escalables. En particular, se propone el uso de arquitecturas altamente paralelas, modulares, regulares y con una alta localidad en sus comunicaciones, para este propósito. El tamaño de dichas arquitecturas puede ser modificado mediante la adición o eliminación de algunos de los módulos que las componen, tanto en una dimensión como en dos. Esta estrategia permite implementar soluciones escalables, sin tener que contar con una versión de las mismas para cada uno de los tamaños posibles de la arquitectura. De esta manera se reduce significativamente el tiempo necesario para modificar su tamaño, así como la cantidad de memoria necesaria para almacenar todos los archivos de configuración. En lugar de proponer arquitecturas para aplicaciones específicas, se ha optado por patrones de procesamiento genéricos, que pueden ser ajustados para solucionar distintos problemas en el estado del arte. A este respecto, se proponen patrones basados en esquemas sistólicos, así como de tipo wavefront. Con el objeto de poder ofrecer una solución integral, se han tratado otros aspectos relacionados con el diseño y el funcionamiento de las arquitecturas, tales como el control del proceso de reconfiguración de la FPGA, la integración de las arquitecturas en el resto del sistema, así como las técnicas necesarias para su implementación. Por lo que respecta a la implementación, se han tratado distintos aspectos de bajo nivel dependientes del dispositivo. Algunas de las propuestas realizadas a este respecto en la presente tesis doctoral son un router que es capaz de garantizar el correcto rutado de los módulos reconfigurables dentro del área destinada para ellos, así como una estrategia para la comunicación entre módulos que no introduce ningún retardo ni necesita emplear recursos configurables del dispositivo. El flujo de diseño propuesto se ha automatizado mediante una herramienta denominada DREAMS. La herramienta se encarga de la modificación de las netlists correspondientes a cada uno de los módulos reconfigurables del sistema, y que han sido generadas previamente mediante herramientas comerciales. Por lo tanto, el flujo propuesto se entiende como una etapa de post-procesamiento, que adapta esas netlists a los requisitos de la reconfiguración dinámica y parcial. Dicha modificación la lleva a cabo la herramienta de una forma completamente automática, por lo que la productividad del proceso de diseño aumenta de forma evidente. Para facilitar dicho proceso, se ha dotado a la herramienta de una interfaz gráfica. El flujo de diseño propuesto, y la herramienta que lo soporta, tienen características específicas para abordar el diseño de las arquitecturas dinámicamente escalables propuestas en esta tesis. Entre ellas está el soporte para el realojamiento de módulos reconfigurables en posiciones del dispositivo distintas a donde el módulo es originalmente implementado, así como la generación de estructuras de comunicación compatibles con la simetría de la arquitectura. El router has sido empleado también en esta tesis para obtener un rutado simétrico entre nets equivalentes. Dicha posibilidad ha sido explotada para aumentar la protección de circuitos con altos requisitos de seguridad, frente a ataques de canal lateral, mediante la implantación de lógica complementaria con rutado idéntico. Para controlar el proceso de reconfiguración de la FPGA, se propone en esta tesis un motor de reconfiguración especialmente adaptado a los requisitos de las arquitecturas dinámicamente escalables. Además de controlar el puerto de reconfiguración, el motor de reconfiguración ha sido dotado de la capacidad de realojar módulos reconfigurables en posiciones arbitrarias del dispositivo, en tiempo real. De esta forma, basta con generar un único bitstream por cada módulo reconfigurable del sistema, independientemente de la posición donde va a ser finalmente reconfigurado. La estrategia seguida para implementar el proceso de realojamiento de módulos es diferente de las propuestas existentes en el estado del arte, pues consiste en la composición de los archivos de configuración en tiempo real. De esta forma se consigue aumentar la velocidad del proceso, mientras que se reduce la longitud de los archivos de configuración parciales a almacenar en el sistema. El motor de reconfiguración soporta módulos reconfigurables con una altura menor que la altura de una región de reloj del dispositivo. Internamente, el motor se encarga de la combinación de los frames que describen el nuevo módulo, con la configuración existente en el dispositivo previamente. El escalado de las arquitecturas de procesamiento propuestas en esta tesis también se puede beneficiar de este mecanismo. Se ha incorporado también un acceso directo a una memoria externa donde se pueden almacenar bitstreams parciales. Para acelerar el proceso de reconfiguración se ha hecho funcionar el ICAP por encima de la máxima frecuencia de reloj aconsejada por el fabricante. Así, en el caso de Virtex-5, aunque la máxima frecuencia del reloj deberían ser 100 MHz, se ha conseguido hacer funcionar el puerto de reconfiguración a frecuencias de operación de hasta 250 MHz, incluyendo el proceso de realojamiento en tiempo real. Se ha previsto la posibilidad de portar el motor de reconfiguración a futuras familias de FPGAs. Por otro lado, el motor de reconfiguración se puede emplear para inyectar fallos en el propio dispositivo hardware, y así ser capaces de evaluar la tolerancia ante los mismos que ofrecen las arquitecturas reconfigurables. Los fallos son emulados mediante la generación de archivos de configuración a los que intencionadamente se les ha introducido un error, de forma que se modifica su funcionalidad. Con el objetivo de comprobar la validez y los beneficios de las arquitecturas propuestas en esta tesis, se han seguido dos líneas principales de aplicación. En primer lugar, se propone su uso como parte de una plataforma adaptativa basada en hardware evolutivo, con capacidad de escalabilidad, adaptabilidad y recuperación ante fallos. En segundo lugar, se ha desarrollado un deblocking filter escalable, adaptado a la codificación de vídeo escalable, como ejemplo de aplicación de las arquitecturas de tipo wavefront propuestas. El hardware evolutivo consiste en el uso de algoritmos evolutivos para diseñar hardware de forma autónoma, explotando la flexibilidad que ofrecen los dispositivos reconfigurables. En este caso, los elementos de procesamiento que componen la arquitectura son seleccionados de una biblioteca de elementos presintetizados, de acuerdo con las decisiones tomadas por el algoritmo evolutivo, en lugar de definir la configuración de las mismas en tiempo de diseño. De esta manera, la configuración del core puede cambiar cuando lo hacen las condiciones del entorno, en tiempo real, por lo que se consigue un control autónomo del proceso de reconfiguración dinámico. Así, el sistema es capaz de optimizar, de forma autónoma, su propia configuración. El hardware evolutivo tiene una capacidad inherente de auto-reparación. Se ha probado que las arquitecturas evolutivas propuestas en esta tesis son tolerantes ante fallos, tanto transitorios, como permanentes y acumulativos. La plataforma evolutiva se ha empleado para implementar filtros de eliminación de ruido. La escalabilidad también ha sido aprovechada en esta aplicación. Las arquitecturas evolutivas escalables permiten la adaptación autónoma de los cores de procesamiento ante fluctuaciones en la cantidad de recursos disponibles en el sistema. Por lo tanto, constituyen un ejemplo de escalabilidad dinámica para conseguir un determinado nivel de calidad, que puede variar en tiempo real. Se han propuesto dos variantes de sistemas escalables evolutivos. El primero consiste en un único core de procesamiento evolutivo, mientras que el segundo está formado por un número variable de arrays de procesamiento. La codificación de vídeo escalable, a diferencia de los codecs no escalables, permite la decodificación de secuencias de vídeo con diferentes niveles de calidad, de resolución temporal o de resolución espacial, descartando la información no deseada. Existen distintos algoritmos que soportan esta característica. En particular, se va a emplear el estándar Scalable Video Coding (SVC), que ha sido propuesto como una extensión de H.264/AVC, ya que este último es ampliamente utilizado tanto en la industria, como a nivel de investigación. Para poder explotar toda la flexibilidad que ofrece el estándar, hay que permitir la adaptación de las características del decodificador en tiempo real. El uso de las arquitecturas dinámicamente escalables es propuesto en esta tesis con este objetivo. El deblocking filter es un algoritmo que tiene como objetivo la mejora de la percepción visual de la imagen reconstruida, mediante el suavizado de los "artefactos" de bloque generados en el lazo del codificador. Se trata de una de las tareas más intensivas en procesamiento de datos de H.264/AVC y de SVC, y además, su carga computacional es altamente dependiente del nivel de escalabilidad seleccionado en el decodificador. Por lo tanto, el deblocking filter ha sido seleccionado como prueba de concepto de la aplicación de las arquitecturas dinámicamente escalables para la compresión de video. La arquitectura propuesta permite añadir o eliminar unidades de computación, siguiendo un esquema de tipo wavefront. La arquitectura ha sido propuesta conjuntamente con un esquema de procesamiento en paralelo del deblocking filter a nivel de macrobloque, de tal forma que cuando se varía del tamaño de la arquitectura, el orden de filtrado de los macrobloques varia de la misma manera. El patrón propuesto se basa en la división del procesamiento de cada macrobloque en dos etapas independientes, que se corresponden con el filtrado horizontal y vertical de los bloques dentro del macrobloque. Las principales contribuciones originales de esta tesis son las siguientes: - El uso de arquitecturas altamente regulares, modulares, paralelas y con una intensa localidad en sus comunicaciones, para implementar cores de procesamiento dinámicamente reconfigurables. - El uso de arquitecturas bidimensionales, en forma de malla, para construir arquitecturas dinámicamente escalables, con una huella escalable. De esta forma, las arquitecturas permiten establecer un compromiso entre el área que ocupan en el dispositivo, y las prestaciones que ofrecen en cada momento. Se proponen plantillas de procesamiento genéricas, de tipo sistólico o wavefront, que pueden ser adaptadas a distintos problemas de procesamiento. - Un flujo de diseño y una herramienta que lo soporta, para el diseño de sistemas reconfigurables dinámicamente, centradas en el diseño de las arquitecturas altamente paralelas, modulares y regulares propuestas en esta tesis. - Un esquema de comunicaciones entre módulos reconfigurables que no introduce ningún retardo ni requiere el uso de recursos lógicos propios. - Un router flexible, capaz de resolver los conflictos de rutado asociados con el diseño de sistemas reconfigurables dinámicamente. - Un algoritmo de optimización para sistemas formados por múltiples cores escalables que optimice, mediante un algoritmo genético, los parámetros de dicho sistema. Se basa en un modelo conocido como el problema de la mochila. - Un motor de reconfiguración adaptado a los requisitos de las arquitecturas altamente regulares y modulares. Combina una alta velocidad de reconfiguración, con la capacidad de realojar módulos en tiempo real, incluyendo el soporte para la reconfiguración de regiones que ocupan menos que una región de reloj, así como la réplica de un módulo reconfigurable en múltiples posiciones del dispositivo. - Un mecanismo de inyección de fallos que, empleando el motor de reconfiguración del sistema, permite evaluar los efectos de fallos permanentes y transitorios en arquitecturas reconfigurables. - La demostración de las posibilidades de las arquitecturas propuestas en esta tesis para la implementación de sistemas de hardware evolutivos, con una alta capacidad de procesamiento de datos. - La implementación de sistemas de hardware evolutivo escalables, que son capaces de tratar con la fluctuación de la cantidad de recursos disponibles en el sistema, de una forma autónoma. - Una estrategia de procesamiento en paralelo para el deblocking filter compatible con los estándares H.264/AVC y SVC que reduce el número de ciclos de macrobloque necesarios para procesar un frame de video. - Una arquitectura dinámicamente escalable que permite la implementación de un nuevo deblocking filter, totalmente compatible con los estándares H.264/AVC y SVC, que explota el paralelismo a nivel de macrobloque. El presente documento se organiza en siete capítulos. En el primero se ofrece una introducción al marco tecnológico de esta tesis, especialmente centrado en la reconfiguración dinámica y parcial de FPGAs. También se motiva la necesidad de las arquitecturas dinámicamente escalables propuestas en esta tesis. En el capítulo 2 se describen las arquitecturas dinámicamente escalables. Dicha descripción incluye la mayor parte de las aportaciones a nivel arquitectural realizadas en esta tesis. Por su parte, el flujo de diseño adaptado a dichas arquitecturas se propone en el capítulo 3. El motor de reconfiguración se propone en el 4, mientras que el uso de dichas arquitecturas para implementar sistemas de hardware evolutivo se aborda en el 5. El deblocking filter escalable se describe en el 6, mientras que las conclusiones finales de esta tesis, así como la descripción del trabajo futuro, son abordadas en el capítulo 7. ABSTRACT The optimization of system parameters, such as power dissipation, the amount of hardware resources and the memory footprint, has been always a main concern when dealing with the design of resource-constrained embedded systems. This situation is even more demanding nowadays. Embedded systems cannot anymore be considered only as specific-purpose computers, designed for a particular functionality that remains unchanged during their lifetime. Differently, embedded systems are now required to deal with more demanding and complex functions, such as multimedia data processing and high-throughput connectivity. In addition, system operation may depend on external data, the user requirements or internal variables of the system, such as the battery life-time. All these conditions may vary at run-time, leading to adaptive scenarios. As a consequence of both the growing computational complexity and the existence of dynamic requirements, dynamic resource management techniques for embedded systems are needed. Software is inherently flexible, but it cannot meet the computing power offered by hardware solutions. Therefore, reconfigurable hardware emerges as a suitable technology to deal with the run-time variable requirements of complex embedded systems. Adaptive hardware requires the use of reconfigurable devices, where its functionality can be modified on demand. In this thesis, Field Programmable Gate Arrays (FPGAs) have been selected as the most appropriate commercial technology existing nowadays to implement adaptive hardware systems. There are different ways of exploiting reconfigurability in reconfigurable devices. Among them is dynamic and partial reconfiguration. This is a technique which consists in substituting part of the FPGA logic on demand, while the rest of the device continues working. The strategy followed in this thesis is to exploit the dynamic and partial reconfiguration of commercial FPGAs to deal with the flexibility and complexity demands of state-of-the-art embedded systems. The proposal of this thesis to deal with run-time variable system conditions is the use of spatially scalable processing hardware IP cores, which are able to adapt their functionality or performance at run-time, trading them off with the amount of logic resources they occupy in the device. This is referred to as a scalable footprint in the context of this thesis. The distinguishing characteristic of the proposed cores is that they rely on highly parallel, modular and regular architectures, arranged in one or two dimensions. These architectures can be scaled by means of the addition or removal of the composing blocks. This strategy avoids implementing a full version of the core for each possible size, with the corresponding benefits in terms of scaling and adaptation time, as well as bitstream storage memory requirements. Instead of providing specific-purpose architectures, generic architectural templates, which can be tuned to solve different problems, are proposed in this thesis. Architectures following both systolic and wavefront templates have been selected. Together with the proposed scalable architectural templates, other issues needed to ensure the proper design and operation of the scalable cores, such as the device reconfiguration control, the run-time management of the architecture and the implementation techniques have been also addressed in this thesis. With regard to the implementation of dynamically reconfigurable architectures, device dependent low-level details are addressed. Some of the aspects covered in this thesis are the area constrained routing for reconfigurable modules, or an inter-module communication strategy which does not introduce either extra delay or logic overhead. The system implementation, from the hardware description to the device configuration bitstream, has been fully automated by modifying the netlists corresponding to each of the system modules, which are previously generated using the vendor tools. This modification is therefore envisaged as a post-processing step. Based on these implementation proposals, a design tool called DREAMS (Dynamically Reconfigurable Embedded and Modular Systems) has been created, including a graphic user interface. The tool has specific features to cope with modular and regular architectures, including the support for module relocation and the inter-module communications scheme based on the symmetry of the architecture. The core of the tool is a custom router, which has been also exploited in this thesis to obtain symmetric routed nets, with the aim of enhancing the protection of critical reconfigurable circuits against side channel attacks. This is achieved by duplicating the logic with an exactly equal routing. In order to control the reconfiguration process of the FPGA, a Reconfiguration Engine suited to the specific requirements set by the proposed architectures was also proposed. Therefore, in addition to controlling the reconfiguration port, the Reconfiguration Engine has been enhanced with the online relocation ability, which allows employing a unique configuration bitstream for all the positions where the module may be placed in the device. Differently to the existing relocating solutions, which are based on bitstream parsers, the proposed approach is based on the online composition of bitstreams. This strategy allows increasing the speed of the process, while the length of partial bitstreams is also reduced. The height of the reconfigurable modules can be lower than the height of a clock region. The Reconfiguration Engine manages the merging process of the new and the existing configuration frames within each clock region. The process of scaling up and down the hardware cores also benefits from this technique. A direct link to an external memory where partial bitstreams can be stored has been also implemented. In order to accelerate the reconfiguration process, the ICAP has been overclocked over the speed reported by the manufacturer. In the case of Virtex-5, even though the maximum frequency of the ICAP is reported to be 100 MHz, valid operations at 250 MHz have been achieved, including the online relocation process. Portability of the reconfiguration solution to today's and probably, future FPGAs, has been also considered. The reconfiguration engine can be also used to inject faults in real hardware devices, and this way being able to evaluate the fault tolerance offered by the reconfigurable architectures. Faults are emulated by introducing partial bitstreams intentionally modified to provide erroneous functionality. To prove the validity and the benefits offered by the proposed architectures, two demonstration application lines have been envisaged. First, scalable architectures have been employed to develop an evolvable hardware platform with adaptability, fault tolerance and scalability properties. Second, they have been used to implement a scalable deblocking filter suited to scalable video coding. Evolvable Hardware is the use of evolutionary algorithms to design hardware in an autonomous way, exploiting the flexibility offered by reconfigurable devices. In this case, processing elements composing the architecture are selected from a presynthesized library of processing elements, according to the decisions taken by the algorithm, instead of being decided at design time. This way, the configuration of the array may change as run-time environmental conditions do, achieving autonomous control of the dynamic reconfiguration process. Thus, the self-optimization property is added to the native self-configurability of the dynamically scalable architectures. In addition, evolvable hardware adaptability inherently offers self-healing features. The proposal has proved to be self-tolerant, since it is able to self-recover from both transient and cumulative permanent faults. The proposed evolvable architecture has been used to implement noise removal image filters. Scalability has been also exploited in this application. Scalable evolvable hardware architectures allow the autonomous adaptation of the processing cores to a fluctuating amount of resources available in the system. Thus, it constitutes an example of the dynamic quality scalability tackled in this thesis. Two variants have been proposed. The first one consists in a single dynamically scalable evolvable core, and the second one contains a variable number of processing cores. Scalable video is a flexible approach for video compression, which offers scalability at different levels. Differently to non-scalable codecs, a scalable video bitstream can be decoded with different levels of quality, spatial or temporal resolutions, by discarding the undesired information. The interest in this technology has been fostered by the development of the Scalable Video Coding (SVC) standard, as an extension of H.264/AVC. In order to exploit all the flexibility offered by the standard, it is necessary to adapt the characteristics of the decoder to the requirements of each client during run-time. The use of dynamically scalable architectures is proposed in this thesis with this aim. The deblocking filter algorithm is the responsible of improving the visual perception of a reconstructed image, by smoothing blocking artifacts generated in the encoding loop. This is one of the most computationally intensive tasks of the standard, and furthermore, it is highly dependent on the selected scalability level in the decoder. Therefore, the deblocking filter has been selected as a proof of concept of the implementation of dynamically scalable architectures for video compression. The proposed architecture allows the run-time addition or removal of computational units working in parallel to change its level of parallelism, following a wavefront computational pattern. Scalable architecture is offered together with a scalable parallelization strategy at the macroblock level, such that when the size of the architecture changes, the macroblock filtering order is modified accordingly. The proposed pattern is based on the division of the macroblock processing into two independent stages, corresponding to the horizontal and vertical filtering of the blocks within the macroblock. The main contributions of this thesis are: - The use of highly parallel, modular, regular and local architectures to implement dynamically reconfigurable processing IP cores, for data intensive applications with flexibility requirements. - The use of two-dimensional mesh-type arrays as architectural templates to build dynamically reconfigurable IP cores, with a scalable footprint. The proposal consists in generic architectural templates, which can be tuned to solve different computational problems. •A design flow and a tool targeting the design of DPR systems, focused on highly parallel, modular and local architectures. - An inter-module communication strategy, which does not introduce delay or area overhead, named Virtual Borders. - A custom and flexible router to solve the routing conflicts as well as the inter-module communication problems, appearing during the design of DPR systems. - An algorithm addressing the optimization of systems composed of multiple scalable cores, which size can be decided individually, to optimize the system parameters. It is based on a model known as the multi-dimensional multi-choice Knapsack problem. - A reconfiguration engine tailored to the requirements of highly regular and modular architectures. It combines a high reconfiguration throughput with run-time module relocation capabilities, including the support for sub-clock reconfigurable regions and the replication in multiple positions. - A fault injection mechanism which takes advantage of the system reconfiguration engine, as well as the modularity of the proposed reconfigurable architectures, to evaluate the effects of transient and permanent faults in these architectures. - The demonstration of the possibilities of the architectures proposed in this thesis to implement evolvable hardware systems, while keeping a high processing throughput. - The implementation of scalable evolvable hardware systems, which are able to adapt to the fluctuation of the amount of resources available in the system, in an autonomous way. - A parallelization strategy for the H.264/AVC and SVC deblocking filter, which reduces the number of macroblock cycles needed to process the whole frame. - A dynamically scalable architecture that permits the implementation of a novel deblocking filter module, fully compliant with the H.264/AVC and SVC standards, which exploits the macroblock level parallelism of the algorithm. This document is organized in seven chapters. In the first one, an introduction to the technology framework of this thesis, specially focused on dynamic and partial reconfiguration, is provided. The need for the dynamically scalable processing architectures proposed in this work is also motivated in this chapter. In chapter 2, dynamically scalable architectures are described. Description includes most of the architectural contributions of this work. The design flow tailored to the scalable architectures, together with the DREAMs tool provided to implement them, are described in chapter 3. The reconfiguration engine is described in chapter 4. The use of the proposed scalable archtieectures to implement evolvable hardware systems is described in chapter 5, while the scalable deblocking filter is described in chapter 6. Final conclusions of this thesis, and the description of future work, are addressed in chapter 7.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La conservación de sabor, el aroma y la cantidad microbiana, después de la cosecha y a lo largo de la cadena de distribución es un gran desafío para la industria de fruta fresca. Factores pre y post-cosecha, transporte y almacenamiento influyen directamente en la calidad de las frutas y verduras. El objetivo principal de este trabajo fue investigar el efecto del abonado con compost de orujo en diferentes dosis en el perfil sensorial del melón de La Mancha. Para la realización de este estudio se han empleado tres dosis diferentes de compost de orujo de calidad certificada (1, 2 y 3Kg/m lineal) en melones de la variedad Trujillo cultivados en la región de Castilla-La Mancha. Los melones fueron recolectados en base a su madurez comercial (10-11ºBrix). El análisis descriptivo cuantitativo (QDA) de los melones fue realizado por un panel de 8 catadores entrenados utilizando los atributos que previamente habían sido seleccionados como los que mejor describían las características sensoriales del melón de la variedad Trujillo. Para cuantificar la intensidad de los atributos se utilizaron escalas no estructuradas de 10 cm. La evaluación del perfil sensorial de los melones puso de manifiesto que abonado con compost de orujo no modifica de manera significativa el perfil olfativo y el perfil de textura de los melones independientemente de la dosis empleada. Sin embargo, la dosis de abonado sí modificó ligeramente el perfil gustativo de los melones especialmente cuando la dosis aplicada fue de 3kg/m lineal apareciendo notas a dulce/sintético que no fueron detectadas en los melones control y con menores dosis de abonado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Como es sabido, los cristales líquidos poseen la propiedad de orientarse en dominios inducidos por las condiciones de contorno, así como de sufrir reorientaciones por la acción de campos externos magnéticos, eléctricos u ópticos. Se conoce, asimismo, que la introducción de sustancias no mesomórficas en una estructura de cristal líquido no modifica apreciablemente su ordenación, a condición de que la impurificación realizada sea muy pequeña (10-2 -10-3 M típicamente). Las moléculas no mesomórficas son en este caso inducidas por los dominios de cristal líquido a orientarse a su vez, efecto este que puede ser detectado estudiando la absorción y/o emisión de luz polarizada de las mismas. La reorientación por campos externos, por su parte, sigue produciéndose cualitativamente de igual manera, aunque se producen variaciones en el voltaje umbral y/o tiempo de respuesta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El interés creciente en encontrar alimentos precocinados congelados que se asemejen a productos naturales, capaces de superar un procesado con el menor daño, ha generado un aumento en el estudio de nuevos productos en este campo de la investigación. Las características de cada matriz alimentaria, la composición y estructura de los ingredientes, así como el efecto de las interacciones entre ellos, modifica la textura, estructura y las propiedades físicas y sensoriales del alimento, así como su aceptación por el consumidor. En este contexto, la investigación realizada en esta tesis doctoral se ha llevado a cabo en puré de patata considerado como una matriz alimentaria semisólida y se ha centrado en analizar los efectos de la concentración y modificación de la composición en las propiedades reológicas y de textura, en las propiedades físico-químicas y estructurales, así como en los atributos sensoriales de los purés de patata cuando a estos se le añaden diferentes ingredientes funcionales como fibra de guisante, inulina, aceite de oliva, aislado de proteína de soja, ácidos grasos omega 3 y/o sus mezclas. Para ello, se han realizado cuatro estudios donde se determinan las propiedades reológicas mediante ensayos dinámicos oscilatorios y en estado estacionario, los parámetros instrumentales de textura mediante ensayos de extrusión inversa y de penetración cónica, además de los cambios estructurales a través de cromatografía iónica con detector de pulsos amperométrico, cromatografía de gases con detector de ionización de llama y microscopía electrónica de barrido. Conjuntamente, se han evaluado los atributos sensoriales de los diferentes purés generando los descriptores que mejor definen la calidad sensorial del producto, utilizando un panel de jueces entrenados y valorándose la aceptación global de los nuevos productos mediante un panel de consumidores. En un primer estudio, el puré de patata natural congelado elaborado con crioprotectores se enriqueció con fibra dietética insoluble (fibra de guisante), fibra dietética soluble (inulina) y sus mezclas. La fibra de guisante influyó significativa y negativamente en la textura del puré de patata, percibiéndose en el producto un incremento de la dureza y de la arenosidad, mientras que la inulina produjo un ablandamiento del sistema. En un segundo estudio, el puré de patata natural fresco y congelado/descongelado elaborado con y sin crioprotectores, se enriqueció con fibra dietética soluble (inulina), aceite de oliva virgen extra y sus mezclas. La adición de estos dos ingredientes generó un ablandamiento de la matriz del sistema, produciéndose, sin embargo, un efecto sinérgico entre ambos ingredientes funcionales. La inulina tuvo un efecto más significativo en la viscosidad aparente del producto, mientras que el aceite de oliva virgen extra afectó más significativamente a la pseudoplasticidad, al índice de consistencia y a la viscosidad plástica del mismo. El proceso de congelación y descongelación utilizado favoreció la reducción del tamaño de las partículas de inulina haciéndolas imperceptibles al paladar, obteniéndose productos más cremosos y con mayor aceptabilidad global que sus homólogos frescos. En un tercer estudio, el puré de patata natural fresco y congelado/descongelado elaborado con crioprotectores se enriqueció con mezclas de fibra dietética soluble (inulina) y aislado de proteína de soja. Los resultados demostraron que el ciclo de congelación y descongelación realizado no afecta el grado de polimerización de la inulina. La estructura química de la inulina tampoco se vio afectada por la incorporación de la soja. El proceso de congelación/descongelación, así como la adición de concentraciones altas de inulina y bajas de aislado de proteína de soja, favorecen la disminución de la contribución de la componente viscosa en las propiedades viscoelásticas del puré de patata. La cremosidad fue el único atributo sensorial que presentó una correlación lineal significativa entre las puntuaciones otorgadas por panelistas entrenados y no entrenados. Por último, se elaboró un puré de patata natural fresco y congelado/descongelado optimizado con crioprotectores y enriquecido con la suma de ácido docosahexaenoico (DHA, C22:6 n-3) y ácido eicosapentaenoico (EPA, C20:5 n-3) y con ácido α-linolénico (ALA, C18:3 n-3) microencapsulados. El ciclo de congelación y descongelación no afectó al perfil de ácidos grasos del puré de patata. La adición de omega 3 procedente de aceites de lino y pescado microencapsulados mejora los indicadores nutricionales que definen la calidad de la grasa, obteniéndose un producto más saludable. ABSTRACT The growing interest in finding frozen precooked products that are like a natural product and capable of withstanding initial processing with minimum damage and remaining stable during preservation and reheating prior to consumption has generated an increase in studies of new products in this field of research. The characteristics of each food matrix, the composition and structure of the ingredients and the effect of interactions between them alter the texture, structure and physical and sensory properties of the food product and its acceptance by the consumer. In this context, the research conducted in this doctoral thesis was carried out on mashed potato, considered as a semi-solid food matrix, and focused on analysing the effects of concentration and modification of the composition of the mashed potato matrix on the rheological and textural properties, physicochemical and structural properties and sensory attributes of mashed potato when various functional ingredients are added to it, such as pea fibre, inulin, olive oil, soy protein isolate, omega 3 fatty acids and/or mixtures of these ingredients. Four studies were conducted for this purpose. Rheological properties were determined by oscillatory dynamic tests and stationary state tests, and instrumental texture parameters by backward extrusion and cone penetration tests. Structural changes were studied by ion chromatography with pulsed amperometric detector, gas chromatography with flame ionisation detector and scanning electron microscopy. The sensory attributes of the various mashed potato mixtures were evaluated by generating the descriptors that best defined the sensory quality of the products and using a panel of trained judges, and overall acceptance of the new products was evaluated by a panel of consumers. In the first study, frozen natural mashed potato incorporating cryoprotectants was enriched with insoluble dietary fibre (pea fibre), soluble dietary fibre (inulin) and mixtures of the two. Pea fibre had a significant negative influence on the texture of the mashed potato, producing an increase in hardness and granularity, whereas inulin produced a softening of the system. In the second study, fresh and frozen/thawed natural mashed potato prepared with and without cryoprotectants was enriched with soluble dietary fibre (inulin), extra virgin olive oil and mixtures of the two. The addition of these two ingredients generated softening of the matrix of the system, but a synergic effect between the two functional ingredients was produced. Inulin had a more significant effect on the apparent viscosity of the product, whereas extra virgin olive oil had a more significant effect on its pseudoplasticity, consistency index and plastic viscosity. The freezing and thawing process that was used contributed to a reduction in the size of the inulin particles, making them imperceptible to the palate and producing creamier products with greater overall acceptability than their fresh equivalents. In the third study, the fresh and frozen/thawed natural mashed potato incorporating cryoprotectants was enriched with mixtures of soluble dietary fibre (inulin) and soy protein isolate. The results showed that the freezing and thawing process that was performed did not affect the degree of polymerisation of the inulin. The chemical structure of the inulin was also not affected by the incorporation of soy. The freezing and thawing process and the addition of high concentrations of inulin and low concentrations of soy protein isolate favoured a decrease in the contribution of the viscous component to the viscoelastic properties of the mashed potato. Creaminess was the only sensory attribute that presented a significant linear correlation between the scores given by trained and untrained panellists. Lastly, fresh and frozen/thawed natural mashed potato optimised with cryoprotectants was prepared and enriched with the sum of docosahexaenoic acid (DHA, C22:6 n-3) and eicosapentaenoic acid (EPA, C20:5 n-3) and with α-linolenic acid (ALA, C18:3 n-3), microencapsulated. The freezing and thawing process did not affect the fatty acid profile of the mashed potato. The addition of omega 3 obtained from microencapsulated linseed and fish oils improved the nutritional indicators that define the quality of the fat, producing a healthier product.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El objetivo principal está recogido en el título de la Tesis. Ampliando éste para hacerlo más explícito, puede decirse que se trata de “desarrollar un sistema de control para que una instalación fotovoltaica de bombeo directo con una bomba centrífuga accionada por un motor de inducción trabaje de la forma más eficiente posible”. Para lograr ese propósito se establecieron los siguientes objetivos específicos: 1. Diseñar y construir un prototipo de instalación fotovoltaica de bombeo directo que utilice principalmente elementos de bajo coste y alta fiabilidad. Para cumplir esos requisitos la instalación consta de un generador fotovoltaico con módulos de silicio monocristalino, una bomba centrífuga accionada por un motor de inducción y un inversor que controla vectorialmente el motor. Los módulos de silicio monocristalino, el motor asíncrono y la bomba centrífuga son, en sus respectivas categorías, los elementos más robustos y fiables que existen, pudiendo ser adquiridos, instalados e incluso reparados (el motor y la bomba) por personas con una mínima formación técnica en casi cualquier lugar del mundo. El inversor no es tan fiable ni fácil de reparar. Ahora bien, para optimizar la potencia que entrega el generador y tener algún tipo de control sobre el motor se necesita al menos un convertidor electrónico. Por tanto, la inclusión del inversor en el sistema no reduce su fiabilidad ni supone un aumento del coste. La exigencia de que el inversor pueda realizar el control vectorial del motor responde a la necesidad de optimizar tanto la operación del conjunto motor-bomba como la del generador fotovoltaico. Como más adelante se indica, lograr esa optimización es otro de los objetivos que se plantea. 2. Reducir al mínimo el número de elementos de medida y control que necesita el sistema para su operación (sensorless control). Con ello se persigue aumentar la robustez y fiabilidad del sistema y reducir sus operaciones de mantenimiento, buscando que sea lo más económico posible. Para ello se deben evitar todas las medidas que pudieran ser redundantes, tomando datos sólo de las variables eléctricas que no pueden obtenerse de otra forma (tensión e intensidad en corriente continua y dos intensidades en corriente alterna) y estimando la velocidad del rotor (en vez de medirla con un encoder u otro dispositivo equivalente). 3. Estudiar posibles formas de mejorar el diseño y la eficiencia de estas instalaciones. Se trata de establecer criterios para seleccionar los dispositivos mas eficientes o con mejor respuesta, de buscar las condiciones para la operación óptima, de corregir problemas de desacoplo entre subsistemas, etc. Mediante el análisis de cada una de las partes de las que consta la instalación se plantearán estrategias para minimizar pérdidas, pautas que permitan identificar los elementos más óptimos y procedimientos de control para que la operación del sistema pueda alcanzar la mayor eficiente posible. 4. Implementar un modelo de simulación del sistema sobre el que ensayar las estrategias de control que sean susceptibles de llevar a la práctica. Para modelar el generador fotovoltaico se requiere un conjunto de parámetros que es necesario estimar previamente a partir de datos obtenidos de los catálogos de los módulos a utilizar o mediante ensayos. Igual sucede con los parámetros para modelar el motor. Como se pretende que el motor trabaje siempre con la máxima eficiencia será necesario realizar su control vectorial, por lo que el modelo que se implemente debe ser también vectorial. Ahora bien, en el modelo vectorial estándar que normalmente se utiliza en los esquemas de control se consideran nulas las pérdidas en el hierro, por lo que sólo se podrá utilizar ese modelo para evaluar la eficiencia del motor si previamente se modifica para que incluya el efecto de dichas pérdidas. 5. Desarrollar un procedimiento de control para que el inversor consiga que el motor trabaje con mínimas pérdidas y a la vez el generador entregue la máxima potencia. Tal como se ha mencionado en el primer objetivo, se trata de establecer un procedimiento de control que determine las señales de consigna más convenientes para que el inversor pueda imponer en cada momento al motor las corrientes de estator para las que sus pérdidas son mínimas. Al mismo tiempo el procedimiento de control debe ser capaz de variar las señales de consigna que recibe el inversor para que éste pueda hacer que el motor demande más o menos potencia al generador fotovoltaico. Actuando de esa forma se puede lograr que el generador fotovoltaico trabaje entregando la máxima potencia. El procedimiento de control desarrollado se implementará en un DSP encargado de generar las señales de referencia que el inversor debe imponer al motor para que trabaje con mínimas pérdidas y a la vez el generador fotovoltaico entregue la máxima potencia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta tesis se propone un procedimiento para evaluar la resistencia mecánica de obleas de silicio cristalino y se aplica en diferentes casos válidos para la industria. En el sector de la industria fotovoltaica predomina la tecnología basada en paneles de silicio cristalino. Estos paneles están compuestos por células solares conectadas en serie y estas células se forman a partir de obleas de silicio. Con el objetivo de disminuir el coste del panel, en los últimos años se ha observado una clara tendencia a la reducción del espesor de las obleas. Esta reducción del espesor modifica la rigidez de las obleas por lo que ha sido necesario modificar la manera tradicional de manipularlas con el objetivo de mantener un bajo ratio de rotura. Para ello, es necesario conocer la resistencia mecánica de las obleas. En la primera parte del trabajo se describen las obleas de silicio, desde su proceso de formación hasta sus propiedades mecánicas. Se muestra la influencia de la estructura cristalográfica en la resistencia y en el comportamiento ya que el cristal de silicio es anisótropo. Se propone también el método de caracterización de la resistencia. Se utiliza un criterio probabilista basado en los métodos de dimensionamiento de materiales frágiles en el que la resistencia queda determinada por los parámetros de la ley de Weibull triparamétrica. Se propone el procedimiento para obtener estos parámetros a partir de campañas de ensayos, modelización numérica por elementos finitos y un algoritmo iterativo de ajuste de los resultados. En la segunda parte de la tesis se describen los diferentes tipos de ensayos que se suelen llevar a cabo con este material. Se muestra además, para cada uno de los ensayos descritos, un estudio comparativo de diferentes modelos de elementos finitos simulando los ensayos. Se comparan tanto los resultados aportados por cada modelo como los tiempos de cálculo. Por último, se presentan tres aplicaciones diferentes donde se ha aplicado este procedimiento de estudio. La primera aplicación consiste en la comparación de la resistencia mecánica de obleas de silicio en función del método de crecimiento del lingote. La resistencia de las tradicionales obleas monocristalinas obtenidas por el método Czochralski y obleas multicristalinas es comparada con las novedosas obleas quasi-monocristalinas obtenidas por métodos de fundición. En la segunda aplicación se evalúa la profundidad de las grietas generadas en el proceso de corte del lingote en obleas. Este estudio se realiza de manera indirecta: caracterizando la resistencia de grupos de obleas sometidas a baños químicos de diferente duración. El baño químico reduce el espesor de las obleas eliminando las capas más dañadas. La resistencia de cada grupo es analizada y la comparación permite obtener la profundidad de las grietas generadas en el proceso de corte. Por último, se aplica este procedimiento a un grupo de obleas con características muy especiales: obleas preparadas para formar células de contacto posterior EWT. Estas obleas presentan miles de agujeros que las debilitan considerablemente. Se aplica el procedimiento de estudio propuesto con un grupo de estas obleas y se compara la resistencia obtenida con un grupo de referencia. Además, se propone un método simplificado de estudio basado en la aplicación de una superficie de intensificación de tensiones. ABSTRACT In this thesis, a procedure to evaluate the mechanical strength of crystalline silicon wafers is proposed and applied in different studies. The photovoltaic industry is mainly based on crystalline silicon modules. These modules are composed of solar cells which are based on silicon wafers. Regarding the cost reduction of solar modules, a clear tendency to use thinner wafers has been observed during last years. Since the stiffness varies with thickness, the manipulation techniques need to be modified in order to guarantee a low breakage rate. To this end, the mechanical strength has to be characterized correctly. In the first part of the thesis, silicon wafers are described including the different ways to produce them and the mechanical properties of interest. The influence of the crystallographic structure in the strength and the behaviour (the anisotropy of the silicon crystal) is shown. In addition, a method to characterize the mechanical strength is proposed. This probabilistic procedure is based on methods to characterize brittle materials. The strength is characterized by the values of the three parameters of the Weibull cumulative distribution function (cdf). The proposed method requires carrying out several tests, to simulate them through Finite Element models and an iterative algorithm in order to estimate the parameters of the Weibull cdf. In the second part of the thesis, the different types of test that are usually employed with these samples are described. Moreover, different Finite Element models for the simulation of each test are compared regarding the information supplied by each model and the calculation times. Finally, the method of characterization is applied to three examples of practical applications. The first application consists in the comparison of the mechanical strength of silicon wafers depending on the ingot growth method. The conventional monocrystalline wafers based on the Czochralski method and the multicrystalline ones are compared with the new quasi-monocrystalline substrates. The second application is related to the estimation of the crack length caused by the drilling process. An indirect way is used to this end: several sets of silicon wafers are subjected to chemical etchings of different duration. The etching procedure reduces the thickness of the wafers removing the most damaged layers. The strength of each set is obtained by means of the proposed method and the comparison permits to estimate the crack length. At last, the procedure is applied to determine the strength of wafers used for the design of back-contact cells of type ETW. These samples are drilled in a first step resulting in silicon wafers with thousands of tiny holes. The strength of the drilled wafers is obtained and compared with the one of a standard set without holes. Moreover, a simplified approach based on a stress intensification surface is proposed.