333 resultados para Defectos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta tesis se desarrolla una investigación sobre las técnicas de medida de descargas parciales (DP) que se aplican en medidas on-line, en condiciones normales de operación de las instalaciones eléctricas de alta tensión (AT). También se realiza un estudio de técnicas avanzadas de procesado y análisis de las señales medidas, que permiten realizar diagnósticos precisos del estado de los aislamientos eléctricos de AT. Uno de los objetivos fundamentales de la tesis ha sido disponer de un procedimiento eficaz de medida y procesado de las señales de DP, para la realización de medidas on-line tanto de forma itinerante, como mediante monitorización temporal o permanente. La implementación del nuevo procedimiento de medida permite obtener resultados satisfactorios en la detección, identificación y localización de defectos de aislamiento. Se ha dedicado especial interés al desarrollo de un método de clasificación de señales, que permite separar pulsos de ruido y diferentes fuentes de DP, presentes de forma simultánea en las instalaciones de AT. El estudio de la clasificación de señales se ha completado con la aplicación de un método para la detección de manera asistida, de los diferentes grupos de pulsos de ruido y de DP. La aplicación de este método de detección de grupos de pulsos, facilita la labor de los técnicos especialistas a la hora de diagnosticar el estado de los elementos aislantes. Al efecto de verificar de forma práctica las aportaciones de la tesis, se han realizado medidas de DP tanto en laboratorio como en campo. Las medidas experimentales en laboratorio se han efectuado en el Laboratorio de Alta Tensión de la Escuela Técnica Superior de Ingeniería y Diseño Industrial (LAT-UPM), de la Universidad Politécnica de Madrid. Por otro lado, las medidas experimentales en campo se han llevado a cabo en instalaciones de AT propiedad de compañías de transporte y distribución de energía eléctrica. La realización de ensayos de DP en estas instalaciones ha sido posible, gracias a los proyectos de investigación llevados a cabo por el grupo de trabajo del LAT-UPM, con diferentes empresas del sector durante los diez últimos años. ABSTRACT This thesis develops techniques for measuring partial discharges (PD) that are applied in on-line measurements, under normal operating conditions of the high voltage (HV) electrical installations. In addition there are studied advanced techniques for the processing and analysis of the measured signals, that permit precise diagnostics of the state of HV electrical insulation systems. One of the fundamental objectives of the thesis is to make available an effective procedure for measuring and processing PD signals, for making on-line measurements, either in an itinerant way or in temporary or permanent monitoring. The implementation of the new measurement procedure yields satisfactory results in the detection, identification and localization of insulation defects. Special attention has been devoted to the development of a method for classifying signals, that separates noise pulses and various PD sources present simultaneously in the HV installations. The study of the classification of signals has been completed by the application of a method for detecting, in a user assisted manner, the different groups of noise pulses and of PD. The application of this method for detecting groups of pulses facilitates the work of the specialist technicians to diagnose the condition of the insulation elements. To demonstrate the practical value of the thesis, PD measurements were made in laboratory as well as in field installations. The experimental measurements in laboratory were made in the High Voltage Laboratory (LAT-UPM) of the High Technical School of Engineering and Industrial Design, of the Polytechnic University of Madrid. Field measurements were realized in the HV installations of companies providing electrical energy transport and distribution. The realization of PD tests in these facilities was possible thanks to the research projects carried out by the working group of the LAT-UPM during the last ten years, with different companies operating in the sector.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente proyecto es un estudio sobre las propiedades físicas y mecánicas de un conjunto de muestras de ramas de Fagus sylvatica L. recogidas en el Hayedo de Montejo de la Sierra, en Madrid. El Hayedo de Montejo hoy en día es muy conocido en Madrid, como también a nivel nacional e internacional. El hayedo alberga cientos de hayas entre las que se encuentran algunas hayas centenarias y singulares, lo que no es habitual en latitudes tan meridionales con las de la provincia de Madrid. Sin embargo, en las últimas décadas las hayas han sufrido un decaimiento en su estado provocándose en ellas roturas e incluso la muerte. Por ello se han llevado y se están llevando a cabo numerosos estudios que permitan analizar la situación para mantener y mejorar el estado de conservación del hayedo. En este trabajo se han recogido una muestra de 17 ramas sanas y representativas del hayedo. De estas ramas se han obtenido sus dimensiones, se han descrito visualmente identificando sus particularidades y defectos. Se han clasificado en dos grupos, según diámetro y longitud de las ramas. Se han realizado ensayos no destructivos (NDT) para obtener variables de medición y sus relaciones con las propiedades físicas y mecánicas. Se han realizado mediciones con penetrómetro (Pilodyn) para obtener su relación con la densidad de las ramas. Se han realizado mediciones de velocidad de propagación de una onda (Microsecond Timer) para obtener el módulo de elasticidad dinámico con el que estimar el módulo de elasticidad y la resistencia. Se ha realizado un ensayo a flexión para obtener el módulo de elasticidad (MOE) y resistencia (MOR). Entre los resultado se puede destacar que las ramas más gruesas tienen un MOE a flexión y MOR más bajo y un MOE dinámico más alto que las ramas más delgadas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los últimos años, el Ge ha ganado de nuevo atención con la finalidad de ser integrado en el seno de las existentes tecnologías de microelectrónica. Aunque no se le considera como un canddato capaz de reemplazar completamente al Si en el futuro próximo, probalemente servirá como un excelente complemento para aumentar las propiedades eléctricas en dispositivos futuros, especialmente debido a su alta movilidad de portadores. Esta integración requiere de un avance significativo del estado del arte en los procesos de fabricado. Técnicas de simulación, como los algoritmos de Monte Carlo cinético (KMC), proporcionan un ambiente atractivo para llevar a cabo investigación y desarrollo en este campo, especialmente en términos de costes en tiempo y financiación. En este estudio se han usado, por primera vez, técnicas de KMC con el fin entender el procesado “front-end” de Ge en su fabricación, específicamente la acumulación de dañado y amorfización producidas por implantación iónica y el crecimiento epitaxial en fase sólida (SPER) de las capas amorfizadas. Primero, simulaciones de aproximación de clisiones binarias (BCA) son usadas para calcular el dañado causado por cada ión. La evolución de este dañado en el tiempo se simula usando KMC sin red, o de objetos (OKMC) en el que sólamente se consideran los defectos. El SPER se simula a través de una aproximación KMC de red (LKMC), siendo capaz de seguir la evolución de los átomos de la red que forman la intercara amorfo/cristalina. Con el modelo de amorfización desarrollado a lo largo de este trabajo, implementado en un simulador multi-material, se pueden simular todos estos procesos. Ha sido posible entender la acumulación de dañado, desde la generación de defectos puntuales hasta la formación completa de capas amorfas. Esta acumulación ocurre en tres regímenes bien diferenciados, empezando con un ritmo lento de formación de regiones de dañado, seguido por una rápida relajación local de ciertas áreas en la fase amorfa donde ambas fases, amorfa y cristalina, coexisten, para terminar en la amorfización completa de capas extensas, donde satura el ritmo de acumulación. Dicha transición ocurre cuando la concentración de dañado supera cierto valor límite, el cual es independiente de las condiciones de implantación. Cuando se implantan los iones a temperaturas relativamente altas, el recocido dinámico cura el dañado previamente introducido y se establece una competición entre la generación de dañado y su disolución. Estos efectos se vuelven especialmente importantes para iones ligeros, como el B, el cual crea dañado más diluido, pequeño y distribuido de manera diferente que el causado por la implantación de iones más pesados, como el Ge. Esta descripción reproduce satisfactoriamente la cantidad de dañado y la extensión de las capas amorfas causadas por implantación iónica reportadas en la bibliografía. La velocidad de recristalización de la muestra previamente amorfizada depende fuertemente de la orientación del sustrato. El modelo LKMC presentado ha sido capaz de explicar estas diferencias entre orientaciones a través de un simple modelo, dominado por una única energía de activación y diferentes prefactores en las frecuencias de SPER dependiendo de las configuraciones de vecinos de los átomos que recristalizan. La formación de maclas aparece como una consecuencia de esta descripción, y es predominante en sustratos crecidos en la orientación (111)Ge. Este modelo es capaz de reproducir resultados experimentales para diferentes orientaciones, temperaturas y tiempos de evolución de la intercara amorfo/cristalina reportados por diferentes autores. Las parametrizaciones preliminares realizadas de los tensores de activación de tensiones son también capaces de proveer una buena correlación entre las simulaciones y los resultados experimentales de velocidad de SPER a diferentes temperaturas bajo una presión hidrostática aplicada. Los estudios presentados en esta tesis han ayudado a alcanzar un mejor entendimiento de los mecanismos de producción de dañado, su evolución, amorfización y SPER para Ge, además de servir como una útil herramienta para continuar el trabajo en este campo. In the recent years, Ge has regained attention to be integrated into existing microelectronic technologies. Even though it is not thought to be a feasible full replacement to Si in the near future, it will likely serve as an excellent complement to enhance electrical properties in future devices, specially due to its high carrier mobilities. This integration requires a significant upgrade of the state-of-the-art of regular manufacturing processes. Simulation techniques, such as kinetic Monte Carlo (KMC) algorithms, provide an appealing environment to research and innovation in the field, specially in terms of time and funding costs. In the present study, KMC techniques are used, for the first time, to understand Ge front-end processing, specifically damage accumulation and amorphization produced by ion implantation and Solid Phase Epitaxial Regrowth (SPER) of the amorphized layers. First, Binary Collision Approximation (BCA) simulations are used to calculate the damage caused by every ion. The evolution of this damage over time is simulated using non-lattice, or Object, KMC (OKMC) in which only defects are considered. SPER is simulated through a Lattice KMC (LKMC) approach, being able to follow the evolution of the lattice atoms forming the amorphous/crystalline interface. With the amorphization model developed in this work, implemented into a multi-material process simulator, all these processes can be simulated. It has been possible to understand damage accumulation, from point defect generation up to full amorphous layers formation. This accumulation occurs in three differentiated regimes, starting at a slow formation rate of the damage regions, followed by a fast local relaxation of areas into the amorphous phase where both crystalline and amorphous phases coexist, ending in full amorphization of extended layers, where the accumulation rate saturates. This transition occurs when the damage concentration overcomes a certain threshold value, which is independent of the implantation conditions. When implanting ions at relatively high temperatures, dynamic annealing takes place, healing the previously induced damage and establishing a competition between damage generation and its dissolution. These effects become specially important for light ions, as B, for which the created damage is more diluted, smaller and differently distributed than that caused by implanting heavier ions, as Ge. This description successfully reproduces damage quantity and extension of amorphous layers caused by means of ion implantation reported in the literature. Recrystallization velocity of the previously amorphized sample strongly depends on the substrate orientation. The presented LKMC model has been able to explain these differences between orientations through a simple model, dominated by one only activation energy and different prefactors for the SPER rates depending on the neighboring configuration of the recrystallizing atoms. Twin defects formation appears as a consequence of this description, and are predominant for (111)Ge oriented grown substrates. This model is able to reproduce experimental results for different orientations, temperatures and times of evolution of the amorphous/crystalline interface reported by different authors. Preliminary parameterizations for the activation strain tensors are able to also provide a good match between simulations and reported experimental results for SPER velocities at different temperatures under the appliance of hydrostatic pressure. The studies presented in this thesis have helped to achieve a greater understanding of damage generation, evolution, amorphization and SPER mechanisms in Ge, and also provide a useful tool to continue research in this field.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la presente tesis doctoral se ha realizado un estudio utilizando diferentes técnicas de crecimiento (RPE-MOCVD y spray pyrolysis) y estructuras (nanohilos, pozos y puntos cuánticos y capas) con el objetivo de desarrollar dispositivos que cubran desde el rango visible hasta el ultravioleta. Es por esta razón por la que se han elegido materiales basados en ZnO, debido a la posibilidades que estos ofrecen para variar su bandgap en un amplio rango de energías. Prueba de ello es que en este estudio se ha conseguido cubrir un rango espectral desde 1.86 hasta 4.11 eV, estudiandose además fenómenos físicos como son la difusión e incorporaci ón de la aleación o la adsorción de gases en la super_cie, lo que ha permitido la fabricación de diferentes fotodetectores de gran sensibilidad. Por todo ello, los resultados obtenidos en esta tesis suponen una gran contribución al conocimiento de las propiedades físicas de las aleaciones de Zn(Cd)O y Zn(Mg)O para potenciales aplicaciónes en dispositivos que operen en el rango visible y ultravioleta del espectro, respectivamente. En esta memoria se da en primer lugar una visión de las propiedades de materiales basados en ZnO, entrando en detalle en una de las ventajas que este presenta, la facilidad que tiene este material para formar nanoestructuras. En el capítulo 3 se dan los conceptos teóricos necesarios para comprender las propiedades ópticas de este tipo de materiales, mostrando también los resultados más reseñables obtenidos en ZnO. En los capítulos referentes a los resultados se pueden diferenciar dos grandes bloques. En el primer bloque de resultados se han analizado nanohilos y pozos cuánticos de Zn(Cd)O crecidos por la técnica de RPE-MOCVD (Capítulos 4 y 5). En el segundo se expondrá el estudio realizado sobre capas y puntos cuánticos de Zn(Mg)O crecidos por la técnica spray pyrolysis como se describe en mayor detalle a continuación. Nanohilos y pozos cuánticos de Zn(Cd)O crecidos por RPE-MOCVD Teóricamente aleando el ZnO con CdO es posible disminuir el valor del band- gap desde 3.37 eV hasta 0.95 eV, cubriendo por completo el espectro visible. El desarrollo del ternario Zn(Cd)O permitiría la fabricación de heteroestructuras y pozos cuánticos, muy importantes en el desarrollo de dispositivos optoelectrónicos que cubran la parte visible del espectro. Sin embargo, la diferencia de estructura cristalina entre estos dos materiales junto a la baja solubilidad del Cd y su alta presión de vapor, di_culta la obtención de material de alta calidad cristalina con alto contenido en Cd. En esta tesis doctoral se ha realizado una completa caracterización óptica y estructural de nanohilos de Zn(Cd)O credidos por la técnica de RPE-MOCVD. Estos nanohilos tinene unas longitudes comprendidas entre 1 y 3 _m y diámetros entre 100 y 200 nm. La concentración máxima introducida de Cd en estas estructuras ha sido de hasta un 54% manteniendo la estructura wurtzita del ZnO, siendo este el mayor contenido de Cd introducido hasta la fecha en nanostructuras basada en ZnO. Este hecho se traduce en una variación de la energía de emisión entre 3.31 y 1.86 eV con el aumento en Cd. El uso de diferentes técnicas de alta resoluci ón de caracterización estructural ha permitido demostrar la presencia de una sola fase estructural wurtzita sin observarse ningún indicio de separación de fases ni acumulación de Cd a lo largo del nanohilo para todos los contenidos de Cd. Con el propósito de fabricar dispositivos en nanohilos individuales, parte de esta tesis doctoral ha estado dedicada a estudiar el impacto que el recocido térmico tiene en las propiedades ópticas y eléctricas de nanohilos de Zn(Cd)O. El recocido térmico es un proceso clave en la optimización de dispositivos, ya sea para la obtenci ón de contactos óhmicos, reducción de defectos o difusión de dopantes por ejemplo. En este estudio se ha observado una mejora muy signi_cativa de las propiedades de emisión de los nanohilos cuando estos eran recocidos a temperaturas mayores que la de crecimiento (300 oC). En las muestras con Cd se ha observado además que el recocido también produce un desplazamiento de la emisión hacia mayores energías debido a una reducción homogénea del contenido de Cd. Medidas de fotoluminiscencia con resolución temporal muestran el impacto que tiene la localización del excitón en las _uctuaciones de potencial, debidas a una distribución estadística del Cd, en la dinámica de los portadores. Comparando el tiempo de vida de los portadores entre los nanohilos recocidos y sin recocer se ha observado un aumento de este parámetro en las estructuras recocidas. Este aumento es fundamentalmente debido a una reducción de centros de recombinación no radiativa asociados a defectos presentes a lo largo del nanohilo. Además, se ha estudiado la evolución de los tiempos de vida de los portadores en función de la temperatura, registrándose una menor estabilidad con la temperatura de los tiempos de vida en las muestras recocidas. Este resultado sugiere que el recocido térmico consigue reducir parte del desorden de la aleación en la estructura. Tras haber caracterizados los nanohilos se desarrollaron una serie de procesa dos para la fabricación de dispositivos basados en nanohilos individuales. Se fabricaron en concreto fotodetectores sensibles al UV, en los que se observó también la alta sensibilidad que muestran a la adsorción de gases en la super_cie, incrementada por la gran relación super_cie/volúmen característica de las nanoestructuras. Estos procesos de adsorción observados tienen un impacto directo sobre las propiedades ópticas y electricas de los dispositivos como se ha demostrado. Por ello que en esta tesis se hayan estudiado en detalle este tipo de procesos, ideando maneras para tener un mayor control sobre ellos. Finalmente se crecieron estructuras de pozos cuántico de ZnCdO/ZnO en nanohilos con contenidos de Cd nominales de 54 %. Las medidas ópticas realizadas mostraron como al aumentar la anchura del pozo de 0.7 a 10 nm, la emisión relacionada con el pozo se desplazaba entre 3.30 y 1.97 eV. Este gran desplazamiento representa el mayor obtenido hasta la fecha en pozos cuánticos de ZnCdO/ZnO. Sin embargo, al caracterizar estructuralmente estas muestras se observó la presencia de procesos de difusión de Cd entre el pozo y la barrera. Como se ha podido medir, este tipo de procesos reducen sustancialmente la concentración de Cd en el pozo al difundirse parte a la barrera. cambiando completamente la estructura de bandas nominal de estas estructuras. Este estudio demuestra la importancia del impacto de los procesos de difusión en la interpretación de los efectos de con_namiento cuántico para este tipo de estructuras. Capas y puntos cuánticos de Zn(Mg)O crecidos por spray pyrolysis La técnica de spray pyrolysis, debido a su simplicidad, bajo coste y capacidad de crecer sobre grandes áreas conservando una alta calidad cristalina presenta un gran interés en la comunidad cientí_ca para el potencial desarrollo de dispositivos comerciales. En esta tesis se ha estudiado las propiedades ópticas y eléctricas de capas y puntos cuánticos de Zn(Mg)O crecidos por esta técnica. Al contrario que pasa con el Cd, al introducir Mg en la estructura wurtzita de ZnO se consigue aumentar el bandgap del semiconductor. Sin embargo, al igual que pasa con el CdO, la diferencia de estructura cristalina entre el ZnO y el MgO limita la cantidad de Mg que se puede incorporar, haciendo que para una cierta concentración de Mg aparezcan el fenómeno de separación de fases. En esta tesis se ha conseguido incorporar hasta un contenido de Mg del 35% en la estructura wurtzita del ZnO utilizando la técnica de spray pyrolysis, resultado que representa la mayor concentración de Mg publicada hasta la fecha. Este hecho ha posibilitado variar la energía del borde de absorción desde 3.30 a 4.11 eV. En estas capas se ha realizado una completa caracterización óptica observándose una diferencia entre las energías del borde de absorción y del máximo de emisión creciente con el contenido en Mg. Esta diferencia, conocida como desplazamiento de Stokes, es debida en parte a la presencia de _uctuaciones de potencial producidas por un desorden estadístico de la aleación. Se han fabricado fotodetectores MSM de alta calidad utilizando las capas de Zn(Mg)O previamente caracterizadas, observándose un desplazamiento del borde de absorción con el aumento en Mg desde 3.32 a 4.02 eV. Estos dispositivos muestran altos valores de responsividad (10-103 A/W) y altos contrastes entre la responsividad bajo iluminación y oscuridad (10-107). Estos resultados son en parte debidos a la presencia de mecanismos de ganancia y una reducción de la corriente de oscuridad en las muestras con alto contenido de Mg. Utilizando esta misma técnica de crecimiento se han crecido puntos de Zn(Mg)O con concentraciones nominales de Mg entre 0 y 100 %, con dimensiones medias entre 4 y 6 nm. Las medidas estructurales realizadas muestran que hasta un valor de Mg de 45 %, los puntos están compuestos por una única fase estructural, wurtzita. A partir de esa concentración de Mg aparece una fase cúbica en los puntos, coexistiendo con la fase hexagonal hasta una concentración nominales del 85 %. Para concentraciones mayores de Mg, los puntos muestran una única fase estructural cúbica. Medidas de absorción realizadas en estos puntos de Zn(Mg)O muestran un desplazamiento del borde de absorción entre 3.33 y 3.55 eV cuando la concentraci ón de Mg en los puntos aumenta hasta el 40 %. Este desplazamiento observado es debido solamente a la fase wurtzita del Zn(Mg)O donde se incorpora el Mg. ABSTRACT This PhD theis presents a study using di_erent growth techniques (RPEMOCVD and spray pyrolysis) and structures (nanowires, quantum dots and wells and layers) in order to develop devices that extend from the visible to the ultraviolet range. For this reason ZnO based materials have been choosen, because they o_er the possibility to tunne the bandgap in this energy range. Proof of this is that this study has managed to cover a spectral range from 1.86 to 4.11 eV, also being studied physical phenomena such as di_usion and incorporation of alloy or adsorption of gases on the surface, allowing the develop di_erent highly sensitive photodetectors. Therefore, the results obtained in this thesis are a great contribution two large blockso the knowledge of the physical properties of alloys Zn(Cd)O and Zn(Mg)O for potential applications in devices that operate in the visible and ultraviolet range, respectively. In the _rst chapter, the general properties of ZnO-based materials are presented, showing the facilities that these kind of materials o_er to obtain di_erent nanoestructures. In Chapter 3, optical theoretical concepts are given to understand the optical properties of these materials, also showing the most signi_cant results of ZnO. In the chapters related with the results, two blocks could be distinguish. In the _rst one, Zn(Cd)O nanowires and quantum wells grown by RPE-MOCVD have been analyzed (Chapters 4 and 5). The second block of results shows the study performed in Zn(Mg)O _lms and quantum dots grown by spray pyrolysis. Zn(Cd)O nanowires and quantum wells grown by RPE-MOCVD In summary, the results of the PhD thesis are a great contribution to the knowledge of the physical properties of Zn(Cd)O and Zn(Mg)O alloys and their application for high performance devices operating in the visible and UV ranges, respectively. The performance of the device is still limited due to alloy solubility and p-doping stability, which opens a door for future research in this _eld. Theoretically, annealing ZnO with CdO allows to reduce the bandgap from 3.37 to 0.95 eV, covering the whole visible spectrum. The development of ZnCdO alloys allows the fabrication of heterostructures and quantum wells, necessary for the development of high performance optoelectronic devices. However, the di_erent crystal structures between CdO and ZnO and the low solubility of Cd and its high vapor pressure, hinders the growth of ZnCdO alloys with high Cd contents. In this PhD thesis Zn(Cd)O nanowires have been optically and structurally characterized, obtaining a maximum Cd content of 54% while maintaining their wurtzite structure. This Cd content, which allows lowering the bandgap down to 1.86 eV, is the highest concentration ever reported in nanostructures based on ZnO. The combination of optical and structural characterization techniques used during this thesis has allowed the demonstration of the presence of a single wurtzite structure, without observing any indication of phase separation or Cd accumulation along the nanowire. Annealing processes are essential in the fabrication of optoelectronic devices. For this reason, a complete study of the annealing e_ects in the optical and electrical properties of Zn(Cd)O nanowires has been performed. In the _rst place, annealing nanowires at higher temperatures than their growth temperature (300 oC) allows a signi_cant improvement of their emission properties. However, in the samples that contain Cd a shift in the emission towards higher energies has been observed due to a homogeneous reduction of the Cd content in the nanowires. Time resolved photoluminescence measurements show the impact of the exciton localization in the potential _uctuations due to a statistical alloy disorder. An increase in the carrier lifetime has been obtained for the annealed nanowires. This increase is mainly due to the reduction of non-radiative recombination centers associated with the defects present in the material. Furthermore, temperature dependent time resolved photoluminescence measurements suggest a reduction of the alloy disorder in the annealed samples. In this thesis, single nanowire photodetectors with a high responsivity in the UV range have been demonstrated. Due to the high surface/volume ratio, these structures are very sensitive to gas adsorption at the surface, which largely de_nes the optical and electrical properties of the material and, therefore, of the device. With the aim of obtaining time stable devices, the dynamic adsorption-desorption processes have been studied, developing di_erent approaches that allow a higher control over them. Finally, ZnCdO/ZnO quantum wells have been grown with a nominal Cd concentration of 54% inside the well. The performed optical measurements show that increasing the well width from 0.7 to 10 nm, shifts the emission related with the well from 3.30 to 1.97 eV. This result represents the highest shift reported in the literature. However, a detailed structural characterization shows the presence of di_usion phenomena which substantially reduce the concentration of Cd in the well, while increasing it in the barrier. This type of phenomena should be considered when ac curately interpretating the quantum con_nement e_ects in Zn(Cd)O/ZnO quantum wells. Theoretically, annealing ZnO with CdO allows to decrease the bandgap from 3.37 to 0.95 eV, covering the whole visible spectrum. Zn(Mg)O _lms and quantum dots grown by spray pyrolysis Due to its simplicity, low-cost and capacity to grow over large areas conserving a high crystal quality, spray pyrolysis technique presents a great interest in the scienti_c community for developing comercial devices. In this thesis, a complete study of the optical and structural properties of Zn(Mg)O _lms and quantum dots grown by spray pyrolysis has been performed. Contrary to Zn(Cd)O alloys, when introducing Mg in the ZnO wurtzite structure an increase in the bandgap in obtained. Once again, the di_erence in the crystal structure of ZnO and MgO limits the amount of Mg that can be introduced before phase separation appears. In this PhD thesis, a maximum Mg content of 35% has been incorporated in the wurtzite structure using spray pyrolysis. This variation in the Mg content translates into an increase of the absorption edge from 3.30 to 4.11 eV. Up to this date, this result represents the highest Mg content introduced by spray pyrolysis in a ZnO wurzite structure reported in the literature. The comparison of the emission and absorption spectra shows the presence of an increasing Stokes shift with Mg content. This phenomenon is partialy related with the presence of potential _uctuations due to an statistic alloy disorder. MSM photodetectors have been processed on previously characterized Zn(Mg)O _lms. These devices have shown a shift in the absorption edge from 3.32 to 4.02 eV with the increase in Mg content, high responsivity values (10-103 A/W) and high contrast ratios between illuminated and dark responsivities (10-107). These values are explained by the presence of a gain mechanism and a reduction of dark current in the ZnMgO samples. Zn(Mg)O quantum dots have also been grown using spray pyrolysis with Mg concentrations between 0 and 100% and with average widths ranging 4 to 6 nm. Structural measurements show that at a Mg concentration of 45% the cubic phase appears, coexisting with the hexagonal phase up to an 85% concentration of Mg content. From 85% onwards the quantum dots show only the cubic phase. Absorption measurements performed in these structures reveal a shift in the absorption edge from 3.33 to 3.55 eV when the Mg content increases up to 40 %.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los sistemas empotrados han sido concebidos tradicionalmente como sistemas de procesamiento específicos que realizan una tarea fija durante toda su vida útil. Para cumplir con requisitos estrictos de coste, tamaño y peso, el equipo de diseño debe optimizar su funcionamiento para condiciones muy específicas. Sin embargo, la demanda de mayor versatilidad, un funcionamiento más inteligente y, en definitiva, una mayor capacidad de procesamiento comenzaron a chocar con estas limitaciones, agravado por la incertidumbre asociada a entornos de operación cada vez más dinámicos donde comenzaban a ser desplegados progresivamente. Esto trajo como resultado una necesidad creciente de que los sistemas pudieran responder por si solos a eventos inesperados en tiempo diseño tales como: cambios en las características de los datos de entrada y el entorno del sistema en general; cambios en la propia plataforma de cómputo, por ejemplo debido a fallos o defectos de fabricación; y cambios en las propias especificaciones funcionales causados por unos objetivos del sistema dinámicos y cambiantes. Como consecuencia, la complejidad del sistema aumenta, pero a cambio se habilita progresivamente una capacidad de adaptación autónoma sin intervención humana a lo largo de la vida útil, permitiendo que tomen sus propias decisiones en tiempo de ejecución. Éstos sistemas se conocen, en general, como sistemas auto-adaptativos y tienen, entre otras características, las de auto-configuración, auto-optimización y auto-reparación. Típicamente, la parte soft de un sistema es mayoritariamente la única utilizada para proporcionar algunas capacidades de adaptación a un sistema. Sin embargo, la proporción rendimiento/potencia en dispositivos software como microprocesadores en muchas ocasiones no es adecuada para sistemas empotrados. En este escenario, el aumento resultante en la complejidad de las aplicaciones está siendo abordado parcialmente mediante un aumento en la complejidad de los dispositivos en forma de multi/many-cores; pero desafortunadamente, esto hace que el consumo de potencia también aumente. Además, la mejora en metodologías de diseño no ha sido acorde como para poder utilizar toda la capacidad de cómputo disponible proporcionada por los núcleos. Por todo ello, no se están satisfaciendo adecuadamente las demandas de cómputo que imponen las nuevas aplicaciones. La solución tradicional para mejorar la proporción rendimiento/potencia ha sido el cambio a unas especificaciones hardware, principalmente usando ASICs. Sin embargo, los costes de un ASIC son altamente prohibitivos excepto en algunos casos de producción en masa y además la naturaleza estática de su estructura complica la solución a las necesidades de adaptación. Los avances en tecnologías de fabricación han hecho que la FPGA, una vez lenta y pequeña, usada como glue logic en sistemas mayores, haya crecido hasta convertirse en un dispositivo de cómputo reconfigurable de gran potencia, con una cantidad enorme de recursos lógicos computacionales y cores hardware empotrados de procesamiento de señal y de propósito general. Sus capacidades de reconfiguración han permitido combinar la flexibilidad propia del software con el rendimiento del procesamiento en hardware, lo que tiene la potencialidad de provocar un cambio de paradigma en arquitectura de computadores, pues el hardware no puede ya ser considerado más como estático. El motivo es que como en el caso de las FPGAs basadas en tecnología SRAM, la reconfiguración parcial dinámica (DPR, Dynamic Partial Reconfiguration) es posible. Esto significa que se puede modificar (reconfigurar) un subconjunto de los recursos computacionales en tiempo de ejecución mientras el resto permanecen activos. Además, este proceso de reconfiguración puede ser ejecutado internamente por el propio dispositivo. El avance tecnológico en dispositivos hardware reconfigurables se encuentra recogido bajo el campo conocido como Computación Reconfigurable (RC, Reconfigurable Computing). Uno de los campos de aplicación más exóticos y menos convencionales que ha posibilitado la computación reconfigurable es el conocido como Hardware Evolutivo (EHW, Evolvable Hardware), en el cual se encuentra enmarcada esta tesis. La idea principal del concepto consiste en convertir hardware que es adaptable a través de reconfiguración en una entidad evolutiva sujeta a las fuerzas de un proceso evolutivo inspirado en el de las especies biológicas naturales, que guía la dirección del cambio. Es una aplicación más del campo de la Computación Evolutiva (EC, Evolutionary Computation), que comprende una serie de algoritmos de optimización global conocidos como Algoritmos Evolutivos (EA, Evolutionary Algorithms), y que son considerados como algoritmos universales de resolución de problemas. En analogía al proceso biológico de la evolución, en el hardware evolutivo el sujeto de la evolución es una población de circuitos que intenta adaptarse a su entorno mediante una adecuación progresiva generación tras generación. Los individuos pasan a ser configuraciones de circuitos en forma de bitstreams caracterizados por descripciones de circuitos reconfigurables. Seleccionando aquellos que se comportan mejor, es decir, que tienen una mejor adecuación (o fitness) después de ser evaluados, y usándolos como padres de la siguiente generación, el algoritmo evolutivo crea una nueva población hija usando operadores genéticos como la mutación y la recombinación. Según se van sucediendo generaciones, se espera que la población en conjunto se aproxime a la solución óptima al problema de encontrar una configuración del circuito adecuada que satisfaga las especificaciones. El estado de la tecnología de reconfiguración después de que la familia de FPGAs XC6200 de Xilinx fuera retirada y reemplazada por las familias Virtex a finales de los 90, supuso un gran obstáculo para el avance en hardware evolutivo; formatos de bitstream cerrados (no conocidos públicamente); dependencia de herramientas del fabricante con soporte limitado de DPR; una velocidad de reconfiguración lenta; y el hecho de que modificaciones aleatorias del bitstream pudieran resultar peligrosas para la integridad del dispositivo, son algunas de estas razones. Sin embargo, una propuesta a principios de los años 2000 permitió mantener la investigación en el campo mientras la tecnología de DPR continuaba madurando, el Circuito Virtual Reconfigurable (VRC, Virtual Reconfigurable Circuit). En esencia, un VRC en una FPGA es una capa virtual que actúa como un circuito reconfigurable de aplicación específica sobre la estructura nativa de la FPGA que reduce la complejidad del proceso reconfiguración y aumenta su velocidad (comparada con la reconfiguración nativa). Es un array de nodos computacionales especificados usando descripciones HDL estándar que define recursos reconfigurables ad-hoc: multiplexores de rutado y un conjunto de elementos de procesamiento configurables, cada uno de los cuales tiene implementadas todas las funciones requeridas, que pueden seleccionarse a través de multiplexores tal y como ocurre en una ALU de un microprocesador. Un registro grande actúa como memoria de configuración, por lo que la reconfiguración del VRC es muy rápida ya que tan sólo implica la escritura de este registro, el cual controla las señales de selección del conjunto de multiplexores. Sin embargo, esta capa virtual provoca: un incremento de área debido a la implementación simultánea de cada función en cada nodo del array más los multiplexores y un aumento del retardo debido a los multiplexores, reduciendo la frecuencia de funcionamiento máxima. La naturaleza del hardware evolutivo, capaz de optimizar su propio comportamiento computacional, le convierten en un buen candidato para avanzar en la investigación sobre sistemas auto-adaptativos. Combinar un sustrato de cómputo auto-reconfigurable capaz de ser modificado dinámicamente en tiempo de ejecución con un algoritmo empotrado que proporcione una dirección de cambio, puede ayudar a satisfacer los requisitos de adaptación autónoma de sistemas empotrados basados en FPGA. La propuesta principal de esta tesis está por tanto dirigida a contribuir a la auto-adaptación del hardware de procesamiento de sistemas empotrados basados en FPGA mediante hardware evolutivo. Esto se ha abordado considerando que el comportamiento computacional de un sistema puede ser modificado cambiando cualquiera de sus dos partes constitutivas: una estructura hard subyacente y un conjunto de parámetros soft. De esta distinción, se derivan dos lineas de trabajo. Por un lado, auto-adaptación paramétrica, y por otro auto-adaptación estructural. El objetivo perseguido en el caso de la auto-adaptación paramétrica es la implementación de técnicas de optimización evolutiva complejas en sistemas empotrados con recursos limitados para la adaptación paramétrica online de circuitos de procesamiento de señal. La aplicación seleccionada como prueba de concepto es la optimización para tipos muy específicos de imágenes de los coeficientes de los filtros de transformadas wavelet discretas (DWT, DiscreteWavelet Transform), orientada a la compresión de imágenes. Por tanto, el objetivo requerido de la evolución es una compresión adaptativa y más eficiente comparada con los procedimientos estándar. El principal reto radica en reducir la necesidad de recursos de supercomputación para el proceso de optimización propuesto en trabajos previos, de modo que se adecúe para la ejecución en sistemas empotrados. En cuanto a la auto-adaptación estructural, el objetivo de la tesis es la implementación de circuitos auto-adaptativos en sistemas evolutivos basados en FPGA mediante un uso eficiente de sus capacidades de reconfiguración nativas. En este caso, la prueba de concepto es la evolución de tareas de procesamiento de imagen tales como el filtrado de tipos desconocidos y cambiantes de ruido y la detección de bordes en la imagen. En general, el objetivo es la evolución en tiempo de ejecución de tareas de procesamiento de imagen desconocidas en tiempo de diseño (dentro de un cierto grado de complejidad). En este caso, el objetivo de la propuesta es la incorporación de DPR en EHW para evolucionar la arquitectura de un array sistólico adaptable mediante reconfiguración cuya capacidad de evolución no había sido estudiada previamente. Para conseguir los dos objetivos mencionados, esta tesis propone originalmente una plataforma evolutiva que integra un motor de adaptación (AE, Adaptation Engine), un motor de reconfiguración (RE, Reconfiguration Engine) y un motor computacional (CE, Computing Engine) adaptable. El el caso de adaptación paramétrica, la plataforma propuesta está caracterizada por: • un CE caracterizado por un núcleo de procesamiento hardware de DWT adaptable mediante registros reconfigurables que contienen los coeficientes de los filtros wavelet • un algoritmo evolutivo como AE que busca filtros wavelet candidatos a través de un proceso de optimización paramétrica desarrollado específicamente para sistemas caracterizados por recursos de procesamiento limitados • un nuevo operador de mutación simplificado para el algoritmo evolutivo utilizado, que junto con un mecanismo de evaluación rápida de filtros wavelet candidatos derivado de la literatura actual, asegura la viabilidad de la búsqueda evolutiva asociada a la adaptación de wavelets. En el caso de adaptación estructural, la plataforma propuesta toma la forma de: • un CE basado en una plantilla de array sistólico reconfigurable de 2 dimensiones compuesto de nodos de procesamiento reconfigurables • un algoritmo evolutivo como AE que busca configuraciones candidatas del array usando un conjunto de funcionalidades de procesamiento para los nodos disponible en una biblioteca accesible en tiempo de ejecución • un RE hardware que explota la capacidad de reconfiguración nativa de las FPGAs haciendo un uso eficiente de los recursos reconfigurables del dispositivo para cambiar el comportamiento del CE en tiempo de ejecución • una biblioteca de elementos de procesamiento reconfigurables caracterizada por bitstreams parciales independientes de la posición, usados como el conjunto de configuraciones disponibles para los nodos de procesamiento del array Las contribuciones principales de esta tesis se pueden resumir en la siguiente lista: • Una plataforma evolutiva basada en FPGA para la auto-adaptación paramétrica y estructural de sistemas empotrados compuesta por un motor computacional (CE), un motor de adaptación (AE) evolutivo y un motor de reconfiguración (RE). Esta plataforma se ha desarrollado y particularizado para los casos de auto-adaptación paramétrica y estructural. • En cuanto a la auto-adaptación paramétrica, las contribuciones principales son: – Un motor computacional adaptable mediante registros que permite la adaptación paramétrica de los coeficientes de una implementación hardware adaptativa de un núcleo de DWT. – Un motor de adaptación basado en un algoritmo evolutivo desarrollado específicamente para optimización numérica, aplicada a los coeficientes de filtros wavelet en sistemas empotrados con recursos limitados. – Un núcleo IP de DWT auto-adaptativo en tiempo de ejecución para sistemas empotrados que permite la optimización online del rendimiento de la transformada para compresión de imágenes en entornos específicos de despliegue, caracterizados por tipos diferentes de señal de entrada. – Un modelo software y una implementación hardware de una herramienta para la construcción evolutiva automática de transformadas wavelet específicas. • Por último, en cuanto a la auto-adaptación estructural, las contribuciones principales son: – Un motor computacional adaptable mediante reconfiguración nativa de FPGAs caracterizado por una plantilla de array sistólico en dos dimensiones de nodos de procesamiento reconfigurables. Es posible mapear diferentes tareas de cómputo en el array usando una biblioteca de elementos sencillos de procesamiento reconfigurables. – Definición de una biblioteca de elementos de procesamiento apropiada para la síntesis autónoma en tiempo de ejecución de diferentes tareas de procesamiento de imagen. – Incorporación eficiente de la reconfiguración parcial dinámica (DPR) en sistemas de hardware evolutivo, superando los principales inconvenientes de propuestas previas como los circuitos reconfigurables virtuales (VRCs). En este trabajo también se comparan originalmente los detalles de implementación de ambas propuestas. – Una plataforma tolerante a fallos, auto-curativa, que permite la recuperación funcional online en entornos peligrosos. La plataforma ha sido caracterizada desde una perspectiva de tolerancia a fallos: se proponen modelos de fallo a nivel de CLB y de elemento de procesamiento, y usando el motor de reconfiguración, se hace un análisis sistemático de fallos para un fallo en cada elemento de procesamiento y para dos fallos acumulados. – Una plataforma con calidad de filtrado dinámica que permite la adaptación online a tipos de ruido diferentes y diferentes comportamientos computacionales teniendo en cuenta los recursos de procesamiento disponibles. Por un lado, se evolucionan filtros con comportamientos no destructivos, que permiten esquemas de filtrado en cascada escalables; y por otro, también se evolucionan filtros escalables teniendo en cuenta requisitos computacionales de filtrado cambiantes dinámicamente. Este documento está organizado en cuatro partes y nueve capítulos. La primera parte contiene el capítulo 1, una introducción y motivación sobre este trabajo de tesis. A continuación, el marco de referencia en el que se enmarca esta tesis se analiza en la segunda parte: el capítulo 2 contiene una introducción a los conceptos de auto-adaptación y computación autonómica (autonomic computing) como un campo de investigación más general que el muy específico de este trabajo; el capítulo 3 introduce la computación evolutiva como la técnica para dirigir la adaptación; el capítulo 4 analiza las plataformas de computación reconfigurables como la tecnología para albergar hardware auto-adaptativo; y finalmente, el capítulo 5 define, clasifica y hace un sondeo del campo del hardware evolutivo. Seguidamente, la tercera parte de este trabajo contiene la propuesta, desarrollo y resultados obtenidos: mientras que el capítulo 6 contiene una declaración de los objetivos de la tesis y la descripción de la propuesta en su conjunto, los capítulos 7 y 8 abordan la auto-adaptación paramétrica y estructural, respectivamente. Finalmente, el capítulo 9 de la parte 4 concluye el trabajo y describe caminos de investigación futuros. ABSTRACT Embedded systems have traditionally been conceived to be specific-purpose computers with one, fixed computational task for their whole lifetime. Stringent requirements in terms of cost, size and weight forced designers to highly optimise their operation for very specific conditions. However, demands for versatility, more intelligent behaviour and, in summary, an increased computing capability began to clash with these limitations, intensified by the uncertainty associated to the more dynamic operating environments where they were progressively being deployed. This brought as a result an increasing need for systems to respond by themselves to unexpected events at design time, such as: changes in input data characteristics and system environment in general; changes in the computing platform itself, e.g., due to faults and fabrication defects; and changes in functional specifications caused by dynamically changing system objectives. As a consequence, systems complexity is increasing, but in turn, autonomous lifetime adaptation without human intervention is being progressively enabled, allowing them to take their own decisions at run-time. This type of systems is known, in general, as selfadaptive, and are able, among others, of self-configuration, self-optimisation and self-repair. Traditionally, the soft part of a system has mostly been so far the only place to provide systems with some degree of adaptation capabilities. However, the performance to power ratios of software driven devices like microprocessors are not adequate for embedded systems in many situations. In this scenario, the resulting rise in applications complexity is being partly addressed by rising devices complexity in the form of multi and many core devices; but sadly, this keeps on increasing power consumption. Besides, design methodologies have not been improved accordingly to completely leverage the available computational power from all these cores. Altogether, these factors make that the computing demands new applications pose are not being wholly satisfied. The traditional solution to improve performance to power ratios has been the switch to hardware driven specifications, mainly using ASICs. However, their costs are highly prohibitive except for some mass production cases and besidesthe static nature of its structure complicates the solution to the adaptation needs. The advancements in fabrication technologies have made that the once slow, small FPGA used as glue logic in bigger systems, had grown to be a very powerful, reconfigurable computing device with a vast amount of computational logic resources and embedded, hardened signal and general purpose processing cores. Its reconfiguration capabilities have enabled software-like flexibility to be combined with hardware-like computing performance, which has the potential to cause a paradigm shift in computer architecture since hardware cannot be considered as static anymore. This is so, since, as is the case with SRAMbased FPGAs, Dynamic Partial Reconfiguration (DPR) is possible. This means that subsets of the FPGA computational resources can now be changed (reconfigured) at run-time while the rest remains active. Besides, this reconfiguration process can be triggered internally by the device itself. This technological boost in reconfigurable hardware devices is actually covered under the field known as Reconfigurable Computing. One of the most exotic fields of application that Reconfigurable Computing has enabled is the known as Evolvable Hardware (EHW), in which this dissertation is framed. The main idea behind the concept is turning hardware that is adaptable through reconfiguration into an evolvable entity subject to the forces of an evolutionary process, inspired by that of natural, biological species, that guides the direction of change. It is yet another application of the field of Evolutionary Computation (EC), which comprises a set of global optimisation algorithms known as Evolutionary Algorithms (EAs), considered as universal problem solvers. In analogy to the biological process of evolution, in EHW the subject of evolution is a population of circuits that tries to get adapted to its surrounding environment by progressively getting better fitted to it generation after generation. Individuals become circuit configurations representing bitstreams that feature reconfigurable circuit descriptions. By selecting those that behave better, i.e., with a higher fitness value after being evaluated, and using them as parents of the following generation, the EA creates a new offspring population by using so called genetic operators like mutation and recombination. As generations succeed one another, the whole population is expected to approach to the optimum solution to the problem of finding an adequate circuit configuration that fulfils system objectives. The state of reconfiguration technology after Xilinx XC6200 FPGA family was discontinued and replaced by Virtex families in the late 90s, was a major obstacle for advancements in EHW; closed (non publicly known) bitstream formats; dependence on manufacturer tools with highly limiting support of DPR; slow speed of reconfiguration; and random bitstream modifications being potentially hazardous for device integrity, are some of these reasons. However, a proposal in the first 2000s allowed to keep investigating in this field while DPR technology kept maturing, the Virtual Reconfigurable Circuit (VRC). In essence, a VRC in an FPGA is a virtual layer acting as an application specific reconfigurable circuit on top of an FPGA fabric that reduces the complexity of the reconfiguration process and increases its speed (compared to native reconfiguration). It is an array of computational nodes specified using standard HDL descriptions that define ad-hoc reconfigurable resources; routing multiplexers and a set of configurable processing elements, each one containing all the required functions, which are selectable through functionality multiplexers as in microprocessor ALUs. A large register acts as configuration memory, so VRC reconfiguration is very fast given it only involves writing this register, which drives the selection signals of the set of multiplexers. However, large overheads are introduced by this virtual layer; an area overhead due to the simultaneous implementation of every function in every node of the array plus the multiplexers, and a delay overhead due to the multiplexers, which also reduces maximum frequency of operation. The very nature of Evolvable Hardware, able to optimise its own computational behaviour, makes it a good candidate to advance research in self-adaptive systems. Combining a selfreconfigurable computing substrate able to be dynamically changed at run-time with an embedded algorithm that provides a direction for change, can help fulfilling requirements for autonomous lifetime adaptation of FPGA-based embedded systems. The main proposal of this thesis is hence directed to contribute to autonomous self-adaptation of the underlying computational hardware of FPGA-based embedded systems by means of Evolvable Hardware. This is tackled by considering that the computational behaviour of a system can be modified by changing any of its two constituent parts: an underlying hard structure and a set of soft parameters. Two main lines of work derive from this distinction. On one side, parametric self-adaptation and, on the other side, structural self-adaptation. The goal pursued in the case of parametric self-adaptation is the implementation of complex evolutionary optimisation techniques in resource constrained embedded systems for online parameter adaptation of signal processing circuits. The application selected as proof of concept is the optimisation of Discrete Wavelet Transforms (DWT) filters coefficients for very specific types of images, oriented to image compression. Hence, adaptive and improved compression efficiency, as compared to standard techniques, is the required goal of evolution. The main quest lies in reducing the supercomputing resources reported in previous works for the optimisation process in order to make it suitable for embedded systems. Regarding structural self-adaptation, the thesis goal is the implementation of self-adaptive circuits in FPGA-based evolvable systems through an efficient use of native reconfiguration capabilities. In this case, evolution of image processing tasks such as filtering of unknown and changing types of noise and edge detection are the selected proofs of concept. In general, evolving unknown image processing behaviours (within a certain complexity range) at design time is the required goal. In this case, the mission of the proposal is the incorporation of DPR in EHW to evolve a systolic array architecture adaptable through reconfiguration whose evolvability had not been previously checked. In order to achieve the two stated goals, this thesis originally proposes an evolvable platform that integrates an Adaptation Engine (AE), a Reconfiguration Engine (RE) and an adaptable Computing Engine (CE). In the case of parametric adaptation, the proposed platform is characterised by: • a CE featuring a DWT hardware processing core adaptable through reconfigurable registers that holds wavelet filters coefficients • an evolutionary algorithm as AE that searches for candidate wavelet filters through a parametric optimisation process specifically developed for systems featured by scarce computing resources • a new, simplified mutation operator for the selected EA, that together with a fast evaluation mechanism of candidate wavelet filters derived from existing literature, assures the feasibility of the evolutionary search involved in wavelets adaptation In the case of structural adaptation, the platform proposal takes the form of: • a CE based on a reconfigurable 2D systolic array template composed of reconfigurable processing nodes • an evolutionary algorithm as AE that searches for candidate configurations of the array using a set of computational functionalities for the nodes available in a run time accessible library • a hardware RE that exploits native DPR capabilities of FPGAs and makes an efficient use of the available reconfigurable resources of the device to change the behaviour of the CE at run time • a library of reconfigurable processing elements featured by position-independent partial bitstreams used as the set of available configurations for the processing nodes of the array Main contributions of this thesis can be summarised in the following list. • An FPGA-based evolvable platform for parametric and structural self-adaptation of embedded systems composed of a Computing Engine, an evolutionary Adaptation Engine and a Reconfiguration Engine. This platform is further developed and tailored for both parametric and structural self-adaptation. • Regarding parametric self-adaptation, main contributions are: – A CE adaptable through reconfigurable registers that enables parametric adaptation of the coefficients of an adaptive hardware implementation of a DWT core. – An AE based on an Evolutionary Algorithm specifically developed for numerical optimisation applied to wavelet filter coefficients in resource constrained embedded systems. – A run-time self-adaptive DWT IP core for embedded systems that allows for online optimisation of transform performance for image compression for specific deployment environments characterised by different types of input signals. – A software model and hardware implementation of a tool for the automatic, evolutionary construction of custom wavelet transforms. • Lastly, regarding structural self-adaptation, main contributions are: – A CE adaptable through native FPGA fabric reconfiguration featured by a two dimensional systolic array template of reconfigurable processing nodes. Different processing behaviours can be automatically mapped in the array by using a library of simple reconfigurable processing elements. – Definition of a library of such processing elements suited for autonomous runtime synthesis of different image processing tasks. – Efficient incorporation of DPR in EHW systems, overcoming main drawbacks from the previous approach of virtual reconfigurable circuits. Implementation details for both approaches are also originally compared in this work. – A fault tolerant, self-healing platform that enables online functional recovery in hazardous environments. The platform has been characterised from a fault tolerance perspective: fault models at FPGA CLB level and processing elements level are proposed, and using the RE, a systematic fault analysis for one fault in every processing element and for two accumulated faults is done. – A dynamic filtering quality platform that permits on-line adaptation to different types of noise and different computing behaviours considering the available computing resources. On one side, non-destructive filters are evolved, enabling scalable cascaded filtering schemes; and on the other, size-scalable filters are also evolved considering dynamically changing computational filtering requirements. This dissertation is organized in four parts and nine chapters. First part contains chapter 1, the introduction to and motivation of this PhD work. Following, the reference framework in which this dissertation is framed is analysed in the second part: chapter 2 features an introduction to the notions of self-adaptation and autonomic computing as a more general research field to the very specific one of this work; chapter 3 introduces evolutionary computation as the technique to drive adaptation; chapter 4 analyses platforms for reconfigurable computing as the technology to hold self-adaptive hardware; and finally chapter 5 defines, classifies and surveys the field of Evolvable Hardware. Third part of the work follows, which contains the proposal, development and results obtained: while chapter 6 contains an statement of the thesis goals and the description of the proposal as a whole, chapters 7 and 8 address parametric and structural self-adaptation, respectively. Finally, chapter 9 in part 4 concludes the work and describes future research paths.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El control de calidad en pinturas, barnices y recubrimientos afines está relacionado con su composición, formulación y caracterización. Al hablar de recubrimientos nos referimos a pinturas, temple, barnices, esmaltes, lacas, imprimaciones, e incluso recubrimientos electrolíticos. Se puede definir una pintura líquida como una mezcla heterogénea de componentes que una vez aplicada y seca se transforma en una película continua de espesor más o menos uniforme, sin pegajosidad al tacto y con las características o aptitud al uso con la que ha sido diseñada. Los componentes de la pintura varían en gran manera en función del tipo de acabado que se requiera y de las condiciones de aplicación y secado. El proceso de fabricación de pinturas es totalmente físico y se efectúa en cuatro fases: dispersión, molido, dilución y ajuste de viscosidad. Hay distintos tipos de pinturas al agua: temple, pintura al cemento, pintura a la cal, pintura al silicato y pintura plástica. El desarrollo y aplicación cada vez mayor de las pinturas hidrosolubles en todos los sectores permite reducir la emisión de grandes cantidades de disolventes orgánicos a la atmósfera y reduce en gran medida los riesgos de incendio. Por su utilización hay tres tipos de productos hidrosolubles: pinturas plásticas para decoración (emulsiones y dispersiones), pinturas electroforéticas (anaforesis y cataforesis) y pinturas hidrosolubles industriales (resinas en solución y en dispersión). Entre otros componentes formadores de la película se destaca el papel de los aceites y los pigmentos en sus distintas tipologías. En función del ratio pigmento/ resina en peso las pinturas se clasifican en acabados, imprimaciones, aparejos y masillas. Se desarrolla el procedimiento operativo para fabricar pintura al agua y distintos procedimientos matemáticos para calcular composiciones adecuadas de base de la molienda. A continuación se exponen distintos ensayos de control de calidad en pintura referidos a distintos aspectos: contenido de producto, estado de conservación en el envase y estabilidad al almacenaje, determinación de la densidad, porcentaje de sólidos, poder cubriente y rendimiento superficial específico; de los ensayos en pintura húmeda se destaca, entre otros aspectos la medida del índice de nivelación y la tendencia al descuelgue; de los ensayos en pintura aplicada y seca, se determina la resistencia al frote en húmedo; también se hace referencia a la viscosidad y la tensión superficial y su influencia en las pinturas, así como algunas cuestiones sobre el diseño de pinturas y afines, y a defectos en las pinturas, sus causas y posibles soluciones. Para terminar, se desarrollan algunos aspectos medioambientales relacionados con las pinturas y sus componentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El presente trabajo se basa en la filosofía de la Construcción sin Pérdidas (“Lean Construction”), analizando la situación de esta filosofía en el sector de la edificación en el contexto internacional y español, respondiendo las siguientes preguntas: 1. ¿Cómo surge el “Lean Construction”? 2. ¿Cuáles son sus actividades, funciones y cometidos? 3. ¿Existe regulación del ¨Lean Construction” en otros países? 4. ¿Existe demanda del ¨Lean Construction” en España? 5. ¿Existe regulación del ¨Lean Construction” en España? 6. ¿Cómo debería ser la regulación ¨Lean Construction” en España? 7. ¿Cuál es la relación del “Lean Construction” con el “Project & Construction Management”? 8. ¿Cómo debería ser la regulación de “Lean Construction” en España considerando su relación con el “Project & Construction Management”? Las preguntas indicadas las hemos respondido detalladamente en el presente trabajo, a continuación se resume las respuestas a dichas preguntas: 1. El “Lean Construction” surge en agosto de 1992, cuando el investigador finlandés Lauri Koskela publicó en la Universidad de Stanford el reporte TECHNICAL REPORT N° 72 titulado “Application of the New Production Philosophy to Construction”. Un año más tarde el Dr. Koskela invitó a un grupo de especialistas en construcción al primer workshop de esta materia en Finlandia, dando origen al International Group for Lean Construction (IGLC) lo que ha permitido extender la filosofía a EEUU, Europa, América, Asia, Oceanía y África. “Lean Construction” es un sistema basado en el enfoque “Lean Production” desarrollado en Japón por Toyota Motors a partir de los años cincuenta, sistema que permitió a sus fábricas producir unidades con mayor eficiencia que las industrias americanas, con menores recursos, en menor tiempo, y con un número menor de errores de fabricación. 2. El sistema “Lean Construction” busca maximizar el valor y disminuir las pérdidas de los proyectos generando una coordinación eficiente entre los involucrados, manejando un proyecto como un sistema de producción, estrechando la colaboración entre los participantes de los proyectos, capacitándoles y empoderándoles, fomentando una cultura de cambio. Su propósito es desarrollar un proceso de construcción en el que no hayan accidentes, ni daños a equipos, instalaciones, entorno y comunidad, que se realice en conformidad con los requerimientos contractuales, sin defectos, en el plazo requerido, respetando los costes presupuestados y con un claro enfoque en la eliminación o reducción de las pérdidas, es decir, las actividades que no generen beneficios. El “Last Planner System”, o “Sistema del Último Planificador”, es un sistema del “Lean Construction” que por su propia naturaleza protege a la planificación y, por ende, ayuda a maximizar el valor y minimizar las pérdidas, optimizando de manera sustancial los sistemas de seguridad y salud. El “Lean Construction” se inició como un concepto enfocado a la ejecución de las obras, posteriormente se aplicó la filosofía a todas las etapas del proyecto. Actualmente considera el desarrollo total de un proyecto, desde que nace la idea hasta la culminación de la obra y puesta en marcha, considerando el ciclo de vida completo del proyecto. Es una filosofía de gestión, metodologías de trabajo y una cultura empresarial orientada a la eficiencia de los procesos y flujos. La filosofía “Lean Construction” se está expandiendo en todo el mundo, además está creciendo en su alcance, influyendo en la gestión contractual de los proyectos. Su primera evolución consistió en la creación del sistema “Lean Project Delivery System”, que es el concepto global de desarrollo de proyectos. Posteriormente, se proponen el “Target Value Design”, que consiste en diseñar de forma colaborativa para alcanzar los costes y el valor requerido, y el “Integrated Project Delivery”, en relación con sistemas de contratos relacionales (colaborativos) integrados, distintos a los contratos convencionales. 3. Se verificó que no existe regulación específica del ¨Lean Construction” en otros países, en otras palabras, no existe el agente con el nombre específico de “Especialista en Lean Construction” o similar, en consecuencia, es un agente adicional en el proyecto de la edificación, cuyas funciones y cometidos se pueden solapar con los del “Project Manager”, “Construction Manager”, “Contract Manager”, “Safety Manager”, entre otros. Sin embargo, se comprobó la existencia de formatos privados de contratos colaborativos de Integrated Project Delivery, los cuales podrían ser tomados como unas primeras referencias para futuras regulaciones. 4. Se verificó que sí existe demanda del ¨Lean Construction” en el desarrollo del presente trabajo, aunque aún su uso es incipiente, cada día existe más interesados en el tema. 5. No existe regulación del ¨Lean Construction” en España. 6. Uno de los objetivos fundamentales de esta tesis es el de regular esta figura cuando actúe en un proyecto, definir y realizar una estructura de Agente de la Edificación, según la Ley de Ordenación de la Edificación (LOE), y de esta manera poder introducirla dentro de la Legislación Española, protegiéndola de eventuales responsabilidades civiles. En España existe jurisprudencia (sentencias de los tribunales de justicia españoles) con jurisdicción civil basada en la LOE para absolver o condenar a agentes de la edificación que son definidos en los tribunales como “gestores constructivos” o similares. Por este motivo, en un futuro los tribunales podrían dictaminar responsabilidades solidarias entre el especialista “Lean Construction” y otros agentes del proyecto, dependiendo de sus actuaciones, y según se implemente el “Lean Project Delivery System”, el “Target Value Design” y el “Integrated Project Delivery”. Por otro lado, es posible que el nivel de actuación del especialista “Lean Construcción” pueda abarcar la gestión del diseño, la gestión de la ejecución material (construcción), la gestión de contratos, o la gestión integral de todo el proyecto de edificación, esto último, en concordancia con la última Norma ISO 21500:2012 o UNE-ISO 21500:2013 Directrices para la dirección y gestión de proyectos. En consecuencia, se debería incorporar adecuadamente a uno o más agentes de la edificación en la LOE de acuerdo a sus funciones y responsabilidades según los niveles de actuación del “Especialista en Lean Construction”. Se propone la creación de los siguientes agentes: Gestor del Diseño, Gestor Constructivo y Gestor de Contratos, cuyas definiciones están desarrolladas en este trabajo. Estas figuras son definidas de manera general, puesto que cualquier “Project Manager” o “DIPE”, gestor BIM (Building Information Modeling), o similar, puede actuar como uno o varios de ellos. También se propone la creación del agente “Gestor de la Construcción sin Pérdidas”, como aquel agente que asume las actuaciones del “gestor de diseño”, “gestor constructivo” y “gestor de contratos” con un enfoque en los principios del Lean Production. 7. En la tesis se demuestra, por medio del uso de la ISO 21500, que ambos sistemas son complementarios, de manera que los proyectos pueden tener ambos enfoques y ser compatibilizados. Un proyecto que use el “Project & Construction Management” puede perfectamente apoyarse en las herramientas y técnicas del “Lean Construction” para asegurar la eliminación o reducción de las pérdidas, es decir, las actividades que no generen valor, diseñando el sistema de producción, el sistema de diseño o el sistema de contratos. 8. Se debería incorporar adecuadamente al agente de la edificación “Especialista en Lean Construction” o similar y al agente ¨Especialista en Project & Construction Management” o DIPE en la Ley de Ordenación de la Edificación (LOE) de acuerdo a sus funciones y responsabilidades, puesto que la jurisprudencia se ha basado para absolver o condenar en la referida Ley. Uno de los objetivos fundamentales de esta tesis es el de regular la figura del “Especialista en Lean Construction” cuando actúa simultáneamente con el DIPE, y realizar una estructura de Agente de la Edificación según la LOE, y de esta manera protegerlo de eventuales responsabilidades solidarias. Esta investigación comprueba que la propuesta de definición del agente de edificación DIPE, según la LOE, presentada en la tesis doctoral del Doctor Manuel Soler Severino es compatible con las nuevas definiciones propuestas. El agente DIPE puede asumir los roles de los diferentes gestores propuestos en esta tesis si es que se especializa en dichas materias, o, si lo estima pertinente, recomendar sus contrataciones. ABSTRACT This work is based on the Lean Construction philosophy; an analysis is made herein with regard to the situation of this philosophy in the building sector within the international and Spanish context, replying to the following questions: 1. How did the concept of Lean Construction emerge? 2. Which are the activities, functions and objectives of Lean Construction? 3. Are there regulations on Lean Construction in other countries? 4. Is there a demand for Lean Construction in Spain? 5. Are there regulations on Lean Construction in Spain? 6. How should regulations on Lean Construction be developed in Spain? 7. What is the relationship between Lean Construction and the Project & Construction Management? 8. How should regulations on Lean Construction be developed in Spain considering its relationship with the Project & Construction Management? We have answered these questions in detail here and the replies are summarized as follows: 1. The concept of Lean Construction emerged in august of 1992, when Finnish researcher Lauri Koskela published in Stanford University TECHNICAL REPORT N° 72 entitled “Application of the New Production Philosophy to Construction”. A year later, Professor Koskela invited a group of construction specialists to Finland to the first workshop conducted on this matter; thus, the International Group for Lean Construction (IGLC) was established, which has contributed to extending the philosophy to the United States, Europe, the Americas, Asia, Oceania, and Africa. Lean Construction is a system based on the Lean Production approach, which was developed in Japan by Toyota Motors in the 1950s. Thanks to this system, the Toyota plants were able to produce more units, with greater efficiency than the American industry, less resources, in less time, and with fewer manufacturing errors. 2. The Lean Construction system aims at maximizing the value of projects while reducing waste, producing an effective coordination among those involved; it manages projects as a production system, enhancing collaboration between the parties that participate in the projects while building their capacities, empowering them, and promoting a culture of change. Its purpose is to develop a construction process free of accidents, without damages to the equipment, facilities, environment and community, flawless, in accordance with contractual requirements, within the terms established, respecting budgeted costs, and with a clear approach to eliminating or reducing waste, that is, activities that do not generate benefits. The Last Planner System is a Lean Construction system, which by its own nature protects planning and, therefore, helps to maximize the value and minimize waste, optimizing substantially the safety and health systems. Lean Construction started as a concept focused on the execution of works, and subsequently the philosophy was applied to all the stages of the project. At present it considers the project’s total development, since the time ideas are born until the completion and start-up of the work, taking into account the entire life cycle of the project. It is a philosophy of management, work methodologies, and entrepreneurial culture aimed at the effectiveness of processes and flows. The Lean Construction philosophy is extending all over the world and its scope is becoming broader, having greater influence on the contractual management of projects. It evolved initially through the creation of the Lean Project Delivery System, a global project development concept. Later on, the Target Value Design was developed, based on collaborative design to achieve the costs and value required, as well as the Integrated Project Delivery, in connection with integrated relational (collaborative) contract systems, as opposed to conventional contracts. 3. It was verified that no specific regulations on Lean Construction exist in other countries, in other words, there are no agents with the specific name of “Lean Construction Specialist” or other similar names; therefore, it is an additional agent in building projects, which functions and objectives can overlap those of the Project Manager, Construction Manager, Contract Manager, or Safety Manager, among others. However, the existence of private collaborative contracts of Integrated Project Delivery was confirmed, which could be considered as first references for future regulations. 4. There is a demand for Lean Construction in the development of this work; even though it is still emerging, there is a growing interest in this topic. 5. There are no regulations on Lean Construction in Spain. 6. One of the main objectives of this thesis is to regulate this role when acting in a project, and to define and develop a Building Agent structure, according to the Building Standards Law (LOE by its acronym in Spanish), in order to be able to incorporate it into the Spanish law, protecting it from civil liabilities. In Spain there is jurisprudence in civil jurisdiction based on the LOE to acquit or convict building agents, which are defined in the courts as “construction managers” or similar. For this reason, courts could establish in the future joint and several liabilities between the Lean Construction Specialist and other agents of the project, depending on their actions and based on the implementation of the Lean Project Delivery System, the Target Value Design, and the Integrated Project Delivery. On the other hand, it is possible that the level of action of the Lean Construction Specialist may comprise design management, construction management and contract management, or the integral management of the entire building project in accordance with the last ISO 21500:2012 or UNE-ISO 21500:2013, guidelines for the management of projects. Accordingly, one or more building agents should be appropriately incorporated into the LOE according to their functions and responsibilities and based on the levels of action of the Lean Construction Specialist. The creation of the following agents is proposed: Design Manager, Construction Manager, and Contract Manager, which definitions are developed in this work. These agents are defined in general, since any Project Manager or DIPE, Building Information Modeling (BIM) Manager or similar, may act as one or as many of them. The creation of the Lean Construction Manager is also proposed, as the agent that takes on the role of the Design Manager, Construction Manager and Contract Manager with a focus on the Lean Production principles. 7. In the thesis it is demonstrated that through the implementation of the ISO 21500, both systems are supplementary, so projects may have both approaches and be compatible. A project that applies the Project & Construction Management may perfectly have the support of the tools, techniques and practices of Lean Construction to ensure the elimination or reduction of losses, that is, those activities that do not generate value, thus designing the production system, the design system, or the contract system. 8. The Lean Construction Specialist or similar and the Specialist in Project & Construction Management should be incorporated appropriately into the LOE according to their functions and responsibilities, since jurisprudence has been based on such Law to acquit or convict. One of the main objectives of this thesis is the regulate the role of the Lean Construction Specialist when acting simultaneously with the DIPE, and to develop a structure of the building agent, according to the LOE, and in this way protect such agent from joint and several liabilities. This research proves that the proposal to define the DIPE building agent, according to the LOE, and presented in the doctoral dissertation of Manuel Soler Severino, Ph.D. is compatible with the new definitions proposed. The DIPE agent may assume the roles of the different managers proposed in this thesis if he specializes in those topics or, if deemed pertinent, recommends that they be engaged.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La temperatura de curado, utilizada por la industria de fibrocemento como catalizador en la hidratación del cemento para lograr alta resistencia inicial en sus productos, genera la hipótesis de expansión causada por formación tardía de etringita. Para el planteamiento de dicha hipótesis, el siguiente estudio contempló dos grupos de muestras con el objetivo de estudiar aisladamente su comportamiento químico y físico: uno de los grupos conformado por pasta cementicia con 35% de sustitución de calcario, y el otro conformado por fibrocemento con incorporación de PVA y celulosa. Por calorimetría isotérmica se observó la cinética de reacción de dos pastas, una de ellas curada a 23 ºC y la otra a 85 ºC donde esta última experimentó un efecto catalizador en sus reacciones. Ensayos de DRX y DTG/TG mostraron la presencia de etringita a 23 °C durante todas las edades de hidratación exhibiendo una tendencia de aumento en la intensidad de los picos y en la cantidad, respectivamente, en función del tiempo; sin embargo, a 85 ºC la presencia de esta fase fue inconstante durante las primeras edades de hidratación, a partir de mes de hidratación mostró aumento en cada una de las siguientes medidas realizadas mensualmente; a 85 °C hubo una menor formación de portlandita en comparación con los resultados obtenidos a 23 °C. Utilizando el método Rietveld y análisis químico fueron determinadas las cantidades y las composiciones químicas, respectivamente, de las fases del cemento anhidro y del calcario para alimentar el programa GEMS y simular la hidratación de la pasta estudiada en laboratorio para un tiempo infinito bajo la influencia de la temperatura. Simulaciones de la hidratación de la pasta se aproximaron a los resultados reportados por la revisión bibliográfica permitiendo predecir la presencia de fases en función de la estabilidad termodinámica. Resultados de porosimetría por inyección de mercurio mostraron una mayor concentración de poros, asociados a defectos, en muestras curadas a 85°C con respecto a las de 23 °C. Finalmente, medidas de variación longitudinal para muestras de fibrocemento elaboradas en laboratorio y en fábrica presentaron dispersión en los resultados de expansión para cada uno de los escenarios sin poder correlacionar todos los datos con el aumento de masa exhibido por cada una de las muestras; no obstante, se resalta el riesgo de deterioro del fibrocemento por el aumento de defectos causado por la temperatura así como la creación de todas las condiciones necesarias que favorecen la formación tardía de etringita a partir del proceso de fabricación empleado para este producto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La labor lingüística y traductora de fray Bernardo de Lugo está enmarcada en la misión evangelizadora de la época colonial. Este fraile dominico pasó a la historia de la filología amerindia por haber compuesto la primera gramática de la lengua muisca. La obra, con sus aciertos y defectos, constituye aún hoy una de las principales fuentes de conocimiento del muisca y ha inspirado los trabajos lingüísticos que posteriormente se han realizado sobre esta lengua, extinta desde el siglo XVIII. La presente contribución introduce y contextualiza de forma somera la actividad intelectual de este fraile, recopilando las claves que permiten trazar su perfil como misionero lingüista y poner en valor su aportación a los estudios indigenistas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Se analiza el porqué de las citaciones de los artículos. Se realizan también algunas consideraciones sobre el factor de impacto de las revistas, sus ventajas y sus posibles defectos. El factor de impacto de las revistas, desde su popularización por el Institute for Scientific Information, ha tomado una gran importancia como parámetro objetivo de evaluación de las revistas científicas y, por extensión, de todo lo que las rodea. No hay correlación con el desfase en factores de impacto de algunas revistas anglosajonas y el de las revistas escritas en otros idiomas. Probablemente se benefician de publicar en inglés y del llamado “efecto Mateo”, según el cual los investigadores científicos eminentes cosechan aplausos mucho más nutridos que otros investigadores, menos conocidos, por contribuciones equivalentes. Es paradójico también que los grandes descubrimientos de nuestra época no figuren entre los 100 artículos más citados. No hay tampoco una correlación entre todos los artículos aparecidos en una publicación y su factor de impacto; la mitad de los artículos de una revista son citados diez veces más que la otra mitad. Los artículos citados 0 veces reciben el mérito de los mejores. Lo ortodoxo sería utilizar en cada artículo el número de citas que recibe, que sería su propio factor de impacto y, para los autores, el índice H.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La oferta de ciudadanía por parte de Tanzania a unos 200.000 refugiados recibió atención y apoyo internacionales. El hecho de reconocer los puntos fuertes y los defectos de este modelo podría potencialmente ayudar a desbloquear otras situaciones de desplazamiento prolongado alrededor del mundo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho consiste em verificar a atuação da Defensoria Pública do Estado de São Paulo na proteção do direito à educação infantil para entender como esta desempenha a defesa do direito ao ensino infantil para os necessitados. O problema de pesquisa consiste em examinar o papel da Defensoria Pública na garantia do direito ao acesso às vagas em creches e pré-escolas para crianças de zero a cinco anos no Município de São Paulo. O presente estudo parte do marco teórico produzido, na década de 1970, a partir do relatório a respeito do Acesso à Justiça, de Mauro Cappelletti e Bryant Garth. Com essa finalidade foram realizados levantamento teórico e entrevistas semiestruturadas. Durante a pesquisa, a base territorial para a Defensoria Pública do Estado de São Paulo configura-se um desafio perante a expansão institucional instituída pela Emenda Constitucional n.º 80/2014 quanto diante da influência da demanda pela política pública de educação infantil municipal no tocante à oferta de vagas em creches e pré-escolas na capital do Estado. Verificou-se, ainda, que a legitimidade ativa da Defensoria Pública para a proposição da ação civil pública (Lei n.º 7.347/1985 alterada pela Lei n.º 11.448/2007) configura-se como ponto de intersecção entre a Defensoria Pública e o Ministério Público. Indicou-se, como horizonte para enfrentar esses desafios, o aperfeiçoamento de mecanismos de diálogo intrainstitucional e interinstitucional com os demais integrantes do sistema de justiça. Conclui-se pela necessidade de rever a condução interna pela Defensoria Pública do Estado de São Paulo das ações judiciais e extrajudiciais em casos de direitos difusos e coletivos a partir do contexto de litígio estratégico, tendo em vista a natureza plurilateral dos conflitos de justiça distributiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El Comité Científico de Naciones Unidas sobre los Efectos de la Radiación Atómica (UNSCEAR) indica que una de las fuentes principales de radiación artificial a la población mundial es la cardiología intervencionista. Los procedimientos intervencionistas cardíacos son complejos y los pacientes reciben mayores dosis de radiación que en radiología convencional. Las intervenciones coronarias percutáneas complejas y los procedimientos electrofisiológicos se asocian con altas dosis de radiación y, a veces, implican dosis en la piel tan elevadas que pueden causar lesiones y aumentan el riesgo de padecer cáncer. En los últimos años ha aumentado considerablemente el número y el tipo de intervenciones cardíacas pediátricas, especialmente el diagnóstico y tratamiento de defectos cardíacos congénitos. Los pacientes pediátricos, al ser más sensibles a la radiación, requieren una atención especial desde el punto de vista de la protección radiológica. Los niños expuestos a la radiación tienen mayor probabilidad de padecer cáncer (el riesgo es de 2 a 3 veces mayor) que el resto de la población y son más radiosensibles a tumores de tiroides, piel, mama, cerebrales y leucemia...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El impacto que tienen los defectos congénitos sobre la salud de las personas afectadas, sus familias y sobre la sociedad en su conjunto es muy considerable. En España se estima que existe una prevalencia de anomalías cromosómicas hasta 2010 de 1,49% de los recién nacidos vivos. El Síndrome de Down (SD) es la tercera causa de defecto congénito y la primera de cromosomopatía, con una prevalencia de 23 por cada 10000 nacidos vivos. La importante morbilidad asociada en los individuos con síndrome de Down se acompaña de un alto coste económico, estimándose en 329750,63 euros por cada nuevo caso, constituyendo un cargo a lo largo de la vida de 1316 millones de euros. Por todo ello, la detección de esta alteración es la indicación más frecuente de diagnóstico prenatal invasivo. Las pruebas invasivas, como amniocentesis, biopsia de vellosidades coriales y cordocentesis, se asocian con un aumento del 1% del riesgo de aborto y, por tanto, sólo se realizan cuando se considera que hay una probabilidad elevada de que el feto tenga un defecto cromosómico, siendo por tanto fundamental una buena selección del grupo de gestantes de alto riesgo...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Migration is as old as humanity, but since the 1990s migration flows in Western Europe have led to societies that are not just multicultural but so-called «super-diverse». As a result, Western towns now have very complex social structures, with amongst others large amounts of small immigrant communities that are in constant change. In this paper we argue that for social workers to be able to offer adequate professional help to non-native residents in town, they will need balanced view of ‘culture’ and of the role culture plays in social aid. Culture is never static, but is continually changing. By teaching social workers about how to look at cultural backgrounds of immigrant groups and about the limitations of then role that culture plays in communication, they will be better equipped to provide adequate aid and will contribute to making various groups grow towards each other and to avoid people thinking in terms of ‘out-group-homogeneity’. Nowadays, inclusion is a priority in social work that almost every social worker supports. Social workers should have an open attitude to allow them to approach every individual as a unique person. They will see the other person as the person they are, and not as a part of a specific cultural group. Knowledge about the others makes them see the cultural heterogeneity in every group. The social sector, though, must be aware not to fall into the trap of the ‘inclusion mania’! This will cause the social deprivation of a particular group to be forgotten. An inclusive policy requires an inclusive society. Otherwise, this could result in even more deprivation of other groups, already discriminated against. Emancipation of deprived people demands a certain target-group policymaking. Categorized aid will raise efficiency of working with immigrants and of acknowledging the cultural identity of the non-natives group. It will also create the possibility to work on fighting social deprivation, in which most immigrants can be found.