34 resultados para Interconnection

em Universidad Politécnica de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Current nanometer technologies are subjected to several adverse effects that seriously impact the yield and performance of integrated circuits. Such is the case of within-die parameters uncertainties, varying workload conditions, aging, temperature, etc. Monitoring, calibration and dynamic adaptation have appeared as promising solutions to these issues and many kinds of monitors have been presented recently. In this scenario, where systems with hundreds of monitors of different types have been proposed, the need for light-weight monitoring networks has become essential. In this work we present a light-weight network architecture based on digitization resource sharing of nodes that require a time-to-digital conversion. Our proposal employs a single wire interface, shared among all the nodes in the network, and quantizes the time domain to perform the access multiplexing and transmit the information. It supposes a 16% improvement in area and power consumption compared to traditional approaches.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La temperatura es una preocupación que juega un papel protagonista en el diseño de circuitos integrados modernos. El importante aumento de las densidades de potencia que conllevan las últimas generaciones tecnológicas ha producido la aparición de gradientes térmicos y puntos calientes durante el funcionamiento normal de los chips. La temperatura tiene un impacto negativo en varios parámetros del circuito integrado como el retardo de las puertas, los gastos de disipación de calor, la fiabilidad, el consumo de energía, etc. Con el fin de luchar contra estos efectos nocivos, la técnicas de gestión dinámica de la temperatura (DTM) adaptan el comportamiento del chip en función en la información que proporciona un sistema de monitorización que mide en tiempo de ejecución la información térmica de la superficie del dado. El campo de la monitorización de la temperatura en el chip ha llamado la atención de la comunidad científica en los últimos años y es el objeto de estudio de esta tesis. Esta tesis aborda la temática de control de la temperatura en el chip desde diferentes perspectivas y niveles, ofreciendo soluciones a algunos de los temas más importantes. Los niveles físico y circuital se cubren con el diseño y la caracterización de dos nuevos sensores de temperatura especialmente diseñados para los propósitos de las técnicas DTM. El primer sensor está basado en un mecanismo que obtiene un pulso de anchura variable dependiente de la relación de las corrientes de fuga con la temperatura. De manera resumida, se carga un nodo del circuito y posteriormente se deja flotando de tal manera que se descarga a través de las corrientes de fugas de un transistor; el tiempo de descarga del nodo es la anchura del pulso. Dado que la anchura del pulso muestra una dependencia exponencial con la temperatura, la conversión a una palabra digital se realiza por medio de un contador logarítmico que realiza tanto la conversión tiempo a digital como la linealización de la salida. La estructura resultante de esta combinación de elementos se implementa en una tecnología de 0,35 _m. El sensor ocupa un área muy reducida, 10.250 nm2, y consume muy poca energía, 1.05-65.5nW a 5 muestras/s, estas cifras superaron todos los trabajos previos en el momento en que se publicó por primera vez y en el momento de la publicación de esta tesis, superan a todas las implementaciones anteriores fabricadas en el mismo nodo tecnológico. En cuanto a la precisión, el sensor ofrece una buena linealidad, incluso sin calibrar; se obtiene un error 3_ de 1,97oC, adecuado para tratar con las aplicaciones de DTM. Como se ha explicado, el sensor es completamente compatible con los procesos de fabricación CMOS, este hecho, junto con sus valores reducidos de área y consumo, lo hacen especialmente adecuado para la integración en un sistema de monitorización de DTM con un conjunto de monitores empotrados distribuidos a través del chip. Las crecientes incertidumbres de proceso asociadas a los últimos nodos tecnológicos comprometen las características de linealidad de nuestra primera propuesta de sensor. Con el objetivo de superar estos problemas, proponemos una nueva técnica para obtener la temperatura. La nueva técnica también está basada en las dependencias térmicas de las corrientes de fuga que se utilizan para descargar un nodo flotante. La novedad es que ahora la medida viene dada por el cociente de dos medidas diferentes, en una de las cuales se altera una característica del transistor de descarga |la tensión de puerta. Este cociente resulta ser muy robusto frente a variaciones de proceso y, además, la linealidad obtenida cumple ampliamente los requisitos impuestos por las políticas DTM |error 3_ de 1,17oC considerando variaciones del proceso y calibrando en dos puntos. La implementación de la parte sensora de esta nueva técnica implica varias consideraciones de diseño, tales como la generación de una referencia de tensión independiente de variaciones de proceso, que se analizan en profundidad en la tesis. Para la conversión tiempo-a-digital, se emplea la misma estructura de digitalización que en el primer sensor. Para la implementación física de la parte de digitalización, se ha construido una biblioteca de células estándar completamente nueva orientada a la reducción de área y consumo. El sensor resultante de la unión de todos los bloques se caracteriza por una energía por muestra ultra baja (48-640 pJ) y un área diminuta de 0,0016 mm2, esta cifra mejora todos los trabajos previos. Para probar esta afirmación, se realiza una comparación exhaustiva con más de 40 propuestas de sensores en la literatura científica. Subiendo el nivel de abstracción al sistema, la tercera contribución se centra en el modelado de un sistema de monitorización que consiste de un conjunto de sensores distribuidos por la superficie del chip. Todos los trabajos anteriores de la literatura tienen como objetivo maximizar la precisión del sistema con el mínimo número de monitores. Como novedad, en nuestra propuesta se introducen nuevos parámetros de calidad aparte del número de sensores, también se considera el consumo de energía, la frecuencia de muestreo, los costes de interconexión y la posibilidad de elegir diferentes tipos de monitores. El modelo se introduce en un algoritmo de recocido simulado que recibe la información térmica de un sistema, sus propiedades físicas, limitaciones de área, potencia e interconexión y una colección de tipos de monitor; el algoritmo proporciona el tipo seleccionado de monitor, el número de monitores, su posición y la velocidad de muestreo _optima. Para probar la validez del algoritmo, se presentan varios casos de estudio para el procesador Alpha 21364 considerando distintas restricciones. En comparación con otros trabajos previos en la literatura, el modelo que aquí se presenta es el más completo. Finalmente, la última contribución se dirige al nivel de red, partiendo de un conjunto de monitores de temperatura de posiciones conocidas, nos concentramos en resolver el problema de la conexión de los sensores de una forma eficiente en área y consumo. Nuestra primera propuesta en este campo es la introducción de un nuevo nivel en la jerarquía de interconexión, el nivel de trillado (o threshing en inglés), entre los monitores y los buses tradicionales de periféricos. En este nuevo nivel se aplica selectividad de datos para reducir la cantidad de información que se envía al controlador central. La idea detrás de este nuevo nivel es que en este tipo de redes la mayoría de los datos es inútil, porque desde el punto de vista del controlador sólo una pequeña cantidad de datos |normalmente sólo los valores extremos| es de interés. Para cubrir el nuevo nivel, proponemos una red de monitorización mono-conexión que se basa en un esquema de señalización en el dominio de tiempo. Este esquema reduce significativamente tanto la actividad de conmutación sobre la conexión como el consumo de energía de la red. Otra ventaja de este esquema es que los datos de los monitores llegan directamente ordenados al controlador. Si este tipo de señalización se aplica a sensores que realizan conversión tiempo-a-digital, se puede obtener compartición de recursos de digitalización tanto en tiempo como en espacio, lo que supone un importante ahorro de área y consumo. Finalmente, se presentan dos prototipos de sistemas de monitorización completos que de manera significativa superan la características de trabajos anteriores en términos de área y, especialmente, consumo de energía. Abstract Temperature is a first class design concern in modern integrated circuits. The important increase in power densities associated to recent technology evolutions has lead to the apparition of thermal gradients and hot spots during run time operation. Temperature impacts several circuit parameters such as speed, cooling budgets, reliability, power consumption, etc. In order to fight against these negative effects, dynamic thermal management (DTM) techniques adapt the behavior of the chip relying on the information of a monitoring system that provides run-time thermal information of the die surface. The field of on-chip temperature monitoring has drawn the attention of the scientific community in the recent years and is the object of study of this thesis. This thesis approaches the matter of on-chip temperature monitoring from different perspectives and levels, providing solutions to some of the most important issues. The physical and circuital levels are covered with the design and characterization of two novel temperature sensors specially tailored for DTM purposes. The first sensor is based upon a mechanism that obtains a pulse with a varying width based on the variations of the leakage currents on the temperature. In a nutshell, a circuit node is charged and subsequently left floating so that it discharges away through the subthreshold currents of a transistor; the time the node takes to discharge is the width of the pulse. Since the width of the pulse displays an exponential dependence on the temperature, the conversion into a digital word is realized by means of a logarithmic counter that performs both the timeto- digital conversion and the linearization of the output. The structure resulting from this combination of elements is implemented in a 0.35_m technology and is characterized by very reduced area, 10250 nm2, and power consumption, 1.05-65.5 nW at 5 samples/s, these figures outperformed all previous works by the time it was first published and still, by the time of the publication of this thesis, they outnumber all previous implementations in the same technology node. Concerning the accuracy, the sensor exhibits good linearity, even without calibration it displays a 3_ error of 1.97oC, appropriate to deal with DTM applications. As explained, the sensor is completely compatible with standard CMOS processes, this fact, along with its tiny area and power overhead, makes it specially suitable for the integration in a DTM monitoring system with a collection of on-chip monitors distributed across the chip. The exacerbated process fluctuations carried along with recent technology nodes jeop-ardize the linearity characteristics of the first sensor. In order to overcome these problems, a new temperature inferring technique is proposed. In this case, we also rely on the thermal dependencies of leakage currents that are used to discharge a floating node, but now, the result comes from the ratio of two different measures, in one of which we alter a characteristic of the discharging transistor |the gate voltage. This ratio proves to be very robust against process variations and displays a more than suficient linearity on the temperature |1.17oC 3_ error considering process variations and performing two-point calibration. The implementation of the sensing part based on this new technique implies several issues, such as the generation of process variations independent voltage reference, that are analyzed in depth in the thesis. In order to perform the time-to-digital conversion, we employ the same digitization structure the former sensor used. A completely new standard cell library targeting low area and power overhead is built from scratch to implement the digitization part. Putting all the pieces together, we achieve a complete sensor system that is characterized by ultra low energy per conversion of 48-640pJ and area of 0.0016mm2, this figure outperforms all previous works. To prove this statement, we perform a thorough comparison with over 40 works from the scientific literature. Moving up to the system level, the third contribution is centered on the modeling of a monitoring system consisting of set of thermal sensors distributed across the chip. All previous works from the literature target maximizing the accuracy of the system with the minimum number of monitors. In contrast, we introduce new metrics of quality apart form just the number of sensors; we consider the power consumption, the sampling frequency, the possibility to consider different types of monitors and the interconnection costs. The model is introduced in a simulated annealing algorithm that receives the thermal information of a system, its physical properties, area, power and interconnection constraints and a collection of monitor types; the algorithm yields the selected type of monitor, the number of monitors, their position and the optimum sampling rate. We test the algorithm with the Alpha 21364 processor under several constraint configurations to prove its validity. When compared to other previous works in the literature, the modeling presented here is the most complete. Finally, the last contribution targets the networking level, given an allocated set of temperature monitors, we focused on solving the problem of connecting them in an efficient way from the area and power perspectives. Our first proposal in this area is the introduction of a new interconnection hierarchy level, the threshing level, in between the monitors and the traditional peripheral buses that applies data selectivity to reduce the amount of information that is sent to the central controller. The idea behind this new level is that in this kind of networks most data are useless because from the controller viewpoint just a small amount of data |normally extreme values| is of interest. To cover the new interconnection level, we propose a single-wire monitoring network based on a time-domain signaling scheme that significantly reduces both the switching activity over the wire and the power consumption of the network. This scheme codes the information in the time domain and allows a straightforward obtention of an ordered list of values from the maximum to the minimum. If the scheme is applied to monitors that employ TDC, digitization resource sharing is achieved, producing an important saving in area and power consumption. Two prototypes of complete monitoring systems are presented, they significantly overcome previous works in terms of area and, specially, power consumption.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Distributed real-time embedded systems are becoming increasingly important to society. More demands will be made on them and greater reliance will be placed on the delivery of their services. A relevant subset of them is high-integrity or hard real-time systems, where failure can cause loss of life, environmental harm, or significant financial loss. Additionally, the evolution of communication networks and paradigms as well as the necessity of demanding processing power and fault tolerance, motivated the interconnection between electronic devices; many of the communications have the possibility of transferring data at a high speed. The concept of distributed systems emerged as systems where different parts are executed on several nodes that interact with each other via a communication network. Java’s popularity, facilities and platform independence have made it an interesting language for the real-time and embedded community. This was the motivation for the development of RTSJ (Real-Time Specification for Java), which is a language extension intended to allow the development of real-time systems. The use of Java in the development of high-integrity systems requires strict development and testing techniques. However, RTJS includes a number of language features that are forbidden in such systems. In the context of the HIJA project, the HRTJ (Hard Real-Time Java) profile was developed to define a robust subset of the language that is amenable to static analysis for high-integrity system certification. Currently, a specification under the Java community process (JSR- 302) is being developed. Its purpose is to define those capabilities needed to create safety critical applications with Java technology called Safety Critical Java (SCJ). However, neither RTSJ nor its profiles provide facilities to develop distributed realtime applications. This is an important issue, as most of the current and future systems will be distributed. The Distributed RTSJ (DRTSJ) Expert Group was created under the Java community process (JSR-50) in order to define appropriate abstractions to overcome this problem. Currently there is no formal specification. The aim of this thesis is to develop a communication middleware that is suitable for the development of distributed hard real-time systems in Java, based on the integration between the RMI (Remote Method Invocation) model and the HRTJ profile. It has been designed and implemented keeping in mind the main requirements such as the predictability and reliability in the timing behavior and the resource usage. iThe design starts with the definition of a computational model which identifies among other things: the communication model, most appropriate underlying network protocols, the analysis model, and a subset of Java for hard real-time systems. In the design, the remote references are the basic means for building distributed applications which are associated with all non-functional parameters and resources needed to implement synchronous or asynchronous remote invocations with real-time attributes. The proposed middleware separates the resource allocation from the execution itself by defining two phases and a specific threading mechanism that guarantees a suitable timing behavior. It also includes mechanisms to monitor the functional and the timing behavior. It provides independence from network protocol defining a network interface and modules. The JRMP protocol was modified to include two phases, non-functional parameters, and message size optimizations. Although serialization is one of the fundamental operations to ensure proper data transmission, current implementations are not suitable for hard real-time systems and there are no alternatives. This thesis proposes a predictable serialization that introduces a new compiler to generate optimized code according to the computational model. The proposed solution has the advantage of allowing us to schedule the communications and to adjust the memory usage at compilation time. In order to validate the design and the implementation a demanding validation process was carried out with emphasis in the functional behavior, the memory usage, the processor usage (the end-to-end response time and the response time in each functional block) and the network usage (real consumption according to the calculated consumption). The results obtained in an industrial application developed by Thales Avionics (a Flight Management System) and in exhaustive tests show that the design and the prototype are reliable for industrial applications with strict timing requirements. Los sistemas empotrados y distribuidos de tiempo real son cada vez más importantes para la sociedad. Su demanda aumenta y cada vez más dependemos de los servicios que proporcionan. Los sistemas de alta integridad constituyen un subconjunto de gran importancia. Se caracterizan por que un fallo en su funcionamiento puede causar pérdida de vidas humanas, daños en el medio ambiente o cuantiosas pérdidas económicas. La necesidad de satisfacer requisitos temporales estrictos, hace más complejo su desarrollo. Mientras que los sistemas empotrados se sigan expandiendo en nuestra sociedad, es necesario garantizar un coste de desarrollo ajustado mediante el uso técnicas adecuadas en su diseño, mantenimiento y certificación. En concreto, se requiere una tecnología flexible e independiente del hardware. La evolución de las redes y paradigmas de comunicación, así como la necesidad de mayor potencia de cómputo y de tolerancia a fallos, ha motivado la interconexión de dispositivos electrónicos. Los mecanismos de comunicación permiten la transferencia de datos con alta velocidad de transmisión. En este contexto, el concepto de sistema distribuido ha emergido como sistemas donde sus componentes se ejecutan en varios nodos en paralelo y que interactúan entre ellos mediante redes de comunicaciones. Un concepto interesante son los sistemas de tiempo real neutrales respecto a la plataforma de ejecución. Se caracterizan por la falta de conocimiento de esta plataforma durante su diseño. Esta propiedad es relevante, por que conviene que se ejecuten en la mayor variedad de arquitecturas, tienen una vida media mayor de diez anos y el lugar ˜ donde se ejecutan puede variar. El lenguaje de programación Java es una buena base para el desarrollo de este tipo de sistemas. Por este motivo se ha creado RTSJ (Real-Time Specification for Java), que es una extensión del lenguaje para permitir el desarrollo de sistemas de tiempo real. Sin embargo, RTSJ no proporciona facilidades para el desarrollo de aplicaciones distribuidas de tiempo real. Es una limitación importante dado que la mayoría de los actuales y futuros sistemas serán distribuidos. El grupo DRTSJ (DistributedRTSJ) fue creado bajo el proceso de la comunidad de Java (JSR-50) con el fin de definir las abstracciones que aborden dicha limitación, pero en la actualidad aun no existe una especificacion formal. El objetivo de esta tesis es desarrollar un middleware de comunicaciones para el desarrollo de sistemas distribuidos de tiempo real en Java, basado en la integración entre el modelo de RMI (Remote Method Invocation) y el perfil HRTJ. Ha sido diseñado e implementado teniendo en cuenta los requisitos principales, como la predecibilidad y la confiabilidad del comportamiento temporal y el uso de recursos. El diseño parte de la definición de un modelo computacional el cual identifica entre otras cosas: el modelo de comunicaciones, los protocolos de red subyacentes más adecuados, el modelo de análisis, y un subconjunto de Java para sistemas de tiempo real crítico. En el diseño, las referencias remotas son el medio básico para construcción de aplicaciones distribuidas las cuales son asociadas a todos los parámetros no funcionales y los recursos necesarios para la ejecución de invocaciones remotas síncronas o asíncronas con atributos de tiempo real. El middleware propuesto separa la asignación de recursos de la propia ejecución definiendo dos fases y un mecanismo de hebras especifico que garantiza un comportamiento temporal adecuado. Además se ha incluido mecanismos para supervisar el comportamiento funcional y temporal. Se ha buscado independencia del protocolo de red definiendo una interfaz de red y módulos específicos. También se ha modificado el protocolo JRMP para incluir diferentes fases, parámetros no funcionales y optimizaciones de los tamaños de los mensajes. Aunque la serialización es una de las operaciones fundamentales para asegurar la adecuada transmisión de datos, las actuales implementaciones no son adecuadas para sistemas críticos y no hay alternativas. Este trabajo propone una serialización predecible que ha implicado el desarrollo de un nuevo compilador para la generación de código optimizado acorde al modelo computacional. La solución propuesta tiene la ventaja que en tiempo de compilación nos permite planificar las comunicaciones y ajustar el uso de memoria. Con el objetivo de validar el diseño e implementación se ha llevado a cabo un exigente proceso de validación con énfasis en: el comportamiento funcional, el uso de memoria, el uso del procesador (tiempo de respuesta de extremo a extremo y en cada uno de los bloques funcionales) y el uso de la red (consumo real conforme al estimado). Los buenos resultados obtenidos en una aplicación industrial desarrollada por Thales Avionics (un sistema de gestión de vuelo) y en las pruebas exhaustivas han demostrado que el diseño y el prototipo son fiables para aplicaciones industriales con estrictos requisitos temporales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las plantas solares fotovoltaicas, que son cada vez más habituales en nuestra sociedad, necesitan contar con un sistema de comunicaciones que permita la monitorización continua del funcionamiento de los diferentes equipos así como el control remoto de los mismos y la regulación de la producción. En este Proyecto se ha estudiado la estructura eléctrica y constructiva de una planta fotovoltaica genérica, prestando especial atención a los requerimientos que debe reunir el sistema de comunicaciones. El diseño del sistema de comunicaciones se ha realizado sobre una planta solar ficticia aún sin construir analizando su estructura sobre plano y aproximando la topología de red que se necesita implementar. Partiendo de esta estructura y de las cualidades de este tipo de instalaciones se ha realizado un análisis de las tecnologías disponibles, optando por una solución inalámbrica mixta, utilizando enlaces WiMAX y WiFi, manteniendo tecnología cableada únicamente para interconexión cercana de equipos. Esta elección se ha realizado con la intención de dotar a la planta de un sistema fiable, robusto y flexible sin descuidar el factor económico; para eso se ha cuidado la selección de equipamiento, su disposición en la planta y su configuración básica de funcionamiento. A partir de la solución definitiva se ha obtenido un presupuesto económico de la instalación. Se ha completado el diseño mediante simulaciones radioeléctricas, para asegurar un correcto funcionamiento de los diferentes enlaces. The photovoltaic solar power plants, which are becoming more common in our society, need a communications system that allowing continuous monitoring of the operation of the different devices as well as their remote control and regulation of the production. In this Project, electrical structure and construction of a generic photovoltaic solar plant have been studied, paying special attention to the essential requirements which must be fulfilled by the communication system. The communication system design is was carried out assuming that photovoltaic solar plant is fictitious and before its construction, analysing its structure over site plan and approximating the net topology in order to implement it. The analysis of the available technologies was performed basing on this structure as well as the qualities of this kind of facilities. As a result, a wireless mix option with WIMAX and WiFi links was chosen, using cable technology only to the close interconnection between equipments. This choice was made with the intention of giving the plant with a reliable, robust and flexible system without neglecting the economic factor, so that, the selection of equipment, the layout at the plant and operating basic configuration have been paid great attention. From the final solution is obtained a financial budget of the facility. Design is completed by radioelectric simulations to ensure the operation of the several links properly.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Monolithical series connection of silicon thin-film solar cells modules performed by laser scribing plays a very important role in the entire production of these devices. In the current laser process interconnection the two last steps are developed for a configuration of modules where the glass is essential as transparent substrate. In addition, the change of wavelength in the employed laser sources is sometimes enforced due to the nature of the different materials of the multilayer structure which make up the device. The aim of this work is to characterize the laser patterning involved in the monolithic interconnection process in a different configurations of processing than the usually performed with visible laser sources. To carry out this study, we use nanosecond and picosecond laser sources working at 355nm of wavelength in order to achieve the selective ablation of the material from the film side. To assess this selective removal of material has been used EDX (energy dispersive using X-ray) analysis

Relevância:

10.00% 10.00%

Publicador:

Resumo:

One of the key components of highly efficient multi-junction concentrator solar cells is the tunnel junction interconnection. In this paper, an improved 3D distributed model is presented that considers real operation regimes in a tunnel junction. This advanced model is able to accurately simulate the operation of the solar cell at high concentraions at which the photogenerated current surpasses the peak current of the tunnel junctionl Simulations of dual-junction solar cells were carried out with the improved model to illustrate its capabilities and the results have been correlated with experimental data reported in the literature. These simulations show that under certain circumstances, the solar cells short circuit current may be slightly higher than the tunnel junction peak current without showing the characteristic dip in the J-V curve. This behavior is caused by the lateral current spreading toward dark regions, which occurs through the anode/p-barrier of the tunnel junction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recently a new recipe for developing and deploying real-time systems has become increasingly adopted in the JET tokamak. Powered by the advent of x86 multi-core technology and the reliability of the JET’s well established Real-Time Data Network (RTDN) to handle all real-time I/O, an official Linux vanilla kernel has been demonstrated to be able to provide realtime performance to user-space applications that are required to meet stringent timing constraints. In particular, a careful rearrangement of the Interrupt ReQuests’ (IRQs) affinities together with the kernel’s CPU isolation mechanism allows to obtain either soft or hard real-time behavior depending on the synchronization mechanism adopted. Finally, the Multithreaded Application Real-Time executor (MARTe) framework is used for building applications particularly optimised for exploring multicore architectures. In the past year, four new systems based on this philosophy have been installed and are now part of the JET’s routine operation. The focus of the present work is on the configuration and interconnection of the ingredients that enable these new systems’ real-time capability and on the impact that JET’s distributed real-time architecture has on system engineering requirements, such as algorithm testing and plant commissioning. Details are given about the common real-time configuration and development path of these systems, followed by a brief description of each system together with results regarding their real-time performance. A cycle time jitter analysis of a user-space MARTe based application synchronising over a network is also presented. The goal is to compare its deterministic performance while running on a vanilla and on a Messaging Real time Grid (MRG) Linux kernel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the photovoltaic field, the back contact solar cells technology has appeared as an alternative to the traditional silicon modules. This new type of cells places both positive and negative contacts on the back side of the cells maximizing the exposed surface to the light and making easier the interconnection of the cells in the module. The Emitter Wrap-Through solar cell structure presents thousands of tiny holes to wrap the emitter from the front surface to the rear surface. These holes are made in a first step over the silicon wafers by means of a laser drilling process. This step is quite harmful from a mechanical point of view since holes act as stress concentrators leading to a reduction in the strength of these wafers. This paper presents the results of the strength characterization of drilled wafers. The study is carried out testing the samples with the ring on ring device. Finite Element models are developed to simulate the tests. The stress concentration factor of the drilled wafers under this load conditions is determined from the FE analysis. Moreover, the material strength is characterized fitting the fracture stress of the samples to a three-parameter Weibull cumulative distribution function. The parameters obtained are compared with the ones obtained in the analysis of a set of samples without holes to validate the method employed for the study of the strength of silicon drilled wafers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumen En la última década la tecnología láser se ha convertido en una herramienta imprescindible en la fabricación de dispositivos fotovoltaicos, muy especial¬mente en aquellos basados en tecnología de lámina delgada. Independiente¬mente de crisis coyunturales en el sector, la evolución en los próximos años de estas tecnologías seguirá aprovechándose de la flexibilidad y calidad de proceso de la herramienta láser para la consecución de los dos objetivos básicos que harán de la fotovoltaica una opción energética económicamente viable: la reducción de costes de fabricación y el aumento de eficiencia de los dispositivos. Dentro de las tecnologías fotovoltaicas de lámina delgada, la tecnología de dispositivos basados en silicio amorfo ha tenido un gran desarrollo en sistemas estándar en configuración de superestrato, pero su limitada efi¬ciencia hace que su supervivencia futura pase por el desarrollo de formatos en configuración de substrato sobre materiales flexibles de bajo coste. En esta aproximación, las soluciones industriales basadas en láser actualmente disponibles para la interconexión monolítica de dispositivos no son aplica¬bles, y desde hace años se viene investigando en la búsqueda de soluciones apropiadas para el desarrollo de dichos procesos de interconexión de forma que sean transferibles a la industria. En este contexto, esta Tesis propone una aproximación completamente orig¬inal, demostrando la posibilidad de ejecutar una interconexión completa de estos dispositivos irradiando por el lado de la lámina (es decir de forma com¬patible con la opción de configuración de substrato y, valga la redundancia, con el substrato del dispositivo opaco), y con fuentes láser emitiendo en UV. Este resultado, obtenido por primera vez a nivel internacional con este trabajo, aporta un conocimiento revelador del verdadero potencial de estas fuentes en el desarrollo industrial futuro de estas tecnologías. Si bien muy posiblemente la solución industrial final requiera de una solución mixta con el empleo de fuentes en UV y, posiblemente, en otras longitudes de onda, esta Tesis y su planteamiento novedoso aportan un conocimiento de gran valor a la comunidad internacional por la originalidad del planteamiento seguido, los resultados parciales encontrados en su desarrollo (un número importante de los cuales han aparecido en revistas del JCR que recogen en la actualidad un número muy significativo de citas) y porque saca además a la luz, con las consideraciones físicas pertinentes, las limitaciones intrínsecas que el desarrollo de procesos de ablación directa selectiva con láseres UV en parte de los materiales utilizados presenta en el rango temporal de in¬teracción de ns y ps. En este trabajo se han desarrollado y optimizado los tres pasos estándar de interconexión (los habitualmente denominados Pl, P2 y P3 en la industria fotovoltaica) demostrando las ventajas y limitaciones del uso de fuentes en UV tanto con ancho temporal de ns como de ps. En particular destaca, por el éxito en los resultados obtenidos, el estudio de procesos de ablación selectiva de óxidos conductores transparentes (en este trabajo utilizados tanto como contacto frontal así como posterior en los módulos) que ha generado resultados, de excelente acogida científica a nivel internacional, cuya aplicación trasciende el ámbito de las tecnologías de silicio amorfo en lámina delgada. Además en este trabajo de Tesis, en el desarrollo del objetivo citado, se han puesto a punto técnicas de análisis de los procesos láser, basadas en métodos avanzados de caracterización de materiales (como el uso combi¬nado de la espectroscopia dispersiva de rayos X y la microscopía confocal de barrido) que se presentan como auténticos avances en el desarrollo de técnicas específicas de caracterización para el estudio de los procesos con láser de ablación selectiva de materiales en lámina delgada, procesos que no solo tienen impacto en el ámbito de la fotovoltaica, sino también en la microelectrónica, la biotecnología, la microfabricación, etc. Como resultado adicional, parte de los resultados de este trabajo, han sido aplicados exi¬tosamente por el grupo de investigaci´on en la que la autora desarrolla su labor para conseguir desarrollar procesos de enorme inter´es en otras tec-nolog´ıas fotovoltaicas, como las tecnolog´ıas est´andar de silicio amorfo sobre vidrio en configuraci´on de superestrato o el procesado de capas delgadas en tecnolog´ıas convencionales de silicio cristalino. Por u´ltimo decir que este trabajo ha sido posible por una colaboraci´on muy estrecha entre el Centro L´aser de la UPM, en el que la autora de¬sarrolla su labor, y el Grupo de Silicio Depositado del Centro de Inves¬tigaciones Energ´eticas, Medioambientales y Tecnol´ogicas, CIEMAT, que, junto al Grupo de Energ´ıa Fotovoltaica de la Universidad de Barcelona, han preparado la mayor parte de las muestras utilizadas en este estudio. Dichas colaboraciones se han desarrollado en el marco de varios proyectos de investigaci´on aplicada con subvenci´on pu´blica, tales como el proyecto singular estrat´egico PSE-MICROSIL08 (PSE-120000-2006-6), el proyecto INNDISOL (IPT-420000-2010-6), ambos financiados porel Fondo Europeo de Desarrollo Regional FEDER (UE) ”Una manera de hacer Europa y el MICINN, y los proyectos de Plan Nacional AMIC (ENE2010-21384-C04-´ 02) y CLASICO (ENE2007-6772-C04-04), cuya financiaci´on ha permitido en gran parte llevar a t´ermino este trabajo Abstract In the last decade, the laser technology has turned into an indispensable tool in the production of photovoltaic devices, especially of those based on thin film technology. Regardless the current crisis in the sector, the evolution of these technologies in the upcoming years will keep taking advantage of the flexibility and process quality of the laser tool for the accomplishment of the two basic goals that will convert the photovoltaic energy into economically viable: the manufacture cost reduction and the increase in the efficiency of the devices. Amongst the thin film laser technologies, the technology of devices based on amorphous silicon has had a great development in standard systems of superstrate configuration, but its limited efficiency makes its survival de¬pendant on the development of formats in substrate configuration with low cost flexible materials. In this approach, the laser industrial solutions cur¬rently available for the monolithic interconnection are not applicable, and in the last few years the investigations have been focused on the search of appropriate solutions for the development of such interconnection processes in a way that the same are transferable to the industry. In this context, this Thesis proposes a totally original approach, proving the possibility of executing a full interconnection of these devices by means of irradiation from the film side, i.e., compatible with the substrate con¬figuration, and with UV laser sources. This result, obtained for the first time at international level in this work, provides a revealing knowledge of the true potential of these sources in the future industrial development of these technologies. Even though very probably the final industrial solution will require a combination of the use of UV sources along with other wave¬lengths, this Thesis and its novel approach contribute with a high value to the international community because of the originality of the approach, the partial results found throughout its development (out of which, a large number has appeared in JCR journals that currently accumulate a signifi¬cant number of citations) and brings to light, with the pertinent scientific considerations, the intrinsic limitations that the selective direct ablation processes with UV laser present in the temporal range of interaction of ns and ps for part of the materials used in this study. More particularly, the three standard steps of interconnection (usually de¬nominated P1, P2 and P3 in the photovoltaic industry) have been developed and optimized, showing the advantages as well as the limitations of the use of UV sources in both the ns and ps pulse-width ranges. It is highly remark¬able, because of the success in the obtained results, the study of selective ablation processes in transparent conductive oxide (in this work used as a front and back contact), that has generated results, of excellent interna¬tional scientific reception, whose applications go beyond the scope of thin film photovoltaic technologies based on amorphous silicon. Moreover, in this Thesis, with the development of the mentioned goal, differ¬ent techniques of analysis of laser processes have been fine-tuned, basing the same in advanced methods for material characterization (like the combined use of EDX Analysis and Confocal Laser Scanning Microscopy) that can be presented as true breakthroughs in the development of specific techniques for characterization in the study of laser processes of selective ablation of materials in thin film technologies, processes that not only have impact in the photovoltaic field, but also in those of microelectronics, biotechnology, micro-fabrication, etc. As an additional outcome, part of the results of this work has been suc¬cessfully applied, by the investigation group to which the author belongs, to the development of processes of enormous interest within other photo¬voltaic technologies, such as the standard technologies on amorphous silicon over glass in superstrate configuration or the processing of thin layers in conventional technologies using crystalline silicon. Lastly, it is important to mention that this work has been possible thanks to the close cooperation between the Centro L´aser of the UPM, in which the author develops her work, and the Grupo de Silicio Depositado of Centro de Investigaciones Energ´eticas, Medioambientales y Tecnol´ogicas, CIEMAT, which, along with the Grupo de Energ´ıa Fotovoltaica of Univer¬sidad de Barcelona, has prepared the largest part of the samples utilized in this study. Such collaborations have been carried out in the context of several projects of applied investigation with public funding, like Proyecto Singular Estrat´egico PSE-MICROSIL08 (PSE-120000-2006-6), Proyecto IN-NDISOL (IPT-420000-2010-6), both funded by the European Regional De¬velopment Fund (ERDF), ”Una manera de hacer Europa” and MICINN, and the projects of Plan Nacional AMIC (ENE2010-21384-C04-02) and ´ CLASICO (ENE2007-6772-C04-04), whose funds have enabled the devel-opment of large part of this work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La mejora de las tecnologías ha tenido un importante impacto en Internet, así como en el número de usuarios. Este crecimiento sigue en aumento y se estima que en 2020 se alcancen 50 billones de dispositivos conectados a Internet, este impulso es en parte gracias a la interconexión de las “máquinas” entre ellas y con Internet, el concepto denominado M2M. Esta conexión entre dispositivos ofrece la posibilidad de mejorar los servicios dados a los usuarios y crear nuevos. Existen importantes alicientes en la evolución de M2M, sobre todo guiada por la gran cantidad de posibilidades ofrecidas y los beneficios que conllevan, sin embargo la falta de estandarización y horizontalidad se presentan como un problema para el crecimiento e implantación de M2M debido a la gran variedad de “maquinas” conectadas. El objetivo de este Proyecto Fin de Carrera es diseñar una plataforma que sea capaz de abarcar las funcionalidades que den soporte a las distintas necesidades de varias aplicaciones M2M, consiguiendo una arquitectura software horizontal que reutilice al máximo las funcionalidades comunes entre las aplicaciones cubiertas. De esta manera se presenta una solución a la falta de horizontalidad en las plataformas M2M. Este Proyecto Fin de Carrera está dividido en varias partes. Se comenzará con una introducción que sitúa en el contexto tecnológico de M2M en forma de estudio de estado del arte, abarcando los principales temas y conceptos relacionados con Machine-to-Machine. Posteriormente se realiza una propuesta de una arquitectura software M2M que permite focalizar los esfuerzos de la misma en un concentrado grupo de sectores y aplicaciones. A continuación se estudian las necesidades de los sectores y aplicaciones seleccionadas y se desarrollan las funcionalidades que incluye la plataforma, de esta manera se alcanza un modelo de arquitectura horizontal que es capaz de cubrir varios sectores. Se estudian los distintos resultados obtenidos en el desarrollo de la plataforma,validando el modelo obtenido con los resultados esperados. Finalmente se enunciarán los próximos pasos a seguir para la implementación de la plataforma. ABSTRACT. The development of technology has had an important impact on Internet, as well as on the number of users. This growth is increasing and it is estimated to reach 50 billion remotely connected devices by 2020, this momentum is partially due to interconnection between "machines" and their connection with internet, this concept is called M2M. The connection between devices gives the possibility to improve the services offered to users and to create new services. There are important incentives in the M2M evolution, mainly driven by the big amount of benefits offered; however the lack of standardization and horizontalization is a problem for the M2M growth and deployment due to the big variety of connected "machines". The aim of this Degree Project is to design a platform that will be capable of including the functionalities that will give support to the different needs of several M2M applications, achieving a horizontal software architecture that reuses the common functionalities between the applications supported. This architecture will be presented as a solution to the lack of horizontalization in M2M. This Degree Project is divided in several parts. It starts with an introduction that will place the reader in state of the art of the M2M technology context, covering the main themes and related concepts. After this introduction, a proposal of a horizontal M2M software architecture will be presented, that will allow to focus the efforts on a group of selected sectors and applications. Then, the needs of sectors and applications will be studied, and the main functionalities will be developed, in this way a model for a horizontal architecture will be reached, that will be able to cover several sectors. The resulting platform will be studied, in order to validate the model obtained with the expected results. Finally, the next steps to implement the platform are described.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La implantación de la televisión digital en España ha supuesto un conjunto de desafíos técnicos y de orden práctico que se han ido acometiendo en multitud de ámbitos, desde la legislación que normaliza las infraestructuras comunes de telecomunicación hasta los cambios en las instalaciones y receptores donde el usuario final recibe los servicios. Por la complejidad y el carácter interdisciplinar de los conocimientos necesarios el aprendizaje de los titulados dentro del ámbito de la Telecomunicación supone también un reto importante. Este proyecto realiza una primera aproximación a un conjunto de herramientas hardware y software de ayuda a la enseñanza de esta amplia disciplina. El proyecto se ha realizado en torno a Labmu laboratorio multiusuario para prácticas de televisión digital de la empresa Xpertia. Se ha realizado para conocer y documentar sus posibilidades. También se ha documentado la tarjeta moduladora DTA-111 y el software para Windows StreamXpress. Estos sistemas ofrecen muchas posibilidades para la docencia de la televisión digital en todas las áreas desde la codificación fuente hasta la decodificación en el usuario final. En particular para ambos sistemas se han realizado pruebas en radiofrecuencia de emisiones de TDT. También se han establecido algunas ideas para trabajo futuro con estos sistemas. El proyecto se divide en seis capítulos: Capitulo 1: En el primer capítulo titulado Introducción se presenta el proyecto. Capítulo 2: En el segundo capítulo titulado Composición Hardware Labmu se presentan todos los componentes del laboratorio Labmu con la descripción de cada componente y sus características técnicas. Así mismo se presenta el interconexionado y configuración con que se ha trabajado. Capítulo 3: En el tercer capítulo titulado Software Labmu se describe como manual de usuario todos los componentes y posibilidades de software de Labmu. Capítulo 4: En el cuarto capítulo titulado Medidas con Labmu se realiza las medidas de MER, CBER, VBER, C/N y potencia de canal de los canales emitidos en la Comunidad de Madrid, comparando estas medidas con el analizador Promax Prodig-5. Capítulo 5: En el quinto capítulo titulado Tarjeta receptora y software se describe la tarjeta DTA-111 y el software StreamXpress, realizando medidas con el analizador Promax Prodig-5 introduciendo errores a la señal emitida por la tarjeta, y estudiando los niveles límites de visualización correcta. Capítulo 6: En el sexto y último capítulo titulado Conclusiones se presentan las conclusiones del proyecto y un plan de trabajo futuro ABSTRACT. The implantation of Digital Television in Spain (TDT) has implied a number of technical and practical challenges in several scopes. These challenges range from recommendations that standardize common telecommunications infrastructure to the changes in facilities where the end user receives digital services. The complexity and the interdisciplinary nature of skills that graduate Telecommunications students need to learn, is also a major challenge. This project is a first approach of a set of hard ware and software tools to help in the task of teaching this broad range discipline. The project has been carried out on Labmu, a multiuser Digital Television laboratory created by the Xpertia company. Its objectives are to understand and document this range of possibilities. DTA-111 modulator card and software for Windows StreamXpress have also been documented. These systems offer many options for teaching digital television in all areas, from source coding to end user decoding. In particular, both systems were tested on RF emissions in TDT. More over some ideas for future work with these systems have also foreseen. The project is structured in six chapters: Chapter1: This section Introduces the project. Chapter2: Titled “The Composition Hardware Labmu” presents Labmu lab components and provides descriptions for each component and its technical characteristics. It also presents the interconnection and configuration we have been using. Chapter3: Titled “Software Labmu” is a user manual, describing all components and software possibilities Labmu offers. Chapter4: Titled “Measures to Labmu” presents MER, CBER, VBER, C /N and channel power measures provided by Labmu in comparison with Promax Prodig-5 measures for all channels broad casting digital television services in the Community of Madrid. Chapter 5 Titled “Receiver card and software” describes DTA-111 card and software StreamXpress. Also the effects of errors insertion performed by this card are measured with the PromaxProdig-5 meter. Threes hold levels for correct reception are also studied. Chapter6: Entitled Conclusions presents the conclusions of the project and a plan for future work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The networks need to provide higher speeds than those offered today. For it, considering that in the spectrum radio technologies is the scarcest resource in the development of these technologies and the new developments is essential to maximize the performance of bits per hertz transmitted. Long Term Evolution optimize spectral efficiency modulations with new air interface, and more advanced algorithms radius. These capabilities is the fact that LTE is an IPbased technology that enables end-to-end offer high transmission rates per user and very low latency, ie delay in the response times of the network around only 10 milliseconds, so you can offer any realtime application. LTE is the latest standard in mobile network technology and 3GPP ensure competitiveness in the future, may be considered a technology bridge between 3G networks - current 3.5G and future 4G networks, which are expected to reach speeds of up to 1G . LTE operators provide a simplified architecture but both robust, supporting services on IP technology. The objectives to be achieved through its implementation are ambitious, first users have a wide range of added services like capabilities that currently enjoys with residential broadband access at competitive prices, while the operator will have a network fully IP-based environment, reducing the complexity and cost of the same, which will give operators the opportunity to migrate to LTE directly. A major advantage of LTE is its ability to fuse with existing networks, ensuring interconnection with the same, increasing his current coverage and allowing a data connection established by a user in the environment continue when fade the coverage LTE. Moreover, the operator has the advantage of deploying network gradually, starting initially at areas of high demand for broadband services and expand progressively in line with this. RESUMEN. Las redes necesitan proporcionar velocidades mayores a las ofertadas a día de hoy. Para ello, teniendo en cuenta que en tecnologías radio el espectro es el recurso más escaso, en la evolución de estas tecnologías y en los nuevos desarrollos es esencial maximizar el rendimiento de bits por hercio transmitido. Long Term Evolution optimiza la eficiencia espectral con nuevas modulaciones en la interfaz aire, así como los algoritmos radio más avanzado. A estas capacidades se suma el hecho de que LTE es una tecnología basada en IP de extremo a extremo que permite ofrecer altas velocidades de transmisión por usuario y latencias muy bajas, es decir, retardos en los tiempos de respuesta de la red en torno a sólo 10 milisegundos, por lo que permite ofrecer cualquier tipo de aplicación en tiempo real. LTE es el último estándar en tecnología de redes móviles y asegurará la competitividad de 3GPP en el futuro, pudiendo ser considerada una tecnología puente entre las redes 3G – 3.5G actuales y las futuras redes 4G, de las que se esperan alcanzar velocidades de hasta 1G. LTE proporcionará a las operadoras una arquitectura simplificada pero robusta a la vez, soportando servicios sobre tecnología IP. Los objetivos que se persiguen con su implantación son ambiciosos, por una parte los usuarios dispondrá de una amplia oferta de servicios añadidos con capacidades similares a las que disfruta actualmente con accesos a banda ancha residencial y a precios competitivos, mientras que el operador dispondrá de una red basada en entorno totalmente IP, reduciendo la complejidad y el costo de la misma, lo que dará a las operadoras la oportunidad de migrar a LTE directamente. Una gran ventaja de LTE es su capacidad para fusionarse con las redes existentes, asegurando la interconexión con las mismas, aumentando su actual cobertura y permitiendo que una conexión de datos establecida por un usuario en el entorno LTE continúe cuando la cobertura LTE se desvanezca. Por otra parte el operador tiene la ventaja de desplegar la red LTE de forma gradual, comenzando inicialmente por las áreas de gran demanda de servicios de banda ancha y ampliarla progresivamente en función de ésta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un porcentaje importante de las pérdidas de la producción agrícola se deben a las enfermedades que causan en los cultivos los hongos necrótrofos y vasculares. Para mejorar la productividad agrícola es necesario tener un conocimiento detallado de las bases genéticas y moleculares que regulan la resistencia de las plantas a este tipo de patógenos. En Arabidopsis thaliana la resistencia frente a patógenos necrótrofos, como el hongo Plectosphaerella cucumerina BMM (PcBMM), es genéticamente compleja y depende de la activación coordinada de distintas rutas de señalización, como las reguladas por las hormonas ácido salicílico (SA), ácido jasmónico (JA), etileno (ET) y ácido abscísico (ABA), así como de la síntesis de compuestos antimicrobianos derivados del Triptófano y de la integridad de la pared celular (Llorente et al., 2005, Hernández-Blanco et al., 2007; Delgado-Cerezo et al., 2012). Uno de los componentes claves en la regulación de la resistencia de las plantas a patógenos (incluidos hongos necrótrofos y biótrofos) es la proteína G heterotrimérica, un complejo proteico formado por tres subunidades (Gα, Gβ y Gγ), que también regula distintos procesos del desarrollo vegetal. En Arabidopsis hay un gen que codifica para la subunidad α (GPA1), otro para la β (AGB1), y tres genes para la subunidad γ (AGG1, AGG2 y AGG3). El complejo GPA1-AGB1-AGG (1-3) se activa y disocia tras la percepción de una señal específica, actuando el dímero AGB1-AGG1/2 como un monómero funcional que regula las respuestas de defensa (Delgado-Cerezo et al., 2012). Estudios transcriptómicos y análisis bioquímicos de la pared celular en los que se comparaban los mutantes agb1-2 y agg1 agg2, y plantas silvestres (Col-0) revelaron que la resistencia mediada por Gβ-Gγ1/2 no es dependiente de rutas de defensa previamente caracterizadas, y sugieren que la proteína G podría modular la composición/estructura (integridad) de la pared celular (Delgado-Cerezo et al., 2012). Recientemente, se ha demostrado que AGB1 es un componente fundamental de la respuesta inmune mediada por Pathogen- Associated Molecular Patterns (PTI), ya que los mutantes agb1-2 son incapaces de activar tras el tratamiento con PAMPs respuestas de inmunidad, como la producción de especies reactivas de oxígeno (ROS; Liu et al., 2013). Dada la importancia de la proteína G heterotrimérica en la regulación de la respuestas de defensa (incluida la PTI) realizamos un escrutinio de mutantes supresores de la susceptibilidad de agb1-2 al hongo necrótrofo, PcBMM, para identificar componentes adicionales de las rutas de señalización reguladas por AGB1. En este escrutinio se aislaron cuatro mutantes sgb (suppressors of agb1-2 susceptibility to pathogens), dos de los cuales, sgb10 y sgb11, se han caracterizado en la presente Tesis Doctoral. El mutante sgb10 es un segundo alelo nulo del gen MKP1 (At3g55270) que codifica la MAP quinasa-fosfatasa 1 (Bartels et al., 2009). Este mutante presenta lesiones espontáneas en plantas adultas y una activación constitutiva de las principales rutas de defensa (SA, JA y ET, y de metabolitos secundarios, como la camalexina), que explicaría su elevada resistencia a PcBMM y Pseudomonas syringae. Estudios epistáticos sugieren que la resistencia mediada por SGB10 no es dependiente, si no complementaria a la regulada por AGB1. El mutante sgb10 es capaz de restablecer en agb1-2 la producción de ROS y otras respuestas PTI (fosforilación de las MAPK6/3/4/11) tras el tratamiento con PAMPs tan diversos como flg22, elf18 y quitina, lo que demuestra el papel relevante de SGB10/MKP1 y de AGB1 en PTI. El mutante sgb11 se caracteriza por presentar un fenotipo similar a los mutantes irregular xylem (e.g. irx1) afectado en pared celular secundaria: irregularidades en las células xilemáticas, reducción en el tamaño de la roseta y altura de planta, y hojas con un mayor contenido de clorofila. La resistencia de sgb11 a PcBMM es independiente de agb1-2, ya que la susceptibilidad del doble mutante sgb11 agb1-2 es intermedia entre la de agb1-2 y sgb11. El mutante sgb11 no revierte la deficiente PTI de agb1-2 tras el tratamiento con flg22, lo que indica que está alterado en una ruta distinta de la regulada por SGB10. sgb11 presenta una sobreactivación de la ruta del ácido abscísico (ABA), lo que podría explicar su resistencia a PcBMM. La mutación sgb11 ha sido cartografiada en el cromosoma III de Arabidopsis entre los marcadores AthFUS6 (81,64cM) y nga6 (86,41cM) en un intervalo de aproximadamente 200 kb, que comprende genes, entre los que no se encuentra ninguno previamente descrito como IRX. El aislamiento y caracterización de SGB11 apoya la relevancia de la proteína G heterotrimérica en la regulación de la interconexión entre integridad de la pared celular e inmunidad. ABSTRACT A significant percentage of agricultural losses are due to diseases caused by necrotrophic and vascular fungi. To enhance crop yields is necessary to have a detailed knowledge of the genetic and molecular bases regulating plant resistance to these pathogens. Arabidopsis thaliana resistance to necrotrophic pathogens, such as Plectosphaerella cucumerina BMM (PcBMM) fungus, is genetically complex and depends on the coordinated activation of various signaling pathways. These include those regulated by salicylic acid (SA), jasmonic acid (JA), ethylene (ET) and abscisic acid (ABA) hormones and the synthesis of tryptophan-derived antimicrobial compounds and cell wall integrity (Llorente et al., 2005, Hernández-Blanco et al., 2007; Delgado-Cerezo et al., 2012). One key component in the regulation of plant resistance to pathogens (including biotrophic and necrotrophic fungi) is the heterotrimeric G-protein. This protein complex is formed by three subunits (Gα, Gβ and Gγ), which also regulates various plant developmental processes. In Arabidopsis only one gene encodes for subunits α (GPA1) and β (AGB1), and three genes for subunit γ (AGG1, AGG2 y AGG3). The complex GPA1- AGB1-AGG(1-3) is activated and dissociates after perception of an specific signal, AGB1- AGG1/2 acts as a functional monomer regulating defense responses (Delgado-Cerezo et al., 2012). Comparative transcriptomic studies and biochemical analyses of the cell wall of agb1-2 and agg1agg2 mutant and wild plants (Col-0), showed that Gβ-Gγ1/2-mediated resistance is not dependent on previously characterized defense pathways. In addition, it suggests that G protein may modulate the composition/structure (integrity) of the plant cell wall (Delgado-Cerezo et al., 2012). Recently, it has been shown that AGB1 is a critical component of the immune response mediated by Pathogen-Associated Molecular Patterns (PTI), as agb1-2 mutants are unable to activate immune responses such as oxygen reactive species (ROS) production after PAMPs treatment (Liu et al., 2013). Considering the importance of the heterotrimeric G protein in regulation of defense responses (including PTI), we performed a screening for suppressors of agb1-2 susceptibility to the necrotrophic fungus PcBMM. This would allow the identification of additional components of the signaling pathways regulated by AGB1. In this search four sgb mutants (suppressors of agb1-2 susceptibility to pathogens) were isolated, two of which, sgb10 and sgb11, have been characterized in this PhD thesis. sgb10 mutant is a second null allele of MKP1 gene (At3g55270), which encodes the MAP kinase-phosphatase 1 (Bartels et al., 2009). This mutant exhibits spontaneous lesions in adult plants and a constitutive activation of the main defense pathways (SA, JA and ET, and secondary metabolites, such as camalexin), which explains its high resistance to Pseudomonas syringae and PcBMM. Epistatic studies suggest that SGB10- mediated resistance is not dependent, but complementary to the regulated by AGB1. The sgb10 mutant is able to restore agb1-2 ROS production and other PTI responses (MAPK6/3/4/11 phosphorylation) upon treatment with PAMPs as diverse as, flg22, elf18 and chitin, demonstrating the relevant role of SGB10/MKP1 and AGB1 in PTI. sgb11 mutant is characterized by showing a similar phenotype to irregular xylem mutants (e.g. irx1), affected in secondary cell wall: irregular xylems cells, rosette size reduction and plant height, and higher chlorophyll content on leaves. The resistance of sgb11 to PcBMM is independent of agb1-2, as susceptibility of the double mutant agb1-2sgb11 is intermediate between agb1-2 and sgb11. The sgb11 mutant does not revert the deficient PTI response in agb1-2 after flg22 treatment, indicating that is altered in a pathway different to the one regulated by SGB10. sgb11 presents an over-activation of the abscisic acid pathway (ABA), which could explain its resistance to PcBMM. The sgb11 mutation has been mapped on chromosome III of Arabidopsis, between AthFUS6 (81.64 cM) and nga6 (86.41 cM) markers, in 200 kb interval, which does not include previously known IRX genes. The isolation and characterization of SGB11 supports the importance of heterotrimeric G protein in the regulation of the interconnection between the cell wall integrity and immunity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La educación y los entornos educativos están en constante evolución. Tanto alumnos como educadores cambian de hábitos, de maneras de aprender, de gustos, de dispositivos que manejan y de aplicaciones que usan regularmente entre otras cosas. Todos estos cambios vienen acompañados y fomentados en gran medida por la evolución paralela que experimenta la tecnología, tanto software en los programas utilizados, como hardware en los dispositivos y capacidades de éstos. La educación debe también adaptarse a estos cambios, tanto personales como tecnológicos y sacar el mayor provecho de ellos. El uso de Sistemas de Gestión del Aprendizaje está muy extendido en todos los centros educativos. Estos sistemas poseen un gran número de características y funcionalidades que permiten desde la aplicación de un modelo didáctico totalmente tradicional en el que el profesor imparte un contenido y los alumnos lo reciben a uno totalmente innovador en el que ocurren procesos totalmente diferentes. Por otro lado, el potencial que ofrecen los recursos multimedia no ha sido completamente aprovechado en la educación y supone una gran oportunidad. Esta tesis doctoral propone un conjunto de métodos y herramientas para la creación y el uso de recursos multimedia en la educación. Para ello el desarrollo de esta tesis parte de la definición de un modelo didáctico social, colaborativo y centrado en el alumno que servirá de hilo conductor y que integrará los diferentes y métodos y herramientas estudiados y desarrollados. En un primer paso se identifican varias herramientas y métodos para el aula, tales son la grabación de clases, donde se crea y posteriormente se mejora un carrito portátil de grabación que da muy buen resultado, las herramientas de grabación de screencast y la videoconferencia. Estas herramientas además se integran en una plataforma colaborativa dando lugar a una arquitectura completa y escalable que permite la realización de dichas actividades y la interconexión sencilla con el Sistema de Gestión del Aprendizaje. A continuación y ya en un entorno totalmente online se desarrolla una nueva plataforma de e-learning llamada Virtual Science Hub (ViSH) que consta de cuatro funcionalidades principales, red social, videoconferencia, repositorio educativo y herramienta de autor. En esta plataforma se aplicaron técnicas de recomendación proactiva tanto de recursos educativos como de otros usuarios similares. Por último se validó el modelo educativo completo usando algunas de las herramientas identificadas y desarrolladas en dos escenarios diferentes con gran éxito. Finalmente, esta tesis discute las conclusiones obtenidas a lo largo de la extensa investigación llevada a cabo y que ha propiciado la consecución de una buena base teórica y práctica para la creación de herramientas y métodos para la generación y el uso de recursos multimedia en la educación. ABSTRACT Education and learning environments are constantly evolving. Students and educators change the things their habits, their ways of learning, the things they like or the devices and applications that they use regularly among other things. All these changes are accompanied and fostered by the parallel evolution that technology experiences, both in the software programs used as in the hardware and capabilities of these devices. Education must also adapt to these changes, both personal and technological and get the most out of them. Learning Management Systems are widely used in all educational centers. These systems have a large number of features and functionalities. They allow from the implementation of a traditional teaching model in which the teacher gives content and students receive it to one absolutely innovative teaching model where totally different processes occur. Furthermore, the potential of multimedia resources has not been fully exploited in education and can be a great opportunity. This thesis proposes a set of methods and tools for the creation and use of multimedia in education. The development of this thesis starts with the definition of a social, collaborative and learner-centered model, that serves as a common thread and that integrates different tools and methods studied and developed. In a first step, several tools and methods for the classroom are identified, such as recording, where a portable kit is created and then improved giving very good results, screencast recording and videoconferencing. These tools also are integrated into a collaborative platform resulting in a complete, scalable architecture that enables the execution of such activities and a simple interconnection with the Learning Management System. In an fully online environment a new e-learning platform called Virtual Science Hub (ViSH) is created. It consists of four main features that combine and complement each other, social network, videoconferencing, educational repository and authoring tool. In this platform proactive recommendation of both educational resources and similar users is applied. In a last step the entire educational model using some of the tools identified and developed is successfully validated in two different scenarios. Finally, this thesis discusses the findings obtained during the extensive research carried out and has led to the achievement of a good theoretical and practical basis for the development of tools and methods for the generation and use of multimedia in education.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Son muchos los dominios de aplicación que han surgido en los últimos años con motivo de los avances tecnológicos. Algunos como eHealth, Smart Building o Smart Grid están teniendo una gran aceptación por parte de empresas que incrementan sus inversiones en este tipo de campos. Las redes inalámbricas de sensores y actuadores juegan un papel fundamental en el desarrollo de este tipo de aplicaciones. A través de este tipo de redes inalámbricas es posible monitorizar y actuar sobre un entorno gracias a nodos sensores y actuadores de forma cómoda y sencilla. Las WSANs (Wireless Sensors and Actuators Networks) junto con la robótica y M2M (Machine-to-Machine) están forjando el camino hacia el Internet of Things (IoT), un futuro en el que todo esté conectado entre sí. Cada vez aparecen dispositivos más pequeños y autónomos, que junto con el crecimiento de las redes, propician la interconexión de “el todo”. Este Proyecto Fin de Carrera tiene como objetivo contribuir en este avance, desarrollando parcialmente una solución middleware que abstraiga al usuario de la complejidad del hardware, implementando ciertas funcionalidades ofrecidas por el middleware nSOM desarrollado por la UPM. Para conseguir este objetivo se realizará un estudio del Estado del Arte actual y una comparativa de las diferentes plataformas hardware involucradas en las Redes Inalámbricas de Sensores y Actuadores (Wireless Sensor-Actuator Networks). Este estudio tendrá como fin la elección de una de las plataformas hardware para su futuro uso en un despliegue parcial del mencionado middleware nSOM. Posteriormente, se diseñará e implementará un sistema para ejemplificar un caso de uso sobre dicha plataforma integrando la publicación de las características y servicios de cada nodo final y el envío de peticiones y la recepción de respuestas. Finalmente se obtendrá un conjunto de conclusiones a partir de los resultados obtenidos y se detallarán posibles líneas de trabajo. ABSTRACT. There are many applications domains that have arisen because of technological advances in recent years. Some as eHealth, Smart Building or Smart Grid are having a great acceptance by companies that increase their investments in such fields. Wireless sensors and actuators networks play a fundamental role in the development of such applications. By means of this kind of wireless network it is possible to monitor and act upon an environment with the assistance of sensors and actuators nodes, readily. The WSANs (Wireless Sensors and Actuators Networks) together with robotics and M2M (Machine-to-Machine) are forging the way towards the Internet of Things (IoT), a future in which all of them are connected among themselves. Smaller and more autonomous devices are appearing that, along with the growth of networks, foster the interconnection of ‘the whole’. This Degree Final Project aims to contribute to this breakthrough, developing partially a middleware solution that abstracts the user from the complexity of hardware, implementing certain functionalities offered by the nSOM middleware solution carried out by UPM. To achieve this objective a study of the current state of the art and a comparison of the different hardware platforms involved in the Wireless and Actuators Sensor Networks (Wireless Sensor-Actuator Networks) will be performed. This study will aim the election of one of the hardware platforms for its future use in a partial deployment of the mentioned middleware nSOM. Subsequently, a system will be designed and implemented to exemplify a use case on the platform mentioned before integrating the publication of the features and services of each end node and sending requests and receiving responses. Finally a set of conclusions from the results will be stated and possible lines of future works will be detailed.