999 resultados para Acero de alta velocidad
Resumo:
Este proyecto recoge las actuaciones destinadas al Acondicionamiento y Mejora de la linea de alta velocidad Madrid-Zaragoza. En concreto, la actuación que se proyecta corresponde al tramo comprendido entre las proximidades a la localidad de Terrer y la Estación de Calatayud. La línea de alta velocidad Madrid-Zaragoza en la actualidad no alcanza los 300 km/h, manteniéndose en repetidos intervalos por debajo de los 250 km/h. Hoy en día parece estar confirmado que para que los trenes de Alta Velocidad circulen a la velocidad de diseño de 350 km/h hay que sustituir la vía en balasto por vía hormigonada o vía en placa. Según lo publicado en el BOE del 24 de Julio de 2006, pag. 27705, “En España, en ensayos dinámicos de alta velocidad realizados con los trenes de la serie 102, suministrados por el consorcio TALGO-Bombardier, a velocidades superiores a 280 Km/h y específicamente por encima de los 300/320 km/h, se ha comprobado que se produce levantamiento de balasto. Este fenómeno origina daños de diversa consideración en los bajos y laterales del tren, especialmente en su mitad trasera en el sentido de la marcha. También puede obligar al torneado de las ruedas.” La denominada vía en placa o vía sin balasto es una tecnología utilizada en la superestructura ferroviaria en distintos ámbitos, tanto en metropolitanos urbanos, donde sus especiales características hacen optima su utilización, como en alta velocidad en países como Japón (de forma generalizada) o Alemania (línea Colonia-Franckfurt). Pero la vía en placa no puede montarse en los trazados actuales tal y como se han ido construyendo, pues no aguanta los grandes terraplenes y pedraplenes que se han diseñado. Otro de los aspectos que justifican el presente proyecto es la necesidad de disminución en los costes de mantenimiento derivados de la vía sobre balasto, que se reducirian drasticamente con la instauracion del sistema de via hormigonada. Además, el corredor de AV Madrid-Zaragoza-Barcelona-Frontera francesa enlaza desde 2008 las dos grandes urbes españolas y conectara en un futuro próximo con Francia. Desde su puesta en servicio hasta Barcelona ha sido utilizada por mas de 17 millones de viajeros. La tendencia es creciente y se preve que sea necesario en un futuro un aumento de la capacidad, que inevitablemente iría ligada a un aumento de la velocidad comercial de la línea. Otro factor importante en la realización de este proyecto seria su diseño para trafico mixto de viajeros y de mercancias (ya esta diseñado para trafico mixto el tramo entre el Puerto de Barcelona y la conexion con Francia) lo que supone la posibilidad de establecer nuevos servicios con destino o procedencia en los centros intermodales de Francia y otros países europeos, además del fomento de trafico de mercancias por ferrocarril, con todas las ventajas que esto acarrearia. Las actuaciones previstas consisten en un cambio de la seccion a via en placa con el fin de aumentar la velocidad de circulacion hasta los 350 km/h. Esto conlleva un nuevo diseno del trazado adecuado para la construccion de via en placa, asi como para la circulacion de trafico mixto. La actuacion desarrollada en este Proyecto de Construccion corresponde al tramo comprendido entre el Rio Piedra, situado entre los P.K. 206 y 207 de la linea actual y la Estacion de Calatayud, próxima al el P.K. 221 de la línea actual.
Resumo:
El objeto del proyecto consiste en analizar con el suficiente grado de detalle y precisión, las soluciones para la mejora del trazado de la línea de alta velocidad entre las localidades de Sabiñán y Ricla, seleccionando la alternativa más ventajosa para su desarrollo en estudios posteriores. Los objetivos planteados fueron reducir en gran medida los tiempos actuales de recorrido entre Madrid y Barcelona, aumentando la velocidad de los trenes hasta los 400 km/h, y la adecuación del trazado para el tráfico de trenes de mercancías. Con ello se busca como objetivo final el aumento de la participación del ferrocarril en la demanda global del transporte. El Estudio Informativo se ocupa de las definiciones necesarias tanto técnicas y ambientales, como presupuestarias teniendo siempre presente los puntos de vista funcionales de la red, de explotación, de ordenación del territorio, de coste y de máximo respeto al entorno medioambiental. Para ello, como parte fundamental del Estudio Informativo, se incluyó el correspondiente Estudio de Impacto Ambiental. En el estudio se analizó el territorio con el objeto de conocer sus características y particularidades, ello sumado al conocimiento del medio en el que se ha de actuar, permite relacionar y describir los principales efectos previstos por la implantación de la nueva infraestructura.
Resumo:
La vía tradicional sobre balasto sigue siendo una selección para las líneas de alta velocidad a pesar de los problemas técnicos y la prestación del funcionamiento. El problema de la vía sobre balasto es el proceso continuo del deterioro de éste debido a las cargas asociadas al tráfico ferroviario. En consecuencia es imprescindible un mantenimiento continuado para mantener un alineamiento adecuado de la vía. Por eso se surge la necesidad de comprender mejor el mecanismo involucrado en el deterioro de la vía y los factores claves que rigen su progresión a lo largo de ciclos de carga con el fin de reducir los costos del mantenimiento de la vía y mejorar el diseño de las nuevas vías. La presente tesis intenta por un lado desarrollar los modelos más adecuados y eficientes del vehículo y de la vía para los cálculos de los efectos dinámicos debido al tráfico de ferrocarril sobre la infraestructura de la vía sobre balasto, y por otro evaluar estos efectos dinámicos sobre el deterioro de la vía sobre balasto a largo plazo, empleando un adecuado modelo de predicción del deterioro de la misma. Se incluye en el trabajo una recopilación del estado del arte en lo referente a la dinámica de la vía, a la modelización del vehículo, de la vía y de la interacción entre ambos. También se hace un repaso al deterioro de la vía y los factores que influyen en su proceso. Para la primera línea de investigación de esta tesis, se han desarrollado los diferentes modelos del vehículo y de la vía y la modelización de la interacción entre ambos para los cálculos dinámicos en dos y tres dimensiones. En la interacción vehículo-vía, se ha empleado la formulación de contacto nodo-superficie para establecer la identificación de las superficies en contacto y el método de los multiplicadores de Lagrange para imponer las restricciones de contacto. El modelo de interacción se ha contrastado con los casos reportados en la literatura. Teniendo en cuenta el contacto no lineal entre rueda-carril y los perfiles de irregularidades distribuidas de la vía, se han evaluado y comparado los efectos dinámicos sobre el sistema vehículo-vía en la interacción de ambos, para distintas velocidades de circulación del vehículo, en los aspectos como la vibración del vehículo, fuerza de contacto, fuerza transmitida en los railpads, la vibración del carril. También se hace un estudio de la influencia de las propiedades de los componentes de la vía en la respuesta dinámica del sistema vehículo-vía. Se ha desarrollado el modelo del asiento de la vía que consiste en la implementación del modelo de acumulación de Bochum y del modelo de hipoplasticidad en la subrutina del usuario \UMAT" del programa ABAQUS. La implementación numérica ha sido comprobado al comparar los resultados de las simulaciones numéricas con los reportados en la literatura. Se ha evaluado la calidad geométrica de la vía sobre balasto de los tramos de estudio con datos reales de la auscultación proporcionados por ADIF (2012). Se ha propuesto una metodología de simulación, empleando el modelo de asiento, para reproducir el deterioro de la geometría de la vía. Se usan los perfiles de la nivelación longitudinal de la auscultación como perfiles de irregularidades iniciales de la vía en las simulaciones numéricas. También se evalúa la influencia de la velocidad de circulación sobre el deterioro de la vía. The traditional ballast track structures are still being used in high speed railways lines with success, however technical problems or performance features have led to ballast track solution in some cases. The considerable maintenance work is needed for ballasted tracks due to the track deterioration. Therefore it is very important to understand the mechanism of track deterioration and to predict the track settlement or track irregularity growth rate in order to reduce track maintenance costs and enable new track structures to be designed. This thesis attempts to develop the most adequate and efficient models for calculation of dynamic track load effects on railways track infrastructure, and to evaluate these dynamic effects on the track settlement, using a track settlement prediction model, which consists of the vehicle/track dynamic model previously selected and a track settlement law. A revision of the state of the knowledge regarding the track dynamics, the modelling of the vehicle, the track and the interaction between them is included. An overview related to the track deterioration and the factors influencing the track settlement is also done. For the first research of this thesis, the different models of vehicle, track and the modelling of the interaction between both have been developed. In the vehicle-track interaction, the node-surface contact formulation to establish the identification of the surfaces in contact and the Lagrange multipliers method to enforce contact constraint are used. The interaction model has been verified by contrast with some benchmarks reported in the literature. Considering the nonlinear contact between wheel-rail and the track irregularities, the dynamic effects on the vehicle-track system have been evaluated and compared, for different speeds of the vehicle, in aspects as vehicle vibration, contact force, force transmitted in railpads, rail vibration. A study of the influence of the properties of the track components on the the dynamic response of the vehicle-track system has been done. The track settlement model is developed that consist of the Bochum accumulation model and the hipoplasticity model in the user subroutine \UMAT" of the program ABAQUS. The numerical implementation has been verified by comparing the numerical results with those reported in the literature. The geometric quality of the ballast track has been evaluated with real data of auscultation provided by ADIF (2012). The simulation methodology has been proposed, using the settlement model for the ballast material, to reproduce the deterioration of the track geometry. The profiles of the longitudinal level of the auscultation is used as initial profiles of the track irregularities in the numerical simulation. The influence of the running speed on the track deterioration is also investigated.
Resumo:
El objetivo del presente Proyecto de Construcción es la mejora del trazado de la Línea de Alta Velocidad Madrid-Zaragoza-Barcelona-Frontera Francesa, permitiendo el tráfico de pasajeros a una velocidad máxima de 350 km/h y el tráfico de mercancías a una velocidad mínima de 80 km/h. El presente Proyecto de Construcción se justifica a partir de las siguientes consideraciones: - Permite el aprovechamiento de la línea para el tráfico mixto (pasajeros y mercancías). - Aumenta las velocidades de circulación de los trenes de pasajeros hasta los 350 km/h. - Supone un punto de partida para la disminución de la congestión por el tráfico de mercancías por carretera. - Recoge la sensibilidad ambiental derivada de la Legislación Europea y la aplica tanto a la construcción de la Línea como a su justificación: reducción de emisiones, al pasar a un modo de transporte de mercancías más ecológico (de transporte por carretera a ferrocarril).
Resumo:
En las últimas décadas el aumento de la velocidad y la disminución del peso de los vehículos ferroviarios de alta velocidad ha provocado que aumente su riesgo de vuelco. Además, las exigencias de los trazados de las líneas exige en ocasiones la construcción de viaductos muy altos situados en zonas expuestas a fuertes vientos. Esta combinación puede poner en peligro la seguridad de la circulación. En esta tesis doctoral se estudian los efectos dinámicos que aparecen en los vehículos ferroviarios cuando circulan sobre viaductos en presencia de vientos transversales. Para ello se han desarrollado e implementado una serie de modelos numéricos que permiten estudiar estos efectos de una forma realista y general. Los modelos desarrollados permiten analizar la interacción dinámica tridimensional tren-estructura, formulada mediante coordenadas absolutas en un sistema de referencia inercial, en un contexto de elementos _nitos no lineales. Mediante estos modelos se pueden estudiar de forma realista casos extremos como el vuelco o descarrilamiento de los vehículos. Han sido implementados en Abaqus, utilizando sus capacidades para resolver sistemas multi-cuerpo para el vehículo y elementos finitos para la estructura. La interacción entre el vehículo y la estructura se establece a través del contacto entre rueda y carril. Para ello, se han desarrollado una restricción, que permite establecer la relación cinemática entre el eje ferroviario y la vía, teniendo en cuenta los posibles defectos geométricos de la vía; y un modelo de contacto rueda-carril para establecer la interacción entre el vehículo y la estructura. Las principales características del modelo de contacto son: considera la geometría real de ambos cuerpos de forma tridimensional; permite resolver situaciones en las que el contacto entre rueda y carril se da en más de una zona a la vez; y permite utilizar distintas formulaciones para el cálculo de la tensión tangencial entre ambos cuerpos. Además, se ha desarrollado una metodología para determinar, a partir de formulaciones estocásticas, las historias temporales de cargas aerodinámicas debidas al viento turbulento en estructuras grandes y con pilas altas y flexibles. Esta metodología tiene cuenta la variabilidad espacial de la velocidad de viento, considerando la correlación entre los distintos puntos; considera las componentes de la velocidad del viento en tres dimensiones; y permite el cálculo de la velocidad de viento incidente sobre los vehículos que atraviesan la estructura. La metodología desarrollada en este trabajo ha sido implementada, validada y se ha aplicado a un caso concreto en el que se ha estudiado la respuesta de un tren de alta velocidad, similar al Siemens Velaro, circulando sobre el viaducto del río Ulla en presencia viento cruzado. En este estudio se ha analizado la seguridad y el confort de la circulación y la respuesta dinámica de la estructura cuando el tren cruza el viaducto. During the last decades the increase of the speed and the reduction of the weight of high-speed railway vehicles has led to a rise of the overturn risk. In addition, the design requests of the railway lines require some times the construction of very tall viaducts in strong wind areas. This combination may endanger the traffic safety. In this doctoral thesis the dynamic effects that appear in the railway vehicles when crossing viaducts under strong winds are studied. For this purpose it has been developed and implemented numerical models for studying these effects in a realistic and general way. The developed models allow to analyze the train-structure three-dimensional dynamic interaction, that is formulated by using absolute coordinates in an inertial reference frame within a non-linear finite element framework. By means of these models it is possible to study in a realistic way extreme situations such vehicle overturn or derailment. They have been implemented for Abaqus, by using its capabilities for solving multi-body systems for the vehicle and finite elements for the structure. The interaction between the vehicle and the structure is established through the wheel-rail contact. For this purpose, a constraint has been developed. It allows to establish the kinematic relationship between the railway wheelset and the track, taking into account the track irregularities. In addition, a wheel-rail contact model for establishing the interaction of the vehicle and the structure has been developed. The main features of the contact model are: it considers the real geometry During the last decades the increase of the speed and the reduction of the weight of high-peed railway vehicles has led to a rise of the overturn risk. In addition, the design requests of the railway lines require some times the construction of very tall viaducts in strong wind areas. This combination may endanger the traffic safety. In this doctoral thesis the dynamic effects that appear in the railway vehicles when crossing viaducts under strong winds are studied. For this purpose it has been developed and implemented numerical models for studying these effects in a realistic and general way. The developed models allow to analyze the train-structure three-dimensional dynamic interaction, that is formulated by using absolute coordinates in an inertial reference frame within a non-linear finite element framework. By means of these models it is possible to study in a realistic way extreme situations such vehicle overturn or derailment. They have been implemented for Abaqus, by using its capabilities for solving multi-body systems for the vehicle and finite elements for the structure. The interaction between the vehicle and the structure is established through the wheel-rail contact. For this purpose, a constraint has been developed. It allows to establish the kinematic relationship between the railway wheelset and the track, taking into account the track irregularities. In addition, a wheel-rail contact model for establishing the interaction of the vehicle and the structure has been developed. The main features of the contact model are: it considers the real geometry
Resumo:
Los intercambiadores de transporte son pieza clave en la movilidad, en particular cuando se combinan viajes de larga distancia con los de acceso y dispersión. La buena conexión entre ambas partes de un viaje de larga distancia pueden hacer más o menos competitivas las alternativas de transporte público. En el proyecto HERMES del 7 PM de la UE, se ha analizado la eficiencia de varios intercambiadores de transporte. La primera parte del proyecto se centra en analizar la visión de diferentes stakeholders en el diseño, gestión y elementos del intercambiador. Por otra parte, se ha realizado una encuesta a viajeros en los intercambiadores de autobús y ferrocarril, permitiendo identificar la percepción de los usuarios sobre los elementos del intercambiador, así como sus pautas de movilidad de acceso y dispersión, en función de los servicios de transporte utilizados. Se han analizado qué elementos funcionales del intercambiador son más valorados, cuáles son los sistemas de información clave y qué otros servicios se demandan. Por otra parte, se han encontrado relaciones significativas entre algunas variables del viaje y de tipo socioeconómico, como modo principal con el de acceso y dispersión, modo con motivo de viaje y nivel de renta, etc. Se concluye que los intercambiadores deben tener un diseño específico dependiendo del tipo de usuario; así los viajeros del tren de alta velocidad valoran en primer lugar el tiempo de viaje y conexión, mientras que los de autobús valoran sobre todo los precios reducidos. La edad y ocupación de los usuarios también cambia. Los primeros realizan en su mayoría viajes de negocio y tienen una edad media superior a los 40 años, mientras que los de autobús viajan por motivos personales y son más jóvenes.
Resumo:
Revisión y puesta al día de la publicaciones relacionadas con el diseño de puentes de ferrocarril de alta velocidad y nuevas investigaciones sobre dinámica lateral.
Resumo:
En los últimos años, la investigación se ha preocupado crecientemente sobre la anticipación visual de los deportistas en deportes de intercepción (e.g.,Van der Kamp, Rivas, Van Doorn y Savelsbergh, 2008). Estos trabajos han mostrado de forma consistente que el rendimiento de los deportistas está regulado por tres factores que interactúan. El primero, la estructura y la dinámica de la tarea estipulan los márgenes espaciales y temporales en los que actuar (e.g., Vilar, Araújo, Davids, Correia y Esteves, 2012). También, cómo los deportistas extraen y utilizan la información disponible del entorno sobre la que guiar su conducta (e.g., Savelsbergh, Williams, Van der Kamp y Ward, 2002). Y el tercero se refiere a su anticipación y tiempos de movimiento (e.g., Dicks, Davids y Button, 2010b). El objetivo del estudio fue evaluar la evolución de las estrategias visuales y motrices cuando se manipulan las demandas espacio-temporales así como la fiabilidad de la información. Para ello, se examinaron doce porteros expertos de fútbol sala in situ mientras recibían tiros de penalti en cuatro condiciones que diferían en cuanto a distancia de disparo (penaltis desde 6 m vs. dobles penaltis desde 10m) y a la estrategia de engaño del oponente (tiros normales vs. tiros conengaño). Se grabó el rendimiento y sus tiempos de movimiento utilizando una cámara de alta velocidad (120fps) y se registró su mirada mientras intentaban interceptar los disparos empleando el sistema portátil de seguimiento de la mirada ASL MobileEye. Se analizaron las medidas derivadas de los análisis de los vídeos a través de una prueba de ANOVA (Friedman o Medidas Repetidas) y se hizo un análisis discriminante para extraer las variables del rendimiento: gol vs. parada. Los porteros pararon más tiros (61% vs. 23%), obtuvieron valores de rendimiento más altos ( 4.1 vs. 2.1 sobre 5), y acertaron el lado más frecuentemente (97% vs. 53%) en los tiros de dobles penaltis comparado con los tiros de penalti. El engaño tuvo un efecto nulo en el rendimiento de los porteros, excepto para el número de correcciones entre dobles penaltis, donde corrigieron su movimiento inicial de parada hacia el otro lado en un 23% de los tiros con engaño por un 12% en los tiros normales. Los participantes iniciaron su acción de parada antes en los penaltis comparado con los dobles penalti, no encontrándose ningún efecto de la estrategia de engaño en los tiempos de movimiento. Esas diferencias entre distancias fueron notables en las medidas del tronco y de los pies (339 y 330 ms respectivamente), los cuales pasaron de valores negativos(movimiento antes del golpeo) en los penaltis, a valores positivos (movimiento después del golpeo) en los dobles penaltis. Sin embargo, los tiempos de los brazos se mantuvieron cercanos a los 200 ms en ambos tiros de penaltis y de dobles penaltis (23 ms de diferencia media). El análisis de los patrones visuales reveló una remarcable variabilidad, tanto entre participantes como intra participantes, aunque emergió un patrón general. Los porteros tendieron a mirar hacia el cuerpo del tirador (sobre todo la cabeza) durante el comienzo de la carrera de aproximación y después, según avanzaba el jugador hacia el balón apartaban su mirada del jugador y la dirigían hacia el balón (o zona entre el balón y la pierna de apoyo). Los porteros miraron durante más tiempo al cuerpo y cambiaron de foco hacia el balón más tarde en los tiros de penalti con respecto a los tiros de doble penal ti. Así pues, este cambio de foco visual corporal hacia el balón pareció estar relacionado con los determinantes espacio-temporales (i.e., 6 vs. 10 m] más que con las estrategias de engaño del tirador o con el tiempo de inicio de los participantes. Tanto los tiros de penalti (6 m] como los de doble penalti (10 m) fueron menos veloces en los tiros con engaño en comparación con los tiros normales .. El análisis discriminante encontró que la distancia horizontal al centro (balón situado más cerca del portero) fue crucial para parar el doble penalti, siendo menos importante para el caso de los penaltis; viceversa sucedió con el tiempo de visión en los primeros momentos de vuelo del balón, resultando más predictivo de la parada en el caso de los penaltis que el de los dobles penaltis. Los resultados sugieren el uso de diferentes estrategias viso-motoras en función de la distancia de disparo. En los tiros de doble penalti (desde 10 m], los participantes esperaron a ver la información del balón (obteniendo información del golpeo y del vuelo) para coordinar sus acciones en función de esa información más fiable (Diaz, Fajen y Phillips, 2012). Así, comenzaron su acción de parada sobre los 200 ms después del golpeo, lo que les permitió moverse de forma constante hacia el mismo lado del balón, pero les dejó sin tiempo suficiente para alcanzar el balón en los casos en los que éste fue relativamente ajustado al palo. Por el contrario, en los tiros de penalti [desde 6 m], los porteros generalmente empezaron a moverse antes del golpeo, para aumentar su margen temporal de acción y así aumentar sus opciones de llegar a los balones escorados(en caso de haber acertado el lado). Esto les obligó a basar sus acciones en información temprana menos predictiva [más tiempo de visión en el cuerpo y cambio de foco más tardío) lo que les provocó un detrimento en el rendimiento. Por ejemplo, en los tiros de penalti los porteros acertaron el lado en sólo en la mitad de los casos. Así, en los penaltis los porteros se movieron hacia nno de los lados (i.e., derecha o izquierda) independientemente de la dirección final de tiro, mientras que en los dobles se encontró una relación de dependencia entre la trayectoria de los tiros y la dirección de la acción de parada (Kuhn, 1988). Por otra parte, los tiempos de inicio del movimiento del tronco y de los pies en los dobles fueron relativamente similares, mientras que en los tiros de penalti la diferencia entre participantes aumentó. Esto podría indicar que la variabilidad en el tiempo de inicio de la parada entre participantes podría verse influenciada por las demandas espacio-temporales. Por último, las intenciones de engaño de los tiradores afectaron su capacidad de tiro (más despacio) pero no provocaron ningún efecto observable en el rendimiento, tiempo de movimiento o patrones visuales de los porteros. La presentación aleatoria de los tiros en cuanto a estrategia podría haber impedido que los porteros establecieran relaciones entre las variables ópticas tempranas (i.e., información del cuerpo del tirador) y la dirección final de tiro (pero ver Dicks, Button y Davids, 2010a).
Resumo:
El alcornoque tiene un gran valor ambiental, como integrante de los ecosistemas forestales mediterráneos, e interés comercial por el valor de la bellota (alimentación del cerdo ibérico), el carbón, la madera y sobre todo por las aplicaciones industriales del corcho. Las posibilidades de mejora genética del alcornoque, como las de otras especies forestales, están limitadas por sus largos ciclos reproductivos y porque su propagación vegetativa mediante estaquillado solo es posible en estados muy juveniles. Por ello este sistema de propagación tiene muy poca, o ninguna, utilidad práctica en la mejora genética. La embriogénesis somática es la vía más apropiada para la clonación de muchas especies forestales y ha hecho posible el desarrollo a gran escala de plantaciones multivarietales de coníferas. En alcornoque es posible la regeneración completa de árboles adultos mediante embriogénesis somática. Con los protocolos actuales (en medio semisólido), los embriones se generan formando acúmulos y en la fase de multiplicación conviven embriones en distintos estados de desarrollo. Es un sistema asincrónico, con baja eficacia para la propagación en masa, que no elimina completamente las dificultades para el desarrollo de programas de mejora genética del alcornoque. En otras especies la utilización de medios líquidos ha mejorado: la sincronización, productividad de los cultivos, el manejo y reducido los costes de producción. Por ello el desarrollo de suspensiones embriogénicas de alcornoque se plantea como una vía para aumentar la eficacia de la propagación clonal a gran escala. En la presente tesis se desarrollan cultivos embriogénicos de alcornoque en medio líquido. El capítulo 3 aborda el establecimiento y mantenimiento de suspensiones, el capítulo 4 el desarrollo de una fase de proliferación en medio líquido y el capítulo 5 la utilización de sistemas de cultivo en medio líquido, estacionarios y de inmersión temporal, como vía para favorecer la maduración de los embriones somáticos. Para iniciar los cultivos en medio líquido se emplearon agregados de embriones tomados de la fase de proliferación en medio semisólido. Cuando estos agregados se inocularon directamente en medio líquido no se logró el establecimiento de las suspensiones. El establecimiento se consiguió empleando como inóculo las células y Resumen pequeños agregados embriogénicos, de tamaño comprendido entre 41 y 800 μm, desprendidas por agitación breve de los agregados de embriones. El mantenimiento se logró inoculando en baja densidad masas embriogénicas compactas de tamaño comprendido entre 0,8 y 1,2 mm. Estas suspensiones, muy heterogéneas, mantuvieron su capacidad de proliferación y de regeneración de embriones al menos durante diez subcultivos consecutivos. El protocolo de iniciación y mantenimiento, desarrollado inicialmente con un solo genotipo, fue eficaz cuando se probó sobre otros 11 genotipos de alcornoque. En la fase de proliferación se ensayaron tres tipos de envase y tres velocidades de agitación. La combinación envase × velocidad determinó el intercambio gaseoso, la disponibilidad de oxígeno y el estrés hidrodinámico. Los agregados embriogénicos de alcornoque crecieron incluso en condiciones de hipoxia no siendo la disponibilidad de oxígeno un factor limitante del crecimiento para tasas de trasferencia de oxígeno comprendidas entre 0,11 h-1 y 1,47 h-1. Por otra parte la producción de biomasa creció con el estrés hidrodinámico para valores de índice de cizalladura inferiores a 5 x 10-3 cm min-1. La mayor producción de biomasa se obtuvo con matraces Erlenmeyer de 100 ml y alta velocidad de agitación (160 rpm) mientras que la diferenciación de embriones se vio favorecida por bajas velocidades de agitación (60 rpm) asociadas con bajas disponibilidades de oxígeno. La posibilidad de madurar embriones de alcornoque en medio líquido se estudió utilizando sistemas de inmersión permanente y sistemas de inmersión temporal. En inmersión permanente no se diferenciaron embriones cotiledonares (posiblemente por hiperhidricidad). Los sistemas de inmersión temporal permitieron obtener embriones maduros en estado cotiledonar y capaces de regenerar plantas in vitro. Concentraciones de sacarosa superiores a 60 g l-1 y frecuencias de inmersión iguales o inferiores a una diaria, tuvieron efectos negativos para el desarrollo de los embriones somáticos. En los sistemas de inmersión temporal los parámetros físico-químicos del medio de cultivo se mantuvieron estables y no se observó ninguna limitación de nutrientes. No obstante, estos sistemas se vieron afectados por la evaporación que generó el flujo de aire necesario para desplazar el líquido en cada periodo de inmersión. Abstract ABSTRACT Cork oak is one of the most important tree species of the Mediterranean ecosystem. Besides its high environmental value has a great economic interest due to the sustainable production of acorns (to feed the Iberian pig) charcoal, timber and cork, which is a renewable natural product with various technological applications. As happens with other forest species, cork oak genetic improvement programs are limited by their long life cycles and because vegetative propagation by cuttings it´s only possible in very juvenile plants. Hence this propagation system is useless or has little practical use for breeding cork oak. Plant regeneration by somatic embryogenesis is the most suitable way for cloning many forest species, and it is the enabling technology which has allowed the establishment of large-scale conifer multi-varietal plantations. Clonal plant regeneration of mature cork oak trees can be achieved through somatic embryogenesis. Somatic embryos at different stages of development and forming clusters are produced during the multiplication phase with current protocols (using semisolid medium). This is an asynchronous low-efficient process not suitable for mass propagation, and therefore it does not solve the difficulties presented by cork oak breeding programs. Culture in liquid medium has been used with other species to improve: synchronization, yield, handling, and to reduce production costs. Thus the development of cork oak embryogenic suspension cultures is envisaged as a way to increase the efficiency of large scale clonal propagation. The thesis herein develops cork oak embryogenic cultures in liquid medium. In chapter 3 establishment and maintenance of suspension cultures are developed, chapter 4 studies proliferation phase in liquid medium and chapter 5 considers the use of different systems of culture in liquid medium, both stationary and temporary immersion, as a way to promote somatic embryos maturation. Clusters of embryos taken from proliferating cultures on semisolid medium were used to initiate the cultures in liquid medium. When these clusters were inoculated directly in liquid medium establishment of suspension cultures was not executed. However using, as initial inoculum, cells and cell aggregates with a size between 41 and 800 μm detached from these clusters of embryos, subjected to a brief shaking, suspension cultures could be established. Suspension maintenance was achieved by inoculating compact embryogenic Abstract clumps with a size between 0.8 and 1.2 mm at low density. The suspension cultures, very heterogeneous, retained both their proliferation and embryo regeneration capacity for at least ten consecutive subcultures. The initiation and maintenance protocol, initially developed with a single genotype, was effective when tested on 11 additional genotypes of cork oak. In proliferation phase three types of vessels and three different levels of agitation were assayed. The combination vessel × orbiting speed determined gas exchange, oxygen availability and hydrodynamic stress. Cork oak embryogenic aggregates grew even under hypoxia conditions; oxygen availability at transfer rates between 0.11 and 1.47 h-1 was not a limiting factor for growth. Furthermore the biomass production was increased with hydrodynamic stress when shear rate values were of less than 5 x 10-3 cm min-1. The highest biomass production was obtained with 100 ml Erlenmeyer flask and high stirring speed (160 rpm) while the differentiation of embryos was favored by low agitation speeds (60 rpm) associated with low oxygen availability. The possibility to mature cork oak somatic embryos in liquid medium was studied using both permanent immersion systems and temporary immersion systems. Cotyledonary embryos did not differentiate in permanent immersion conditions (probably due to hyperhydricity). Temporary immersion systems allowed obtaining mature cotyledonary embryos, which were able to regenerate plants in vitro. Sucrose concentrations above 60 g l-1 and immersion frequencies equal to or lower than one each 24 h had negative effects on somatic embryo development. Physicochemical parameters of the culture medium in temporary immersion systems were stable and showed no limitation of nutrients. However, these systems were affected by the evaporation generated by the airflow necessary to relocate the medium at each immersion period.
Resumo:
FTTH (fibra hasta el hogar) es actualmente, junto con la banda ancha móvil, la principal evolución tecnológica en Redes y Servicios de Telecomunicaciones. Se prevé que en los próximos años, el despliegue de las redes FTTH se vea incrementado de manera significativa, gracias al interés creciente tanto de Operadores de Telecomunicaciones como de Organismos Gubernamentales. Este despliegue (que en el año 2013 ya se está haciendo realidad) llevará servicios de muy alta velocidad (superiores a 100 Mbps, incluso 1 Gbps) de manera masiva a los hogares, exigiendo nuevos requisitos y prestaciones en la red del hogar de los clientes. Se abre aquí, por tanto, un campo de exploración novedoso, incipiente y de requerimientos cada vez más exigentes. De hecho, sin duda, la red del hogar es uno de los elementos fundamentales para el éxito de las redes y servicios en FTTH. Debido a todo lo anterior, se convierte en una necesidad para el sector de las Telecomunicaciones el encontrar soluciones a los problemas anteriormente mencionados. Con objeto de contribuir al análisis de soluciones, este proyecto se enfoca en dos temas, ambos relacionados con la problemática ya mencionada en la red del hogar: Prospección e identificación de soluciones tecnológicas avanzadas para la red del hogar. Descrito en capítulos 2, 3 y 4. En ellos se realiza un estudio detallado de la situación actual y tendencias futuras de los dispositivos utilizados en la red del hogar. Este estudio está enfocado en la distribución de señales de muy alto ancho de banda (en torno a los 100 Mbps por segundo) en el hogar. Diseño y desarrollo de una aplicación que permita determinar la calidad de experiencia de cliente (QoE) de un servicio de televisión IP (IPTV). Descrito en capítulos 5 y 6. Se ha seleccionado este tipo de servicios debido a que son los que requieren mayores prestaciones tanto de la red de transporte como de la red del hogar y, al mismo tiempo, son los más complicados de medir debido a la fuerte componente de subjetividad del usuario final. Una red del hogar correctamente diseñada debe cumplir de manera equilibrada los requisitos demandados tanto por el operador como por el cliente o usuario final del servicio. Los requisitos del operador se centran principalmente en el control de la inversión (CAPEX) y del gasto de mantenimiento de la red del hogar (OPEX). El usuario, por otra parte, requiere sencillez en la instalación y mínimo número de elementos a instalar (cero intrusismo, ausencia de cableado). Para adaptarse a estos requerimientos, existe una serie de dispositivos y tecnologías que buscan encontrar el punto de equilibrio entre necesidades de operadores y de clientes finales. Las soluciones actualmente utilizadas pueden dividirse en soluciones cableadas e inalámbricas. También existen soluciones híbridas. Todas ellas se describen en detalle en los capítulos 3 y 4. Al final del estudio se concluye que, con la tecnología actual, es preferible el uso de soluciones cableadas tipo Ethernet o POF. Es recomendable no usar soluciones PLC de manera extensiva (G.hn puede ser una alternativa a futuro) y, en caso de no requerir cableado, utilizar WiFi 11n con frecuencias de 5 GHz, así como sus evoluciones, WiFi 11ac y 11ad. La aplicación desarrollada, explicada en los capítulos 5 y 6, permite capturar y medir en tiempo real la señal de televisión IP que se entrega al usuario. Esta aplicación estimará, a partir de dichas medidas, la calidad de la señal entregada. Para ello tendrá en cuenta el tipo de descodificador utilizado por el usuario así como la red empleada (red FTTH de Telefónica). Esta aplicación podría ser utilizada en los centros de atención técnica de las operadoras de telecomunicaciones, determinando así la relación existente entre reclamaciones recibidas y calidad de servicio medida por la aplicación. Asimismo, aparte de realizar medidas en tiempo real, la aplicación vuelca las medidas realizadas y alarmas detectadas en ficheros log, facilitando el análisis técnico de los problemas e incidencias registrados por dichos centros técnicos. Igualmente, esta aplicación puede ser utilizada para el proceso de certificación de equipamiento de red del hogar o incluso como herramienta para profundizar en parámetros teóricos y criterios de medida de calidad de servicio en IPTV. ABSTRACT. FTTH (Fiber To The Home) and mobile broadband are currently the main technological trend in the Network and Telecommunications Services area. In the next few years, the deployment of FTTH networks will experiment a significant increase, due to the growing interest of both telecommunications operators and government agencies. This deployment (that is becoming a reality) which will massively carry high-speed services to households (speeds of more than 100 Mbps, even 1 Gbps) will demand new requirements and features in the customer’s home network. It can be found here a new and emerging field of exploration, with increasingly demanding requirements. In fact, the home network is one of the key elements for the success of FTTH network and services. Due to the aforementioned, it is a necessity for the telecommunications industry to find solutions to these problems. In order to contribute into the solution analysis, this project focuses on two subjects, both related to the problems of home networking: Exploratory research and identification of advanced technology solutions for the home network. Described in chapters 2, 3 and 4. These chapters show a detailed study of the current situation and future trends of the devices used at the home network. It focuses on the distribution of very high bandwidth signals (around 100 Mbps per second) in the customer’s home. Design and development of an application to evaluate customer’s quality of experience (QoE) of an IP television service (IPTV). Described in chapters 5 and 6. IPTV service has been selected because it requires higher performance both from the transport and the home networks and, at the same time, it is the most difficult to measure due to the strong component of subjectivity of the end user. A correct design of the home network must meet the requirements demanded both by the network operator and the customer (end user of the service). Network operator requirements mainly focus on reduced capital expenditures (CAPEX) and operational expenditures (OPEX). Additionally, the final user requires a simple and easy installation and also the minimum number of items to install (zero intrusion, lack of wiring, etc.). Different devices and technologies seek to find a balance between these two requirements (network operators and final users requirements). Solutions available in the market can be divided into wired and wireless. There are also hybrid solutions. All of them are described thoroughly in the first part of the project. The conclusion at the end of the study recommends the use of wired technologies like Ethernet or POF. Additionally, the use of PLC is not advised (G.hn can be an alternative in the future) and, in the case of not requiring wiring, the use of 11ac and 11ad WiFi is advised. The application developed in the second part of the project allows capturing and measuring the real-time IPTV signal delivered to the user. This application will estimate the delivered signal quality from the captured measurements. For this purpose, it will also consider the type of decoder installed on the customer’s premises and the transport network (Telefonica’s FTTH network). This application could be used at the operator’s technical service centres, determining in this way the relationship between user’s complaints and the quality of service measured. Additionally, this application can write all the measurements and alarms in log files, making easier the technical analysis of problems and impairments recorded by the technical centres. Finally, the application can also be used for the certification process of home networking equipment (i.e. decoders) or even as a tool to deepen theoretical parameters and measuring criteria of quality of service in IPTV.
Resumo:
En este capítulo se resume la evolución en los últimos 25 años de las infraestructuras relacionadas con presas, puertos, carreteras, ferrocarriles, aeropuertos y energía. En todos los casos se ha realizado previamente una presentación del contexto histórico hasta el último cuarto del siglo pasado. Debido a las limitaciones de espacio algunos temas como la infraestructura de investigación y desarrollo no han podido ser tratados. Las infraestructuras escogidas tienen en común su carácter movilizador de la actividad económica. En todas ellas la formación de técnicas se remonta a centros fundados en el siglo XIX aunque la organización de empresas competentes y poderosas debió esperar al siglo xx. La autarquía anterior a la llegada de la democracia explica la existencia o el tamaño de algunas de ellas así como su tímido desarrollo externo hacia países iberoamericanos o árabes que, sin embargo permitió ganar experiencia para empeños posteriores. A partir del régimen democrático y, especialmente tras la entrada en la Unión Europea, se experimenta una evolución técnica y una internacionalización decididamente apoyada por los sucesivos Gobiernos. Desde éstos no sólo se aplica un impulso político; también se plantean proyectos, se buscan fondos europeos, se establecen normativas coordinadas con la de la Unión, se crean o amplían grandes centros de investigación que se ponen en red con los europeos y se impulsa la participación en los programas de movilidad de investigadores jóvenes. En el ambiente universitario se favorecen las actividades de investigación y cooperación con la industria y también se apoya la incorporación de los centros a las redes de excelencia europeas. Las empresas por su parte son estimuladas a participar en el empeño internacional para lo que reorganizan su tamaño, se dotan de maquinaria adecuada y buscan una organización empresarial que les permita afrontar los nuevos retos tanto en cuanto a volumen de trabajo como a tecnificación. Esta última no viene dada tan sólo por el cambio de escala. Aparecen también nuevos materiales, nuevos desafíos, como la alta velocidad ferroviaria o las energías renovables, así como nuevas posibilidades para proyecto, construcción y explotación basadas en la informatización y control de procedimientos. Finalmente, frente a un enfoque a menudo puramente utilitario, surgen los nuevos paradigmas relacionados con la sostenibilidad del medio ambiente que han hecho variar numerosos conceptos en el proyecto de infraestructuras.
Resumo:
El objetivo de este proyecto es presentar un estudio acerca de la evolución a lo largo del tiempo de las diferentes tecnologías de acceso a la red que hacen uso de la planta instalada de par de cobre, llamadas tecnologías xDSL, y prestando especial interés a aquellas más ampliamente implantadas y aquellas que ofrecen velocidades de acceso mayores. El estudio hará un breve repaso a esta evolución desde la tecnología HDSL, la primera en utilizar el bucle de abonado para la transmisión de datos digitales, hasta las más utilizadas actualmente, como el ADSL2+ o el VDSL2. Además, se profundizará en el desarrollo de las tecnologías de acceso a la red de alta velocidad, principalmente asimétricas, haciendo un amplio estudio del funcionamiento de tecnologías desde el ADSL hasta el VDSL2. Se expondrán las diferencias entre todas ellas, atendiendo a las ventajas que cada una ofrece frente a las desarrolladas anteriormente, para lo que se tendrá en cuenta, principalmente, el uso cada vez más eficiente que se hace del espectro de frecuencias disponible, así como la velocidad máxima teórica que se podría alcanzar con cada una de ellas. Existen además, varias técnicas que permiten mejorar el rendimiento de la tecnología VDSL2, se repasaran brevemente, y se dedicará parte del estudio a aquella que permite agrupar varias líneas en una sola conexión, tecnología llamada bonding. Para complementar el estudio se realizarán una serie de simulaciones que permitan reflejar las mejoras que se van produciendo en las distintas tecnologías que se han ido desarrollando a lo largo del tiempo, observando para ello los diferentes puntos que se han tenido en cuenta en la parte teórica y haciendo hincapié en aquellas ventajas que más valorará el usuario final. Con un simulador de bucles de diferentes distancias, y un simulador e inyector de ruido, se simularán distintos escenarios en los que realizaran medidas de la velocidad de sincronismo obtenida utilizando tres tecnologías distintas, ADSL2+, VDSL2 y VDSL2 Bonding. Con los resultados obtenidos, se realizará una valoración de las condiciones en las que se obtienen mejores rendimientos con cada una de ellas. ABSTRACT. The goal of this Project is studying the historical evolution of different access technologies based on twisted pair, also known as xDSL access. I will focus on those technologies widely deployed and those that provide greater access speeds. I will begin with a historical approach, from HDSL, the first technology to use the copper pair to transmit digital data, to the most used nowadays, ADSL2+ and VDSL2. Later on, I will make a deep analysis of broadband access technologies, mainly asymmetric ones, from ADSL to VDSL2. I will explain the differences between them, paying special attention to their advantages in the face of the previous ones. To evaluate these leverages I will mainly consider the frequency spectrum efficiency and the maximum theoretical speed, both upstream and downstream. I will make a brief introduction to various techniques that improve VDSL2 performance. But I will take some more time to explain bonding, a technique that allows link some lines in a unique connection. To finish the project I will make a series of simulations that reflect the improvements achieved with each new technology, keeping in mind all those points reflected in the theoretical part of the project, and focusing on those advantages most valuable to the end user. I will analyze the obtained data to evaluate the best conditions for each technology. Those simulations will be made using a loop simulator and a noise injector to evaluate different scenarios, making rate measurements of three technologies, i.e. ADSL2+, VDSL2 and VDLS2 Bonding.
Resumo:
Esta tesis está incluida dentro del campo del campo de Multiband Orthogonal Frequency Division Multiplexing Ultra Wideband (MB-OFDM UWB), el cual ha adquirido una gran importancia en las comunicaciones inalámbricas de alta tasa de datos en la última década. UWB surgió con el objetivo de satisfacer la creciente demanda de conexiones inalámbricas en interiores y de uso doméstico, con bajo coste y alta velocidad. La disponibilidad de un ancho de banda grande, el potencial para alta velocidad de transmisión, baja complejidad y bajo consumo de energía, unido al bajo coste de implementación, representa una oportunidad única para que UWB se convierta en una solución ampliamente utilizada en aplicaciones de Wireless Personal Area Network (WPAN). UWB está definido como cualquier transmisión que ocupa un ancho de banda de más de 20% de su frecuencia central, o más de 500 MHz. En 2002, la Comisión Federal de Comunicaciones (FCC) definió que el rango de frecuencias de transmisión de UWB legal es de 3.1 a 10.6 GHz, con una energía de transmisión de -41.3 dBm/Hz. Bajo las directrices de FCC, el uso de la tecnología UWB puede aportar una enorme capacidad en las comunicaciones de corto alcance. Considerando las ecuaciones de capacidad de Shannon, incrementar la capacidad del canal requiere un incremento lineal en el ancho de banda, mientras que un aumento similar de la capacidad de canal requiere un aumento exponencial en la energía de transmisión. En los últimos años, s diferentes desarrollos del UWB han sido extensamente estudiados en diferentes áreas, entre los cuales, el protocolo de comunicaciones inalámbricas MB-OFDM UWB está considerado como la mejor elección y ha sido adoptado como estándar ISO/IEC para los WPANs. Combinando la modulación OFDM y la transmisión de datos utilizando las técnicas de salto de frecuencia, el sistema MB-OFDM UWB es capaz de soportar tasas de datos con que pueden variar de los 55 a los 480 Mbps, alcanzando una distancia máxima de hasta 10 metros. Se esperara que la tecnología MB-OFDM tenga un consumo energético muy bajo copando un are muy reducida en silicio, proporcionando soluciones de bajo coste que satisfagan las demandas del mercado. Para cumplir con todas estas expectativas, el desarrollo y la investigación del MBOFDM UWB deben enfrentarse a varios retos, como son la sincronización de alta sensibilidad, las restricciones de baja complejidad, las estrictas limitaciones energéticas, la escalabilidad y la flexibilidad. Tales retos requieren un procesamiento digital de la señal de última generación, capaz de desarrollar sistemas que puedan aprovechar por completo las ventajas del espectro UWB y proporcionar futuras aplicaciones inalámbricas en interiores. Esta tesis se centra en la completa optimización de un sistema de transceptor de banda base MB-OFDM UWB digital, cuyo objetivo es investigar y diseñar un subsistema de comunicación inalámbrica para la aplicación de las Redes de Sensores Inalámbricas Visuales. La complejidad inherente de los procesadores FFT/IFFT y el sistema de sincronización así como la alta frecuencia de operación para todos los elementos de procesamiento, se convierten en el cuello de la botella para el diseño y la implementación del sistema de UWB digital en base de banda basado en MB-OFDM de baja energía. El objetivo del transceptor propuesto es conseguir baja energía y baja complejidad bajo la premisa de un alto rendimiento. Las optimizaciones están realizadas tanto a nivel algorítmico como a nivel arquitectural para todos los elementos del sistema. Una arquitectura hardware eficiente en consumo se propone en primer lugar para aquellos módulos correspondientes a núcleos de computación. Para el procesado de la Transformada Rápida de Fourier (FFT/IFFT), se propone un algoritmo mixed-radix, basado en una arquitectura con pipeline y se ha desarrollado un módulo de Decodificador de Viterbi (VD) equilibrado en coste-velocidad con el objetivo de reducir el consumo energético e incrementar la velocidad de procesamiento. También se ha implementado un correlador signo-bit simple basado en la sincronización del tiempo de símbolo es presentado. Este correlador es usado para detectar y sincronizar los paquetes de OFDM de forma robusta y precisa. Para el desarrollo de los subsitemas de procesamiento y realizar la integración del sistema completo se han empleado tecnologías de última generación. El dispositivo utilizado para el sistema propuesto es una FPGA Virtex 5 XC5VLX110T del fabricante Xilinx. La validación el propuesta para el sistema transceptor se ha implementado en dicha placa de FPGA. En este trabajo se presenta un algoritmo, y una arquitectura, diseñado con filosofía de co-diseño hardware/software para el desarrollo de sistemas de FPGA complejos. El objetivo principal de la estrategia propuesta es de encontrar una metodología eficiente para el diseño de un sistema de FPGA configurable optimizado con el empleo del mínimo esfuerzo posible en el sistema de procedimiento de verificación, por tanto acelerar el periodo de desarrollo del sistema. La metodología de co-diseño presentada tiene la ventaja de ser fácil de usar, contiene todos los pasos desde la propuesta del algoritmo hasta la verificación del hardware, y puede ser ampliamente extendida para casi todos los tipos de desarrollos de FPGAs. En este trabajo se ha desarrollado sólo el sistema de transceptor digital de banda base por lo que la comprobación de señales transmitidas a través del canal inalámbrico en los entornos reales de comunicación sigue requiriendo componentes RF y un front-end analógico. No obstante, utilizando la metodología de co-simulación hardware/software citada anteriormente, es posible comunicar el sistema de transmisor y el receptor digital utilizando los modelos de canales propuestos por IEEE 802.15.3a, implementados en MATLAB. Por tanto, simplemente ajustando las características de cada modelo de canal, por ejemplo, un incremento del retraso y de la frecuencia central, podemos estimar el comportamiento del sistema propuesto en diferentes escenarios y entornos. Las mayores contribuciones de esta tesis son: • Se ha propuesto un nuevo algoritmo 128-puntos base mixto FFT usando la arquitectura pipeline multi-ruta. Los complejos multiplicadores para cada etapa de procesamiento son diseñados usando la arquitectura modificada shiftadd. Los sistemas word length y twiddle word length son comparados y seleccionados basándose en la señal para cuantización del SQNR y el análisis de energías. • El desempeño del procesador IFFT es analizado bajo diferentes situaciones aritméticas de bloques de punto flotante (BFP) para el control de desbordamiento, por tanto, para encontrar la arquitectura perfecta del algoritmo IFFT basado en el procesador FFT propuesto. • Para el sistema de receptor MB-OFDM UWB se ha empleado una sincronización del tiempo innovadora, de baja complejidad y esquema de compensación, que consiste en funciones de Detector de Paquetes (PD) y Estimación del Offset del tiempo. Simplificando el cross-correlation y maximizar las funciones probables solo a sign-bit, la complejidad computacional se ve reducida significativamente. • Se ha propuesto un sistema de decodificadores Viterbi de 64 estados de decisión-débil usando velocidad base-4 de arquitectura suma-comparaselecciona. El algoritmo Two-pointer Even también es introducido en la unidad de rastreador de origen con el objetivo de conseguir la eficiencia en el hardware. • Se han integrado varias tecnologías de última generación en el completo sistema transceptor basebanda , con el objetivo de implementar un sistema de comunicación UWB altamente optimizado. • Un diseño de flujo mejorado es propuesto para el complejo sistema de implementación, el cual puede ser usado para diseños de Cadena de puertas de campo programable general (FPGA). El diseño mencionado no sólo reduce dramáticamente el tiempo para la verificación funcional, sino también provee un análisis automático como los errores del retraso del output para el sistema de hardware implementado. • Un ambiente de comunicación virtual es establecido para la validación del propuesto sistema de transceptores MB-OFDM. Este método es provisto para facilitar el uso y la conveniencia de analizar el sistema digital de basebanda sin parte frontera analógica bajo diferentes ambientes de comunicación. Esta tesis doctoral está organizada en seis capítulos. En el primer capítulo se encuentra una breve introducción al campo del UWB, tanto relacionado con el proyecto como la motivación del desarrollo del sistema de MB-OFDM. En el capítulo 2, se presenta la información general y los requisitos del protocolo de comunicación inalámbrica MBOFDM UWB. En el capítulo 3 se habla de la arquitectura del sistema de transceptor digital MB-OFDM de banda base . El diseño del algoritmo propuesto y la arquitectura para cada elemento del procesamiento está detallado en este capítulo. Los retos de diseño del sistema que involucra un compromiso de discusión entre la complejidad de diseño, el consumo de energía, el coste de hardware, el desempeño del sistema, y otros aspectos. En el capítulo 4, se ha descrito la co-diseñada metodología de hardware/software. Cada parte del flujo del diseño será detallado con algunos ejemplos que se ha hecho durante el desarrollo del sistema. Aprovechando esta estrategia de diseño, el procedimiento de comunicación virtual es llevado a cabo para probar y analizar la arquitectura del transceptor propuesto. Los resultados experimentales de la co-simulación y el informe sintético de la implementación del sistema FPGA son reflejados en el capítulo 5. Finalmente, en el capítulo 6 se incluye las conclusiones y los futuros proyectos, y también los resultados derivados de este proyecto de doctorado. ABSTRACT In recent years, the Wireless Visual Sensor Network (WVSN) has drawn great interest in wireless communication research area. They enable a wealth of new applications such as building security control, image sensing, and target localization. However, nowadays wireless communication protocols (ZigBee, Wi-Fi, and Bluetooth for example) cannot fully satisfy the demands of high data rate, low power consumption, short range, and high robustness requirements. New communication protocol is highly desired for such kind of applications. The Ultra Wideband (UWB) wireless communication protocol, which has increased in importance for high data rate wireless communication field, are emerging as an important topic for WVSN research. UWB has emerged as a technology that offers great promise to satisfy the growing demand for low-cost, high-speed digital wireless indoor and home networks. The large bandwidth available, the potential for high data rate transmission, and the potential for low complexity and low power consumption, along with low implementation cost, all present a unique opportunity for UWB to become a widely adopted radio solution for future Wireless Personal Area Network (WPAN) applications. UWB is defined as any transmission that occupies a bandwidth of more than 20% of its center frequency, or more than 500 MHz. In 2002, the Federal Communications Commission (FCC) has mandated that UWB radio transmission can legally operate in the range from 3.1 to 10.6 GHz at a transmitter power of -41.3 dBm/Hz. Under the FCC guidelines, the use of UWB technology can provide enormous capacity over short communication ranges. Considering Shannon’s capacity equations, increasing the channel capacity requires linear increasing in bandwidth, whereas similar channel capacity increases would require exponential increases in transmission power. In recent years, several different UWB developments has been widely studied in different area, among which, the MB-OFDM UWB wireless communication protocol is considered to be the leading choice and has recently been adopted in the ISO/IEC standard for WPANs. By combing the OFDM modulation and data transmission using frequency hopping techniques, the MB-OFDM UWB system is able to support various data rates, ranging from 55 to 480 Mbps, over distances up to 10 meters. The MB-OFDM technology is expected to consume very little power and silicon area, as well as provide low-cost solutions that can satisfy consumer market demands. To fulfill these expectations, MB-OFDM UWB research and development have to cope with several challenges, which consist of high-sensitivity synchronization, low- complexity constraints, strict power limitations, scalability, and flexibility. Such challenges require state-of-the-art digital signal processing expertise to develop systems that could fully take advantages of the UWB spectrum and support future indoor wireless applications. This thesis focuses on fully optimization for the MB-OFDM UWB digital baseband transceiver system, aiming at researching and designing a wireless communication subsystem for the Wireless Visual Sensor Networks (WVSNs) application. The inherent high complexity of the FFT/IFFT processor and synchronization system, and high operation frequency for all processing elements, becomes the bottleneck for low power MB-OFDM based UWB digital baseband system hardware design and implementation. The proposed transceiver system targets low power and low complexity under the premise of high performance. Optimizations are made at both algorithm and architecture level for each element of the transceiver system. The low-power hardwareefficient structures are firstly proposed for those core computation modules, i.e., the mixed-radix algorithm based pipelined architecture is proposed for the Fast Fourier Transform (FFT/IFFT) processor, and the cost-speed balanced Viterbi Decoder (VD) module is developed, in the aim of lowering the power consumption and increasing the processing speed. In addition, a low complexity sign-bit correlation based symbol timing synchronization scheme is presented so as to detect and synchronize the OFDM packets robustly and accurately. Moreover, several state-of-the-art technologies are used for developing other processing subsystems and an entire MB-OFDM digital baseband transceiver system is integrated. The target device for the proposed transceiver system is Xilinx Virtex 5 XC5VLX110T FPGA board. In order to validate the proposed transceiver system in the FPGA board, a unified algorithm-architecture-circuit hardware/software co-design environment for complex FPGA system development is presented in this work. The main objective of the proposed strategy is to find an efficient methodology for designing a configurable optimized FPGA system by using as few efforts as possible in system verification procedure, so as to speed up the system development period. The presented co-design methodology has the advantages of easy to use, covering all steps from algorithm proposal to hardware verification, and widely spread for almost all kinds of FPGA developments. Because only the digital baseband transceiver system is developed in this thesis, the validation of transmitting signals through wireless channel in real communication environments still requires the analog front-end and RF components. However, by using the aforementioned hardware/software co-simulation methodology, the transmitter and receiver digital baseband systems get the opportunity to communicate with each other through the channel models, which are proposed from the IEEE 802.15.3a research group, established in MATLAB. Thus, by simply adjust the characteristics of each channel model, e.g. mean excess delay and center frequency, we can estimate the transmission performance of the proposed transceiver system through different communication situations. The main contributions of this thesis are: • A novel mixed radix 128-point FFT algorithm by using multipath pipelined architecture is proposed. The complex multipliers for each processing stage are designed by using modified shift-add architectures. The system wordlength and twiddle word-length are compared and selected based on Signal to Quantization Noise Ratio (SQNR) and power analysis. • IFFT processor performance is analyzed under different Block Floating Point (BFP) arithmetic situations for overflow control, so as to find out the perfect architecture of IFFT algorithm based on the proposed FFT processor. • An innovative low complex timing synchronization and compensation scheme, which consists of Packet Detector (PD) and Timing Offset Estimation (TOE) functions, for MB-OFDM UWB receiver system is employed. By simplifying the cross-correlation and maximum likelihood functions to signbit only, the computational complexity is significantly reduced. • A 64 state soft-decision Viterbi Decoder system by using high speed radix-4 Add-Compare-Select architecture is proposed. Two-pointer Even algorithm is also introduced into the Trace Back unit in the aim of hardware-efficiency. • Several state-of-the-art technologies are integrated into the complete baseband transceiver system, in the aim of implementing a highly-optimized UWB communication system. • An improved design flow is proposed for complex system implementation which can be used for general Field-Programmable Gate Array (FPGA) designs. The design method not only dramatically reduces the time for functional verification, but also provides automatic analysis such as errors and output delays for the implemented hardware systems. • A virtual communication environment is established for validating the proposed MB-OFDM transceiver system. This methodology is proved to be easy for usage and convenient for analyzing the digital baseband system without analog frontend under different communication environments. This PhD thesis is organized in six chapters. In the chapter 1 a brief introduction to the UWB field, as well as the related work, is done, along with the motivation of MBOFDM system development. In the chapter 2, the general information and requirement of MB-OFDM UWB wireless communication protocol is presented. In the chapter 3, the architecture of the MB-OFDM digital baseband transceiver system is presented. The design of the proposed algorithm and architecture for each processing element is detailed in this chapter. Design challenges of such system involve trade-off discussions among design complexity, power consumption, hardware cost, system performance, and some other aspects. All these factors are analyzed and discussed. In the chapter 4, the hardware/software co-design methodology is proposed. Each step of this design flow will be detailed by taking some examples that we met during system development. Then, taking advantages of this design strategy, the Virtual Communication procedure is carried out so as to test and analyze the proposed transceiver architecture. Experimental results from the co-simulation and synthesis report of the implemented FPGA system are given in the chapter 5. The chapter 6 includes conclusions and future work, as well as the results derived from this PhD work.
Resumo:
La optimización de parámetros tales como el consumo de potencia, la cantidad de recursos lógicos empleados o la ocupación de memoria ha sido siempre una de las preocupaciones principales a la hora de diseñar sistemas embebidos. Esto es debido a que se trata de sistemas dotados de una cantidad de recursos limitados, y que han sido tradicionalmente empleados para un propósito específico, que permanece invariable a lo largo de toda la vida útil del sistema. Sin embargo, el uso de sistemas embebidos se ha extendido a áreas de aplicación fuera de su ámbito tradicional, caracterizadas por una mayor demanda computacional. Así, por ejemplo, algunos de estos sistemas deben llevar a cabo un intenso procesado de señales multimedia o la transmisión de datos mediante sistemas de comunicaciones de alta capacidad. Por otra parte, las condiciones de operación del sistema pueden variar en tiempo real. Esto sucede, por ejemplo, si su funcionamiento depende de datos medidos por el propio sistema o recibidos a través de la red, de las demandas del usuario en cada momento, o de condiciones internas del propio dispositivo, tales como la duración de la batería. Como consecuencia de la existencia de requisitos de operación dinámicos es necesario ir hacia una gestión dinámica de los recursos del sistema. Si bien el software es inherentemente flexible, no ofrece una potencia computacional tan alta como el hardware. Por lo tanto, el hardware reconfigurable aparece como una solución adecuada para tratar con mayor flexibilidad los requisitos variables dinámicamente en sistemas con alta demanda computacional. La flexibilidad y adaptabilidad del hardware requieren de dispositivos reconfigurables que permitan la modificación de su funcionalidad bajo demanda. En esta tesis se han seleccionado las FPGAs (Field Programmable Gate Arrays) como los dispositivos más apropiados, hoy en día, para implementar sistemas basados en hardware reconfigurable De entre todas las posibilidades existentes para explotar la capacidad de reconfiguración de las FPGAs comerciales, se ha seleccionado la reconfiguración dinámica y parcial. Esta técnica consiste en substituir una parte de la lógica del dispositivo, mientras el resto continúa en funcionamiento. La capacidad de reconfiguración dinámica y parcial de las FPGAs es empleada en esta tesis para tratar con los requisitos de flexibilidad y de capacidad computacional que demandan los dispositivos embebidos. La propuesta principal de esta tesis doctoral es el uso de arquitecturas de procesamiento escalables espacialmente, que son capaces de adaptar su funcionalidad y rendimiento en tiempo real, estableciendo un compromiso entre dichos parámetros y la cantidad de lógica que ocupan en el dispositivo. A esto nos referimos con arquitecturas con huellas escalables. En particular, se propone el uso de arquitecturas altamente paralelas, modulares, regulares y con una alta localidad en sus comunicaciones, para este propósito. El tamaño de dichas arquitecturas puede ser modificado mediante la adición o eliminación de algunos de los módulos que las componen, tanto en una dimensión como en dos. Esta estrategia permite implementar soluciones escalables, sin tener que contar con una versión de las mismas para cada uno de los tamaños posibles de la arquitectura. De esta manera se reduce significativamente el tiempo necesario para modificar su tamaño, así como la cantidad de memoria necesaria para almacenar todos los archivos de configuración. En lugar de proponer arquitecturas para aplicaciones específicas, se ha optado por patrones de procesamiento genéricos, que pueden ser ajustados para solucionar distintos problemas en el estado del arte. A este respecto, se proponen patrones basados en esquemas sistólicos, así como de tipo wavefront. Con el objeto de poder ofrecer una solución integral, se han tratado otros aspectos relacionados con el diseño y el funcionamiento de las arquitecturas, tales como el control del proceso de reconfiguración de la FPGA, la integración de las arquitecturas en el resto del sistema, así como las técnicas necesarias para su implementación. Por lo que respecta a la implementación, se han tratado distintos aspectos de bajo nivel dependientes del dispositivo. Algunas de las propuestas realizadas a este respecto en la presente tesis doctoral son un router que es capaz de garantizar el correcto rutado de los módulos reconfigurables dentro del área destinada para ellos, así como una estrategia para la comunicación entre módulos que no introduce ningún retardo ni necesita emplear recursos configurables del dispositivo. El flujo de diseño propuesto se ha automatizado mediante una herramienta denominada DREAMS. La herramienta se encarga de la modificación de las netlists correspondientes a cada uno de los módulos reconfigurables del sistema, y que han sido generadas previamente mediante herramientas comerciales. Por lo tanto, el flujo propuesto se entiende como una etapa de post-procesamiento, que adapta esas netlists a los requisitos de la reconfiguración dinámica y parcial. Dicha modificación la lleva a cabo la herramienta de una forma completamente automática, por lo que la productividad del proceso de diseño aumenta de forma evidente. Para facilitar dicho proceso, se ha dotado a la herramienta de una interfaz gráfica. El flujo de diseño propuesto, y la herramienta que lo soporta, tienen características específicas para abordar el diseño de las arquitecturas dinámicamente escalables propuestas en esta tesis. Entre ellas está el soporte para el realojamiento de módulos reconfigurables en posiciones del dispositivo distintas a donde el módulo es originalmente implementado, así como la generación de estructuras de comunicación compatibles con la simetría de la arquitectura. El router has sido empleado también en esta tesis para obtener un rutado simétrico entre nets equivalentes. Dicha posibilidad ha sido explotada para aumentar la protección de circuitos con altos requisitos de seguridad, frente a ataques de canal lateral, mediante la implantación de lógica complementaria con rutado idéntico. Para controlar el proceso de reconfiguración de la FPGA, se propone en esta tesis un motor de reconfiguración especialmente adaptado a los requisitos de las arquitecturas dinámicamente escalables. Además de controlar el puerto de reconfiguración, el motor de reconfiguración ha sido dotado de la capacidad de realojar módulos reconfigurables en posiciones arbitrarias del dispositivo, en tiempo real. De esta forma, basta con generar un único bitstream por cada módulo reconfigurable del sistema, independientemente de la posición donde va a ser finalmente reconfigurado. La estrategia seguida para implementar el proceso de realojamiento de módulos es diferente de las propuestas existentes en el estado del arte, pues consiste en la composición de los archivos de configuración en tiempo real. De esta forma se consigue aumentar la velocidad del proceso, mientras que se reduce la longitud de los archivos de configuración parciales a almacenar en el sistema. El motor de reconfiguración soporta módulos reconfigurables con una altura menor que la altura de una región de reloj del dispositivo. Internamente, el motor se encarga de la combinación de los frames que describen el nuevo módulo, con la configuración existente en el dispositivo previamente. El escalado de las arquitecturas de procesamiento propuestas en esta tesis también se puede beneficiar de este mecanismo. Se ha incorporado también un acceso directo a una memoria externa donde se pueden almacenar bitstreams parciales. Para acelerar el proceso de reconfiguración se ha hecho funcionar el ICAP por encima de la máxima frecuencia de reloj aconsejada por el fabricante. Así, en el caso de Virtex-5, aunque la máxima frecuencia del reloj deberían ser 100 MHz, se ha conseguido hacer funcionar el puerto de reconfiguración a frecuencias de operación de hasta 250 MHz, incluyendo el proceso de realojamiento en tiempo real. Se ha previsto la posibilidad de portar el motor de reconfiguración a futuras familias de FPGAs. Por otro lado, el motor de reconfiguración se puede emplear para inyectar fallos en el propio dispositivo hardware, y así ser capaces de evaluar la tolerancia ante los mismos que ofrecen las arquitecturas reconfigurables. Los fallos son emulados mediante la generación de archivos de configuración a los que intencionadamente se les ha introducido un error, de forma que se modifica su funcionalidad. Con el objetivo de comprobar la validez y los beneficios de las arquitecturas propuestas en esta tesis, se han seguido dos líneas principales de aplicación. En primer lugar, se propone su uso como parte de una plataforma adaptativa basada en hardware evolutivo, con capacidad de escalabilidad, adaptabilidad y recuperación ante fallos. En segundo lugar, se ha desarrollado un deblocking filter escalable, adaptado a la codificación de vídeo escalable, como ejemplo de aplicación de las arquitecturas de tipo wavefront propuestas. El hardware evolutivo consiste en el uso de algoritmos evolutivos para diseñar hardware de forma autónoma, explotando la flexibilidad que ofrecen los dispositivos reconfigurables. En este caso, los elementos de procesamiento que componen la arquitectura son seleccionados de una biblioteca de elementos presintetizados, de acuerdo con las decisiones tomadas por el algoritmo evolutivo, en lugar de definir la configuración de las mismas en tiempo de diseño. De esta manera, la configuración del core puede cambiar cuando lo hacen las condiciones del entorno, en tiempo real, por lo que se consigue un control autónomo del proceso de reconfiguración dinámico. Así, el sistema es capaz de optimizar, de forma autónoma, su propia configuración. El hardware evolutivo tiene una capacidad inherente de auto-reparación. Se ha probado que las arquitecturas evolutivas propuestas en esta tesis son tolerantes ante fallos, tanto transitorios, como permanentes y acumulativos. La plataforma evolutiva se ha empleado para implementar filtros de eliminación de ruido. La escalabilidad también ha sido aprovechada en esta aplicación. Las arquitecturas evolutivas escalables permiten la adaptación autónoma de los cores de procesamiento ante fluctuaciones en la cantidad de recursos disponibles en el sistema. Por lo tanto, constituyen un ejemplo de escalabilidad dinámica para conseguir un determinado nivel de calidad, que puede variar en tiempo real. Se han propuesto dos variantes de sistemas escalables evolutivos. El primero consiste en un único core de procesamiento evolutivo, mientras que el segundo está formado por un número variable de arrays de procesamiento. La codificación de vídeo escalable, a diferencia de los codecs no escalables, permite la decodificación de secuencias de vídeo con diferentes niveles de calidad, de resolución temporal o de resolución espacial, descartando la información no deseada. Existen distintos algoritmos que soportan esta característica. En particular, se va a emplear el estándar Scalable Video Coding (SVC), que ha sido propuesto como una extensión de H.264/AVC, ya que este último es ampliamente utilizado tanto en la industria, como a nivel de investigación. Para poder explotar toda la flexibilidad que ofrece el estándar, hay que permitir la adaptación de las características del decodificador en tiempo real. El uso de las arquitecturas dinámicamente escalables es propuesto en esta tesis con este objetivo. El deblocking filter es un algoritmo que tiene como objetivo la mejora de la percepción visual de la imagen reconstruida, mediante el suavizado de los "artefactos" de bloque generados en el lazo del codificador. Se trata de una de las tareas más intensivas en procesamiento de datos de H.264/AVC y de SVC, y además, su carga computacional es altamente dependiente del nivel de escalabilidad seleccionado en el decodificador. Por lo tanto, el deblocking filter ha sido seleccionado como prueba de concepto de la aplicación de las arquitecturas dinámicamente escalables para la compresión de video. La arquitectura propuesta permite añadir o eliminar unidades de computación, siguiendo un esquema de tipo wavefront. La arquitectura ha sido propuesta conjuntamente con un esquema de procesamiento en paralelo del deblocking filter a nivel de macrobloque, de tal forma que cuando se varía del tamaño de la arquitectura, el orden de filtrado de los macrobloques varia de la misma manera. El patrón propuesto se basa en la división del procesamiento de cada macrobloque en dos etapas independientes, que se corresponden con el filtrado horizontal y vertical de los bloques dentro del macrobloque. Las principales contribuciones originales de esta tesis son las siguientes: - El uso de arquitecturas altamente regulares, modulares, paralelas y con una intensa localidad en sus comunicaciones, para implementar cores de procesamiento dinámicamente reconfigurables. - El uso de arquitecturas bidimensionales, en forma de malla, para construir arquitecturas dinámicamente escalables, con una huella escalable. De esta forma, las arquitecturas permiten establecer un compromiso entre el área que ocupan en el dispositivo, y las prestaciones que ofrecen en cada momento. Se proponen plantillas de procesamiento genéricas, de tipo sistólico o wavefront, que pueden ser adaptadas a distintos problemas de procesamiento. - Un flujo de diseño y una herramienta que lo soporta, para el diseño de sistemas reconfigurables dinámicamente, centradas en el diseño de las arquitecturas altamente paralelas, modulares y regulares propuestas en esta tesis. - Un esquema de comunicaciones entre módulos reconfigurables que no introduce ningún retardo ni requiere el uso de recursos lógicos propios. - Un router flexible, capaz de resolver los conflictos de rutado asociados con el diseño de sistemas reconfigurables dinámicamente. - Un algoritmo de optimización para sistemas formados por múltiples cores escalables que optimice, mediante un algoritmo genético, los parámetros de dicho sistema. Se basa en un modelo conocido como el problema de la mochila. - Un motor de reconfiguración adaptado a los requisitos de las arquitecturas altamente regulares y modulares. Combina una alta velocidad de reconfiguración, con la capacidad de realojar módulos en tiempo real, incluyendo el soporte para la reconfiguración de regiones que ocupan menos que una región de reloj, así como la réplica de un módulo reconfigurable en múltiples posiciones del dispositivo. - Un mecanismo de inyección de fallos que, empleando el motor de reconfiguración del sistema, permite evaluar los efectos de fallos permanentes y transitorios en arquitecturas reconfigurables. - La demostración de las posibilidades de las arquitecturas propuestas en esta tesis para la implementación de sistemas de hardware evolutivos, con una alta capacidad de procesamiento de datos. - La implementación de sistemas de hardware evolutivo escalables, que son capaces de tratar con la fluctuación de la cantidad de recursos disponibles en el sistema, de una forma autónoma. - Una estrategia de procesamiento en paralelo para el deblocking filter compatible con los estándares H.264/AVC y SVC que reduce el número de ciclos de macrobloque necesarios para procesar un frame de video. - Una arquitectura dinámicamente escalable que permite la implementación de un nuevo deblocking filter, totalmente compatible con los estándares H.264/AVC y SVC, que explota el paralelismo a nivel de macrobloque. El presente documento se organiza en siete capítulos. En el primero se ofrece una introducción al marco tecnológico de esta tesis, especialmente centrado en la reconfiguración dinámica y parcial de FPGAs. También se motiva la necesidad de las arquitecturas dinámicamente escalables propuestas en esta tesis. En el capítulo 2 se describen las arquitecturas dinámicamente escalables. Dicha descripción incluye la mayor parte de las aportaciones a nivel arquitectural realizadas en esta tesis. Por su parte, el flujo de diseño adaptado a dichas arquitecturas se propone en el capítulo 3. El motor de reconfiguración se propone en el 4, mientras que el uso de dichas arquitecturas para implementar sistemas de hardware evolutivo se aborda en el 5. El deblocking filter escalable se describe en el 6, mientras que las conclusiones finales de esta tesis, así como la descripción del trabajo futuro, son abordadas en el capítulo 7. ABSTRACT The optimization of system parameters, such as power dissipation, the amount of hardware resources and the memory footprint, has been always a main concern when dealing with the design of resource-constrained embedded systems. This situation is even more demanding nowadays. Embedded systems cannot anymore be considered only as specific-purpose computers, designed for a particular functionality that remains unchanged during their lifetime. Differently, embedded systems are now required to deal with more demanding and complex functions, such as multimedia data processing and high-throughput connectivity. In addition, system operation may depend on external data, the user requirements or internal variables of the system, such as the battery life-time. All these conditions may vary at run-time, leading to adaptive scenarios. As a consequence of both the growing computational complexity and the existence of dynamic requirements, dynamic resource management techniques for embedded systems are needed. Software is inherently flexible, but it cannot meet the computing power offered by hardware solutions. Therefore, reconfigurable hardware emerges as a suitable technology to deal with the run-time variable requirements of complex embedded systems. Adaptive hardware requires the use of reconfigurable devices, where its functionality can be modified on demand. In this thesis, Field Programmable Gate Arrays (FPGAs) have been selected as the most appropriate commercial technology existing nowadays to implement adaptive hardware systems. There are different ways of exploiting reconfigurability in reconfigurable devices. Among them is dynamic and partial reconfiguration. This is a technique which consists in substituting part of the FPGA logic on demand, while the rest of the device continues working. The strategy followed in this thesis is to exploit the dynamic and partial reconfiguration of commercial FPGAs to deal with the flexibility and complexity demands of state-of-the-art embedded systems. The proposal of this thesis to deal with run-time variable system conditions is the use of spatially scalable processing hardware IP cores, which are able to adapt their functionality or performance at run-time, trading them off with the amount of logic resources they occupy in the device. This is referred to as a scalable footprint in the context of this thesis. The distinguishing characteristic of the proposed cores is that they rely on highly parallel, modular and regular architectures, arranged in one or two dimensions. These architectures can be scaled by means of the addition or removal of the composing blocks. This strategy avoids implementing a full version of the core for each possible size, with the corresponding benefits in terms of scaling and adaptation time, as well as bitstream storage memory requirements. Instead of providing specific-purpose architectures, generic architectural templates, which can be tuned to solve different problems, are proposed in this thesis. Architectures following both systolic and wavefront templates have been selected. Together with the proposed scalable architectural templates, other issues needed to ensure the proper design and operation of the scalable cores, such as the device reconfiguration control, the run-time management of the architecture and the implementation techniques have been also addressed in this thesis. With regard to the implementation of dynamically reconfigurable architectures, device dependent low-level details are addressed. Some of the aspects covered in this thesis are the area constrained routing for reconfigurable modules, or an inter-module communication strategy which does not introduce either extra delay or logic overhead. The system implementation, from the hardware description to the device configuration bitstream, has been fully automated by modifying the netlists corresponding to each of the system modules, which are previously generated using the vendor tools. This modification is therefore envisaged as a post-processing step. Based on these implementation proposals, a design tool called DREAMS (Dynamically Reconfigurable Embedded and Modular Systems) has been created, including a graphic user interface. The tool has specific features to cope with modular and regular architectures, including the support for module relocation and the inter-module communications scheme based on the symmetry of the architecture. The core of the tool is a custom router, which has been also exploited in this thesis to obtain symmetric routed nets, with the aim of enhancing the protection of critical reconfigurable circuits against side channel attacks. This is achieved by duplicating the logic with an exactly equal routing. In order to control the reconfiguration process of the FPGA, a Reconfiguration Engine suited to the specific requirements set by the proposed architectures was also proposed. Therefore, in addition to controlling the reconfiguration port, the Reconfiguration Engine has been enhanced with the online relocation ability, which allows employing a unique configuration bitstream for all the positions where the module may be placed in the device. Differently to the existing relocating solutions, which are based on bitstream parsers, the proposed approach is based on the online composition of bitstreams. This strategy allows increasing the speed of the process, while the length of partial bitstreams is also reduced. The height of the reconfigurable modules can be lower than the height of a clock region. The Reconfiguration Engine manages the merging process of the new and the existing configuration frames within each clock region. The process of scaling up and down the hardware cores also benefits from this technique. A direct link to an external memory where partial bitstreams can be stored has been also implemented. In order to accelerate the reconfiguration process, the ICAP has been overclocked over the speed reported by the manufacturer. In the case of Virtex-5, even though the maximum frequency of the ICAP is reported to be 100 MHz, valid operations at 250 MHz have been achieved, including the online relocation process. Portability of the reconfiguration solution to today's and probably, future FPGAs, has been also considered. The reconfiguration engine can be also used to inject faults in real hardware devices, and this way being able to evaluate the fault tolerance offered by the reconfigurable architectures. Faults are emulated by introducing partial bitstreams intentionally modified to provide erroneous functionality. To prove the validity and the benefits offered by the proposed architectures, two demonstration application lines have been envisaged. First, scalable architectures have been employed to develop an evolvable hardware platform with adaptability, fault tolerance and scalability properties. Second, they have been used to implement a scalable deblocking filter suited to scalable video coding. Evolvable Hardware is the use of evolutionary algorithms to design hardware in an autonomous way, exploiting the flexibility offered by reconfigurable devices. In this case, processing elements composing the architecture are selected from a presynthesized library of processing elements, according to the decisions taken by the algorithm, instead of being decided at design time. This way, the configuration of the array may change as run-time environmental conditions do, achieving autonomous control of the dynamic reconfiguration process. Thus, the self-optimization property is added to the native self-configurability of the dynamically scalable architectures. In addition, evolvable hardware adaptability inherently offers self-healing features. The proposal has proved to be self-tolerant, since it is able to self-recover from both transient and cumulative permanent faults. The proposed evolvable architecture has been used to implement noise removal image filters. Scalability has been also exploited in this application. Scalable evolvable hardware architectures allow the autonomous adaptation of the processing cores to a fluctuating amount of resources available in the system. Thus, it constitutes an example of the dynamic quality scalability tackled in this thesis. Two variants have been proposed. The first one consists in a single dynamically scalable evolvable core, and the second one contains a variable number of processing cores. Scalable video is a flexible approach for video compression, which offers scalability at different levels. Differently to non-scalable codecs, a scalable video bitstream can be decoded with different levels of quality, spatial or temporal resolutions, by discarding the undesired information. The interest in this technology has been fostered by the development of the Scalable Video Coding (SVC) standard, as an extension of H.264/AVC. In order to exploit all the flexibility offered by the standard, it is necessary to adapt the characteristics of the decoder to the requirements of each client during run-time. The use of dynamically scalable architectures is proposed in this thesis with this aim. The deblocking filter algorithm is the responsible of improving the visual perception of a reconstructed image, by smoothing blocking artifacts generated in the encoding loop. This is one of the most computationally intensive tasks of the standard, and furthermore, it is highly dependent on the selected scalability level in the decoder. Therefore, the deblocking filter has been selected as a proof of concept of the implementation of dynamically scalable architectures for video compression. The proposed architecture allows the run-time addition or removal of computational units working in parallel to change its level of parallelism, following a wavefront computational pattern. Scalable architecture is offered together with a scalable parallelization strategy at the macroblock level, such that when the size of the architecture changes, the macroblock filtering order is modified accordingly. The proposed pattern is based on the division of the macroblock processing into two independent stages, corresponding to the horizontal and vertical filtering of the blocks within the macroblock. The main contributions of this thesis are: - The use of highly parallel, modular, regular and local architectures to implement dynamically reconfigurable processing IP cores, for data intensive applications with flexibility requirements. - The use of two-dimensional mesh-type arrays as architectural templates to build dynamically reconfigurable IP cores, with a scalable footprint. The proposal consists in generic architectural templates, which can be tuned to solve different computational problems. •A design flow and a tool targeting the design of DPR systems, focused on highly parallel, modular and local architectures. - An inter-module communication strategy, which does not introduce delay or area overhead, named Virtual Borders. - A custom and flexible router to solve the routing conflicts as well as the inter-module communication problems, appearing during the design of DPR systems. - An algorithm addressing the optimization of systems composed of multiple scalable cores, which size can be decided individually, to optimize the system parameters. It is based on a model known as the multi-dimensional multi-choice Knapsack problem. - A reconfiguration engine tailored to the requirements of highly regular and modular architectures. It combines a high reconfiguration throughput with run-time module relocation capabilities, including the support for sub-clock reconfigurable regions and the replication in multiple positions. - A fault injection mechanism which takes advantage of the system reconfiguration engine, as well as the modularity of the proposed reconfigurable architectures, to evaluate the effects of transient and permanent faults in these architectures. - The demonstration of the possibilities of the architectures proposed in this thesis to implement evolvable hardware systems, while keeping a high processing throughput. - The implementation of scalable evolvable hardware systems, which are able to adapt to the fluctuation of the amount of resources available in the system, in an autonomous way. - A parallelization strategy for the H.264/AVC and SVC deblocking filter, which reduces the number of macroblock cycles needed to process the whole frame. - A dynamically scalable architecture that permits the implementation of a novel deblocking filter module, fully compliant with the H.264/AVC and SVC standards, which exploits the macroblock level parallelism of the algorithm. This document is organized in seven chapters. In the first one, an introduction to the technology framework of this thesis, specially focused on dynamic and partial reconfiguration, is provided. The need for the dynamically scalable processing architectures proposed in this work is also motivated in this chapter. In chapter 2, dynamically scalable architectures are described. Description includes most of the architectural contributions of this work. The design flow tailored to the scalable architectures, together with the DREAMs tool provided to implement them, are described in chapter 3. The reconfiguration engine is described in chapter 4. The use of the proposed scalable archtieectures to implement evolvable hardware systems is described in chapter 5, while the scalable deblocking filter is described in chapter 6. Final conclusions of this thesis, and the description of future work, are addressed in chapter 7.
Resumo:
Sistemas de Pesaje dinámico y estático en la Red de carreteras del Estado Español. Métodos de sanción. El artículo trata de los Proyectos de estaciones de pesaje en la red de carreteras estatales utilizadas para control de la carga de los vehículos pesados como resultado de la implantación del "Programa de Estaciones de Pesaje dinámico" elaborado por la Dirección General de Carreteras con la colaboración de la Dirección General de Transportes Terrestres. Dicho programa tiene entre sus objetivos preservar el patrimonio viario, regular el sector del transporte, aumentar la seguridad vial y verificar el cumplimiento del Reglamento General de Vehículos. Para ello ha previsto la instalación de 70 estaciones en todo el ámbito de la red estatal. El objeto de cada uno de los Proyectos de Construcción es el diseño de una estación de Pesaje en el margen de la autovía o carretera convencional para control de peso de los vehículos pesados, con la posibilidad de sancionar a los que sobrepasen el límite de masa indicado en el anexo IX del Reglamento General de Vehículos, con la consiguiente inmovilización temporal hasta que las condiciones del transporte sean las adecuadas. Cada estación consta de dos sistemas de pesaje que pueden funcionar de manera independiente: un sistema de pesaje, dinámico de alta velocidad en la calzada de la carretera y un sistema de pesaje estático o de baja velocidad que se encuentra en el interior de la estación. La explotación de estas estaciones está prevista mediante un control coordinado entre la Agrupación de Tráfico de la Guardia Civil y los Inspectores de Transportes del Estado y de las Comunidades Autónomas, con la colaboración de la Dirección General de Carreteras