38 resultados para Imãs permanentes


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bridges with deck supported on either sliding or elastomeric bearings are very common in mid-seismicity regions. Their main seismic vulnerabilities are related to the pounding of the deck against abutments or between the different deck elements. A simplified model of the longitudinal behavior of those bridges will allow to characterize the reaction forces developed during pounding using the Pacific Earthquake Engineering Research Center framework formula. In order to ensure the general applicability of the results obtained, a large number of system parameter combinations will be considered. The heart of the formula is the identification of suitable intermediate variables. First, the pseudo acceleration spectral value for the fundamental period of the system (Sa(Ts)) will be used as an intensity measure (IM). This IM will result in a very large non-explained variability of the engineering demand parameter. A portion of this variability will be proved to be related to the relative content of high-frequency energy in the input motion. Two vector-valued IMs including a second parameter taking this energy content into account will then be considered. For both of them, a suitable form for the conditional intensity dependence of the response will be obtained. The question of which one to choose will also be analyzed. Finally, additional issues related to the IM will be studied: its applicability to pulse-type records, the validity of scaling records and the sufficiency of the IM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

IP Multimedia Subsystem (IMS) is considered to provide multimedia services to users through an IP-based control plane. The current IMS service invocation mechanism, however, requires the Serving-Call Session Control Function (S-CSCF) invokes each Application Server (AS) sequentially to perform service subscription pro?le, which results in the heavy load of the S-CSCF and the long session set-up delay. To solve this issue, this paper proposes a linear chained service invocation mechanism to invoke each AS consecutively. By checking all the initial Filter Criteria (iFC) one-time and adding the addresses of all involved ASs to the ?Route? header, this new approach enables multiple services to be invoked as a linear chain during a session. We model the service invocation mechanisms through Jackson networks, which are validated through simulations. The analytic results verify that the linear chained service invocation mechanism can effectively reduce session set-up delay of the service layer and decrease the load level of the S-CSCF

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El Instituto Geográfico Nacional, por medio del Área de Geodesia, está llevando a cabo el establecimiento de una Red de Estaciones Permanentes GPS que permitan obtener coordenadas muy precisas, así como sus campos de velocidades en un Sistema de Referencia Global (ITRFxx). Dichas estaciones pertenecen a la Red de Estaciones Permanentes de EUREF (EUropean REference Frame) y constituyen el orden cero de la Geodesia Española.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Directive 2008/98/EC released by the European Union represents a significant step forward in all relevant aspects of waste management. Under the already established, extended produced responsibility (EPR) principle, new policies have been enunciated to continuously achieve better overall environmental performance of key products throughout their life phases. This paper discusses how the directive is being articulated in Spain by the main integrated management system (IMS) for end-of-life (EOL) tyres since its creation in 2006. Focusing on the IMS technological, economic and legal aspects, the study provides a global perspective and evaluation of how the IMS is facing the current issues to resolve, the new challenges that have appeared and the management vision for the coming years.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Los estudios sobre la asignación del carbono en los ecosistemas forestales proporcionan información esencial para la comprensión de las diferencias espaciales y temporales en el ciclo del carbono de tal forma que pueden aportar información a los modelos y, así predecir las posibles respuestas de los bosques a los cambios en el clima. Dentro de este contexto, los bosques Amazónicos desempeñan un papel particularmente importante en el balance global del carbono; no obstante, existen grandes incertidumbres en cuanto a los controles abióticos en las tasas de la producción primaria neta (PPN), la asignación de los productos de la fotosíntesis a los diferentes componentes o compartimentos del ecosistema (aéreo y subterráneo) y, cómo estos componentes de la asignación del carbono responden a eventos climáticos extremos. El objetivo general de esta tesis es analizar los componentes de la asignación del carbono en bosques tropicales maduros sobre suelos contrastantes, que crecen bajo condiciones climáticas similares en dos sitios ubicados en la Amazonia noroccidental (Colombia): el Parque Natural Nacional Amacayacu y la Estación Biológica Zafire. Con este objetivo, realicé mediciones de los componentes de la asignación del carbono (biomasa, productividad primaria neta, y su fraccionamiento) a nivel ecosistémico y de la dinámica forestal (tasas anuales de mortalidad y reclutamiento), a lo largo de ocho años (20042012) en seis parcelas permanentes de 1 hectárea establecidas en cinco tipos de bosques sobre suelos diferentes (arcilloso, franco-arcilloso, franco-arcilloso-arenoso, franco-arenoso y arena-francosa). Toda esta información me permitió abordar preguntas específicas que detallo a continuación. En el Capítulo 2 evalúe la hipótesis de que a medida que aumenta la fertilidad del suelo disminuye la cantidad del carbono asignado a la producción subterránea (raíces finas con diámetro <2 mm). Y para esto, realicé mediciones de la masa y la producción de raíces finas usando dos métodos: (1) el de los cilindros de crecimiento y, (2) el de los cilindros de extracción secuencial. El monitoreo se realizó durante 2.2 años en los bosques con suelos más contrastantes: arcilla y arena-francosa. Encontré diferencias significativas en la masa de raíces finas y su producción entre los bosques y, también con respecto a la profundidad del suelo (010 y 1020 cm). El bosque sobre arena-francosa asignó más carbono a las raíces finas que el bosque sobre arcillas. La producción de raíces finas en el bosque sobre arena-francosa fue dos veces más alta (media ± error estándar = 2.98 ± 0.36 y 3.33 ± 0.69 Mg C ha1 año1, con el método 1 y 2, respectivamente), que para el bosque sobre arcillas, el suelo más fértil (1.51 ± 0.14, método 1, y desde 1.03 ± 0.31 a 1.36 ± 0.23 Mg C ha1 año1, método 2). Del mismo modo, el promedio de la masa de raíces finas fue tres veces mayor en el bosque sobre arena-francosa (5.47 ± 0.17 Mg C ha1) que en el suelo más fértil (de 1.52 ± 0.08 a 1.82 ± 0.09 Mg C ha1). La masa de las raíces finas también mostró un patrón temporal relacionado con la lluvia, mostrando que la producción de raíces finas disminuyó sustancialmente en el período seco del año 2005. Estos resultados sugieren que los recursos del suelo pueden desempeñar un papel importante en los patrones de la asignación del carbono entre los componentes aéreo y subterráneo de los bosques tropicales; y que el suelo no sólo influye en las diferencias en la masa de raíces finas y su producción, sino que también, en conjunto con la lluvia, sobre la estacionalidad de la producción. En el Capítulo 3 estimé y analicé los tres componentes de la asignación del carbono a nivel del ecosistema: la biomasa, la productividad primaria neta PPN, y su fraccionamiento, en los mismos bosques del Capítulo 2 (el bosque sobre arcillas y el bosque sobre arena-francosa). Encontré diferencias significativas en los patrones de la asignación del carbono entre los bosques; el bosque sobre arcillas presentó una mayor biomasa total y aérea, así como una PPN, que el bosque sobre arena-francosa. Sin embargo, la diferencia entre los dos bosques en términos de la productividad primaria neta total fue menor en comparación con las diferencias entre la biomasa total de los bosques, como consecuencia de las diferentes estrategias en la asignación del carbono a los componentes aéreo y subterráneo del bosque. La proporción o fracción de la PPN asignada a la nueva producción de follaje fue relativamente similar entre los dos bosques. Nuestros resultados de los incrementos de la biomasa aérea sugieren una posible compensación entre la asignación del carbono al crecimiento de las raíces finas versus el de la madera, a diferencia de la compensación comúnmente asumida entre la parte aérea y la subterránea en general. A pesar de estas diferencias entre los bosques en términos de los componentes de la asignación del carbono, el índice de área foliar fue relativamente similar entre ellos, lo que sugiere que el índice de área foliar es más un indicador de la PPN total que de la asignación de carbono entre componentes. En el Capítulo 4 evalué la variación espacial y temporal de los componentes de la asignación del carbono y la dinámica forestal de cinco tipos e bosques amazónicos y sus respuestas a fluctuaciones en la precipitación, lo cual es completamente relevante en el ciclo global del carbono y los procesos biogeoquímicos en general. Estas variaciones son así mismo importantes para evaluar los efectos de la sequía o eventos extremos sobre la dinámica natural de los bosques amazónicos. Evalué la variación interanual y la estacionalidad de los componentes de la asignación del carbono y la dinámica forestal durante el periodo 2004−2012, en cinco bosques maduros sobre diferentes suelos (arcilloso, franco-arcilloso, franco-arcilloso-arenoso, franco-arenoso y arena-francosa), todos bajo el mismo régimen local de precipitación en la Amazonia noroccidental (Colombia). Quería examinar sí estos bosques responden de forma similar a las fluctuaciones en la precipitación, tal y como pronostican muchos modelos. Consideré las siguientes preguntas: (i) ¿Existe una correlación entre los componentes de la asignación del carbono y la dinámica forestal con la precipitación? (ii) ¿Existe correlación entre los bosques? (iii) ¿Es el índice de área foliar (LAI) un indicador de las variaciones en la producción aérea o es un reflejo de los cambios en los patrones de la asignación del carbono entre bosques?. En general, la correlación entre los componentes aéreo y subterráneo de la asignación del carbono con la precipitación sugiere que los suelos juegan un papel importante en las diferencias espaciales y temporales de las respuestas de estos bosques a las variaciones en la precipitación. Por un lado, la mayoría de los bosques mostraron que los componentes aéreos de la asignación del carbono son susceptibles a las fluctuaciones en la precipitación; sin embargo, el bosque sobre arena-francosa solamente presentó correlación con la lluvia con el componente subterráneo (raíces finas). Por otra parte, a pesar de que el noroeste Amazónico es considerado sin una estación seca propiamente (definida como <100 mm meses −1), la hojarasca y la masa de raíces finas mostraron una alta variabilidad y estacionalidad, especialmente marcada durante la sequía del 2005. Además, los bosques del grupo de suelos francos mostraron que la hojarasca responde a retrasos en la precipitación, al igual que la masa de raíces finas del bosque sobre arena-francosa. En cuanto a la dinámica forestal, sólo la tasa de mortalidad del bosque sobre arena-francosa estuvo correlacionada con la precipitación (ρ = 0.77, P <0.1). La variabilidad interanual en los incrementos en el tallo y la biomasa de los individuos resalta la importancia de la mortalidad en la variación de los incrementos en la biomasa aérea. Sin embargo, las tasas de mortalidad y las proporciones de individuos muertos por categoría de muerte (en pie, caído de raíz, partido y desaparecido), no mostraron tendencias claras relacionadas con la sequía. Curiosamente, la hojarasca, el incremento en la biomasa aérea y las tasas de reclutamiento mostraron una alta correlación entre los bosques, en particular dentro del grupo de los bosques con suelos francos. Sin embargo, el índice de área foliar estimado para los bosques con suelos más contrastantes (arcilla y arena-francosa), no presentó correlación significativa con la lluvia; no obstante, estuvo muy correlacionado entre bosques; índice de área foliar no reflejó las diferencias en la asignación de los componentes del carbono, y su respuesta a la precipitación en estos bosques. Por último, los bosques estudiados muestran que el noroeste amazónico es susceptible a fenómenos climáticos, contrario a lo propuesto anteriormente debido a la ausencia de una estación seca propiamente dicha. ABSTRACT Studies of carbon allocation in forests provide essential information for understanding spatial and temporal differences in carbon cycling that can inform models and predict possible responses to changes in climate. Amazon forests play a particularly significant role in the global carbon balance, but there are still large uncertainties regarding abiotic controls on the rates of net primary production (NPP) and the allocation of photosynthetic products to different ecosystem components; and how the carbon allocation components of Amazon forests respond to extreme climate events. The overall objective of this thesis is to examine the carbon allocation components in old-growth tropical forests on contrasting soils, and under similar climatic conditions in two sites at the Amacayacu National Natural Park and the Zafire Biological Station, located in the north-western Amazon (Colombia). Measurements of above- and below-ground carbon allocation components (biomass, net primary production, and its partitioning) at the ecosystem level, and dynamics of tree mortality and recruitment were done along eight years (20042012) in six 1-ha plots established in five Amazon forest types on different soils (clay, clay-loam, sandy-clay-loam, sandy-loam and loamy-sand) to address specific questions detailed in the next paragraphs. In Chapter 2, I evaluated the hypothesis that as soil fertility increases the amount of carbon allocated to below-ground production (fine-roots) should decrease. To address this hypothesis the standing crop mass and production of fine-roots (<2 mm) were estimated by two methods: (1) ingrowth cores and, (2) sequential soil coring, during 2.2 years in the most contrasting forests: the clay-soil forest and the loamy-sand forest. We found that the standing crop fine-root mass and its production were significantly different between forests and also between soil depths (0–10 and 10–20 cm). The loamysand forest allocated more carbon to fine-roots than the clay-soil forest, with fine-root production in the loamy-sand forest twice (mean ± standard error = 2.98 ± 0.36 and 3.33 ± 0.69 Mg C ha −1 yr −1, method 1 and 2, respectively) as much as for the more fertile claysoil forest (1.51 ± 0.14, method 1, and from 1.03 ± 0.31 to 1.36 ± 0.23 Mg C ha −1 yr −1, method 2). Similarly, the average of standing crop fine-root mass was three times higher in the loamy-sand forest (5.47 ± 0.17 Mg C ha1) than in the more fertile soil (from 1.52 ± 0.08 a 1.82 ± 0.09 Mg C ha1). The standing crop fine-root mass also showed a temporal pattern related to rainfall, with the production of fine-roots decreasing substantially in the dry period of the year 2005. These results suggest that soil resources may play an important role in patterns of carbon allocation of below-ground components, not only driven the differences in the biomass and its production, but also in the time when it is produced. In Chapter 3, I assessed the three components of stand-level carbon allocation (biomass, NPP, and its partitioning) for the same forests evaluated in Chapter 2 (clay-soil forest and loamy-sand forest). We found differences in carbon allocation patterns between these two forests, showing that the forest on clay-soil had a higher aboveground and total biomass as well as a higher above-ground NPP than the loamy-sand forest. However, differences between the two types of forests in terms of stand-level NPP were smaller, as a consequence of different strategies in the carbon allocation of above- and below-ground components. The proportional allocation of NPP to new foliage production was relatively similar between the two forests. Our results of aboveground biomass increments and fine-root production suggest a possible trade-off between carbon allocation to fine-roots versus wood growth (as it has been reported by other authors), as opposed to the most commonly assumed trade-off between total above- and below-ground production. Despite these differences among forests in terms of carbon allocation components, the leaf area index showed differences between forests like total NPP, suggesting that the leaf area index is more indicative of total NPP than carbon allocation. In Chapter 4, I evaluated the spatial and temporal variation of carbon allocation components and forest dynamics of Amazon forests as well as their responses to climatic fluctuations. I evaluated the intra- and inter-annual variation of carbon allocation components and forest dynamics during the period 2004−2012 in five forests on different soils (clay, clay-loam, sandy-clay-loam, sandy-loam and loamy-sand), but growing under the same local precipitation regime in north-western Amazonia (Colombia). We were interested in examining if these forests respond similarly to rainfall fluctuations as many models predict, considering the following questions: (i) Is there a correlation in carbon allocation components and forest dynamics with precipitation? (ii) Is there a correlation among forests? (iii) Are temporal responses in leaf area index (LAI) indicative of variations of above-ground production or a reflection of changes in carbon allocation patterns among forests?. Overall, the correlation of above- and below-ground carbon allocation components with rainfall suggests that soils play an important role in the spatial and temporal differences of responses of these forests to rainfall fluctuations. On the one hand, most forests showed that the above-ground components are susceptible to rainfall fluctuations; however, there was a forest on loamy-sand that only showed a correlation with the below-ground component (fine-roots). On the other hand, despite the fact that north-western Amazonia is considered without a conspicuous dry season (defined as <100 mm month−1), litterfall and fine-root mass showed high seasonality and variability, particularly marked during the drought of 2005. Additionally, forests of the loam-soil group showed that litterfall respond to time-lags in rainfall as well as and the fine-root mass of the loamy-sand forest. With regard to forest dynamics, only the mortality rate of the loamy-sand forest was significantly correlated with rainfall (77%). The observed inter-annual variability of stem and biomass increments of individuals highlighted the importance of the mortality in the above-ground biomass increment. However, mortality rates and death type proportion did not show clear trends related to droughts. Interestingly, litterfall, above-ground biomass increment and recruitment rates of forests showed high correlation among forests, particularly within the loam-soil forests group. Nonetheless, LAI measured in the most contrasting forests (clay-soil and loamysand) was poorly correlated with rainfall but highly correlated between forests; LAI did not reflect the differences in the carbon allocation components, and their response to rainfall on these forests. Finally, the forests studied highlight that north-western Amazon forests are also susceptible to climate fluctuations, contrary to what has been proposed previously due to their lack of a pronounced dry season.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La optimización de parámetros tales como el consumo de potencia, la cantidad de recursos lógicos empleados o la ocupación de memoria ha sido siempre una de las preocupaciones principales a la hora de diseñar sistemas embebidos. Esto es debido a que se trata de sistemas dotados de una cantidad de recursos limitados, y que han sido tradicionalmente empleados para un propósito específico, que permanece invariable a lo largo de toda la vida útil del sistema. Sin embargo, el uso de sistemas embebidos se ha extendido a áreas de aplicación fuera de su ámbito tradicional, caracterizadas por una mayor demanda computacional. Así, por ejemplo, algunos de estos sistemas deben llevar a cabo un intenso procesado de señales multimedia o la transmisión de datos mediante sistemas de comunicaciones de alta capacidad. Por otra parte, las condiciones de operación del sistema pueden variar en tiempo real. Esto sucede, por ejemplo, si su funcionamiento depende de datos medidos por el propio sistema o recibidos a través de la red, de las demandas del usuario en cada momento, o de condiciones internas del propio dispositivo, tales como la duración de la batería. Como consecuencia de la existencia de requisitos de operación dinámicos es necesario ir hacia una gestión dinámica de los recursos del sistema. Si bien el software es inherentemente flexible, no ofrece una potencia computacional tan alta como el hardware. Por lo tanto, el hardware reconfigurable aparece como una solución adecuada para tratar con mayor flexibilidad los requisitos variables dinámicamente en sistemas con alta demanda computacional. La flexibilidad y adaptabilidad del hardware requieren de dispositivos reconfigurables que permitan la modificación de su funcionalidad bajo demanda. En esta tesis se han seleccionado las FPGAs (Field Programmable Gate Arrays) como los dispositivos más apropiados, hoy en día, para implementar sistemas basados en hardware reconfigurable De entre todas las posibilidades existentes para explotar la capacidad de reconfiguración de las FPGAs comerciales, se ha seleccionado la reconfiguración dinámica y parcial. Esta técnica consiste en substituir una parte de la lógica del dispositivo, mientras el resto continúa en funcionamiento. La capacidad de reconfiguración dinámica y parcial de las FPGAs es empleada en esta tesis para tratar con los requisitos de flexibilidad y de capacidad computacional que demandan los dispositivos embebidos. La propuesta principal de esta tesis doctoral es el uso de arquitecturas de procesamiento escalables espacialmente, que son capaces de adaptar su funcionalidad y rendimiento en tiempo real, estableciendo un compromiso entre dichos parámetros y la cantidad de lógica que ocupan en el dispositivo. A esto nos referimos con arquitecturas con huellas escalables. En particular, se propone el uso de arquitecturas altamente paralelas, modulares, regulares y con una alta localidad en sus comunicaciones, para este propósito. El tamaño de dichas arquitecturas puede ser modificado mediante la adición o eliminación de algunos de los módulos que las componen, tanto en una dimensión como en dos. Esta estrategia permite implementar soluciones escalables, sin tener que contar con una versión de las mismas para cada uno de los tamaños posibles de la arquitectura. De esta manera se reduce significativamente el tiempo necesario para modificar su tamaño, así como la cantidad de memoria necesaria para almacenar todos los archivos de configuración. En lugar de proponer arquitecturas para aplicaciones específicas, se ha optado por patrones de procesamiento genéricos, que pueden ser ajustados para solucionar distintos problemas en el estado del arte. A este respecto, se proponen patrones basados en esquemas sistólicos, así como de tipo wavefront. Con el objeto de poder ofrecer una solución integral, se han tratado otros aspectos relacionados con el diseño y el funcionamiento de las arquitecturas, tales como el control del proceso de reconfiguración de la FPGA, la integración de las arquitecturas en el resto del sistema, así como las técnicas necesarias para su implementación. Por lo que respecta a la implementación, se han tratado distintos aspectos de bajo nivel dependientes del dispositivo. Algunas de las propuestas realizadas a este respecto en la presente tesis doctoral son un router que es capaz de garantizar el correcto rutado de los módulos reconfigurables dentro del área destinada para ellos, así como una estrategia para la comunicación entre módulos que no introduce ningún retardo ni necesita emplear recursos configurables del dispositivo. El flujo de diseño propuesto se ha automatizado mediante una herramienta denominada DREAMS. La herramienta se encarga de la modificación de las netlists correspondientes a cada uno de los módulos reconfigurables del sistema, y que han sido generadas previamente mediante herramientas comerciales. Por lo tanto, el flujo propuesto se entiende como una etapa de post-procesamiento, que adapta esas netlists a los requisitos de la reconfiguración dinámica y parcial. Dicha modificación la lleva a cabo la herramienta de una forma completamente automática, por lo que la productividad del proceso de diseño aumenta de forma evidente. Para facilitar dicho proceso, se ha dotado a la herramienta de una interfaz gráfica. El flujo de diseño propuesto, y la herramienta que lo soporta, tienen características específicas para abordar el diseño de las arquitecturas dinámicamente escalables propuestas en esta tesis. Entre ellas está el soporte para el realojamiento de módulos reconfigurables en posiciones del dispositivo distintas a donde el módulo es originalmente implementado, así como la generación de estructuras de comunicación compatibles con la simetría de la arquitectura. El router has sido empleado también en esta tesis para obtener un rutado simétrico entre nets equivalentes. Dicha posibilidad ha sido explotada para aumentar la protección de circuitos con altos requisitos de seguridad, frente a ataques de canal lateral, mediante la implantación de lógica complementaria con rutado idéntico. Para controlar el proceso de reconfiguración de la FPGA, se propone en esta tesis un motor de reconfiguración especialmente adaptado a los requisitos de las arquitecturas dinámicamente escalables. Además de controlar el puerto de reconfiguración, el motor de reconfiguración ha sido dotado de la capacidad de realojar módulos reconfigurables en posiciones arbitrarias del dispositivo, en tiempo real. De esta forma, basta con generar un único bitstream por cada módulo reconfigurable del sistema, independientemente de la posición donde va a ser finalmente reconfigurado. La estrategia seguida para implementar el proceso de realojamiento de módulos es diferente de las propuestas existentes en el estado del arte, pues consiste en la composición de los archivos de configuración en tiempo real. De esta forma se consigue aumentar la velocidad del proceso, mientras que se reduce la longitud de los archivos de configuración parciales a almacenar en el sistema. El motor de reconfiguración soporta módulos reconfigurables con una altura menor que la altura de una región de reloj del dispositivo. Internamente, el motor se encarga de la combinación de los frames que describen el nuevo módulo, con la configuración existente en el dispositivo previamente. El escalado de las arquitecturas de procesamiento propuestas en esta tesis también se puede beneficiar de este mecanismo. Se ha incorporado también un acceso directo a una memoria externa donde se pueden almacenar bitstreams parciales. Para acelerar el proceso de reconfiguración se ha hecho funcionar el ICAP por encima de la máxima frecuencia de reloj aconsejada por el fabricante. Así, en el caso de Virtex-5, aunque la máxima frecuencia del reloj deberían ser 100 MHz, se ha conseguido hacer funcionar el puerto de reconfiguración a frecuencias de operación de hasta 250 MHz, incluyendo el proceso de realojamiento en tiempo real. Se ha previsto la posibilidad de portar el motor de reconfiguración a futuras familias de FPGAs. Por otro lado, el motor de reconfiguración se puede emplear para inyectar fallos en el propio dispositivo hardware, y así ser capaces de evaluar la tolerancia ante los mismos que ofrecen las arquitecturas reconfigurables. Los fallos son emulados mediante la generación de archivos de configuración a los que intencionadamente se les ha introducido un error, de forma que se modifica su funcionalidad. Con el objetivo de comprobar la validez y los beneficios de las arquitecturas propuestas en esta tesis, se han seguido dos líneas principales de aplicación. En primer lugar, se propone su uso como parte de una plataforma adaptativa basada en hardware evolutivo, con capacidad de escalabilidad, adaptabilidad y recuperación ante fallos. En segundo lugar, se ha desarrollado un deblocking filter escalable, adaptado a la codificación de vídeo escalable, como ejemplo de aplicación de las arquitecturas de tipo wavefront propuestas. El hardware evolutivo consiste en el uso de algoritmos evolutivos para diseñar hardware de forma autónoma, explotando la flexibilidad que ofrecen los dispositivos reconfigurables. En este caso, los elementos de procesamiento que componen la arquitectura son seleccionados de una biblioteca de elementos presintetizados, de acuerdo con las decisiones tomadas por el algoritmo evolutivo, en lugar de definir la configuración de las mismas en tiempo de diseño. De esta manera, la configuración del core puede cambiar cuando lo hacen las condiciones del entorno, en tiempo real, por lo que se consigue un control autónomo del proceso de reconfiguración dinámico. Así, el sistema es capaz de optimizar, de forma autónoma, su propia configuración. El hardware evolutivo tiene una capacidad inherente de auto-reparación. Se ha probado que las arquitecturas evolutivas propuestas en esta tesis son tolerantes ante fallos, tanto transitorios, como permanentes y acumulativos. La plataforma evolutiva se ha empleado para implementar filtros de eliminación de ruido. La escalabilidad también ha sido aprovechada en esta aplicación. Las arquitecturas evolutivas escalables permiten la adaptación autónoma de los cores de procesamiento ante fluctuaciones en la cantidad de recursos disponibles en el sistema. Por lo tanto, constituyen un ejemplo de escalabilidad dinámica para conseguir un determinado nivel de calidad, que puede variar en tiempo real. Se han propuesto dos variantes de sistemas escalables evolutivos. El primero consiste en un único core de procesamiento evolutivo, mientras que el segundo está formado por un número variable de arrays de procesamiento. La codificación de vídeo escalable, a diferencia de los codecs no escalables, permite la decodificación de secuencias de vídeo con diferentes niveles de calidad, de resolución temporal o de resolución espacial, descartando la información no deseada. Existen distintos algoritmos que soportan esta característica. En particular, se va a emplear el estándar Scalable Video Coding (SVC), que ha sido propuesto como una extensión de H.264/AVC, ya que este último es ampliamente utilizado tanto en la industria, como a nivel de investigación. Para poder explotar toda la flexibilidad que ofrece el estándar, hay que permitir la adaptación de las características del decodificador en tiempo real. El uso de las arquitecturas dinámicamente escalables es propuesto en esta tesis con este objetivo. El deblocking filter es un algoritmo que tiene como objetivo la mejora de la percepción visual de la imagen reconstruida, mediante el suavizado de los "artefactos" de bloque generados en el lazo del codificador. Se trata de una de las tareas más intensivas en procesamiento de datos de H.264/AVC y de SVC, y además, su carga computacional es altamente dependiente del nivel de escalabilidad seleccionado en el decodificador. Por lo tanto, el deblocking filter ha sido seleccionado como prueba de concepto de la aplicación de las arquitecturas dinámicamente escalables para la compresión de video. La arquitectura propuesta permite añadir o eliminar unidades de computación, siguiendo un esquema de tipo wavefront. La arquitectura ha sido propuesta conjuntamente con un esquema de procesamiento en paralelo del deblocking filter a nivel de macrobloque, de tal forma que cuando se varía del tamaño de la arquitectura, el orden de filtrado de los macrobloques varia de la misma manera. El patrón propuesto se basa en la división del procesamiento de cada macrobloque en dos etapas independientes, que se corresponden con el filtrado horizontal y vertical de los bloques dentro del macrobloque. Las principales contribuciones originales de esta tesis son las siguientes: - El uso de arquitecturas altamente regulares, modulares, paralelas y con una intensa localidad en sus comunicaciones, para implementar cores de procesamiento dinámicamente reconfigurables. - El uso de arquitecturas bidimensionales, en forma de malla, para construir arquitecturas dinámicamente escalables, con una huella escalable. De esta forma, las arquitecturas permiten establecer un compromiso entre el área que ocupan en el dispositivo, y las prestaciones que ofrecen en cada momento. Se proponen plantillas de procesamiento genéricas, de tipo sistólico o wavefront, que pueden ser adaptadas a distintos problemas de procesamiento. - Un flujo de diseño y una herramienta que lo soporta, para el diseño de sistemas reconfigurables dinámicamente, centradas en el diseño de las arquitecturas altamente paralelas, modulares y regulares propuestas en esta tesis. - Un esquema de comunicaciones entre módulos reconfigurables que no introduce ningún retardo ni requiere el uso de recursos lógicos propios. - Un router flexible, capaz de resolver los conflictos de rutado asociados con el diseño de sistemas reconfigurables dinámicamente. - Un algoritmo de optimización para sistemas formados por múltiples cores escalables que optimice, mediante un algoritmo genético, los parámetros de dicho sistema. Se basa en un modelo conocido como el problema de la mochila. - Un motor de reconfiguración adaptado a los requisitos de las arquitecturas altamente regulares y modulares. Combina una alta velocidad de reconfiguración, con la capacidad de realojar módulos en tiempo real, incluyendo el soporte para la reconfiguración de regiones que ocupan menos que una región de reloj, así como la réplica de un módulo reconfigurable en múltiples posiciones del dispositivo. - Un mecanismo de inyección de fallos que, empleando el motor de reconfiguración del sistema, permite evaluar los efectos de fallos permanentes y transitorios en arquitecturas reconfigurables. - La demostración de las posibilidades de las arquitecturas propuestas en esta tesis para la implementación de sistemas de hardware evolutivos, con una alta capacidad de procesamiento de datos. - La implementación de sistemas de hardware evolutivo escalables, que son capaces de tratar con la fluctuación de la cantidad de recursos disponibles en el sistema, de una forma autónoma. - Una estrategia de procesamiento en paralelo para el deblocking filter compatible con los estándares H.264/AVC y SVC que reduce el número de ciclos de macrobloque necesarios para procesar un frame de video. - Una arquitectura dinámicamente escalable que permite la implementación de un nuevo deblocking filter, totalmente compatible con los estándares H.264/AVC y SVC, que explota el paralelismo a nivel de macrobloque. El presente documento se organiza en siete capítulos. En el primero se ofrece una introducción al marco tecnológico de esta tesis, especialmente centrado en la reconfiguración dinámica y parcial de FPGAs. También se motiva la necesidad de las arquitecturas dinámicamente escalables propuestas en esta tesis. En el capítulo 2 se describen las arquitecturas dinámicamente escalables. Dicha descripción incluye la mayor parte de las aportaciones a nivel arquitectural realizadas en esta tesis. Por su parte, el flujo de diseño adaptado a dichas arquitecturas se propone en el capítulo 3. El motor de reconfiguración se propone en el 4, mientras que el uso de dichas arquitecturas para implementar sistemas de hardware evolutivo se aborda en el 5. El deblocking filter escalable se describe en el 6, mientras que las conclusiones finales de esta tesis, así como la descripción del trabajo futuro, son abordadas en el capítulo 7. ABSTRACT The optimization of system parameters, such as power dissipation, the amount of hardware resources and the memory footprint, has been always a main concern when dealing with the design of resource-constrained embedded systems. This situation is even more demanding nowadays. Embedded systems cannot anymore be considered only as specific-purpose computers, designed for a particular functionality that remains unchanged during their lifetime. Differently, embedded systems are now required to deal with more demanding and complex functions, such as multimedia data processing and high-throughput connectivity. In addition, system operation may depend on external data, the user requirements or internal variables of the system, such as the battery life-time. All these conditions may vary at run-time, leading to adaptive scenarios. As a consequence of both the growing computational complexity and the existence of dynamic requirements, dynamic resource management techniques for embedded systems are needed. Software is inherently flexible, but it cannot meet the computing power offered by hardware solutions. Therefore, reconfigurable hardware emerges as a suitable technology to deal with the run-time variable requirements of complex embedded systems. Adaptive hardware requires the use of reconfigurable devices, where its functionality can be modified on demand. In this thesis, Field Programmable Gate Arrays (FPGAs) have been selected as the most appropriate commercial technology existing nowadays to implement adaptive hardware systems. There are different ways of exploiting reconfigurability in reconfigurable devices. Among them is dynamic and partial reconfiguration. This is a technique which consists in substituting part of the FPGA logic on demand, while the rest of the device continues working. The strategy followed in this thesis is to exploit the dynamic and partial reconfiguration of commercial FPGAs to deal with the flexibility and complexity demands of state-of-the-art embedded systems. The proposal of this thesis to deal with run-time variable system conditions is the use of spatially scalable processing hardware IP cores, which are able to adapt their functionality or performance at run-time, trading them off with the amount of logic resources they occupy in the device. This is referred to as a scalable footprint in the context of this thesis. The distinguishing characteristic of the proposed cores is that they rely on highly parallel, modular and regular architectures, arranged in one or two dimensions. These architectures can be scaled by means of the addition or removal of the composing blocks. This strategy avoids implementing a full version of the core for each possible size, with the corresponding benefits in terms of scaling and adaptation time, as well as bitstream storage memory requirements. Instead of providing specific-purpose architectures, generic architectural templates, which can be tuned to solve different problems, are proposed in this thesis. Architectures following both systolic and wavefront templates have been selected. Together with the proposed scalable architectural templates, other issues needed to ensure the proper design and operation of the scalable cores, such as the device reconfiguration control, the run-time management of the architecture and the implementation techniques have been also addressed in this thesis. With regard to the implementation of dynamically reconfigurable architectures, device dependent low-level details are addressed. Some of the aspects covered in this thesis are the area constrained routing for reconfigurable modules, or an inter-module communication strategy which does not introduce either extra delay or logic overhead. The system implementation, from the hardware description to the device configuration bitstream, has been fully automated by modifying the netlists corresponding to each of the system modules, which are previously generated using the vendor tools. This modification is therefore envisaged as a post-processing step. Based on these implementation proposals, a design tool called DREAMS (Dynamically Reconfigurable Embedded and Modular Systems) has been created, including a graphic user interface. The tool has specific features to cope with modular and regular architectures, including the support for module relocation and the inter-module communications scheme based on the symmetry of the architecture. The core of the tool is a custom router, which has been also exploited in this thesis to obtain symmetric routed nets, with the aim of enhancing the protection of critical reconfigurable circuits against side channel attacks. This is achieved by duplicating the logic with an exactly equal routing. In order to control the reconfiguration process of the FPGA, a Reconfiguration Engine suited to the specific requirements set by the proposed architectures was also proposed. Therefore, in addition to controlling the reconfiguration port, the Reconfiguration Engine has been enhanced with the online relocation ability, which allows employing a unique configuration bitstream for all the positions where the module may be placed in the device. Differently to the existing relocating solutions, which are based on bitstream parsers, the proposed approach is based on the online composition of bitstreams. This strategy allows increasing the speed of the process, while the length of partial bitstreams is also reduced. The height of the reconfigurable modules can be lower than the height of a clock region. The Reconfiguration Engine manages the merging process of the new and the existing configuration frames within each clock region. The process of scaling up and down the hardware cores also benefits from this technique. A direct link to an external memory where partial bitstreams can be stored has been also implemented. In order to accelerate the reconfiguration process, the ICAP has been overclocked over the speed reported by the manufacturer. In the case of Virtex-5, even though the maximum frequency of the ICAP is reported to be 100 MHz, valid operations at 250 MHz have been achieved, including the online relocation process. Portability of the reconfiguration solution to today's and probably, future FPGAs, has been also considered. The reconfiguration engine can be also used to inject faults in real hardware devices, and this way being able to evaluate the fault tolerance offered by the reconfigurable architectures. Faults are emulated by introducing partial bitstreams intentionally modified to provide erroneous functionality. To prove the validity and the benefits offered by the proposed architectures, two demonstration application lines have been envisaged. First, scalable architectures have been employed to develop an evolvable hardware platform with adaptability, fault tolerance and scalability properties. Second, they have been used to implement a scalable deblocking filter suited to scalable video coding. Evolvable Hardware is the use of evolutionary algorithms to design hardware in an autonomous way, exploiting the flexibility offered by reconfigurable devices. In this case, processing elements composing the architecture are selected from a presynthesized library of processing elements, according to the decisions taken by the algorithm, instead of being decided at design time. This way, the configuration of the array may change as run-time environmental conditions do, achieving autonomous control of the dynamic reconfiguration process. Thus, the self-optimization property is added to the native self-configurability of the dynamically scalable architectures. In addition, evolvable hardware adaptability inherently offers self-healing features. The proposal has proved to be self-tolerant, since it is able to self-recover from both transient and cumulative permanent faults. The proposed evolvable architecture has been used to implement noise removal image filters. Scalability has been also exploited in this application. Scalable evolvable hardware architectures allow the autonomous adaptation of the processing cores to a fluctuating amount of resources available in the system. Thus, it constitutes an example of the dynamic quality scalability tackled in this thesis. Two variants have been proposed. The first one consists in a single dynamically scalable evolvable core, and the second one contains a variable number of processing cores. Scalable video is a flexible approach for video compression, which offers scalability at different levels. Differently to non-scalable codecs, a scalable video bitstream can be decoded with different levels of quality, spatial or temporal resolutions, by discarding the undesired information. The interest in this technology has been fostered by the development of the Scalable Video Coding (SVC) standard, as an extension of H.264/AVC. In order to exploit all the flexibility offered by the standard, it is necessary to adapt the characteristics of the decoder to the requirements of each client during run-time. The use of dynamically scalable architectures is proposed in this thesis with this aim. The deblocking filter algorithm is the responsible of improving the visual perception of a reconstructed image, by smoothing blocking artifacts generated in the encoding loop. This is one of the most computationally intensive tasks of the standard, and furthermore, it is highly dependent on the selected scalability level in the decoder. Therefore, the deblocking filter has been selected as a proof of concept of the implementation of dynamically scalable architectures for video compression. The proposed architecture allows the run-time addition or removal of computational units working in parallel to change its level of parallelism, following a wavefront computational pattern. Scalable architecture is offered together with a scalable parallelization strategy at the macroblock level, such that when the size of the architecture changes, the macroblock filtering order is modified accordingly. The proposed pattern is based on the division of the macroblock processing into two independent stages, corresponding to the horizontal and vertical filtering of the blocks within the macroblock. The main contributions of this thesis are: - The use of highly parallel, modular, regular and local architectures to implement dynamically reconfigurable processing IP cores, for data intensive applications with flexibility requirements. - The use of two-dimensional mesh-type arrays as architectural templates to build dynamically reconfigurable IP cores, with a scalable footprint. The proposal consists in generic architectural templates, which can be tuned to solve different computational problems. •A design flow and a tool targeting the design of DPR systems, focused on highly parallel, modular and local architectures. - An inter-module communication strategy, which does not introduce delay or area overhead, named Virtual Borders. - A custom and flexible router to solve the routing conflicts as well as the inter-module communication problems, appearing during the design of DPR systems. - An algorithm addressing the optimization of systems composed of multiple scalable cores, which size can be decided individually, to optimize the system parameters. It is based on a model known as the multi-dimensional multi-choice Knapsack problem. - A reconfiguration engine tailored to the requirements of highly regular and modular architectures. It combines a high reconfiguration throughput with run-time module relocation capabilities, including the support for sub-clock reconfigurable regions and the replication in multiple positions. - A fault injection mechanism which takes advantage of the system reconfiguration engine, as well as the modularity of the proposed reconfigurable architectures, to evaluate the effects of transient and permanent faults in these architectures. - The demonstration of the possibilities of the architectures proposed in this thesis to implement evolvable hardware systems, while keeping a high processing throughput. - The implementation of scalable evolvable hardware systems, which are able to adapt to the fluctuation of the amount of resources available in the system, in an autonomous way. - A parallelization strategy for the H.264/AVC and SVC deblocking filter, which reduces the number of macroblock cycles needed to process the whole frame. - A dynamically scalable architecture that permits the implementation of a novel deblocking filter module, fully compliant with the H.264/AVC and SVC standards, which exploits the macroblock level parallelism of the algorithm. This document is organized in seven chapters. In the first one, an introduction to the technology framework of this thesis, specially focused on dynamic and partial reconfiguration, is provided. The need for the dynamically scalable processing architectures proposed in this work is also motivated in this chapter. In chapter 2, dynamically scalable architectures are described. Description includes most of the architectural contributions of this work. The design flow tailored to the scalable architectures, together with the DREAMs tool provided to implement them, are described in chapter 3. The reconfiguration engine is described in chapter 4. The use of the proposed scalable archtieectures to implement evolvable hardware systems is described in chapter 5, while the scalable deblocking filter is described in chapter 6. Final conclusions of this thesis, and the description of future work, are addressed in chapter 7.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Actualmente y desde hace ya más de 25 años, el Método de “Predicción de las Direcciones Principales de Drenaje Subterráneo en Macizos Anisótropos”, ha sido utilizado con éxito en diferentes terrenos Kársticos como: calizas, yesos, cuarcitas, pizarras, granitos y criokarst (karst en el hielo glaciar). Sin embargo hasta ahora, nunca se había validado en terrenos volcánicos donde está focalizada esta tesis que lleva por título, Validación de dicho Método en los Terrenos Volcánicos del Macizo de Anaga en Tenerife. Este Método matemático consiste esencialmente en “Predecir y Cuantificar” las direcciones principales de drenaje turbulento subterráneo en macizos anisótropos. Para ello se basa en el estudio realizado en campo de los tectoglifos o deformaciones permanentes del macizo, impresas éstas en la roca, como consecuencia de los esfuerzos tectónicos a los que ha estado sometido dicho macizo. Se consigue de esta manera cubrir el vacío para macizos anisótropos que existe con el modelo matemático de flujo subterráneo laminar (macizos isótropos) definido por Darcy (1856). Para validar el Método se ha elegido el macizo de Anaga, pues es la zona de mayor anisotropía existente en la isla de Tenerife, conformada por una gran y extensa red de diques de diversas formas y tamaños que pertenecen a la familia de diques del eje estructural NE de la isla. En dicho macizo se realizó un exhaustivo trabajo de campo con la toma 331 datos (diques basálticos) y se aplicó el Método, consiguiendo definir las direcciones preferentes de drenaje subterráneo en el macizo de Anaga. Esta predicción obtenida se contrastó con la realidad del drenaje en la zona, conocida gracias a la existencia de cinco galerías ubicadas en la zona trabajo, de las cuales se tiene información sobre sus alumbramientos. En todos los casos se demuestra la bondad de la predicción obtenida con el Método. Queda demostrado que a mayor caos geológico o geotectónico, se ha conseguido mejor predicción del Método, obteniéndose resultados muy satisfactorios para aquellas galerías de agua en las que su rumbo de avance fue coincidente con la dirección perpendicular a la obtenida con la predicción dada por el Método, como dirección preferente de drenaje en la zona en la que se encuentra ubicada cada galería. No cabe duda que la validación de Método en los terrenos volcánicos de Tenerife, supondrá un cambio considerable en el mundo de la hidrogeología en este tipo de terrenos. Es la única herramienta matemática que se dispone para predecir un rumbo acertado en el avance de la perforación de las galerías de aguas, lo que conlleva al mismo tiempo un ahorro importantísimo en la ejecución de las obras. Por otro lado, el Método deja un importante legado a la sociedad canaria, pues con él se abren numerosas vías de trabajo e investigación que generarán un importante desarrollo en el mundo de la hidrogeología volcánica. ABSTRACT Currently and for over 25 years now, the Method of "Prediction of Subsurface Drainage Main Directions in Anisotropic Massifs" has been successfully used in various karstic terrains such as: limestone, gypsum, quartzite, slate, granite and criokarst (karst in the glacier ice). However, until now, it had never been validated in volcanic terrains where is focused this thesis entitled Validation of such Method in the Anaga Massif Volcanic Terrains, in Tenerife. This mathematical method is essentially "predict and quantify" the main directions of groundwater turbulent drainage in anisotropic massifs. This is based on field study of tectoglifes or permanent deformation of the massif, printed on the rocks as a result of previous tectonic stresses. Therefore it is possible to use in anisotropic rock mathematical model instead of the isotropic laminar flow mathematical models defined by Darcy (1856). The Anaga Massif have been chosen to validate the method, because it presents the greatest anisotropy in Tenerife Island, shaped by a large and extensive network of dikes of various shapes and sizes that belong to the family of NE structural axis dikes of the island. An exhaustive field work was carried out in such massif, with 331 collected data (basaltic dikes) and the method was applied, in order to define the preferred direction of the underground drainage in the Anaga massif. This obtained prediction was contrasted to the reality of the drainage in the area, known thanks to the existence of five galleries located in the work area, from which information about their springs was available. In all cases it was possible to demonstrate the fitness of the prediction obtained by the method. It had been demonstrated that a greater geological or geotectonic chaos enhances a better prediction of the method, that predicted very satisfactory results for those water galleries which directions were perpendicular to that predicted by the Method as a drainage preferential direction, for the zone where was located each gallery. No doubt that the validation of the use of the Method in the volcanic terrain of Tenerife, means a considerable change in the world of hydrogeology in this type of terrain. It is the only mathematical tool available to predict a successful drilling direction in advancing water galleries, what also leads to major savings in execution of the drilling works. Furthermore, the method leaves an important legacy to the Canary Islands society, because it opens many lines of work and research to generate a significant development in the world of volcanic hydrogeology.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El geoide, definido como la superficie equipotencial que mejor se ajusta (en el sentido de los mínimos cuadrados) al nivel medio del mar en una determinada época, es la superficie que utilizamos como referencia para determinar las altitudes ortométricas. Si disponemos de una superficie equipotencial de referencia como dátum altimétrico preciso o geoide local, podemos entonces determinar las altitudes ortométricas de forma eficiente a partir de las altitudes elipsoidales proporcionadas por el Sistema Global de Navegación por Satélite (Global Navigation Satellite System, GNSS ). Como es sabido uno de los problemas no resueltos de la geodesia (quizás el más importante de los mismos en la actualidad) es la carencia de un dátum altimétrico global (Sjoberg, 2011) con las precisiones adecuadas. Al no existir un dátum altimétrico global que nos permita obtener los valores absolutos de la ondulación del geoide con la precisión requerida, es necesario emplear modelos geopotenciales como alternativa. Recientemente fue publicado el modelo EGM2008 en el que ha habido una notable mejoría de sus tres fuentes de datos, por lo que este modelo contiene coeficientes adicionales hasta el grado 2190 y orden 2159 y supone una sustancial mejora en la precisión (Pavlis et al., 2008). Cuando en una región determinada se dispone de valores de gravedad y Modelos Digitales del Terreno (MDT) de calidad, es posible obtener modelos de superficies geopotenciales más precisos y de mayor resolución que los modelos globales. Si bien es cierto que el Servicio Nacional Geodésico de los Estados Unidos de América (National Geodetic Survey, NGS) ha estado desarrollando modelos del geoide para la región de los Estados Unidos de América continentales y todos sus territorios desde la década de los noventa, también es cierto que las zonas de Puerto Rico y las Islas Vírgenes Estadounidenses han quedado un poco rezagadas al momento de poder aplicar y obtener resultados de mayor precisión con estos modelos regionales del geoide. En la actualidad, el modelo geopotencial regional vigente para la zona de Puerto Rico y las Islas Vírgenes Estadounidenses es el GEOID12A (Roman y Weston, 2012). Dada la necesidad y ante la incertidumbre de saber cuál sería el comportamiento de un modelo del geoide desarrollado única y exclusivamente con datos de gravedad locales, nos hemos dado a la tarea de desarrollar un modelo de geoide gravimétrico como sistema de referencia para las altitudes ortométricas. Para desarrollar un modelo del geoide gravimétrico en la isla de Puerto Rico, fue necesario implementar una metodología que nos permitiera analizar y validar los datos de gravedad terrestre existentes. Utilizando validación por altimetría con sistemas de información geográfica y validación matemática por colocación con el programa Gravsoft (Tscherning et al., 1994) en su modalidad en Python (Nielsen et al., 2012), fue posible validar 1673 datos de anomalías aire libre de un total de 1894 observaciones obtenidas de la base de datos del Bureau Gravimétrico Internacional (BGI). El aplicar estas metodologías nos permitió obtener una base de datos anomalías de la gravedad fiable la cual puede ser utilizada para una gran cantidad de aplicaciones en ciencia e ingeniería. Ante la poca densidad de datos de gravedad existentes, fue necesario emplear un método alternativo para densificar los valores de anomalías aire libre existentes. Empleando una metodología propuesta por Jekeli et al. (2009b) se procedió a determinar anomalías aire libre a partir de los datos de un MDT. Estas anomalías fueron ajustadas utilizando las anomalías aire libre validadas y tras aplicar un ajuste de mínimos cuadrados por zonas geográficas, fue posible obtener una malla de datos de anomalías aire libre uniforme a partir de un MDT. Tras realizar las correcciones topográficas, determinar el efecto indirecto de la topografía del terreno y la contribución del modelo geopotencial EGM2008, se obtuvo una malla de anomalías residuales. Estas anomalías residuales fueron utilizadas para determinar el geoide gravimétrico utilizando varias técnicas entre las que se encuentran la aproximación plana de la función de Stokes y las modificaciones al núcleo de Stokes, propuestas por Wong y Gore (1969), Vanicek y Kleusberg (1987) y Featherstone et al. (1998). Ya determinados los distintos modelos del geoide gravimétrico, fue necesario validar los mismos y para eso se utilizaron una serie de estaciones permanentes de la red de nivelación del Datum Vertical de Puerto Rico de 2002 (Puerto Rico Vertical Datum 2002, PRVD02 ), las cuales tenían publicados sus valores de altitud elipsoidal y elevación. Ante la ausencia de altitudes ortométricas en las estaciones permanentes de la red de nivelación, se utilizaron las elevaciones obtenidas a partir de nivelación de primer orden para determinar los valores de la ondulación del geoide geométrico (Roman et al., 2013). Tras establecer un total de 990 líneas base, se realizaron dos análisis para determinar la 'precisión' de los modelos del geoide. En el primer análisis, que consistió en analizar las diferencias entre los incrementos de la ondulación del geoide geométrico y los incrementos de la ondulación del geoide de los distintos modelos (modelos gravimétricos, EGM2008 y GEOID12A) en función de las distancias entre las estaciones de validación, se encontró que el modelo con la modificación del núcleo de Stokes propuesta por Wong y Gore presentó la mejor 'precisión' en un 91,1% de los tramos analizados. En un segundo análisis, en el que se consideraron las 990 líneas base, se determinaron las diferencias entre los incrementos de la ondulación del geoide geométrico y los incrementos de la ondulación del geoide de los distintos modelos (modelos gravimétricos, EGM2008 y GEOID12A), encontrando que el modelo que presenta la mayor 'precisión' también era el geoide con la modificación del núcleo de Stokes propuesta por Wong y Gore. En este análisis, el modelo del geoide gravimétrico de Wong y Gore presento una 'precisión' de 0,027 metros en comparación con la 'precisión' del modelo EGM2008 que fue de 0,031 metros mientras que la 'precisión' del modelo regional GEOID12A fue de 0,057 metros. Finalmente podemos decir que la metodología aquí presentada es una adecuada ya que fue posible obtener un modelo del geoide gravimétrico que presenta una mayor 'precisión' que los modelos geopotenciales disponibles, incluso superando la precisión del modelo geopotencial global EGM2008. ABSTRACT The geoid, defined as the equipotential surface that best fits (in the least squares sense) to the mean sea level at a particular time, is the surface used as a reference to determine the orthometric heights. If we have an equipotential reference surface or a precise local geoid, we can then determine the orthometric heights efficiently from the ellipsoidal heights, provided by the Global Navigation Satellite System (GNSS). One of the most common and important an unsolved problem in geodesy is the lack of a global altimetric datum (Sjoberg, 2011)) with the appropriate precision. In the absence of one which allows us to obtain the absolute values of the geoid undulation with the required precision, it is necessary to use alternative geopotential models. The EGM2008 was recently published, in which there has been a marked improvement of its three data sources, so this model contains additional coefficients of degree up to 2190 and order 2159, and there is a substantial improvement in accuracy (Pavlis et al., 2008). When a given region has gravity values and high quality digital terrain models (DTM), it is possible to obtain more accurate regional geopotential models, with a higher resolution and precision, than global geopotential models. It is true that the National Geodetic Survey of the United States of America (NGS) has been developing geoid models for the region of the continental United States of America and its territories from the nineties, but which is also true is that areas such as Puerto Rico and the U.S. Virgin Islands have lagged behind when to apply and get more accurate results with these regional geopotential models. Right now, the available geopotential model for Puerto Rico and the U.S. Virgin Islands is the GEOID12A (Roman y Weston, 2012). Given this need and given the uncertainty of knowing the behavior of a regional geoid model developed exclusively with data from local gravity, we have taken on the task of developing a gravimetric geoid model to use as a reference system for orthometric heights. To develop a gravimetric geoid model in the island of Puerto Rico, implementing a methodology that allows us to analyze and validate the existing terrestrial gravity data is a must. Using altimetry validation with GIS and mathematical validation by collocation with the Gravsoft suite programs (Tscherning et al., 1994) in its Python version (Nielsen et al., 2012), it was possible to validate 1673 observations with gravity anomalies values out of a total of 1894 observations obtained from the International Bureau Gravimetric (BGI ) database. Applying these methodologies allowed us to obtain a database of reliable gravity anomalies, which can be used for many applications in science and engineering. Given the low density of existing gravity data, it was necessary to employ an alternative method for densifying the existing gravity anomalies set. Employing the methodology proposed by Jekeli et al. (2009b) we proceeded to determine gravity anomaly data from a DTM. These anomalies were adjusted by using the validated free-air gravity anomalies and, after that, applying the best fit in the least-square sense by geographical area, it was possible to obtain a uniform grid of free-air anomalies obtained from a DTM. After applying the topographic corrections, determining the indirect effect of topography and the contribution of the global geopotential model EGM2008, a grid of residual anomalies was obtained. These residual anomalies were used to determine the gravimetric geoid by using various techniques, among which are the planar approximation of the Stokes function and the modifications of the Stokes kernel, proposed by Wong y Gore (1969), Vanicek y Kleusberg (1987) and Featherstone et al. (1998). After determining the different gravimetric geoid models, it was necessary to validate them by using a series of stations of the Puerto Rico Vertical Datum of 2002 (PRVD02) leveling network. These stations had published its values of ellipsoidal height and elevation, and in the absence of orthometric heights, we use the elevations obtained from first - order leveling to determine the geometric geoid undulation (Roman et al., 2013). After determine a total of 990 baselines, two analyzes were performed to determine the ' accuracy ' of the geoid models. The first analysis was to analyze the differences between the increments of the geometric geoid undulation with the increments of the geoid undulation of the different geoid models (gravimetric models, EGM2008 and GEOID12A) in function of the distance between the validation stations. Through this analysis, it was determined that the model with the modified Stokes kernel given by Wong and Gore had the best 'accuracy' in 91,1% for the analyzed baselines. In the second analysis, in which we considered the 990 baselines, we analyze the differences between the increments of the geometric geoid undulation with the increments of the geoid undulation of the different geoid models (gravimetric models, EGM2008 and GEOID12A) finding that the model with the highest 'accuracy' was also the model with modifying Stokes kernel given by Wong and Gore. In this analysis, the Wong and Gore gravimetric geoid model presented an 'accuracy' of 0,027 meters in comparison with the 'accuracy' of global geopotential model EGM2008, which gave us an 'accuracy' of 0,031 meters, while the 'accuracy ' of the GEOID12A regional model was 0,057 meters. Finally we can say that the methodology presented here is adequate as it was possible to obtain a gravimetric geoid model that has a greater 'accuracy' than the geopotential models available, even surpassing the accuracy of global geopotential model EGM2008.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Numerosos problemas en ingeniería se refieren a la respuesta dinámica del terreno frente a solicitaciones permanentes o transitorias. Ejemplos típicos son las sacudidas sísmicas, el paso de cargas móviles, la actuación de máquinas con dispositivos alternativos (compactadores, turboalternadores etc.), etc. El desarrollo de la mecánica de suelo, así como el interés de mejorar el diseño y garantizar la seguridad de las estructuras afectadas han conducido al desarrollo de un cuerpo de doctrina homogéneo y riguroso para el tratamiento de problemas como los citados. Obsérvese que, en general, ni el terreno ni la estructura sobre él construida se pueden estudiar por separado. Hay una verdadera interacción entre ambos y ella es, preciamente, la motivación del problema. Así, en el presente capítulo se analiza el semiespacio elástico con carga dinámica, el caso viscoelástico y el amortiguamiento material. En lo que respecta al semiespacio elástico con carga dinámica, además de un breve desarrollo histórico, se hace referencia a las vibraciones verticales en régimen permanente, las vibraciones horizontales y giratoriaas en régimen permanente, el modelo de Veletsos, las vibraciones de torsión, la carga en faja, los cimientos rectangulares y los cimientos empotrados. Respecto al caso viscoelástico y el amortiguamiento material, se analizan diversos mecanismos de amortiguamiento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El progresivo envejecimiento de la población está produciendo una elevada demanda de servicios socio‐asistenciales por parte de las personas mayores para mantener su vida independiente y el consiguiente “envejecimiento activo”. La iniciativa Ambient Assisted Living (AAL) promueve el “envejecimiento activo” a través de las Tecnologías de la Información y las Comunicaciones (TIC) y es en ella donde se centrará el trabajo de esta tesis doctoral. Una característica fundamental de los servicios AAL es su adaptación y personalización a las características y preferencias del usuario y su contexto. Así, el paradigma “context awareness” presenta una gran relevancia en la provisión de servicios AAL y en el soporte a la vida independiente de las personas mayores. Concretamente, la utilización de ontologías permite crear modelos de usuarios y contexto que pueden ser utilizadas para los mecanismos de razonamiento incluidos en los servicios context‐aware. Por otra parte, los usuarios actualmente precisan acceder a un conjunto de servicios desde cualquier red de acceso y desde cualquier dispositivo. Las redes de próxima generación (Next Generation Networks‐NGN) lo hacen posible pues ofrecen una convergencia dispositivo‐red‐servicio. La tecnología IMS (IP Multimedia Subsystem) es una arquitectura que implementa el paradigma NGN y ofrece una serie de servicios de red genéricos llamados servicios habilitadores o enablers que pueden ser reutilizados en cualquier aplicación, soportando mecanismos de interoperabilidad entre aplicaciones y permitiendo un desarrollo robusto, rápido y sencillo. Además, los servicios enablers permiten mecanismos de gestión de la información de usuario para realizar una provisión adaptada del servicio en función de la información del estado del usuario. El objetivo de esta tesis doctoral se centra en establecer un marco de convergencia entre estos dos campos diseñando y desarrollando un conjunto de servicios enablers soportados en una arquitectura IMS implementada para soportar la provisión de aplicaciones AAL bajo el paradigma context‐awareness y la triple convergencia reddispositivo‐ servicio cubriendo así las necesidades y requisitos de las personas mayores. Entre las aportaciones de la presente tesis se destaca la realización de un modelo de plataforma servicios AAL, denominado Residencia Virtual Asistiva, para su provisión en el domicilio de la persona mayor, así como la propuesta de implementación de sus servicios a través de servicios enablers. Por otra parte se define una ontología destinada a modelar servicios AAL así como sus usuarios (personas mayores) para lograr una provisión personalizada y adaptada de servicios AAL. Esta ontología se ha implementado a través del servicio de presencia de la arquitectura IMS para poder crear perfiles de usuario y así poder realizar dicha provisión personalizada. Además, se desarrolla una aplicación de teleconsulta, como ejemplo de servicio AAL, que utiliza una serie de servicios enablers desarrollados para ofrecer funcionalidades avanzadas a la aplicación. Bajo el paradigma contex‐awareness se ha desarrollado y evaluado técnicamente un servicio enabler para ofrecer soporte a la movilidad y a la independencia de las personas mayores con deterioro cognitivo que sufren episodios de desorientación espacial. ABSTRACT The progressive ageing of the population is making elderly people demand sociohealthcare services to maintain an independent living and therefore an “active ageing”. The initiative Ambient Assisted Living (AAL), on which the current PhD thesis is focused, promotes the “active ageing” by means of Information and Communication Technologies (ICT). Essential features of AAL services are the adaptation and personalization to the user’s characteristics and preferences as well as user’s context. Thus, the “context‐awareness” paradigm implies a great importance in the AAL service provision and the elderly independent living support. In particular, the usage of ontologies allows creating user and contexts models to be employed in the reasoning mechanism of context‐aware services. On the other hand, users currently require accessing to a set of services from anywhere and any device. Next‐Generation Networks (NGN) support this need by offering a service‐network‐device convergence. The IP Multimedia Subsystem (IMS) technology is an architecture that implements the NGN paradigm and offers a generic network services know as service enabler which can be reused by any application supporting application interoperability mechanism as well as allowing a simple, fast and robust application development. Furthermore, the service enablers offer user’s information management procedures to achieve and adapt service provision considering the user’s status. The objective of this PhD thesis is focused on establishing a convergence framework between these two previous fields by designing and developing a group of service enablers that will be deployed in an IMS architecture. The enablers developed will support the AAL applications provision from the context‐awareness paradigm and service‐network‐device convergence in order to cover the elderly people’s requirements and needs. Among the contributions achieved in this PhD thesis, the definition of an AAL platform service model, named as “Assited Virtual Nursing Home”, for being deployed in the older adult home is emphasised. In addition, a proposal of service enablers to support the AAL service defined in the model is made. Otherwise, an ontology is defined to model AAL services as well as their users with the aim at achieve a personalized and adapted AAL service. This ontology has been implemented by means of the IMS service presence in order to create users profiles to be used in the personalized AAL services. As an example of AAL service, a teleconsulting application has been developed to employ a group of service enablers developed using a set of advanced functionalities. Considering the context‐paradigm, a service enabler has been developed and technologically evaluated to support the mobility and independence of elderly people with mild cognitive impairment who suffers spatial disorientation episodes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The progressive ageing of population has turned the mild cognitive impairment (MCI) into a prevalent disease suffered by elderly. Consequently, the spatial disorientation has become a significant problem for older people and their caregivers. The ambient-assisted living applications are offering location-based services for empowering elderly to go outside and encouraging a greater independence. Therefore, this paper describes the design and technical evaluation of a location-awareness service enabler aimed at supporting and managing probable wandering situations of a person with MCI. Through the presence capabilities of the IP multimedia subsystem (IMS) architecture, the service will alert patient's contacts if a hazardous situation is detected depending on his location. Furthermore, information about the older person's security areas has been included in the user profile managed by IMS. In doing so, the service enabler introduced contribute to “context-awareness” paradigm allowing the adaptation and personalization of services depending on user's context and specific conditions or preferences.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Una técnica de refuerzo de elementos flectados en general y, en particular, de vigas y forjados de hormigón armado, consiste en la disposición de perfiles metálicos por debajo de los elementos a reforzar y retacados a ellos. En muchos casos este refuerzo se diseña con un planteamiento pasivo, es decir, los perfiles no entran en carga hasta que no se incrementan las acciones sobre el elemento reforzado, o lo hacen sólo ligeramente y de forma cuantitativamente no controlada efectuando el retacado mediante cuñas metálicas. En el presente trabajo se estudia la alternativa del refuerzo de vigas de hormigón armado frente a momentos flectores con un planteamiento activo, introduciendo unas fuerzas (por ejemplo, mediante gatos o barras roscadas) entre el perfil y el elemento a reforzar, y retacando posteriormente el perfil a la viga en los puntos de introducción de las fuerzas, mediante cuñas metálicas, mortero, etc. La propuesta que formulamos en el presente trabajo de investigación para el control de las fuerzas introducidas consiste en la medida de las flechas que se producen en el perfil metálico al hacerlo reaccionar contra la viga. Esto permite el empleo de procedimientos sencillos para la predeformación del perfil que no dispongan de dispositivos de medida de la carga introducida, o bien controlar la veracidad de las medidas de las fuerzas que dan tales dispositivos. La gran fiabilidad que tiene el cálculo de flechas en jácenas metálicas hace que con este procedimiento se puedan conocer con gran precisión las fuerzas introducidas. Las medidas de las flechas se pueden llevar a cabo mediante los procedimientos de instrumentación habituales en pruebas de carga, con una precisión más que suficiente para conocer y controlar con fiabilidad el valor de las fuerzas que el perfil ejerce sobre la viga. Los perfiles necesarios para el refuerzo con esta técnica son netamente inferiores a los que se precisarían con el planteamiento pasivo antes indicado. En el trabajo de investigación se recoge un estudio sobre el número, posición y valor de las fuerzas de refuerzo a introducir, en función de la carga para la que se diseña el refuerzo y la capacidad resistente del elemento a reforzar, y se analizan los valores máximos que pueden tener dichas fuerzas, en función de la capacidad de la pieza frente a momentos de signo contrario a los debidos a las cargas gravitatorias. A continuación se analiza la interacción viga-perfil al incrementarse las cargas sobre la viga desde el instante de la ejecución del refuerzo, interacción que hace variar el valor de las fuerzas que el perfil ejerce sobre la viga. Esta variación permite contar con un incremento en las fuerzas de refuerzo si, con las cargas permanentes presentes al reforzar, no podemos introducirlas inicialmente con el valor necesario, o si se producen pérdidas en las propias fuerzas. Este es uno de los criterios a la hora de seleccionar las características del perfil. Por el contrario, dicha variación puede suponer que en algunos puntos a lo largo del vano se supere la capacidad a flexión frente a momentos de signo contrario a los debidos a las cargas gravitatorias, lo que también debe ser tenido en cuenta. Seguidamente se analizan diferentes aspectos que producen una variación en el valor de las fuerzas de refuerzo, como son las deformaciones diferidas del hormigón (fluencia y retracción), los gradientes de temperatura en la pieza, o la actuación de sobrecargas en los vanos adyacentes. Se concluye los efectos de estos fenómenos, que en ocasiones tienen gran influencia, pueden ser cuantificados por el proyectista, recogiéndose propuestas sencillas para su consideración en casos habituales. Posteriormente recogemos una propuesta de metodología de comprobación del refuerzo, en cuanto a cómo considerar la fisuración y evolución del módulo de deformación de la viga, la introducción de la seguridad, la influencia de las tolerancias de laminación en el perfil sobre el valor calculado de las flechas necesarias en el perfil para introducir las fuerzas iniciales proyectadas, o la situación accidental de fuego, entre otros aspectos. Por último, se exponen las conclusiones más relevantes de la investigación realizada, y se proponen futuras líneas de investigación. One technique for strengthening flexural members in general, and reinforced concrete beams and slabs in particular, entails caulking the underside of these members with steel shapes. This sort of strengthening is often designed from a passive approach; i.e., until the load is increased, the shapes are either not loaded or are only slightly loaded to some unquantified extent by caulking with steel shims. The present study explored the possibility of actively strengthening the capacity of reinforced concrete beams to resist bending moments by applying forces (with jacks or threaded bars, for instance) between the shape and the member to be strengthened. The shape is subsequently caulked under the beam at the points where the forces are applied with steel shims, mortar or similar. The proposal put forward in the present study to monitor the forces applied consists in measuring the deflection on the steel shape as it reacts against the beam. With this technique, the shape can be pre-strained using simple procedures that do not call for devices to measure the force applied, or the accurancy of the respective measurements can be verified. As deflection calculations in steel girders are extremely reliable, the forces applied with this procedure can be very precisely determined. Standard instrumental procedures for load testing can be used to measure deflection with more than sufficient precision to reliably determine and monitor the value of the forces exerted on the beam by the shape. Moreover, the shapes required to strengthen members with this technique are substantially smaller than the ones needed in the aforementioned passive approach. This study addressed the number, position and value of the strengthening forces to be applied in terms of the load for which strengthening was designed and the bearing capacity of the member to be strengthened. The maximum value of such forces was also analysed as a function of the capacity of the member to resist counter-gravity moments. An analysis was then conducted of beam-shape interaction when the load on the beam raises since the instant that strengthening is applied, interaction that alters the forces applied to the beam by the shape. This variation can provide an increment in the forces if we cannot introduce them initially with the value calculated as necessary because they were limited by the permanent loads existing when strengthening, or if losses occur in the forces themselves. This is one of the criteria for defining shape specifications. Conversely, such variation may cause the forces to exceed beam counter-gravity bending strength at some points in the span, a development that must also be taken into consideration. Other factors inducing variations in the strengthening force values were then analysed, including deferred concrete strain (creep and shrinkage), temperature gradients in the member and the live loads acting on adjacent spans. The inference drawn was that these developments, which may on occasion have a heavy impact, can be quantified by the design engineer, particularly in ordinary situations, for which simple procedures are proposed. Methodology is likewise proposed for verifying strength in terms of how to appraise beam's cracking and variations in modulus of deformation; safety concerns; the effect of shape lamination tolerance on the calculated deflection necessary for the shape to apply the design forces; and fire-induced situations, among others. Lastly, the most prominent conclusions are discussed and future lines of research are suggested.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Integral Masonry System consisting of intersecting steel trusses alo ng each of the three dimensional directions of space on walls and slabs using any masonry material, had yet been backed up by the previous adobe test for seismic areas. This paper presents the comparison this last test and the adaptation of the IMS using h ollow brick. A prototype based on a two storey model house (6mx6mx6m) has being also built in two different scales in order to maximize the load and size of the shake table: the first one half size the whole building (3mx3mx3m) and the second, a quarter of the real size (3mx3mx6m). Both tests have suffered some mild to moderate damages while supporting the higher seismic action subjected by the shake table, without even fissuring the first test and with very few damages the second one. The thickness of the hollow brick wall and the diameter of the tree - dimensional truss reinforcement were scaled to the real size test in order to ascertain its great structural behaviour in relation to the previous structural model calculations. The aim of this study is to sum marize the results of the research collaboration between the ETSAM - UPM and the PUCP in whose laboratory these tests were carried out.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En este proyecto se desarrolla un modelo de simulación de un accionamiento controlado que emula el comportamiento de una turbina eólica, el cual se ha llevado a cabo a través del programa para simulación Matlab/Simulink. Su desarrollo se ha estructurado de la siguiente forma: Tras una breve introducción a la energía eólica y a las máquinas eléctricas objeto de estudio en este proyecto, se procede a la caracterización y representación de dichas maquinas dentro de la plataforma de simulación virtual Simulink. Posteriormente se explican posibles estrategias de control de la máquina de inducción, las cuales son aplicadas para la realización de un control de velocidad. Asimismo, se realiza un control vectorial de par de la máquina de inducción de modo que permita un seguimiento efectivo del par de referencia demandado por el usuario, ante distintas condiciones. Finalmente, se añade el modelo de turbina eólica de manera que, definiendo los valores de velocidad de viento, ángulo de paso y velocidad del eje, permite evaluar el par mecánico desarrollado por la turbina. Este modelo se valida comprobando su funcionamiento para diferentes puntos de operación ante diversas condiciones del par de carga. Las condiciones de carga se establecen acoplando al modelo de la turbina, un generador síncrono de imanes permanentes conectado a una carga resistiva. ! II! ABSTRACT In this project, the simulation model of a controlled drive that emulates the behaviour of a wind turbine is developed. It has been carried out through the platform for multidomian simulation called Matlab/Simulink. Its development has been structured as follows: After a brief introduction to the wind energy and the electrical machines studied in this project, these machines are characterized and represented into the virtual simulation platform, Simulink. Subsequently, the possible control strategies for the induction machine are explained and applied in order to carry out a speed control. Additionally, a torque vector control of the induction machine is performed, so as to enable an effective monitoring of the reference torque requested by the user, under different conditions. Finally, the wind turbine model is implemented so as to assess the turbine mechanical torque, after defining the wind speed, the pitch angle and the shaft speed values. This model is validated by testing its functionality for different operating points under various load torques. The load conditions are set up by attaching a permanent magnets synchronous machine, with a resistive load, to the turbine model.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La comunidad de San Juan Ihualtepec, ubicada en una de las zonas de la Región Mixteca con mayores índices de rezago social y pobreza, no está aislada de la problemática de falta de agua. Por lo que respecta a la utilización de sus recursos, principalmente suelo y agua, se observa un uso intensivo de los mismos, pero sin considerar prácticas para su manejo y conservación. La agricultura es la actividad principal de esta comunidad, la cual se ve afectada por la escasa precipitación. La falta de agua para el riego durante la época de estiaje es de difícil solución, ya que la baja precipitación reduce la presencia de fuentes de abastecimiento de agua permanentes, lo que ha obligado a los campesinos a una agricultura prácticamente de auto-consumo y de subsistencia. En este trabajo se evaluó la factibilidad hidrológica y geológica de almacenar agua de lluvia con fines de desarrollo rural, llevándose a cabo estudios hidrológicos, topográficos y geológicos.