6 resultados para Maça Fuji suprema
em Universidad Politécnica de Madrid
Resumo:
Nondeterminism and partially instantiated data structures give logic programming expressive power beyond that of functional programming. However, functional programming often provides convenient syntactic features, such as having a designated implicit output argument, which allow function cali nesting and sometimes results in more compact code. Functional programming also sometimes allows a more direct encoding of lazy evaluation, with its ability to deal with infinite data structures. We present a syntactic functional extensión, used in the Ciao system, which can be implemented in ISO-standard Prolog systems and covers function application, predefined evaluable functors, functional definitions, quoting, and lazy evaluation. The extensión is also composable with higher-order features and can be combined with other extensions to ISO-Prolog such as constraints. We also highlight the features of the Ciao system which help implementation and present some data on the overhead of using lazy evaluation with respect to eager evaluation.
Resumo:
On-line dynamic MRI, which is oriented to industrial grading lines, requires high-speed sequences with motion correction artefacts. In this study two different types of motion correction sequences have been used and have been implemented in real-time (FLASH and UFLARE). They are based on T2* and T2 respectively and their selection depends on the expected contrast effect of the disorder: while watercore enhances bright areas due to higher fluid mobility, internal breakdown potentiates low signal due to texture degradation. For watercore study, five different apple cultivars were used (Normanda-18-, Fuji-35-, Helada-36-, Verde Doncella-54-, Esperiega-75-) along two seasons (2011 and 2012). In total 218 fruits were measured under both, static conditions (20 slices per fruit) and under dynamic conditions (3 repetitions without slice selection). For internal breakdown, Braeburn cultivar has been studied (in total 106 fruits) under both static (20 slices per fruit) and dynamic conditions (3 replicates with slice selection). Metrological aspects such as repeatability of dynamic images and subsequent histogram feature stability become of major interest for further industrial application. Segregation ability among varying degrees of disorder is also analyzed.
Resumo:
A mission on board a sounding rocket to carry out two bare-tether experiments is proposed: a test of orbital-motion-limited (OML) collection and the proof-of-flight of a technique to determine the (neutral) density vertical profile in the critical E-layer. Since full bias from the motional field will be small (~ 20V), corresponding to a tape 1 km long and V rocket <8 km/s, a power source with a range of supply voltages of few kV would be used. First, the negative terminal of the supply would be connected to the tape, and the positive terminal to a round, conductive boom of length 10 - 20 m; electrons collected by the boom cross the supply into the tape, where they leak out at the rate of ion impact plus secondary emission. Determination of the density profile from measurements of auroral emissions observed from the rocket, as secondaries racing down the magnetic field reach an E-layer footprint, are discussed. Next the positive terminal of the voltage supply is connected to the tape, and the negative terminal to a Hollow Cathode (HC); electrons now collected by the tape cross the supply, and are ejected at the HC. The opposite connections, with current collection operated by tape and boom, and operating on electrons and ions, and through partial switching in the supply, allow testing OML collection in almost all respects it depends on.
Resumo:
Los Pabellones de las Exposiciones Universales suelen considerarse dentro de las arquitecturas efímeras, pero habría que puntualizar que toda construcción tiene su tiempo y su periodo de extinción pudiendo ser éstos indefinidos, lo permanente en lo efímero. Muchas de las obras míticas del siglo XX existieron sólo durante unos meses, en escenarios efímeros, modificando el curso de la arquitectura con unas pocas imágenes, lo que llevaría a cuestionar si las circunstancias por las que no han sobrevivido o lo han hecho en circunstancias poco comunes, no se deben tanto a una condición efímera sino a su carácter experimental. Determinadas Exposiciones Universales fueron plataforma para que los pabellones, hitos con los que se ha construido una parte significativa de la Historia de la Arquitectura contemporánea, pasaran a convertirse en mitos, por su distancia en el tiempo, porque ya no existen y porque a veces de ellos sólo nos queda una anticuada y limitada imaginería. Las diversas Historias de la Arquitectura ponen de manifiesto la importancia de algunos pabellones y el papel que ejercieron, ejercen y ejercerán algunos de los construidos para determinadas Exposiciones Universales, pues son el testimonio de que se mantienen vivos, permaneciendo en el tiempo, desempeñando cada uno una función, bien de base para nuevos avances tecnológicos o constructivos, bien para experimentar nuevas formas de habitar, bien para educar, bien para encumbrar a sus autores hasta entonces apenas conocidos. Tanto los que se han mantenido en pie, como los que han sido trasladados y reconstruidos en un nuevo emplazamiento, o incluso los que siguieron su destino fatal y se convirtieron en arquitecturas ausentes, pero que por lo que supusieron de innovación y experimentación, todos han permanecido vivos en la arquitectura de hoy en día. Esta tesis estudia el conjunto de factores que contribuyeron a conferirles esa condición de hito, qué tipo de publicaciones hablan de ellos, en qué términos se tratan y en qué medida los relacionan con la producción de la época y/o de su autor, qué aspectos destacan, cuáles son los valores icónicos que se han ido estableciendo con el paso del tiempo…Qué es lo que permanece. Por otra parte, también aborda en qué medida su condición de construcción efímera, y gracias a su inherente necesidad de desaparecer físicamente, favoreciendo su ausencia en el recuerdo, lo que los ha dotado de representatividad. Esto podría resultar hoy en día algo contradictorio, dado el gran valor concedido a la imagen en la sociedad actual hasta el punto de convertirse en un componente esencial de la representatividad: la imagen sustituye al recuerdo pareciendo que lo que carezca de manifestación física en realidad no existiera, hasta llegar a hacerle perder toda capacidad de representación. Sin embargo, y considerando la imagen como elemento esencial de lo icónico, la reconstrucción de los pabellones una vez concluidas las exposiciones, en muchos casos no ha hecho más que potenciar su valor como arquitecturas efímeras, ya que desposeídos de su carácter temporal, los pabellones de las exposiciones pierden su razón de ser. El Pabellón de España de Corrales y Molezún para la EXPO Bruselas’58 es un claro ejemplo de ello, como se mostrará en el desarrollo de la tesis. En la tesis se exponen los distintos casos de los pabellones elegidos, rastreando, fundamentalmente en las publicaciones periódicas, el papel que en cada uno de ellos ejerció su destino final que, a pesar de no ser el objetivo o fin de la presente tesis, sí podría haber contribuido en algunos casos a dotarle de esa categoría de hito en la historia de la arquitectura. Se trata en definitiva de rastrear las vicisitudes que los han conducido a su condición de referentes arquitectónicos, de hitos de la Historia de la Arquitectura. El estudio se centra en Pabellones de las Exposiciones Universales de Bruselas’58, Montreal’67 y Osaka’70 por dos motivos fundamentales: el primero, su catalogación por el Bureau International des Expositions (BIE) como Exposiciones Universales de 1ª categoría; y el segundo, el período en el que se celebraron, período comprendido entre los años 1945 a 1970, años de profundos y determinantes cambios en la arquitectura y en los que tiene lugar el desarrollo y posterior revisión de la modernidad tras la 2ª Guerra Mundial. Se analiza la trayectoria bibliográfica de los pabellones más nombrados de estas tres Exposiciones Universales que son: de Bruselas ’58, el Pabellón de la República Federal de Alemania, de Egon Eiermann y Sep Ruf; el Pabellón Philips de Le Corbusier, y el Pabellón de España, de José Antonio Corrales y Ramón Molezún; de Montreal ’67, el Pabellón de la República Federal de Alemania, de Frei Otto, y el Pabellón de Estados Unidos, de Richard Buckminster Fuller; y de Osaka ’70, el Theme Pavilion, de Kenzo Tange, el Takara Beautilion, de Kisho Kurokawa, y el Pabellón del Grupo Fuji, de Yutaka Murata. Mediante el análisis se detecta que, ya en las revistas coetáneas a las exposiciones, estos pabellones se señalaban como edificios importantes para la historia de la arquitectura futura. Hecho que se constata con la aparición de los mismos en las historias, incluso en las más recientes, lo que demuestra su condición de hitos en la Historia de la Arquitectura ya consolidada. ABSTRACT Pavilions of the Universal Exhibitions are often considered as ephemeral architecture. However it is worth mentioning that every construction has its time and its extinction period and both of them could be indefinite/infinite, the permanent in the ephemeral. Many of the iconic works of the twentieth century lasted only for a few months, in ephemeral scenarios, changing the course of architecture but not with many images. This leads to question whether their survival under special circumstances or their extinction is mainly due to their experimental nature, and not so much to their ephemeral condition. Pavilions are at the basis of a significant part of the history of contemporary architecture. Specific Universal Exhibitions served as platforms for these landmarks to become myths, be it because of their endurance, or because they no longer exist, or even because in some cases we only have a limited and outdated imagery of them. The different Histories of Architecture highlight the importance of some pavilions and the influence they have had, have and will have some of those that were built for particular Universal Exhibitions. They are a live testimony, lasting over time, playing a specific role as basis for new technological or constructive breakthroughs; to experience new ways of living; or to educate or to raise the profile of their authors hitherto little known. Thanks to their experimental or innovative approach, some pavilions enduring overtime or that have been moved and rebuilt in a new location, or even those that followed their fate and became absent architectures, are still alive in today’s architecture. This thesis analyses the set of elements that contributed to confer the status of landmark to pavilions: what kind of publications speak of them; how they are referred to and the extent to which they are linked to their contemporary production time and / or to their author; what are elements that make them stand out; what are the iconic values that have been established as time goes by and what are those that are still valid…What is it that remains. It also assesses to what extend the condition of pavilion constructions is ephemeral. And finally, what confers them representativeness, giving their inherent need to physically disappear, favoring their absence in the memory. Today this may result somewhat contradictory as the high value of images in contemporary society has made them an essential component of representativeness. They replace remembrances to the point that it seems that what lacks physical manifestation doesn’t exist anymore, and therefore loses representation capacity. However, and considering images as an essential element of what is iconic, in most cases the reconstruction of pavilions upon completion of the exhibitions has leveraged their value as ephemeral architectures; although once deprived of their temporary character, they would lose their reason to exist. The Pavilion of Spain Corrales and Molezún for the Brusels'58 EXPO is a clear example of this, as described in the development of this document. This thesis explores the case of specific pavilions and assesses the role each one had in their final destination, by mainly tracking them in regular publications. Even though the latter is not the objective or the purpose of this thesis, the final destination of these pavilions may have contributed in some cases to grant them their landmark status in the history of architecture. Actually, this thesis is about tracking the events that have led to grant these pavilions their condition as architectural references, as landmark in the history of architecture. The study focuses on pavilions of the Universal Exhibition Brussels'58, Montreal'67 and Osaka'70 for two main reasons: first, their classification by the Bureau International des Expositions (BIE) and Universal Exhibitions 1st category; and second, the period in which they were held, from 1945 to 1970, a time of profound and decisive changes in the architecture and in the development and subsequent revision of modernity after the II World. It analyzes the bibliographic path of the most cited pavilions in the three Universal Exhibitions: in Brussels '58, the pavilion of the RFA by Egon Eiermann and Sep Rup, the pavilion of Philips by Le Corbusier and the Spain pavilion from José Antonio Corrales and Ramón Molezún; in Montreal '67 the pavilion of RFA by Frei Otto and the United States pavilion by Richard Buckminster Fuller; and in Osaka '70, the Theme Pavilion by Kenzo Tange, the Takara Beautilion by Kisho Kurokawa and the Fuji Group pavilion by Yutaka Murata. Through the analysis it is noticeable that in the contemporary publications to the exhibitions, these pavilions were already signaled out as relevant buildings to the future architecture history. The fact that they became part of the history themselves, even in the most recent times, is a prove of their condition as milestones of the consolidated History of Architecture.
Resumo:
Este trabajo presenta un método discreto para el cálculo de estabilidad hidrodinámica y análisis de sensibilidad a perturbaciones externas para ecuaciones diferenciales y en particular para las ecuaciones de Navier-Stokes compressible. Se utiliza una aproximación con variable compleja para obtener una precisión analítica en la evaluación de la matriz Jacobiana. Además, mapas de sensibilidad para la sensibilidad a las modificaciones del flujo de base y a una fuerza constante permiten identificar las regiones del campo fluido donde una modificacin (ej. fuerza puntual) tiene un efecto estabilizador del flujo. Se presentan cuatro casos de prueba: (1) un caso analítico para comprobar la derivación discreta, (2) una cavidad cerrada a bajo Reynolds para mostrar la mayor precisión en el cálculo de los valores propios con la aproximación de paso complejo, (3) flujo 2D en un cilindro circular para validar la metodología, y (4) flujo en un cavidad abierta, presentado para validar el método en casos de inestabilidades convectivamente inestables. Los tres últimos casos mencionados (2-4) se resolvieron con las ecuaciones de Navier-Stokes compresibles, utilizando un método Discontinuous Galerkin Spectral Element Method. Se obtuvo una buena concordancia para el caso de validación (3), cuando se comparó el nuevo método con resultados de la literatura. Además, este trabajo muestra que para el cálculo de los modos propios directos y adjuntos, así como para los mapas de sensibilidad, el uso de variables complejas es de suprema importancia para obtener una predicción precisa. El método descrito es aplicado al análisis para la estabilización de la estela generada por un disco actuador, que representa un modelo sencillo para hélices, rotores de helicópteros o turbinas eólicas. Se explora la primera bifurcación del flujo para un disco actuador, y se sugiere que está asociada a una inestabilidad de tipo Kelvin-Helmholtz, cuya estabilidad se controla con en el número de Reynolds y en la resistencia del disco actuador (o fuerza resistente). En primer lugar, se verifica que la disminución de la resistencia del disco tiene un efecto estabilizador parecido a una disminución del Reynolds. En segundo lugar, el análisis hidrodinmico discreto identifica dos regiones para la colocación de una fuerza puntual que controle las inestabilidades, una cerca del disco y otra en una zona aguas abajo. En tercer lugar, se muestra que la inclusión de un forzamiento localizado cerca del actuador produce una estabilización más eficiente que al forzar aguas abajo. El análisis de los campos de flujo controlados confirma que modificando el gradiente de velocidad cerca del actuador es más eficiente para estabilizar la estela. Estos resultados podrían proporcionar nuevas directrices para la estabilización de la estela de turbinas de viento o de marea cuando estén instaladas en un parque eólico y minimizar las interacciones no estacionarias entre turbinas. ABSTRACT A discrete framework for computing the global stability and sensitivity analysis to external perturbations for any set of partial differential equations is presented. In particular, a complex-step approximation is used to achieve near analytical accuracy for the evaluation of the Jacobian matrix. Sensitivity maps for the sensitivity to base flow modifications and to a steady force are computed to identify regions of the flow field where an input could have a stabilising effect. Four test cases are presented: (1) an analytical test case to prove the theory of the discrete framework, (2) a lid-driven cavity at low Reynolds case to show the improved accuracy in the calculation of the eigenvalues when using the complex-step approximation, (3) the 2D flow past a circular cylinder at just below the critical Reynolds number is used to validate the methodology, and finally, (4) the flow past an open cavity is presented to give an example of the discrete method applied to a convectively unstable case. The latter three (2–4) of the aforementioned cases were solved with the 2D compressible Navier–Stokes equations using a Discontinuous Galerkin Spectral Element Method. Good agreement was obtained for the validation test case, (3), with appropriate results in the literature. Furthermore, it is shown that for the calculation of the direct and adjoint eigenmodes and their sensitivity maps to external perturbations, the use of complex variables is paramount for obtaining an accurate prediction. An analysis for stabilising the wake past an actuator disc, which represents a simple model for propellers, helicopter rotors or wind turbines is also presented. We explore the first flow bifurcation for an actuator disc and it suggests that it is associated to a Kelvin- Helmholtz type instability whose stability relies on the Reynolds number and the flow resistance applied through the disc (or actuator forcing). First, we report that decreasing the disc resistance has a similar stabilising effect to an decrease in the Reynolds number. Second, a discrete sensitivity analysis identifies two regions for suitable placement of flow control forcing, one close to the disc and one far downstream where the instability originates. Third, we show that adding a localised forcing close to the actuator provides more stabilisation that forcing far downstream. The analysis of the controlled flow fields, confirms that modifying the velocity gradient close to the actuator is more efficient to stabilise the wake than controlling the sheared flow far downstream. An interesting application of these results is to provide guidelines for stabilising the wake of wind or tidal turbines when placed in an energy farm to minimise unsteady interactions.
Resumo:
El uso de aritmética de punto fijo es una opción de diseño muy extendida en sistemas con fuertes restricciones de área, consumo o rendimiento. Para producir implementaciones donde los costes se minimicen sin impactar negativamente en la precisión de los resultados debemos llevar a cabo una asignación cuidadosa de anchuras de palabra. Encontrar la combinación óptima de anchuras de palabra en coma fija para un sistema dado es un problema combinatorio NP-hard al que los diseñadores dedican entre el 25 y el 50 % del ciclo de diseño. Las plataformas hardware reconfigurables, como son las FPGAs, también se benefician de las ventajas que ofrece la aritmética de coma fija, ya que éstas compensan las frecuencias de reloj más bajas y el uso más ineficiente del hardware que hacen estas plataformas respecto a los ASICs. A medida que las FPGAs se popularizan para su uso en computación científica los diseños aumentan de tamaño y complejidad hasta llegar al punto en que no pueden ser manejados eficientemente por las técnicas actuales de modelado de señal y ruido de cuantificación y de optimización de anchura de palabra. En esta Tesis Doctoral exploramos distintos aspectos del problema de la cuantificación y presentamos nuevas metodologías para cada uno de ellos: Las técnicas basadas en extensiones de intervalos han permitido obtener modelos de propagación de señal y ruido de cuantificación muy precisos en sistemas con operaciones no lineales. Nosotros llevamos esta aproximación un paso más allá introduciendo elementos de Multi-Element Generalized Polynomial Chaos (ME-gPC) y combinándolos con una técnica moderna basada en Modified Affine Arithmetic (MAA) estadístico para así modelar sistemas que contienen estructuras de control de flujo. Nuestra metodología genera los distintos caminos de ejecución automáticamente, determina las regiones del dominio de entrada que ejercitarán cada uno de ellos y extrae los momentos estadísticos del sistema a partir de dichas soluciones parciales. Utilizamos esta técnica para estimar tanto el rango dinámico como el ruido de redondeo en sistemas con las ya mencionadas estructuras de control de flujo y mostramos la precisión de nuestra aproximación, que en determinados casos de uso con operadores no lineales llega a tener tan solo una desviación del 0.04% con respecto a los valores de referencia obtenidos mediante simulación. Un inconveniente conocido de las técnicas basadas en extensiones de intervalos es la explosión combinacional de términos a medida que el tamaño de los sistemas a estudiar crece, lo cual conlleva problemas de escalabilidad. Para afrontar este problema presen tamos una técnica de inyección de ruidos agrupados que hace grupos con las señales del sistema, introduce las fuentes de ruido para cada uno de los grupos por separado y finalmente combina los resultados de cada uno de ellos. De esta forma, el número de fuentes de ruido queda controlado en cada momento y, debido a ello, la explosión combinatoria se minimiza. También presentamos un algoritmo de particionado multi-vía destinado a minimizar la desviación de los resultados a causa de la pérdida de correlación entre términos de ruido con el objetivo de mantener los resultados tan precisos como sea posible. La presente Tesis Doctoral también aborda el desarrollo de metodologías de optimización de anchura de palabra basadas en simulaciones de Monte-Cario que se ejecuten en tiempos razonables. Para ello presentamos dos nuevas técnicas que exploran la reducción del tiempo de ejecución desde distintos ángulos: En primer lugar, el método interpolativo aplica un interpolador sencillo pero preciso para estimar la sensibilidad de cada señal, y que es usado después durante la etapa de optimización. En segundo lugar, el método incremental gira en torno al hecho de que, aunque es estrictamente necesario mantener un intervalo de confianza dado para los resultados finales de nuestra búsqueda, podemos emplear niveles de confianza más relajados, lo cual deriva en un menor número de pruebas por simulación, en las etapas iniciales de la búsqueda, cuando todavía estamos lejos de las soluciones optimizadas. Mediante estas dos aproximaciones demostramos que podemos acelerar el tiempo de ejecución de los algoritmos clásicos de búsqueda voraz en factores de hasta x240 para problemas de tamaño pequeño/mediano. Finalmente, este libro presenta HOPLITE, una infraestructura de cuantificación automatizada, flexible y modular que incluye la implementación de las técnicas anteriores y se proporciona de forma pública. Su objetivo es ofrecer a desabolladores e investigadores un entorno común para prototipar y verificar nuevas metodologías de cuantificación de forma sencilla. Describimos el flujo de trabajo, justificamos las decisiones de diseño tomadas, explicamos su API pública y hacemos una demostración paso a paso de su funcionamiento. Además mostramos, a través de un ejemplo sencillo, la forma en que conectar nuevas extensiones a la herramienta con las interfaces ya existentes para poder así expandir y mejorar las capacidades de HOPLITE. ABSTRACT Using fixed-point arithmetic is one of the most common design choices for systems where area, power or throughput are heavily constrained. In order to produce implementations where the cost is minimized without negatively impacting the accuracy of the results, a careful assignment of word-lengths is required. The problem of finding the optimal combination of fixed-point word-lengths for a given system is a combinatorial NP-hard problem to which developers devote between 25 and 50% of the design-cycle time. Reconfigurable hardware platforms such as FPGAs also benefit of the advantages of fixed-point arithmetic, as it compensates for the slower clock frequencies and less efficient area utilization of the hardware platform with respect to ASICs. As FPGAs become commonly used for scientific computation, designs constantly grow larger and more complex, up to the point where they cannot be handled efficiently by current signal and quantization noise modelling and word-length optimization methodologies. In this Ph.D. Thesis we explore different aspects of the quantization problem and we present new methodologies for each of them: The techniques based on extensions of intervals have allowed to obtain accurate models of the signal and quantization noise propagation in systems with non-linear operations. We take this approach a step further by introducing elements of MultiElement Generalized Polynomial Chaos (ME-gPC) and combining them with an stateof- the-art Statistical Modified Affine Arithmetic (MAA) based methodology in order to model systems that contain control-flow structures. Our methodology produces the different execution paths automatically, determines the regions of the input domain that will exercise them, and extracts the system statistical moments from the partial results. We use this technique to estimate both the dynamic range and the round-off noise in systems with the aforementioned control-flow structures. We show the good accuracy of our approach, which in some case studies with non-linear operators shows a 0.04 % deviation respect to the simulation-based reference values. A known drawback of the techniques based on extensions of intervals is the combinatorial explosion of terms as the size of the targeted systems grows, which leads to scalability problems. To address this issue we present a clustered noise injection technique that groups the signals in the system, introduces the noise terms in each group independently and then combines the results at the end. In this way, the number of noise sources in the system at a given time is controlled and, because of this, the combinato rial explosion is minimized. We also present a multi-way partitioning algorithm aimed at minimizing the deviation of the results due to the loss of correlation between noise terms, in order to keep the results as accurate as possible. This Ph.D. Thesis also covers the development of methodologies for word-length optimization based on Monte-Carlo simulations in reasonable times. We do so by presenting two novel techniques that explore the reduction of the execution times approaching the problem in two different ways: First, the interpolative method applies a simple but precise interpolator to estimate the sensitivity of each signal, which is later used to guide the optimization effort. Second, the incremental method revolves on the fact that, although we strictly need to guarantee a certain confidence level in the simulations for the final results of the optimization process, we can do it with more relaxed levels, which in turn implies using a considerably smaller amount of samples, in the initial stages of the process, when we are still far from the optimized solution. Through these two approaches we demonstrate that the execution time of classical greedy techniques can be accelerated by factors of up to ×240 for small/medium sized problems. Finally, this book introduces HOPLITE, an automated, flexible and modular framework for quantization that includes the implementation of the previous techniques and is provided for public access. The aim is to offer a common ground for developers and researches for prototyping and verifying new techniques for system modelling and word-length optimization easily. We describe its work flow, justifying the taken design decisions, explain its public API and we do a step-by-step demonstration of its execution. We also show, through an example, the way new extensions to the flow should be connected to the existing interfaces in order to expand and improve the capabilities of HOPLITE.