16 resultados para A Companion to New Media Dynamics
em Universidad Politécnica de Madrid
Resumo:
Intercultural Approaches to Cities and Spaces in Literature, Film, and New Media: a review of new work by Manzanas and Benito and Lopez-Varela and Net
Resumo:
The mechanical behavior of granular materials has been traditionally approached through two theoretical and computational frameworks: macromechanics and micromechanics. Macromechanics focuses on continuum based models. In consequence it is assumed that the matter in the granular material is homogeneous and continuously distributed over its volume so that the smallest element cut from the body possesses the same physical properties as the body. In particular, it has some equivalent mechanical properties, represented by complex and non-linear constitutive relationships. Engineering problems are usually solved using computational methods such as FEM or FDM. On the other hand, micromechanics is the analysis of heterogeneous materials on the level of their individual constituents. In granular materials, if the properties of particles are known, a micromechanical approach can lead to a predictive response of the whole heterogeneous material. Two classes of numerical techniques can be differentiated: computational micromechanics, which consists on applying continuum mechanics on each of the phases of a representative volume element and then solving numerically the equations, and atomistic methods (DEM), which consist on applying rigid body dynamics together with interaction potentials to the particles. Statistical mechanics approaches arise between micro and macromechanics. It tries to state which the expected macroscopic properties of a granular system are, by starting from a micromechanical analysis of the features of the particles and the interactions. The main objective of this paper is to introduce this approach.
Resumo:
Esta tesis propone una completa formulación termo-mecánica para la simulación no-lineal de mecanismos flexibles basada en métodos libres de malla. El enfoque se basa en tres pilares principales: la formulación de Lagrangiano total para medios continuos, la discretización de Bubnov-Galerkin, y las funciones de forma libres de malla. Los métodos sin malla se caracterizan por la definición de un conjunto de funciones de forma en dominios solapados, junto con una malla de integración de las ecuaciones discretas de balance. Dos tipos de funciones de forma se han seleccionado como representación de las familias interpolantes (Funciones de Base Radial) y aproximantes (Mínimos Cuadrados Móviles). Su formulación se ha adaptado haciendo sus parámetros compatibles, y su ausencia de conectividad predefinida se ha aprovechado para interconectar múltiples dominios de manera automática, permitiendo el uso de mallas de fondo no conformes. Se propone una formulación generalizada de restricciones, juntas y contactos, válida para sólidos rígidos y flexibles, siendo estos últimos discretizados mediante elementos finitos (MEF) o libres de malla. La mayor ventaja de este enfoque reside en que independiza completamente el dominio con respecto de las uniones y acciones externas a cada sólido, permitiendo su definición incluso fuera del contorno. Al mismo tiempo, también se minimiza el número de ecuaciones de restricción necesarias para la definición de uniones realistas. Las diversas validaciones, ejemplos y comparaciones detalladas muestran como el enfoque propuesto es genérico y extensible a un gran número de sistemas. En concreto, las comparaciones con el MEF indican una importante reducción del error para igual número de nodos, tanto en simulaciones mecánicas, como térmicas y termo-mecánicas acopladas. A igualdad de error, la eficiencia numérica de los métodos libres de malla es mayor que la del MEF cuanto más grosera es la discretización. Finalmente, la formulación se aplica a un problema de diseño real sobre el mantenimiento de estructuras masivas en el interior de un reactor de fusión, demostrando su viabilidad en análisis de problemas reales, y a su vez mostrando su potencial para su uso en simulación en tiempo real de sistemas no-lineales. A new complete formulation is proposed for the simulation of nonlinear dynamic of multibody systems with thermo-mechanical behaviour. The approach is founded in three main pillars: total Lagrangian formulation, Bubnov-Galerkin discretization, and meshfree shape functions. Meshfree methods are characterized by the definition of a set of shape functions in overlapping domains, and a background grid for integration of the Galerkin discrete equations. Two different types of shape functions have been chosen as representatives of interpolation (Radial Basis Functions), and approximation (Moving Least Squares) families. Their formulation has been adapted to use compatible parameters, and their lack of predefined connectivity is used to interconnect different domains seamlessly, allowing the use of non-conforming meshes. A generalized formulation for constraints, joints, and contacts is proposed, which is valid for rigid and flexible solids, being the later discretized using either finite elements (FEM) or meshfree methods. The greatest advantage of this approach is that makes the domain completely independent of the external links and actions, allowing to even define them outside of the boundary. At the same time, the number of constraint equations needed for defining realistic joints is minimized. Validation, examples, and benchmarks are provided for the proposed formulation, demonstrating that the approach is generic and extensible to further problems. Comparisons with FEM show a much lower error for the same number of nodes, both for mechanical and thermal analyses. The numerical efficiency is also better when coarse discretizations are used. A final demonstration to a real problem for handling massive structures inside of a fusion reactor is presented. It demonstrates that the application of meshfree methods is feasible and can provide an advantage towards the definition of nonlinear real-time simulation models.
Resumo:
The traditional buildings in the historic center of the city of Arequipa, Perú, recently declared of human heritage, are of volcanic tuff both in walls and in vaulted roofs on the ground floor. Having been built in the 18th century and up to the beginning of the 20th century, they have suffered many damages from the seismic movements registered in this region. Due to this, many of them have had to be rebuilt. In this presentation, the different changes to adapt the city of Spanish colonial origin to the present tertiary use are analyzed.
Resumo:
The Darwin theory of evolution by natural selection is based on three principles: (a) variation; (b) inheritance; and (c) natural selection. Here, I take these principles as an excuse to review some topics related to the future research prospects in Animal Breeding. With respect to the first principle I describe two forms of variation different from mutation that are becoming increasingly important: variation in copy number and microRNAs. With respect to the second principle I comment on the possible relevance of non-mendelian inheritance, the so-called epigenetic effects, of which the genomic imprinting is the best characterized in domestic species. Regarding selection principle I emphasize the importance of selection for social traits and how this could contribute to both productivity and animal welfare. Finally, I analyse the impact of molecular biology in Animal Breeding, the achievements and limitations of quantitative trait locus and classical marker-assisted selection and the future of genomic selection
Resumo:
Soil-Borne Pathogens Associated to New Crops of Cherry Tomato in the Province of Granada Spain
Resumo:
Mapping of the Music Ontology to the Media Value Chain Ontology and the PROV Ontology
Resumo:
We present an educational software addressed to the students of optical communication courses, for a simple visualization of the basic dynamic processes of semiconductor lasers. The graphic interface allows the user to choose the laser and the modulation parameters and it plots the laser power output and instantaneous frequency versus time. Additionally, the optical frequency variations are numerically shifted into the audible frequency range in order to produce a sound wave from the computer loudspeakers. Using the proposed software, the student can simultaneously see and hear how the laser intensity and frequency change, depending on the modulation and device parameters.
Resumo:
Personalization has become a key factor for the success of new ICT services. However, the personal information required is not always available in a single site, but scattered in heterogeneous sources, and extracting knowledge from raw information is not an easy job. As a result, many organizations struggle to obtain knowledge on their users useful enough for their business purposes. This paper introduces a comprehensive personal data framework that opens the knowledge extraction process up to collaboration by the involvement of new actors, while enabling users to monitor and control it. The contributions have been validated in a financial services scenario where socioeconomic knowledge on some users is generated by tapping into their social network and used to assists them in raising money from their friends.
Resumo:
The new user cold start issue represents a serious problem in recommender systems as it can lead to the loss of new users who decide to stop using the system due to the lack of accuracy in the recommenda- tions received in that first stage in which they have not yet cast a significant number of votes with which to feed the recommender system?s collaborative filtering core. For this reason it is particularly important to design new similarity metrics which provide greater precision in the results offered to users who have cast few votes. This paper presents a new similarity measure perfected using optimization based on neu- ral learning, which exceeds the best results obtained with current metrics. The metric has been tested on the Netflix and Movielens databases, obtaining important improvements in the measures of accuracy, precision and recall when applied to new user cold start situations. The paper includes the mathematical formalization describing how to obtain the main quality measures of a recommender system using leave- one-out cross validation.
Resumo:
Los estudios sobre la asignación del carbono en los ecosistemas forestales proporcionan información esencial para la comprensión de las diferencias espaciales y temporales en el ciclo del carbono de tal forma que pueden aportar información a los modelos y, así predecir las posibles respuestas de los bosques a los cambios en el clima. Dentro de este contexto, los bosques Amazónicos desempeñan un papel particularmente importante en el balance global del carbono; no obstante, existen grandes incertidumbres en cuanto a los controles abióticos en las tasas de la producción primaria neta (PPN), la asignación de los productos de la fotosíntesis a los diferentes componentes o compartimentos del ecosistema (aéreo y subterráneo) y, cómo estos componentes de la asignación del carbono responden a eventos climáticos extremos. El objetivo general de esta tesis es analizar los componentes de la asignación del carbono en bosques tropicales maduros sobre suelos contrastantes, que crecen bajo condiciones climáticas similares en dos sitios ubicados en la Amazonia noroccidental (Colombia): el Parque Natural Nacional Amacayacu y la Estación Biológica Zafire. Con este objetivo, realicé mediciones de los componentes de la asignación del carbono (biomasa, productividad primaria neta, y su fraccionamiento) a nivel ecosistémico y de la dinámica forestal (tasas anuales de mortalidad y reclutamiento), a lo largo de ocho años (20042012) en seis parcelas permanentes de 1 hectárea establecidas en cinco tipos de bosques sobre suelos diferentes (arcilloso, franco-arcilloso, franco-arcilloso-arenoso, franco-arenoso y arena-francosa). Toda esta información me permitió abordar preguntas específicas que detallo a continuación. En el Capítulo 2 evalúe la hipótesis de que a medida que aumenta la fertilidad del suelo disminuye la cantidad del carbono asignado a la producción subterránea (raíces finas con diámetro <2 mm). Y para esto, realicé mediciones de la masa y la producción de raíces finas usando dos métodos: (1) el de los cilindros de crecimiento y, (2) el de los cilindros de extracción secuencial. El monitoreo se realizó durante 2.2 años en los bosques con suelos más contrastantes: arcilla y arena-francosa. Encontré diferencias significativas en la masa de raíces finas y su producción entre los bosques y, también con respecto a la profundidad del suelo (010 y 1020 cm). El bosque sobre arena-francosa asignó más carbono a las raíces finas que el bosque sobre arcillas. La producción de raíces finas en el bosque sobre arena-francosa fue dos veces más alta (media ± error estándar = 2.98 ± 0.36 y 3.33 ± 0.69 Mg C ha1 año1, con el método 1 y 2, respectivamente), que para el bosque sobre arcillas, el suelo más fértil (1.51 ± 0.14, método 1, y desde 1.03 ± 0.31 a 1.36 ± 0.23 Mg C ha1 año1, método 2). Del mismo modo, el promedio de la masa de raíces finas fue tres veces mayor en el bosque sobre arena-francosa (5.47 ± 0.17 Mg C ha1) que en el suelo más fértil (de 1.52 ± 0.08 a 1.82 ± 0.09 Mg C ha1). La masa de las raíces finas también mostró un patrón temporal relacionado con la lluvia, mostrando que la producción de raíces finas disminuyó sustancialmente en el período seco del año 2005. Estos resultados sugieren que los recursos del suelo pueden desempeñar un papel importante en los patrones de la asignación del carbono entre los componentes aéreo y subterráneo de los bosques tropicales; y que el suelo no sólo influye en las diferencias en la masa de raíces finas y su producción, sino que también, en conjunto con la lluvia, sobre la estacionalidad de la producción. En el Capítulo 3 estimé y analicé los tres componentes de la asignación del carbono a nivel del ecosistema: la biomasa, la productividad primaria neta PPN, y su fraccionamiento, en los mismos bosques del Capítulo 2 (el bosque sobre arcillas y el bosque sobre arena-francosa). Encontré diferencias significativas en los patrones de la asignación del carbono entre los bosques; el bosque sobre arcillas presentó una mayor biomasa total y aérea, así como una PPN, que el bosque sobre arena-francosa. Sin embargo, la diferencia entre los dos bosques en términos de la productividad primaria neta total fue menor en comparación con las diferencias entre la biomasa total de los bosques, como consecuencia de las diferentes estrategias en la asignación del carbono a los componentes aéreo y subterráneo del bosque. La proporción o fracción de la PPN asignada a la nueva producción de follaje fue relativamente similar entre los dos bosques. Nuestros resultados de los incrementos de la biomasa aérea sugieren una posible compensación entre la asignación del carbono al crecimiento de las raíces finas versus el de la madera, a diferencia de la compensación comúnmente asumida entre la parte aérea y la subterránea en general. A pesar de estas diferencias entre los bosques en términos de los componentes de la asignación del carbono, el índice de área foliar fue relativamente similar entre ellos, lo que sugiere que el índice de área foliar es más un indicador de la PPN total que de la asignación de carbono entre componentes. En el Capítulo 4 evalué la variación espacial y temporal de los componentes de la asignación del carbono y la dinámica forestal de cinco tipos e bosques amazónicos y sus respuestas a fluctuaciones en la precipitación, lo cual es completamente relevante en el ciclo global del carbono y los procesos biogeoquímicos en general. Estas variaciones son así mismo importantes para evaluar los efectos de la sequía o eventos extremos sobre la dinámica natural de los bosques amazónicos. Evalué la variación interanual y la estacionalidad de los componentes de la asignación del carbono y la dinámica forestal durante el periodo 2004−2012, en cinco bosques maduros sobre diferentes suelos (arcilloso, franco-arcilloso, franco-arcilloso-arenoso, franco-arenoso y arena-francosa), todos bajo el mismo régimen local de precipitación en la Amazonia noroccidental (Colombia). Quería examinar sí estos bosques responden de forma similar a las fluctuaciones en la precipitación, tal y como pronostican muchos modelos. Consideré las siguientes preguntas: (i) ¿Existe una correlación entre los componentes de la asignación del carbono y la dinámica forestal con la precipitación? (ii) ¿Existe correlación entre los bosques? (iii) ¿Es el índice de área foliar (LAI) un indicador de las variaciones en la producción aérea o es un reflejo de los cambios en los patrones de la asignación del carbono entre bosques?. En general, la correlación entre los componentes aéreo y subterráneo de la asignación del carbono con la precipitación sugiere que los suelos juegan un papel importante en las diferencias espaciales y temporales de las respuestas de estos bosques a las variaciones en la precipitación. Por un lado, la mayoría de los bosques mostraron que los componentes aéreos de la asignación del carbono son susceptibles a las fluctuaciones en la precipitación; sin embargo, el bosque sobre arena-francosa solamente presentó correlación con la lluvia con el componente subterráneo (raíces finas). Por otra parte, a pesar de que el noroeste Amazónico es considerado sin una estación seca propiamente (definida como <100 mm meses −1), la hojarasca y la masa de raíces finas mostraron una alta variabilidad y estacionalidad, especialmente marcada durante la sequía del 2005. Además, los bosques del grupo de suelos francos mostraron que la hojarasca responde a retrasos en la precipitación, al igual que la masa de raíces finas del bosque sobre arena-francosa. En cuanto a la dinámica forestal, sólo la tasa de mortalidad del bosque sobre arena-francosa estuvo correlacionada con la precipitación (ρ = 0.77, P <0.1). La variabilidad interanual en los incrementos en el tallo y la biomasa de los individuos resalta la importancia de la mortalidad en la variación de los incrementos en la biomasa aérea. Sin embargo, las tasas de mortalidad y las proporciones de individuos muertos por categoría de muerte (en pie, caído de raíz, partido y desaparecido), no mostraron tendencias claras relacionadas con la sequía. Curiosamente, la hojarasca, el incremento en la biomasa aérea y las tasas de reclutamiento mostraron una alta correlación entre los bosques, en particular dentro del grupo de los bosques con suelos francos. Sin embargo, el índice de área foliar estimado para los bosques con suelos más contrastantes (arcilla y arena-francosa), no presentó correlación significativa con la lluvia; no obstante, estuvo muy correlacionado entre bosques; índice de área foliar no reflejó las diferencias en la asignación de los componentes del carbono, y su respuesta a la precipitación en estos bosques. Por último, los bosques estudiados muestran que el noroeste amazónico es susceptible a fenómenos climáticos, contrario a lo propuesto anteriormente debido a la ausencia de una estación seca propiamente dicha. ABSTRACT Studies of carbon allocation in forests provide essential information for understanding spatial and temporal differences in carbon cycling that can inform models and predict possible responses to changes in climate. Amazon forests play a particularly significant role in the global carbon balance, but there are still large uncertainties regarding abiotic controls on the rates of net primary production (NPP) and the allocation of photosynthetic products to different ecosystem components; and how the carbon allocation components of Amazon forests respond to extreme climate events. The overall objective of this thesis is to examine the carbon allocation components in old-growth tropical forests on contrasting soils, and under similar climatic conditions in two sites at the Amacayacu National Natural Park and the Zafire Biological Station, located in the north-western Amazon (Colombia). Measurements of above- and below-ground carbon allocation components (biomass, net primary production, and its partitioning) at the ecosystem level, and dynamics of tree mortality and recruitment were done along eight years (20042012) in six 1-ha plots established in five Amazon forest types on different soils (clay, clay-loam, sandy-clay-loam, sandy-loam and loamy-sand) to address specific questions detailed in the next paragraphs. In Chapter 2, I evaluated the hypothesis that as soil fertility increases the amount of carbon allocated to below-ground production (fine-roots) should decrease. To address this hypothesis the standing crop mass and production of fine-roots (<2 mm) were estimated by two methods: (1) ingrowth cores and, (2) sequential soil coring, during 2.2 years in the most contrasting forests: the clay-soil forest and the loamy-sand forest. We found that the standing crop fine-root mass and its production were significantly different between forests and also between soil depths (0–10 and 10–20 cm). The loamysand forest allocated more carbon to fine-roots than the clay-soil forest, with fine-root production in the loamy-sand forest twice (mean ± standard error = 2.98 ± 0.36 and 3.33 ± 0.69 Mg C ha −1 yr −1, method 1 and 2, respectively) as much as for the more fertile claysoil forest (1.51 ± 0.14, method 1, and from 1.03 ± 0.31 to 1.36 ± 0.23 Mg C ha −1 yr −1, method 2). Similarly, the average of standing crop fine-root mass was three times higher in the loamy-sand forest (5.47 ± 0.17 Mg C ha1) than in the more fertile soil (from 1.52 ± 0.08 a 1.82 ± 0.09 Mg C ha1). The standing crop fine-root mass also showed a temporal pattern related to rainfall, with the production of fine-roots decreasing substantially in the dry period of the year 2005. These results suggest that soil resources may play an important role in patterns of carbon allocation of below-ground components, not only driven the differences in the biomass and its production, but also in the time when it is produced. In Chapter 3, I assessed the three components of stand-level carbon allocation (biomass, NPP, and its partitioning) for the same forests evaluated in Chapter 2 (clay-soil forest and loamy-sand forest). We found differences in carbon allocation patterns between these two forests, showing that the forest on clay-soil had a higher aboveground and total biomass as well as a higher above-ground NPP than the loamy-sand forest. However, differences between the two types of forests in terms of stand-level NPP were smaller, as a consequence of different strategies in the carbon allocation of above- and below-ground components. The proportional allocation of NPP to new foliage production was relatively similar between the two forests. Our results of aboveground biomass increments and fine-root production suggest a possible trade-off between carbon allocation to fine-roots versus wood growth (as it has been reported by other authors), as opposed to the most commonly assumed trade-off between total above- and below-ground production. Despite these differences among forests in terms of carbon allocation components, the leaf area index showed differences between forests like total NPP, suggesting that the leaf area index is more indicative of total NPP than carbon allocation. In Chapter 4, I evaluated the spatial and temporal variation of carbon allocation components and forest dynamics of Amazon forests as well as their responses to climatic fluctuations. I evaluated the intra- and inter-annual variation of carbon allocation components and forest dynamics during the period 2004−2012 in five forests on different soils (clay, clay-loam, sandy-clay-loam, sandy-loam and loamy-sand), but growing under the same local precipitation regime in north-western Amazonia (Colombia). We were interested in examining if these forests respond similarly to rainfall fluctuations as many models predict, considering the following questions: (i) Is there a correlation in carbon allocation components and forest dynamics with precipitation? (ii) Is there a correlation among forests? (iii) Are temporal responses in leaf area index (LAI) indicative of variations of above-ground production or a reflection of changes in carbon allocation patterns among forests?. Overall, the correlation of above- and below-ground carbon allocation components with rainfall suggests that soils play an important role in the spatial and temporal differences of responses of these forests to rainfall fluctuations. On the one hand, most forests showed that the above-ground components are susceptible to rainfall fluctuations; however, there was a forest on loamy-sand that only showed a correlation with the below-ground component (fine-roots). On the other hand, despite the fact that north-western Amazonia is considered without a conspicuous dry season (defined as <100 mm month−1), litterfall and fine-root mass showed high seasonality and variability, particularly marked during the drought of 2005. Additionally, forests of the loam-soil group showed that litterfall respond to time-lags in rainfall as well as and the fine-root mass of the loamy-sand forest. With regard to forest dynamics, only the mortality rate of the loamy-sand forest was significantly correlated with rainfall (77%). The observed inter-annual variability of stem and biomass increments of individuals highlighted the importance of the mortality in the above-ground biomass increment. However, mortality rates and death type proportion did not show clear trends related to droughts. Interestingly, litterfall, above-ground biomass increment and recruitment rates of forests showed high correlation among forests, particularly within the loam-soil forests group. Nonetheless, LAI measured in the most contrasting forests (clay-soil and loamysand) was poorly correlated with rainfall but highly correlated between forests; LAI did not reflect the differences in the carbon allocation components, and their response to rainfall on these forests. Finally, the forests studied highlight that north-western Amazon forests are also susceptible to climate fluctuations, contrary to what has been proposed previously due to their lack of a pronounced dry season.
Resumo:
Motivado por los últimos hallazgos realizados gracias a los recientes avances tecnológicos y misiones espaciales, el estudio de los asteroides ha despertado el interés de la comunidad científica. Tal es así que las misiones a asteroides han proliferado en los últimos años (Hayabusa, Dawn, OSIRIX-REx, ARM, AIMS-DART, ...) incentivadas por su enorme interés científico. Los asteroides son constituyentes fundamentales en la evolución del Sistema Solar, son además grandes concentraciones de valiosos recursos naturales, y también pueden considerarse como objectivos estratégicos para la futura exploración espacial. Desde hace tiempo se viene especulando con la posibilidad de capturar objetos próximos a la Tierra (NEOs en su acrónimo anglosajón) y acercarlos a nuestro planeta, permitiendo así un acceso asequible a los mismos para estudiarlos in-situ, explotar sus recursos u otras finalidades. Por otro lado, las asteroides se consideran con frecuencia como posibles peligros de magnitud planetaria, ya que impactos de estos objetos con la Tierra suceden constantemente, y un asteroide suficientemente grande podría desencadenar eventos catastróficos. Pese a la gravedad de tales acontecimientos, lo cierto es que son ciertamente difíciles de predecir. De hecho, los ricos aspectos dinámicos de los asteroides, su modelado complejo y las incertidumbres observaciones hacen que predecir su posición futura con la precisión necesaria sea todo un reto. Este hecho se hace más relevante cuando los asteroides sufren encuentros próximos con la Tierra, y más aún cuando estos son recurrentes. En tales situaciones en las cuales fuera necesario tomar medidas para mitigar este tipo de riesgos, saber estimar con precisión sus trayectorias y probabilidades de colisión es de una importancia vital. Por ello, se necesitan herramientas avanzadas para modelar su dinámica y predecir sus órbitas con precisión, y son también necesarios nuevos conceptos tecnológicos para manipular sus órbitas llegado el caso. El objetivo de esta Tesis es proporcionar nuevos métodos, técnicas y soluciones para abordar estos retos. Las contribuciones de esta Tesis se engloban en dos áreas: una dedicada a la propagación numérica de asteroides, y otra a conceptos de deflexión y captura de asteroides. Por lo tanto, la primera parte de este documento presenta novedosos avances de apliación a la propagación dinámica de alta precisión de NEOs empleando métodos de regularización y perturbaciones, con especial énfasis en el método DROMO, mientras que la segunda parte expone ideas innovadoras para la captura de asteroides y comenta el uso del “ion beam shepherd” (IBS) como tecnología para deflectarlos. Abstract Driven by the latest discoveries enabled by recent technological advances and space missions, the study of asteroids has awakened the interest of the scientific community. In fact, asteroid missions have become very popular in the recent years (Hayabusa, Dawn, OSIRIX-REx, ARM, AIMS-DART, ...) motivated by their outstanding scientific interest. Asteroids are fundamental constituents in the evolution of the Solar System, can be seen as vast concentrations of valuable natural resources, and are also considered as strategic targets for the future of space exploration. For long it has been hypothesized with the possibility of capturing small near-Earth asteroids and delivering them to the vicinity of the Earth in order to allow an affordable access to them for in-situ science, resource utilization and other purposes. On the other side of the balance, asteroids are often seen as potential planetary hazards, since impacts with the Earth happen all the time, and eventually an asteroid large enough could trigger catastrophic events. In spite of the severity of such occurrences, they are also utterly hard to predict. In fact, the rich dynamical aspects of asteroids, their complex modeling and observational uncertainties make exceptionally challenging to predict their future position accurately enough. This becomes particularly relevant when asteroids exhibit close encounters with the Earth, and more so when these happen recurrently. In such situations, where mitigation measures may need to be taken, it is of paramount importance to be able to accurately estimate their trajectories and collision probabilities. As a consequence, advanced tools are needed to model their dynamics and accurately predict their orbits, as well as new technological concepts to manipulate their orbits if necessary. The goal of this Thesis is to provide new methods, techniques and solutions to address these challenges. The contributions of this Thesis fall into two areas: one devoted to the numerical propagation of asteroids, and another to asteroid deflection and capture concepts. Hence, the first part of the dissertation presents novel advances applicable to the high accuracy dynamical propagation of near-Earth asteroids using regularization and perturbations techniques, with a special emphasis in the DROMO method, whereas the second part exposes pioneering ideas for asteroid retrieval missions and discusses the use of an “ion beam shepherd” (IBS) for asteroid deflection purposes.
Resumo:
El objetivo de esta tesis es estudiar la dinámica de la capa logarítmica de flujos turbulentos de pared. En concreto, proponemos un nuevo modelo estructural utilizando diferentes tipos de estructuras coherentes: sweeps, eyecciones, grupos de vorticidad y streaks. La herramienta utilizada es la simulación numérica directa de canales turbulentos. Desde los primeros trabajos de Theodorsen (1952), las estructuras coherentes han jugado un papel fundamental para entender la organización y dinámica de los flujos turbulentos. A día de hoy, datos procedentes de simulaciones numéricas directas obtenidas en instantes no contiguos permiten estudiar las propiedades fundamentales de las estructuras coherentes tridimensionales desde un punto de vista estadístico. Sin embargo, la dinámica no puede ser entendida en detalle utilizando sólo instantes aislados en el tiempo, sino que es necesario seguir de forma continua las estructuras. Aunque existen algunos estudios sobre la evolución temporal de las estructuras más pequeñas a números de Reynolds moderados, por ejemplo Robinson (1991), todavía no se ha realizado un estudio completo a altos números de Reynolds y para todas las escalas presentes de la capa logarítmica. El objetivo de esta tesis es llevar a cabo dicho análisis. Los problemas más interesantes los encontramos en la región logarítmica, donde residen las cascadas de vorticidad, energía y momento. Existen varios modelos que intentan explicar la organización de los flujos turbulentos en dicha región. Uno de los más extendidos fue propuesto por Adrian et al. (2000) a través de observaciones experimentales y considerando como elemento fundamental paquetes de vórtices con forma de horquilla que actúan de forma cooperativa para generar rampas de bajo momento. Un modelo alternativo fué ideado por del Álamo & Jiménez (2006) utilizando datos numéricos. Basado también en grupos de vorticidad, planteaba un escenario mucho más desorganizado y con estructuras sin forma de horquilla. Aunque los dos modelos son cinemáticamente similares, no lo son desde el punto de vista dinámico, en concreto en lo que se refiere a la importancia que juega la pared en la creación y vida de las estructuras. Otro punto importante aún sin resolver se refiere al modelo de cascada turbulenta propuesto por Kolmogorov (1941b), y su relación con estructuras coherentes medibles en el flujo. Para dar respuesta a las preguntas anteriores, hemos desarrollado un nuevo método que permite seguir estructuras coherentes en el tiempo y lo hemos aplicado a simulaciones numéricas de canales turbulentos con números de Reynolds lo suficientemente altos como para tener un rango de escalas no trivial y con dominios computacionales lo suficientemente grandes como para representar de forma correcta la dinámica de la capa logarítmica. Nuestros esfuerzos se han desarrollado en cuatro pasos. En primer lugar, hemos realizado una campaña de simulaciones numéricas directas a diferentes números de Reynolds y tamaños de cajas para evaluar el efecto del dominio computacional en las estadísticas de primer orden y el espectro. A partir de los resultados obtenidos, hemos concluido que simulaciones con cajas de longitud 2vr y ancho vr veces la semi-altura del canal son lo suficientemente grandes para reproducir correctamente las interacciones entre estructuras coherentes de la capa logarítmica y el resto de escalas. Estas simulaciones son utilizadas como punto de partida en los siguientes análisis. En segundo lugar, las estructuras coherentes correspondientes a regiones con esfuerzos de Reynolds tangenciales intensos (Qs) en un canal turbulento han sido estudiadas extendiendo a tres dimensiones el análisis de cuadrantes, con especial énfasis en la capa logarítmica y la región exterior. Las estructuras coherentes han sido identificadas como regiones contiguas del espacio donde los esfuerzos de Reynolds tangenciales son más intensos que un cierto nivel. Los resultados muestran que los Qs separados de la pared están orientados de forma isótropa y su contribución neta al esfuerzo de Reynolds medio es nula. La mayor contribución la realiza una familia de estructuras de mayor tamaño y autosemejantes cuya parte inferior está muy cerca de la pared (ligada a la pared), con una geometría compleja y dimensión fractal « 2. Estas estructuras tienen una forma similar a una ‘esponja de placas’, en comparación con los grupos de vorticidad que tienen forma de ‘esponja de cuerdas’. Aunque el número de objetos decae al alejarnos de la pared, la fracción de esfuerzos de Reynolds que contienen es independiente de su altura, y gran parte reside en unas pocas estructuras que se extienden más allá del centro del canal, como en las grandes estructuras propuestas por otros autores. Las estructuras dominantes en la capa logarítmica son parejas de sweeps y eyecciones uno al lado del otro y con grupos de vorticidad asociados que comparten las dimensiones y esfuerzos con los remolinos ligados a la pared propuestos por Townsend. En tercer lugar, hemos estudiado la evolución temporal de Qs y grupos de vorticidad usando las simulaciones numéricas directas presentadas anteriormente hasta números de Reynolds ReT = 4200 (Reynolds de fricción). Las estructuras fueron identificadas siguiendo el proceso descrito en el párrafo anterior y después seguidas en el tiempo. A través de la interseción geométrica de estructuras pertenecientes a instantes de tiempo contiguos, hemos creado gratos de conexiones temporales entre todos los objetos y, a partir de ahí, definido ramas primarias y secundarias, de tal forma que cada rama representa la evolución temporal de una estructura coherente. Una vez que las evoluciones están adecuadamente organizadas, proporcionan toda la información necesaria para caracterizar la historia de las estructuras desde su nacimiento hasta su muerte. Los resultados muestran que las estructuras nacen a todas las distancias de la pared, pero con mayor probabilidad cerca de ella, donde la cortadura es más intensa. La mayoría mantienen tamaños pequeños y no viven mucho tiempo, sin embargo, existe una familia de estructuras que crecen lo suficiente como para ligarse a la pared y extenderse a lo largo de la capa logarítmica convirtiéndose en las estructuras observas anteriormente y descritas por Townsend. Estas estructuras son geométricamente autosemejantes con tiempos de vida proporcionales a su tamaño. La mayoría alcanzan tamaños por encima de la escala de Corrsin, y por ello, su dinámica está controlada por la cortadura media. Los resultados también muestran que las eyecciones se alejan de la pared con velocidad media uT (velocidad de fricción) y su base se liga a la pared muy rápidamente al inicio de sus vidas. Por el contrario, los sweeps se mueven hacia la pared con velocidad -uT y se ligan a ella más tarde. En ambos casos, los objetos permanecen ligados a la pared durante 2/3 de sus vidas. En la dirección de la corriente, las estructuras se desplazan a velocidades cercanas a la convección media del flujo y son deformadas por la cortadura. Finalmente, hemos interpretado la cascada turbulenta, no sólo como una forma conceptual de organizar el flujo, sino como un proceso físico en el cual las estructuras coherentes se unen y se rompen. El volumen de una estructura cambia de forma suave, cuando no se une ni rompe, o lo hace de forma repentina en caso contrario. Los procesos de unión y rotura pueden entenderse como una cascada directa (roturas) o inversa (uniones), siguiendo el concepto de cascada de remolinos ideado por Richardson (1920) y Obukhov (1941). El análisis de los datos muestra que las estructuras con tamaños menores a 30η (unidades de Kolmogorov) nunca se unen ni rompen, es decir, no experimentan el proceso de cascada. Por el contrario, aquellas mayores a 100η siempre se rompen o unen al menos una vez en su vida. En estos casos, el volumen total ganado y perdido es una fracción importante del volumen medio de la estructura implicada, con una tendencia ligeramente mayor a romperse (cascada directa) que a unirse (cascade inversa). La mayor parte de interacciones entre ramas se debe a roturas o uniones de fragmentos muy pequeños en la escala de Kolmogorov con estructuras más grandes, aunque el efecto de fragmentos de mayor tamaño no es despreciable. También hemos encontrado que las roturas tienen a ocurrir al final de la vida de la estructura y las uniones al principio. Aunque los resultados para la cascada directa e inversa no son idénticos, son muy simétricos, lo que sugiere un alto grado de reversibilidad en el proceso de cascada. ABSTRACT The purpose of the present thesis is to study the dynamics of the logarithmic layer of wall-bounded turbulent flows. Specifically, to propose a new structural model based on four different coherent structures: sweeps, ejections, clusters of vortices and velocity streaks. The tool used is the direct numerical simulation of time-resolved turbulent channels. Since the first work by Theodorsen (1952), coherent structures have played an important role in the understanding of turbulence organization and its dynamics. Nowadays, data from individual snapshots of direct numerical simulations allow to study the threedimensional statistical properties of those objects, but their dynamics can only be fully understood by tracking them in time. Although the temporal evolution has already been studied for small structures at moderate Reynolds numbers, e.g., Robinson (1991), a temporal analysis of three-dimensional structures spanning from the smallest to the largest scales across the logarithmic layer has yet to be performed and is the goal of the present thesis. The most interesting problems lie in the logarithmic region, which is the seat of cascades of vorticity, energy, and momentum. Different models involving coherent structures have been proposed to represent the organization of wall-bounded turbulent flows in the logarithmic layer. One of the most extended ones was conceived by Adrian et al. (2000) and built on packets of hairpins that grow from the wall and work cooperatively to gen- ´ erate low-momentum ramps. A different view was presented by del Alamo & Jim´enez (2006), who extracted coherent vortical structures from DNSs and proposed a less organized scenario. Although the two models are kinematically fairly similar, they have important dynamical differences, mostly regarding the relevance of the wall. Another open question is whether such a model can be used to explain the cascade process proposed by Kolmogorov (1941b) in terms of coherent structures. The challenge would be to identify coherent structures undergoing a turbulent cascade that can be quantified. To gain a better insight into the previous questions, we have developed a novel method to track coherent structures in time, and used it to characterize the temporal evolutions of eddies in turbulent channels with Reynolds numbers high enough to include a non-trivial range of length scales, and computational domains sufficiently long and wide to reproduce correctly the dynamics of the logarithmic layer. Our efforts have followed four steps. First, we have conducted a campaign of direct numerical simulations of turbulent channels at different Reynolds numbers and box sizes, and assessed the effect of the computational domain in the one-point statistics and spectra. From the results, we have concluded that computational domains with streamwise and spanwise sizes 2vr and vr times the half-height of the channel, respectively, are large enough to accurately capture the dynamical interactions between structures in the logarithmic layer and the rest of the scales. These simulations are used in the subsequent chapters. Second, the three-dimensional structures of intense tangential Reynolds stress in plane turbulent channels (Qs) have been studied by extending the classical quadrant analysis to three dimensions, with emphasis on the logarithmic and outer layers. The eddies are identified as connected regions of intense tangential Reynolds stress. Qs are then classified according to their streamwise and wall-normal fluctuating velocities as inward interactions, outward interactions, sweeps and ejections. It is found that wall-detached Qs are isotropically oriented background stress fluctuations, common to most turbulent flows, and do not contribute to the mean stress. Most of the stress is carried by a selfsimilar family of larger wall-attached Qs, increasingly complex away from the wall, with fractal dimensions « 2. They have shapes similar to ‘sponges of flakes’, while vortex clusters resemble ‘sponges of strings’. Although their number decays away from the wall, the fraction of the stress that they carry is independent of their heights, and a substantial part resides in a few objects extending beyond the centerline, reminiscent of the very large scale motions of several authors. The predominant logarithmic-layer structures are sideby- side pairs of sweeps and ejections, with an associated vortex cluster, and dimensions and stresses similar to Townsend’s conjectured wall-attached eddies. Third, the temporal evolution of Qs and vortex clusters are studied using time-resolved DNS data up to ReT = 4200 (friction Reynolds number). The eddies are identified following the procedure presented above, and then tracked in time. From the geometric intersection of structures in consecutive fields, we have built temporal connection graphs of all the objects, and defined main and secondary branches in a way that each branch represents the temporal evolution of one coherent structure. Once these evolutions are properly organized, they provide the necessary information to characterize eddies from birth to death. The results show that the eddies are born at all distances from the wall, although with higher probability near it, where the shear is strongest. Most of them stay small and do not last for long times. However, there is a family of eddies that become large enough to attach to the wall while they reach into the logarithmic layer, and become the wall-attached structures previously observed in instantaneous flow fields. They are geometrically self-similar, with sizes and lifetimes proportional to their distance from the wall. Most of them achieve lengths well above the Corrsin’ scale, and hence, their dynamics are controlled by the mean shear. Eddies associated with ejections move away from the wall with an average velocity uT (friction velocity), and their base attaches very fast at the beginning of their lives. Conversely, sweeps move towards the wall at -uT, and attach later. In both cases, they remain attached for 2/3 of their lives. In the streamwise direction, eddies are advected and deformed by the local mean velocity. Finally, we interpret the turbulent cascade not only as a way to conceptualize the flow, but as an actual physical process in which coherent structures merge and split. The volume of an eddy can change either smoothly, when they are not merging or splitting, or through sudden changes. The processes of merging and splitting can be thought of as a direct (when splitting) or an inverse (when merging) cascade, following the ideas envisioned by Richardson (1920) and Obukhov (1941). It is observed that there is a minimum length of 30η (Kolmogorov units) above which mergers and splits begin to be important. Moreover, all eddies above 100η split and merge at least once in their lives. In those cases, the total volume gained and lost is a substantial fraction of the average volume of the structure involved, with slightly more splits (direct cascade) than mergers. Most branch interactions are found to be the shedding or absorption of Kolmogorov-scale fragments by larger structures, but more balanced splits or mergers spanning a wide range of scales are also found to be important. The results show that splits are more probable at the end of the life of the eddy, while mergers take place at the beginning of the life. Although the results for the direct and the inverse cascades are not identical, they are found to be very symmetric, which suggests a high degree of reversibility of the cascade process.
Resumo:
There is a well-distinguished group of asteroids for which the roto-translational cou-pling is known to have a non-negligible e�ect in the long-term. The study of such asteroids suggests the use of specialized propagation techniques, where perturbation methods make their best. The techniques from which the special regularization method DROMO is derived, have now been extended to the attitude dynamics, with equally remarkable results in terms of speed and accuracy, thus making the combination of these algorithms specially. well-suited to deal with the propagation of bodies with strong attitude coupling.
Resumo:
Estudios recientes promueven la integración de estímulos multisensoriales en activos multimedia con el fin de mejorar la experiencia de usuario mediante la estimulación de nuevos sentidos, más allá de la tradicional experiencia audiovisual. Del mismo modo, varios trabajos proponen la introducción de componentes de interacción capaces de complementar con nuevas características, funcionalidades y/o información la experiencia multimedia. Efectos sensoriales basados en el uso de nuevas técnicas de audio, olores, viento, vibraciones y control de la iluminación, han demostrado tener un impacto favorable en la sensación de Presencia, en el disfrute de la experiencia multimedia y en la calidad, relevancia y realismo de la misma percibidos por el usuario. Asimismo, los servicios basados en dos pantallas y la manipulación directa de (elementos en) la escena de video tienen el potencial de mejorar la comprensión, la concentración y la implicación proactiva del usuario en la experiencia multimedia. El deporte se encuentra entre los géneros con mayor potencial para integrar y explotar éstas soluciones tecnológicas. Trabajos previos han demostrado asimismo la viabilidad técnica de integrar éstas tecnologías con los estándares actualmente adoptados a lo largo de toda la cadena de transmisión de televisión. De este modo, los sistemas multimedia enriquecidos con efectos sensoriales, los servicios interactivos multiplataforma y un mayor control del usuario sobre la escena de vídeo emergen como nuevas formas de llevar la multimedia immersiva e interactiva al mercado de consumo de forma no disruptiva. Sin embargo, existen numerosas interrogantes relativas a los efectos sensoriales y/o soluciones interactivas más adecuadas para complementar un contenido audiovisual determinado o a la mejor manera de de integrar y combinar dichos componentes para mejorar la experiencia de usuario de un segmento de audiencia objetivo. Además, la evidencia científica sobre el impacto de factores humanos en la experiencia de usuario con estas nuevas formas de immersión e interacción en el contexto multimedia es aún insuficiente y en ocasiones, contradictoria. Así, el papel de éstos factores en el potencial de adopción de éstas tecnologías ha sido amplia-mente ignorado. La presente tesis analiza el impacto del audio binaural, efectos sensoriales (de iluminación y olfativos), interacción con objetos 3D integrados en la escena de vídeo e interacción con contenido adicional utilizando una segunda pantalla en la experiencia de usuario con contenidos de deporte. La posible influencia de dichos componentes en las variables dependientes se explora tanto a nivel global (efecto promedio) como en función de las características de los usuarios (efectos heterogéneos). Para ello, se ha llevado a cabo un experimento con usuarios orientado a explorar la influencia de éstos componentes immersivos e interactivos en dos grandes dimensiones de la experiencia multimedia: calidad y Presencia. La calidad de la experiencia multimedia se analiza en términos de las posibles variaciones asociadas a la calidad global y a la calidad del contenido, la imagen, el audio, los efectos sensoriales, la interacción con objetos 3D y la interacción con la segunda pantalla. El posible impacto en la Presencia considera dos de las dimensiones definidas por el cuestionario ITC-SOPI: Presencia Espacial (Spatial Presence) e Implicación (Engagement). Por último, los individuos son caracterizados teniendo en cuenta los siguientes atributos afectivos, cognitivos y conductuales: preferencias y hábitos en relación con el contenido, grado de conocimiento de las tecnologías integradas en el sistema, tendencia a involucrarse emocionalmente, tendencia a concentrarse en una actividad bloqueando estímulos externos y los cinco grandes rasgos de la personalidad: extroversión, amabilidad, responsabilidad, inestabilidad emocional y apertura a nuevas experiencias. A nivel global, nuestro estudio revela que los participantes prefieren el audio binaural frente al sistema estéreo y que los efectos sensoriales generan un aumento significativo del nivel de Presencia Espacial percibido por los usuarios. Además, las manipulaciones experimentales realizadas permitieron identificar una gran variedad de efectos heterogéneos. Un resultado interesante es que dichos efectos no se encuentran distribuidos de forma equitativa entre las medidas de calidad y Presencia. Nuestros datos revelan un impacto generalizado del audio binaural en la mayoría de las medidas de calidad y Presencia analizadas. En cambio, la influencia de los efectos sensoriales y de la interacción con la segunda pantalla se concentran en las medidas de Presencia y calidad, respectivamente. La magnitud de los efectos heterogéneos identificados está modulada por las siguientes características personales: preferencias en relación con el contenido, frecuencia con la que el usuario suele ver contenido similar, conocimiento de las tecnologías integradas en el demostrador, sexo, tendencia a involucrarse emocionalmente, tendencia a a concentrarse en una actividad bloqueando estímulos externos y niveles de amabilidad, responsabilidad y apertura a nuevas experiencias. Las características personales consideradas en nuestro experimento explicaron la mayor parte de la variación en las variables dependientes, confirmando así el importante (y frecuentemente ignorado) papel de las diferencias individuales en la experiencia multimedia. Entre las características de los usuarios con un impacto más generalizado se encuentran las preferencias en relación con el contenido, el grado de conocimiento de las tecnologías integradas en el sistema y la tendencia a involucrarse emocionalmente. En particular, los primeros dos factores parecen generar un conflicto de atención hacia el contenido versus las características/elementos técnicos del sistema, respectivamente. Asimismo, la experiencia multimedia de los fans del fútbol parece estar modulada por procesos emociona-les, mientras que para los no-fans predominan los procesos cognitivos, en particular aquellos directamente relacionados con la percepción de calidad. Abstract Recent studies encourage the integration of multi-sensorial stimuli into multimedia assets to enhance the user experience by stimulating other senses beyond sight and hearing. Similarly, the introduction of multi-modal interaction components complementing with new features, functionalities and/or information the multimedia experience is promoted. Sensory effects as odor, wind, vibration and light effects, as well as an enhanced audio quality, have been found to favour media enjoyment and to have a positive influence on the sense of Presence and on the perceived quality, relevance and reality of a multimedia experience. Two-screen services and a direct manipulation of (elements in) the video scene have the potential to enhance user comprehension, engagement and proactive involvement of/in the media experience. Sports is among the genres that could benefit the most from these solutions. Previous works have demonstrated the technical feasibility of implementing and deploying end-to-end solutions integrating these technologies into legacy systems. Thus, sensorially-enhanced media, two-screen services and an increased user control over the displayed scene emerge as means to deliver a new form of immersive and interactive media experiences to the mass market in a non-disruptive manner. However, many questions remain concerning issues as the specific interactive solutions or sensory effects that can better complement a given audiovisual content or the best way in which to integrate and combine them to enhance the user experience of a target audience segment. Furthermore, scientific evidence on the impact of human factors on the user experience with these new forms of immersive and interactive media is still insufficient and sometimes, contradictory. Thus, the role of these factors on the potential adoption of these technologies has been widely ignored. This thesis analyzes the impact of binaural audio, sensory (light and olfactory) effects, interaction with 3D objects integrated into the video scene and interaction with additional content using a second screen on the sports media experience. The potential influence of these components on the dependent variables is explored both at the overall level (average effect) and as a function of users’ characteristics (heterogeneous effects). To these aims, we conducted an experimental study exploring the influence of these immersive and interactive elements on the quality and Presence dimensions of the media experience. Along the quality dimension, we look for possible variations on the quality scores as-signed to the overall media experience and to the media components content, image, audio, sensory effects, interaction with 3D objects and interaction using the tablet device. The potential impact on Presence is analyzed by looking at two of the four dimensions defined by the ITC-SOPI questionnaire, namely Spatial Presence and Engagement. The users’ characteristics considered encompass the following personal affective, cognitive and behavioral attributes: preferences and habits in relation to the content, knowledge of the involved technologies, tendency to get emotionally involved and tendency to get absorbed in an activity and block out external distractors and the big five personality traits extraversion, agreeableness, conscientiousness, neuroticism and openness to experience. At the overall level, we found that participants preferred binaural audio than standard stereo audio and that sensory effects increase significantly the level of Spatial Presence. Several heterogeneous effects were also revealed as a result of our experimental manipulations. Interestingly, these effects were not equally distributed across the quality and Presence measures analyzed. Whereas binaural audio was foud to have an influence on the majority of the quality and Presence measures considered, the effects of sensory effects and of interaction with additional content through the tablet device concentrate mainly on the dimensions of Presence and on quality measures, respectively. The magnitude of these effects was modulated by individual’s characteristics, such as: preferences in relation to the content, frequency of viewing similar content, knowledge of involved technologies, gender, tendency to get emotionally involved, tendency to absorption and levels of agreeableness, conscientiousness and openness to experience. The personal characteristics collected in our experiment explained most of the variation in the dependent variables, confirming the frequently neglected role of individual differences on the media experience. Preferences in relation to the content, knowledge of involved technologies and tendency to get emotionally involved were among the user variables with the most generalized influence. In particular, the former two features seem to present a conflict in the allocation of attentional resources towards the media content versus the technical features of the system, respectively. Additionally, football fans’ experience seems to be modulated by emotional processes whereas for not fans, cognitive processes (and in particular those related to quality judgment) prevail.