890 resultados para Ruiz de Alarcón, Juan, ca. 1581-1639.
Resumo:
We present results of a detailed mineralogical and geochemical study of the progressive hydrothermal alteration of clastic sediments recovered at ODP Site 858 in an area of active hydrothermal venting at the sedimented, axial rift valley of Middle Valley (northern Juan de Fuca Ridge). These results allow a characterization of newly formed phyllosilicates and provide constraints on the mechanisms of clay formation and controls of mineral reactions on the chemical and isotopic composition of hydrothermal fluids. Hydrothermal alteration at Site 858 is characterized by a progressive change in phyllosilicate assemblages with depth. In the immediate vent area, at Hole 858B, detrital layers are intercalated with pure hydrothermal precipitates at the top of the section, with a predominance of hydrothermal phases at depth. Sequentially downhole in Hole 858B, the clay fraction of the pure hydrothermal layers changes from smectite to corrensite to swelling chlorite and finally to chlorite. In three pure hydrothermal layers in the deepest part of Hole 858B, the clay minerals coexist with neoformed quartz. Neoformed and detrital components are clearly distinguished on the basis of morphology, as seen by SEM and TEM, and by their chemical and stable isotope compositions. Corrensite is characterized by a 24 Å stacking sequence and high Si- and Mg-contents, with Fe/(Fe+Mg) ratio of = 0.08. We propose that corrensite is a unique, possibly metastable, mineralogical phase and was precipitated directly from seawater-dominated hydrothermal fluids. Hydrothermal chlorite in Hole 858B has a stacking sequence of 14 Å with Fe/(Fe+Mg) ratios of ? 0.35. The chemistry and structure of swelling chlorite suggest that it is a corrensiteychlorite mixed-layer phase. The mineralogical zonation in Hole 858B is accompanied by a systematic decrease in d18O, reflecting both the high thermal gradients that prevail at Site 858 and extensive sediment-fluid interaction. Precipitation of the Mg-phyllosilicates in the vent region directly controls the chemical and isotopic compositions of the pore fluids. This is particularly evident by decreases in Mg and enrichments in deuterium and salinity in the pore fluids at depths at which corrensite and chlorite are formed. Structural formulae calculated from TEM-EDX analyses were used to construct clay-H2O oxygen isotope fractionation curves based on oxygen bond models. Our results suggest isotopic disequilibrium conditions for corrensite-quartz and swelling chlorite-quartz precipitation, but yield an equilibrium temperature of 300° C ± 30° for chlorite-quartz at 32 m below the surface. This estimate is consistent with independent estimates and indicates steep thermal gradients of 10-11°/m in the vent region.
Resumo:
The Pacific Decadal Oscillation (PDO), the leading mode of sea surface temperature (SST) anomalies in the extratropical North Pacific Ocean, has widespread impacts on precipitation in the Americas and marine fisheries in the North Pacific. However, marine proxy records with a temporal resolution that resolves interannual to interdecadal SST variability in the extratropical North Pacific are extremely rare. Here we demonstrate that the winter Sr/Ca and U/Ca records of an annually-banded reef coral from the Ogasawara Islands in the western subtropical North Pacific are significantly correlated with the instrumental winter PDO index over the last century. The reconstruction of the PDO is further improved by combining the coral data with an existing eastern mid-latitude North Pacific growth ring record of geoduck clams. The spatial correlations of this combined index with global climate fields suggest that SST proxy records from these locations provide potential for PDO reconstructions further back in time.
Resumo:
The ITER CODAC design identifies slow and fast plant system controllers (PSC). The gast OSCs are based on embedded technologies, permit sampling rates greater than 1 KHz, meet stringent real-time requirements, and will be devoted to data acquisition tasks and control purposes. CIEMAT and UPM have implemented a prototype of a fast PSC based on commercial off-the-shelf (COTS) technologies with PXI hardware and software based on EPICS
Resumo:
EURATOM/CIEMAT and Technical University of Madrid (UPM) have been involved in the development of a FPSC [1] (Fast Plant System Control) prototype for ITER, based on PXIe (PCI eXtensions for Instrumentation). One of the main focuses of this project has been data acquisition and all the related issues, including scientific data archiving. Additionally, a new data archiving solution has been developed to demonstrate the obtainable performances and possible bottlenecks of scientific data archiving in Fast Plant System Control. The presented system implements a fault tolerant architecture over a GEthernet network where FPSC data are reliably archived on remote, while remaining accessible to be redistributed, within the duration of a pulse. The storing service is supported by a clustering solution to guaranty scalability, so that FPSC management and configuration may be simplified, and a unique view of all archived data provided. All the involved components have been integrated under EPICS [2] (Experimental Physics and Industrial Control System), implementing in each case the necessary extensions, state machines and configuration process variables. The prototyped solution is based on the NetCDF-4 [3] and [4] (Network Common Data Format) file format in order to incorporate important features, such as scientific data models support, huge size files management, platform independent codification, or single-writer/multiple-readers concurrency. In this contribution, a complete description of the above mentioned solution is presented, together with the most relevant results of the tests performed, while focusing in the benefits and limitations of the applied technologies.
Resumo:
Microficha. Madrid: Servicio de Reproducción de Documentos , Dirección de Archivos Estatales, 1994
Resumo:
Sign.: [calderón]8, A-Z8, 2A-2Z8, 3A-3S8, 3T6
Resumo:
Sign.: [calderón]8, A-Z8, 2A-2Z8, 3A-3S8, 3T6
Resumo:
The modal analysis of a structural system consists on computing its vibrational modes. The experimental way to estimate these modes requires to excite the system with a measured or known input and then to measure the system output at different points using sensors. Finally, system inputs and outputs are used to compute the modes of vibration. When the system refers to large structures like buildings or bridges, the tests have to be performed in situ, so it is not possible to measure system inputs such as wind, traffic, . . .Even if a known input is applied, the procedure is usually difficult and expensive, and there are still uncontrolled disturbances acting at the time of the test. These facts led to the idea of computing the modes of vibration using only the measured vibrations and regardless of the inputs that originated them, whether they are ambient vibrations (wind, earthquakes, . . . ) or operational loads (traffic, human loading, . . . ). This procedure is usually called Operational Modal Analysis (OMA), and in general consists on to fit a mathematical model to the measured data assuming the unobserved excitations are realizations of a stationary stochastic process (usually white noise processes). Then, the modes of vibration are computed from the estimated model. The first issue investigated in this thesis is the performance of the Expectation- Maximization (EM) algorithm for the maximum likelihood estimation of the state space model in the field of OMA. The algorithm is described in detail and it is analysed how to apply it to vibration data. After that, it is compared to another well known method, the Stochastic Subspace Identification algorithm. The maximum likelihood estimate enjoys some optimal properties from a statistical point of view what makes it very attractive in practice, but the most remarkable property of the EM algorithm is that it can be used to address a wide range of situations in OMA. In this work, three additional state space models are proposed and estimated using the EM algorithm: • The first model is proposed to estimate the modes of vibration when several tests are performed in the same structural system. Instead of analyse record by record and then compute averages, the EM algorithm is extended for the joint estimation of the proposed state space model using all the available data. • The second state space model is used to estimate the modes of vibration when the number of available sensors is lower than the number of points to be tested. In these cases it is usual to perform several tests changing the position of the sensors from one test to the following (multiple setups of sensors). Here, the proposed state space model and the EM algorithm are used to estimate the modal parameters taking into account the data of all setups. • And last, a state space model is proposed to estimate the modes of vibration in the presence of unmeasured inputs that cannot be modelled as white noise processes. In these cases, the frequency components of the inputs cannot be separated from the eigenfrequencies of the system, and spurious modes are obtained in the identification process. The idea is to measure the response of the structure corresponding to different inputs; then, it is assumed that the parameters common to all the data correspond to the structure (modes of vibration), and the parameters found in a specific test correspond to the input in that test. The problem is solved using the proposed state space model and the EM algorithm. Resumen El análisis modal de un sistema estructural consiste en calcular sus modos de vibración. Para estimar estos modos experimentalmente es preciso excitar el sistema con entradas conocidas y registrar las salidas del sistema en diferentes puntos por medio de sensores. Finalmente, los modos de vibración se calculan utilizando las entradas y salidas registradas. Cuando el sistema es una gran estructura como un puente o un edificio, los experimentos tienen que realizarse in situ, por lo que no es posible registrar entradas al sistema tales como viento, tráfico, . . . Incluso si se aplica una entrada conocida, el procedimiento suele ser complicado y caro, y todavía están presentes perturbaciones no controladas que excitan el sistema durante el test. Estos hechos han llevado a la idea de calcular los modos de vibración utilizando sólo las vibraciones registradas en la estructura y sin tener en cuenta las cargas que las originan, ya sean cargas ambientales (viento, terremotos, . . . ) o cargas de explotación (tráfico, cargas humanas, . . . ). Este procedimiento se conoce en la literatura especializada como Análisis Modal Operacional, y en general consiste en ajustar un modelo matemático a los datos registrados adoptando la hipótesis de que las excitaciones no conocidas son realizaciones de un proceso estocástico estacionario (generalmente ruido blanco). Posteriormente, los modos de vibración se calculan a partir del modelo estimado. El primer problema que se ha investigado en esta tesis es la utilización de máxima verosimilitud y el algoritmo EM (Expectation-Maximization) para la estimación del modelo espacio de los estados en el ámbito del Análisis Modal Operacional. El algoritmo se describe en detalle y también se analiza como aplicarlo cuando se dispone de datos de vibraciones de una estructura. A continuación se compara con otro método muy conocido, el método de los Subespacios. Los estimadores máximo verosímiles presentan una serie de propiedades que los hacen óptimos desde un punto de vista estadístico, pero la propiedad más destacable del algoritmo EM es que puede utilizarse para resolver un amplio abanico de situaciones que se presentan en el Análisis Modal Operacional. En este trabajo se proponen y estiman tres modelos en el espacio de los estados: • El primer modelo se utiliza para estimar los modos de vibración cuando se dispone de datos correspondientes a varios experimentos realizados en la misma estructura. En lugar de analizar registro a registro y calcular promedios, se utiliza algoritmo EM para la estimación conjunta del modelo propuesto utilizando todos los datos disponibles. • El segundo modelo en el espacio de los estados propuesto se utiliza para estimar los modos de vibración cuando el número de sensores disponibles es menor que vi Resumen el número de puntos que se quieren analizar en la estructura. En estos casos es usual realizar varios ensayos cambiando la posición de los sensores de un ensayo a otro (múltiples configuraciones de sensores). En este trabajo se utiliza el algoritmo EM para estimar los parámetros modales teniendo en cuenta los datos de todas las configuraciones. • Por último, se propone otro modelo en el espacio de los estados para estimar los modos de vibración en la presencia de entradas al sistema que no pueden modelarse como procesos estocásticos de ruido blanco. En estos casos, las frecuencias de las entradas no se pueden separar de las frecuencias del sistema y se obtienen modos espurios en la fase de identificación. La idea es registrar la respuesta de la estructura correspondiente a diferentes entradas; entonces se adopta la hipótesis de que los parámetros comunes a todos los registros corresponden a la estructura (modos de vibración), y los parámetros encontrados en un registro específico corresponden a la entrada en dicho ensayo. El problema se resuelve utilizando el modelo propuesto y el algoritmo EM.
Resumo:
El objeto del presente proyecto es dotar al parque público “Juan Pablo II”, de una cartografía a escala 1/250, además de realizar el modelo digital del terreno de dicho parque. El trabajo va a consistir en un levantamiento topográfico del sector oeste del parque público “Juan Pablo II”. Dado que el parque en toda su dimensión se encuentra dividido en dos por la Avenida de Machupichu, siendo la oeste la que forma parte de este proyecto. El levantamiento se realizará mediante el método de observación G.N.S.S. denominado R.T.K. (Real Time Kinematic) que consiste en la obtención de coordenadas en tiempo real. Este levantamiento se realizará apoyándose en puntos de una red implantada, a la que se dotará de coordenadas por el método de observación G.N.S.S. denominado “Estático” y por metodología clásica. A la red se le dotará de coordenadas en el Sistema de Referencia Oficial. Se realizará la cartografía del parque a partir de los datos del levantamiento y con el uso de programas de CAD. Finalmente, se realizará un modelo digital del terreno. El parque público “Juan Pablo II” se encuentra situado en barrio de La Piovera, en el término municipal de Madrid, provincia de Madrid. El parque ocupa 6 hectáreas y es el elegido para nuestro proyecto. Este parque está limitado por el norte por la Avda. del Papa Negro, por el sur está limitado por la Avda. de las Piceas, por el este por la Avda. Machupichu, por el oeste por un pinar. 1.- Estudio de Redes para la obtención de la Red Básica: Por metodología G.N.S.S., se ha realizado cuatro simulaciones, teniendo como criterios: Longitud de la líneas base; Tiempo de observación; Precisiones obtenidas. Y comprobación de la Red Básica por metodología Clásica. 2.- Creación de aplicación para representar redes en Google Earth (Geodesicas-kml). Ante la falta de aplicaciones libres para esta opción de difusión de redes de manera fácil y gratuita, se creó esta aplicación. 3.- Diseño cartográfico, mapas a escala 1/250. Esta escala fue elegida porque se quería tener un buen detalle para la creación del MDT. 4.- Creación de MDT, y adaptado a visualización en Google Earth. Se eligió esta plataforma para que no se necesitase ninguna aplicación de pago y por su gran difusión, facilitando la divulgación de los MDT. 5.- Paseo virtual en el interior del parque. Película de un recorrido dentro del parque con todos los elementos más representativos.
Resumo:
Ejemplar deteriorado y falto de cubierta
Resumo:
In Operational Modal Analysis (OMA) of a structure, the data acquisition process may be repeated many times. In these cases, the analyst has several similar records for the modal analysis of the structure that have been obtained at di�erent time instants (multiple records). The solution obtained varies from one record to another, sometimes considerably. The differences are due to several reasons: statistical errors of estimation, changes in the external forces (unmeasured forces) that modify the output spectra, appearance of spurious modes, etc. Combining the results of the di�erent individual analysis is not straightforward. To solve the problem, we propose to make the joint estimation of the parameters using all the records. This can be done in a very simple way using state space models and computing the estimates by maximum-likelihood. The method provides a single result for the modal parameters that combines optimally all the records.
Resumo:
Índice
Resumo:
Contiene: Generaciones y semblanzas de los señores reyes don Enrique III y don Juan II ...
Resumo:
Esta tesis integra un estudio reflexivo sobre la relación de dependencia entre la creación y la memoria a través del análisis de la última obra del escultor Juan Muñoz: Double Bind (Tate Modern, Londres, 2001). Desde esta posición es obligado replantear el análisis de la obra, lo que hace necesario su estudio cubriendo el mayor espectro posible de información accesible más allá de la obra en sí, para aproximarse a la convergencia entre memoria y creación. La perspectiva de análisis propuesta abre camino a nuevas consideraciones so¬bre la relevancia del conocimiento en el desarrollo del proceso creativo. Este análisis no debe tan sólo suponer una aportación al conocimiento del trabajo de Juan Muñoz. Debe también desprenderse de él la innegable participación y necesaria lectura del pasado en el presente. La amnesia de los tiempos pasados impide completar el atlas de imágenes en las que se apoya la creación impidiendo el conocimiento del origen de las fuentes de inspi¬ración y las bases de la creación de una determinada obra. Este hecho limita y distorsiona sus posibles interpretaciones. Pretendo un acercamiento al entendimiento de la forma de mirar y de crear a través del tiempo que es memoria. La memoria tiene un cometido de crucial importancia para la actividad mental y juega un papel fundamental en la conducta y en la creación. La obra es el resultado de la búsqueda de una idea que exprese algo que el creador no puede ex¬presar de otra manera. Es la necesidad de expresar las ideas mediante un lenguaje que se desarrolla en el tiempo y en el espacio, reflejo del ser que responde al pensamiento. Es una forma de experiencia donde subyacen las sendas del pasado y donde se plantea el futuro. Sólo el creador accede a la obra desde dentro, el observador llega a ella desde el exterior y mediante su propia subjetividad. Las obras son formas de experiencia de sus autores, comunicar el mensaje de dicha experiencia supone por tanto interpretar. Persiguiendo la necesidad de saber y entender, pretender explicar el sentido de una cosa implica una apreciación intencionada asociada al entendimiento del intérprete. Las obras son produc¬tos que portan un mensaje y que contienen en su estructura las trazas del tiempo vivido por su creador. Si se quiere adquirir un acercamiento que represente la posición de un autor, será necesario no solo mirar a través de ella, si no introducirse en el contexto de su historia. Mirar hacia atrás, hacia la profundidad del presente para tener conciencia del pensamiento presente y futuro. Recorrer de este modo la instalación Double Bind de Juan Muñoz proporciona una síntesis de sus preocupaciones e intereses a la vez que aporta un conocimiento no necesariamente inmediato, pero relevante y trascendente de la obra, su creador y la historia. ABSTRACT This thesis comprises a reflective study of the dependence relationship between creation and memory through the analysis of the latest work by the sculptor Juan Muñoz: Double Bind (Tate Modern, London, 2001). From this position, it is mandatory to rethink the analysis of the work, making it necessary to cover the widest possible range of information available beyond the work itself, in order to obtain a closer view of the convergence between memory and creation. The proposed analytical approach opens up new considerations on the relevance of knowledge during the development of the creative process. This analysis should not only make a contribution to the knowledge of the work of Juan Muñoz. It should also infer the undeniable involvement and the necessary reading of the past in the present. Amnesia regarding past makes it impossible to complete the atlas of images on which the creation is based, blocking knowledge of the origin of the sources of inspiration and the basis for the creation of a specific work. This fact limits and distorts its possible interpretations. My intention is an approach to how to understand memory as the way of looking and creating over time. Memory has a crucial role to mental activity and plays a key role in behaviour and creation. The work is the result of finding an idea that expresses something that the creator can not express otherwise. It is the need to express ideas by means of a language that develops throughout time and space, a reflection of the being that responds to the thought. It is a way of experience underlying the paths of the past and where the future is set out. Only the creator can access the work from the inside. The observer sees it from the outside and in accordance with his/her own subjectivity. The works form a part of the experience of their authors, thus implying the interpretation of the message of their experience being passed on. The pursuit of knowledge and understanding, and trying to explain the meaning of something implies a deliberate appreciation associated with the understanding of the interpreter. The works are products bearing a message and containing in their structure traces of the time lived by their creator. If one wants to come close to what the author’s posture represents, it will not only be necessary to penetrate it, but also to introduce oneself into the context of its history. Take a look back, towards the depth of the present in order to become aware of present and future thinking. To go across the installation of Double Bind by Juan Muñoz in this way offers a synthesis of his concerns and interests while also providing a not necessarily immediate knowledge, but one which is relevant and important to the work, its creator and history.
Resumo:
In this paper, we present a novel coarse-to-fine visual localization approach: contextual visual localization. This approach relies on three elements: (i) a minimal-complexity classifier for performing fast coarse localization (submap classification); (ii) an optimized saliency detector which exploits the visual statistics of the submap; and (iii) a fast view-matching algorithm which filters initial matchings with a structural criterion. The latter algorithm yields fine localization. Our experiments show that these elements have been successfully integrated for solving the global localization problem. Context, that is, the awareness of being in a particular submap, is defined by a supervised classifier tuned for a minimal set of features. Visual context is exploited both for tuning (optimizing) the saliency detection process, and to select potential matching views in the visual database, close enough to the query view.