889 resultados para Almost always propositional logic
Resumo:
The history of obstetrical forceps has almost always been one cloaked in controversy after a long history of being shrouded in mystery. Forceps have a long history and have evolved from facilitating the delivery of dead fetuses to aiding in the delivery and survival of live babies. In the middle of all of this arises the story of the Chamberlain family whose contribution was enormous but whose behaviors pushed at the envelope of (at least) our present-day concepts of medical ethics. This lecture traces an interesting story that spans a millennium.
Resumo:
Injection drug use is the third most frequent risk factor for new HIV infections in the United States. A dual mode of exposure: unsafe drug using practices and risky sexual behaviors underlies injection drug users' (IDUs) risk for HIV infection. This research study aims to characterize patterns of drug use and sexual behaviors and to examine the social contexts associated with risk behaviors among a sample of injection drug users. ^ This cross-sectional study includes 523 eligible injection drug users from Houston, Texas, recruited into the 2009 National HIV Behavioral Surveillance project. Three separate set of analyses were carried out. First, using latent class analysis (LCA) and maximum likelihood we identified classes of behavior describing levels of HIV risk, from nine drug and sexual behaviors. Second, eight separate multivariable regression models were built to examine the odds of reporting a given risk behavior. We constructed the most parsimonious multivariable model using a manual backward stepwise process. Third, we examined whether HIV serostatus knowledge (self-reported positive, negative, or unknown serostatus) is associated with drug use and sexual HIV risk behaviors. ^ Participants were mostly male, older, and non-Hispanic Black. Forty-two percent of our sample had behaviors putting them at high risk, 25% at moderate risk, and 33% at low risk for HIV infection. Individuals in the High-risk group had the highest probability of risky behaviors, categorized as almost always sharing needles (0.93), seldom using condoms (0.10), reporting recent exchange sex partners (0.90), and practicing anal sex (0.34). We observed that unsafe injecting practices were associated with high risk sexual behaviors. IDUs who shared needles had higher odds of having anal sex (OR=2.89, 95%CI: 1.69-4.92) and unprotected sex (OR=2.66, 95%CI: 1.38-5.10) at last sex. Additionally, homelessness was associated with needle sharing (OR=2.24, 95% CI: 1.34-3.76) and cocaine use was associated with multiple sex partners (OR=1.82, 95% CI: 1.07-3.11). Furthermore, twenty-one percent of the sample was unaware of their HIV serostatus. The three groups were not different from each other in terms of drug-use behaviors: always using a new sterile needle, or in sharing needles or drug preparation equipment. However, IDUs unaware of their HIV serostatus were 33% more likely to report having more than three sexual partners in the past 12 months; 45% more likely to report to have unprotected sex and 85% more likely to use drug and or alcohol during or before at last sex compared to HIV-positive IDUs. ^ This analysis underscores the merit of LCA approach to empirically categorize injection drug users into distinct classes and identify their risk pattern using multiple indicators and our results show considerable overlap of high risk sexual and drug use behaviors among the high-risk class members. The observed clustering pattern of drug and sexual risk behavior among this population confirms that injection drug users do not represent a homogeneous population in terms of HIV risk. These findings will help develop tailored prevention programs.^
Resumo:
El proceso de ordenamiento territorial en Bolivia es relativamente nuevo y por tal razón el avance es mínimo si se piensa en los objetivos alcanzados hasta ahora. El presente trabajo pretende mostrar el avance logrado en uno de los departamentos de Bolivia, Tarija, donde en 5 años, se ha logrado elaborar un plan departamental de ordenamiento territorial y mediante la coordinación interinstitucional (prefectura y gobiernos municipales) se ha iniciado el mismo proceso de a nivel municipal. A partir de estos planes municipales se induce a municipios predominantemente urbanos a trabajar planes de ordenamiento territorial a partir de lineamientos planteados desde la prefectura, con el fin de iniciar los procesos de planificación urbana, actualizar la normativa y elaborar proyectos de desarrollo local. El objetivo del presente trabajo, es mostrar los avances a los que se pretende arribar gracias a un proceso metodológico de ordenamiento territorial incorporado a una dinámica urbana que interactúa constantemente con su área de influencia que en el caso boliviano es normalmente rural; pero además demostrar que el componente interdisciplinario en el caso de la planificación urbana es imprescindible considerando que hasta hace unos años este era un trabajo especifico de los colegas urbanistas y que en una realidad como la latinoamericana casi siempre quedaba en planos y en un viejo anaquel. Por lo tanto a partir de una interdisciplinariedad se puede lograr desarrollo local articulando y optimizando relaciones urbano-rurales que basan su desarrollo en un proceso metodológico como es el caso del ordenamiento territorial. El trabajo, se apoya en la guía metodológica para la elaboración de planes elaboradas por el Ministerio de Desarrollo Sostenible del gobierno boliviano, pero como tal cual su nombre expresa es una guía susceptible a ser adecuada a las exigencias del área de estudio, en este sentido sobre esa base es que se incorporan algunas variables de estudio que permitirán mejorar el producto a nivel de propuesta una vez concluido el trabajo. Contempla varias etapas donde la incorporación de los diferentes actores sociales será una clave para lograr resultados exitosos en la etapa de implementación. Actualmente el plan municipal de la provincia Cercado, es un proyecto a encarar en los próximos meses una vez cumplidos con los requisitos administrativos para iniciar el trabajo técnico que comprenderá un trabajo de campo, para el relevamiento de datos, la elaboración de un diagnóstico integral con dos ámbitos territoriales rural y urbano, para luego proceder al análisis territorial y el planteamiento de propuesta que incluirán políticas, estrategias, acciones y proyectos, pero no solo generará bases para el uso de suelo y la ocupación del territorio, a escala urbana se plantearan los lineamientos para el diseño y la normativa urbana. A partir del cual se definirán proyectos de desarrollo local que nos permita orientarnos hacia la imagen objetivo planteada en la visión del proyecto, este trabajo incluye el aspecto institucional para fortalecer al proceso que hasta esta ahora se encuentra desarticulado; se pretende consolidar el proceso de ordenamiento y dar inicio a otros en escalas de mayor detalle permitiendo la optimización de recursos y el aprovechamiento de las potencialidades y recursos naturales para mejorar la calidad de vida.
Resumo:
Late Neogene biostratigraphy of planktonic foraminifers has been investigated from 13 sites cored during Ocean Drilling Program Leg 167 off the coast of California. The planktonic foraminiferal biostratigraphy of six of these sites is presented here at higher stratigraphic resolution for the interval that encompasses the late early Pliocene through the Quaternary (~3.5 Ma to present day). The sites form a transect along the California margin from 31°N to 41°N within the California Current system. A new planktonic foraminiferal zonation has been established largely on evolutionary changes within the Neogloboquadrina plexus, supported by other taxa. A total of eight zones are recognized, most of which are broadly applicable throughout the region, thus providing a biostratigraphic zonation of the sequence at ~0.5-m.y. intervals. The new zonation appears to be unique to the California Current system. The diversity of planktonic foraminiferal assemblages during the late Neogene appears to have remained relatively constant despite large-scale paleoclimatic change. The assemblages are consistently dominated by few taxa that almost always include the neogloboquadrinids and Globigerina bulloides. Low diversity and high dominance of the assemblages favored these and other taxa well adapted to upwelling systems exhibiting high seasonal surface ocean variability. Apparently the oceanographic conditions that favor such assemblages have persisted at least for the duration of the late Neogene (~3.5 Ma to present day). The biostratigraphically important forms have been illustrated with scanning electron micrographs.
Resumo:
No tenemos conocimiento de ninguna red de caminos prerromanos que sirvieran como base de una posible malla territorial de España. Sin embargo, una sociedad prerromana sin caminos, por muy fragmentada y aislada que fuera, es algo improbable y mucho menos en la Edad del Hierro. Por eso en época prerromana existían infinidad de caminos, muchos de los cuales hoy han desaparecido y otros han sobrevivido, casi siempre con sus recorridos mejorados. Los pueblos prerromanos aprovecharon vías naturales de comunicación (ríos, vados, valles, puertos naturales, llanuras, etc.) para tender sus caminos. En sus orígenes no siguieron pautas concretas, si no que los caminos se originaban por el tránsito (de personas, ganados, mercancías, etc.) de un lugar a otro. De este modo la red viaria prerromana era caótica y anárquica: todo camino tenía numerosos ramales y variantes, según las necesidades. Pendientes excesivas, anchuras variables, etc., en decir eran vías espontáneas, surgidas sin ninguna planificación aparente. Los recorridos en general eran cortos, aunque algunas investigaciones actuales están demostrando que algunas de las cañadas ganaderas más importantes, como la Galiana, y de largo recorrido, eran de origen prerromano. En el caso de la península Ibérica, y más concretamente en el caso de la Meseta, el territorio estaba fragmentado en diversos pueblos y tribus, agrupados según criterios étnicos y culturales y con contactos con los pueblos próximos que motivan la preponderancia de caminos de recorrido cortos. Solo la necesidad de llevar los rebaños (de cabras y ovejas sobre todo) desde las serranías en verano a las llanuras en invierno, motivaría viajes más largos en los que algunas cañadas ganaderas jugarían un papel más importante. Con la llegada de los romanaos, se implantó en Hispania una densa red viaria, cuya construcción se prolongó durante toda la dominación romana, siendo reparadas muchas calzadas y vías en varias ocasiones. En época romana la red caminera era variada y estaba constituida por “las calzadas” que comunicaban puntos importantes, eran muy transitadas, de ahí que la administración romana las mantuviera siempre en buen estado, para asegurar el intercambio comercial entre zonas distintas, cobro de impuestos, etc. “Los caminos de tierra (viae terrenae)” que además de las calzadas, que podemos asemejar a las actuales carreteras de primer y segundo orden, constituían la infinidad de caminos locales y comarcales. Los trazados se realizaron unos en época romana, y otros muchos apoyándose en los caminos de la época prerromana, éstas vías no se realizaban buscando el recorrido más corto entre dos puntos, ni tampoco el más cómodo y con un firme estructural de menor importancia que en las calzadas. Tampoco estaban hechos para un tipo concreto de transporte, por lo que nos encontraríamos algunos que por su anchura permitían el paso de carros, y otros que sólo permitirían el paso a pie, a caballo o en burro. Solían ser, como hemos indicado, caminos de tierra con acabados en zahorras y recorridos en su mayor parte cortos y medianos. Dentro de la malla territorial de España las calzadas constituirían las denominadas “viae publicae” que constituían la red principal y esqueleto vertebrador de Hispania. Los caminos de tierra constituirían los denominados “actus” caminos de carácter regional que configuraban la mayor parte de la red. Muchas de las “viae publicae” y de los “actus” tendrían su origen en las “viae militares” que habrían sido los primeros construidos, apoyándose en muchas ocasiones en los caminos prerromanos, por los romanos para realizar la conquista de Hispania y que luego con la Paz romana habrían tenido otro tipo de uso. Dentro de estas “viae militares” tuvieron una importancia relevancia aquellas que se utilizaron en la conquista de la Celtiberia, culminada con la caída de Numantia. Dentro de ellas tuvo una importancia fundamental la vía romana del río Alhama, objeto de esta Tesis, que facilitaría el desplazamiento de los ejércitos romanos desde Graccurris, primera ciudad romana fundada en el Ebro medio, hasta Numantia. Desde la época Augusta, la vía romana del río Alhama, pasaría a formar parte de los denominados “actus” formando parte de la malla territorial de la Península Ibérica como vía de comunicación entre la Meseta y el Ebro Medio. We do not have knowledge of any network of ways prerromanos that were serving as base of a possible territorial mesh of Spain. Nevertheless, a company prerromana without ways, for very fragmented and isolated that was, is something improbable and great less in the Age of the Iron. Because of it in epoch prerromana existed infinity of ways, many of which today have disappeared and others have survived, almost always with his improved tours. The people prerromanos took advantage of natural routes of communication (rivers, fords, valleys, natural ports, plains, etc.) to stretch his ways. In his origins concrete guidelines did not continue, if not that the ways were originating for the traffic (of persons, cattle, goods, etc.) to and from. Thus the network viaria prerromana was chaotic and anarchic: all way had numerous branches and variants, according to the needs. Excessive slopes, variable widths, etc., in saying were spontaneous routes arisen without no apparent planning. The tours in general were short, though some current investigations are demonstrating that some of the most important cattle glens, as the Galiana, and of crossed length, were of origin prerromano. In case of the Iberian Peninsula, and more concretely in case of the Plateau, the territory was fragmented in diverse peoples and tribes, grouped according to ethnic and cultural criteria and with contacts with the near peoples that motivate the prevalence of short ways of tour. Only the need to take the flocks (of goats and sheeps especially) from the mountainous countries in summer to the plains in winter, would motivate longer trips in which some cattle glens would play a more important paper. With the arrival of the romanos, a dense network was implanted in Roman Spain viaria, whose construction extended during the whole Roman domination, being repaired many causeways and routes in several occasions. In Roman epoch the pertaining to roads network was changed and constituted by " the causeways " that were communicating important points, they were very travelled, of there that the Roman administration was supporting always in good condition, to assure the commercial exchange between different zones, collection of taxes, etc. "The dirt tracks (viae terrenae)" that besides the causeways, which we can make alike to the current roads of the first and second order, were constituting the infinity of local and regional ways. The tracings were realized some in Roman epoch, and great others resting on the ways of the epoch prerromana, these routes were not realized looking for the most short tour neither between points, two nor neither most comfortable and with a structural road surface of minor importance that in the causeways. They were not also done for a concrete type of transport, for what some of us would think that for his width they were allowing the step of cars, and others that only would allow the step afoot, astride or in donkey. They were in the habit of being, since we have indicated, dirt tracks with ended in zahorras and tours in his most short and medium. Inside the territorial mesh of Spain the causeways would constitute the called ones "viae publicae" that constituted the principal network and skeleton vertebrador of Roman Spain. The dirt tracks would constitute the "actus” called ways of regional character that were forming most of the network. Many of "viae publicae" and of the "actus" they would have his origin in " viae military" that would have been the first ones constructed, resting on many occasions on the ways prerromanos, for the Romans to realize the conquest of Roman Spain and that then with the Roman Peace they would have had another type of use. Inside these "viae military" had an importance relevancy those that were in use in the conquest of the Celtiberia, reached with Numantia's fall. Inside them a fundamental importance had the Roman route of the river Alhama, object of this Thesis, which would facilitate the displacement of the Roman armies from Graccurris, the first Roman city been founded on the average Ebro, up to Numantia. From the August epoch, the Roman route of the river Alhama, would happen to form a part of the "actus” forming a part of the territorial mesh of the Iberian Peninsula as road link between the Plateau and the Average Ebro.
Resumo:
Existe una creciente preocupación por las catástrofes de origen natural que están por llegar, motivo por el que se están realizando estudios desde prácticamente todas las ramas de la ciencia. La razón para ello se puede encontrar en el miedo a que los eventos futuros puedan dificultar las actividades humanas, aunque no es el único factor. Por todo ello, se produce una dispersión muy importante incluso en los conceptos más elementales como qué debe ser considerado o cómo debe llamarse y catalogarse uno u otro elemento. En consecuencia, los métodos para comprender los riesgos naturales también son muy diferentes, rara vez encontrándose enfoques realmente multidisciplinares. Se han realizado algunos esfuerzos para crear un marco de entendimiento común como por ejemplo, la "Directiva sobre inundaciones" o, más recientemente, la Directiva Inspire. Las entidades aseguradoras y reaseguradoras son un actor importante entre los muchos involucrados en los estudios de riesgos. Su interés radica en el hecho de que terminan pagando la mayor parte de la factura, si no toda. Pero, a cuánto puede ascender esa factura, no es una pregunta fácil de responder aún en casos muy concretos, y sin embargo, es la pregunta que constantemente se plantea por parte de los tomadores de decisiones a todos los niveles. Este documento resume las actividades de investigación que han llevado a cabo al objeto de sentar un marco de referencia, implementando de enfoques numéricos capaces de hacer frente a algunas de las cuestiones más relevantes que se encuentran en casi todos los estudios de riesgos naturales, ensayando conceptos de manera pragmática. Para ello, se escogió un lugar experimental de acuerdo a diferentes criterios, como la densidad de población, la facilidad de proporcionar los límites geográficos claros, la presencia de tres de los procesos geológicos más importantes (inundaciones, terremotos y vulcanismo) y la disponibilidad de datos. El modelo aquí propuesto aprovecha fuentes de datos muy diversas para evaluar los peligros naturales, poniendo de relieve la necesidad de un enfoque multidisciplinar y emplea un catálogo de datos único, unificado, independiente (no orientado), coherente y homogéneo para estimar el valor de las propiedades. Ahora bien, los datos se explotan de manera diferente según cada tipo de peligro, manteniendo sin variación los conceptos subyacentes. Durante esta investigación, se ha encontrado una gran brecha en la relación entre las pérdidas reales y las probabilidades del peligro, algo contrario a lo que se ha pensado que debía ser el comportamiento más probable de los riesgos naturales, demostrando que los estudios de riesgo tienen vida útil muy limitada. En parte debido ello, el modelo propuesto en este estudio es el de trabajar con escenarios, fijando una probabilidad de ocurrencia, lo que es contrario al modelo clásico de evaluar funciones continuas de riesgo. Otra razón para abordar la cuestión mediante escenarios es forzar al modelo para proporcionar unas cifras creíbles de daño máximo fijando cuestiones como la ubicación espacial de un evento y sus probabilidades, aportando una nueva visión del "peor escenario posible” de probabilidad conocida. ABSTRACT There is a growing concern about catastrophes of natural origin about to come hence many studies are being carried out from almost any science branch. Even though it is not the only one, fear for the upcoming events that might jeopardize any given human activity is the main motive. A forking effect is therefore heavily present even on the basic concepts of what is to be considered or how should it be named and catalogued; as a consequence, methods towards understanding natural risks also show great differences and a multidisciplinary approach has seldomly been followed. Some efforts were made to create a common understanding of such a matter, the “Floods Directive” or more recently the Inspire Directive, are a couple of examples. The insurance sector is an important actor among the many involved. Their interest relies on the fact that, eventually, they pay most of the bill if not all. But how much could that be is not an easy question to be answerd even in a very specific case, and it is almost always the question posed by decision makers at all levels. This document summarizes research activities that have being carried out in order to put some solid ground to be followed, implementing numerical approaches that are capable of coping with some of the most relevant issues found in almost all natural risk studies, testing concepts pragmatically. In order to do so, an experimental site was selected according to different criteria, such as population density, the ease of providing clear geographical boundaries, the presence of three of the most important geological processes (floods, earthquakes and volcanism) and data availability. The model herein proposed takes advantage of very diferent data sources in the assessment of hazard, pointing out how a multidisciplinary approach is needed, and uses only one unified, independent, consistent, homogeneous (non objective driven) source for assessing property value. Data is exploited differently according to each hazard type, but the underlying concepts remain the same. During this research, a deep detachment was found between actual loss and hazard chances, contrarily to what has been thought to be the most likely behaviour of natural hazards, proving that risk studies have a very limited lifespan. Partially because of such finding, the model in this study addresses scenarios with fixed probability of occurrence, as opposed to studying a continuous hazard function as usually proposed. Another reason for studying scenarios was to force the model to provide a reliable figure after a set of given parameters where fixed, such as the spatial location of an event and its chances, so the “worst case” of a given return period could be found.
Resumo:
In mixed stands, inter-specific competition can be lower than intra-specific competition when niche complementarity and/or facilitation between species prevail. These positive interactions can take place at belowground and/or aboveground levels. Belowground competition tends to be size symmetric while the aboveground competition is usually for light and almost always size-asymmetric. Interactions between forest tree species can be explored analyzing growth at tree level by comparing intra and inter-specific competition. At the same time, possible causes of niche complementarity can be inferred relating intra and inter-specific competition with the mode of competition, i.e. size-symmetric or sizeasymmetric. The aim of this paper is to further our understanding of the interactions between species and to detect possible causes of competition reduction in mixed stands of beech (Fagus sylvatica L.) with other species: pine?beech, oak?beech and fir?beech. To test whether species growth is better explained by size-symmetric and/or size-asymmetric competition, five different competition structures where included in basal area growth models fitted using data from the Spanish National Forest Inventory for the Pyrenees. These models considered either size-symmetry only (Reineke?s stand density index, SDI), size-asymmetry only (SDI of large trees or SDI of small trees), or both combined. In order to assess the influence of the admixture, these indices were introduced in two different ways, one of which was to consider that trees of all species compete in a similar way, and the other was to split the stand density indices into intra- and inter-specific competition components. The results showed that in pine?beech mixtures, there is a slightly negative effect of beech on pine basal area growth while beech benefitted from the admixture of Scots pine; this positive effect being greater as the proportion of pine trees in larger size classes increases. In oak?beech mixtures, beech growth was also positively influenced by the presence of oaks that were larger than the beech trees. The growth of oak, however, decreased when the proportion of beech in SDI increased, although the presence of beech in larger size classes promoted oak growth. Finally, in fir?beech mixtures, neither fir nor beech basal area growth were influenced by the presence of the other species. The results indicate that size-asymmetric is stronger than size-symmetric competition in these mixtures, highlighting the importance of light in competition. Positive species interactions in size-asymmetric competition involved a reduction of asymmetry in tree size-growth relationships.
Resumo:
Los hipergrafos dirigidos se han empleado en problemas relacionados con lógica proposicional, bases de datos relacionales, linguística computacional y aprendizaje automático. Los hipergrafos dirigidos han sido también utilizados como alternativa a los grafos (bipartitos) dirigidos para facilitar el estudio de las interacciones entre componentes de sistemas complejos que no pueden ser fácilmente modelados usando exclusivamente relaciones binarias. En este contexto, este tipo de representación es conocida como hiper-redes. Un hipergrafo dirigido es una generalización de un grafo dirigido especialmente adecuado para la representación de relaciones de muchos a muchos. Mientras que una arista en un grafo dirigido define una relación entre dos de sus nodos, una hiperarista en un hipergrafo dirigido define una relación entre dos conjuntos de sus nodos. La conexión fuerte es una relación de equivalencia que divide el conjunto de nodos de un hipergrafo dirigido en particiones y cada partición define una clase de equivalencia conocida como componente fuertemente conexo. El estudio de los componentes fuertemente conexos de un hipergrafo dirigido puede ayudar a conseguir una mejor comprensión de la estructura de este tipo de hipergrafos cuando su tamaño es considerable. En el caso de grafo dirigidos, existen algoritmos muy eficientes para el cálculo de los componentes fuertemente conexos en grafos de gran tamaño. Gracias a estos algoritmos, se ha podido averiguar que la estructura de la WWW tiene forma de “pajarita”, donde más del 70% del los nodos están distribuidos en tres grandes conjuntos y uno de ellos es un componente fuertemente conexo. Este tipo de estructura ha sido también observada en redes complejas en otras áreas como la biología. Estudios de naturaleza similar no han podido ser realizados en hipergrafos dirigidos porque no existe algoritmos capaces de calcular los componentes fuertemente conexos de este tipo de hipergrafos. En esta tesis doctoral, hemos investigado como calcular los componentes fuertemente conexos de un hipergrafo dirigido. En concreto, hemos desarrollado dos algoritmos para este problema y hemos determinado que son correctos y cuál es su complejidad computacional. Ambos algoritmos han sido evaluados empíricamente para comparar sus tiempos de ejecución. Para la evaluación, hemos producido una selección de hipergrafos dirigidos generados de forma aleatoria inspirados en modelos muy conocidos de grafos aleatorios como Erdos-Renyi, Newman-Watts-Strogatz and Barabasi-Albert. Varias optimizaciones para ambos algoritmos han sido implementadas y analizadas en la tesis. En concreto, colapsar los componentes fuertemente conexos del grafo dirigido que se puede construir eliminando ciertas hiperaristas complejas del hipergrafo dirigido original, mejora notablemente los tiempos de ejecucion de los algoritmos para varios de los hipergrafos utilizados en la evaluación. Aparte de los ejemplos de aplicación mencionados anteriormente, los hipergrafos dirigidos han sido también empleados en el área de representación de conocimiento. En concreto, este tipo de hipergrafos se han usado para el cálculo de módulos de ontologías. Una ontología puede ser definida como un conjunto de axiomas que especifican formalmente un conjunto de símbolos y sus relaciones, mientras que un modulo puede ser entendido como un subconjunto de axiomas de la ontología que recoge todo el conocimiento que almacena la ontología sobre un conjunto especifico de símbolos y sus relaciones. En la tesis nos hemos centrado solamente en módulos que han sido calculados usando la técnica de localidad sintáctica. Debido a que las ontologías pueden ser muy grandes, el cálculo de módulos puede facilitar las tareas de re-utilización y mantenimiento de dichas ontologías. Sin embargo, analizar todos los posibles módulos de una ontología es, en general, muy costoso porque el numero de módulos crece de forma exponencial con respecto al número de símbolos y de axiomas de la ontología. Afortunadamente, los axiomas de una ontología pueden ser divididos en particiones conocidas como átomos. Cada átomo representa un conjunto máximo de axiomas que siempre aparecen juntos en un modulo. La decomposición atómica de una ontología es definida como un grafo dirigido de tal forma que cada nodo del grafo corresponde con un átomo y cada arista define una dependencia entre una pareja de átomos. En esta tesis introducimos el concepto de“axiom dependency hypergraph” que generaliza el concepto de descomposición atómica de una ontología. Un modulo en una ontología correspondería con un componente conexo en este tipo de hipergrafos y un átomo de una ontología con un componente fuertemente conexo. Hemos adaptado la implementación de nuestros algoritmos para que funcionen también con axiom dependency hypergraphs y poder de esa forma calcular los átomos de una ontología. Para demostrar la viabilidad de esta idea, hemos incorporado nuestros algoritmos en una aplicación que hemos desarrollado para la extracción de módulos y la descomposición atómica de ontologías. A la aplicación la hemos llamado HyS y hemos estudiado sus tiempos de ejecución usando una selección de ontologías muy conocidas del área biomédica, la mayoría disponibles en el portal de Internet NCBO. Los resultados de la evaluación muestran que los tiempos de ejecución de HyS son mucho mejores que las aplicaciones más rápidas conocidas. ABSTRACT Directed hypergraphs are an intuitive modelling formalism that have been used in problems related to propositional logic, relational databases, computational linguistic and machine learning. Directed hypergraphs are also presented as an alternative to directed (bipartite) graphs to facilitate the study of the interactions between components of complex systems that cannot naturally be modelled as binary relations. In this context, they are known as hyper-networks. A directed hypergraph is a generalization of a directed graph suitable for representing many-to-many relationships. While an edge in a directed graph defines a relation between two nodes of the graph, a hyperedge in a directed hypergraph defines a relation between two sets of nodes. Strong-connectivity is an equivalence relation that induces a partition of the set of nodes of a directed hypergraph into strongly-connected components. These components can be collapsed into single nodes. As result, the size of the original hypergraph can significantly be reduced if the strongly-connected components have many nodes. This approach might contribute to better understand how the nodes of a hypergraph are connected, in particular when the hypergraphs are large. In the case of directed graphs, there are efficient algorithms that can be used to compute the strongly-connected components of large graphs. For instance, it has been shown that the macroscopic structure of the World Wide Web can be represented as a “bow-tie” diagram where more than 70% of the nodes are distributed into three large sets and one of these sets is a large strongly-connected component. This particular structure has been also observed in complex networks in other fields such as, e.g., biology. Similar studies cannot be conducted in a directed hypergraph because there does not exist any algorithm for computing the strongly-connected components of the hypergraph. In this thesis, we investigate ways to compute the strongly-connected components of directed hypergraphs. We present two new algorithms and we show their correctness and computational complexity. One of these algorithms is inspired by Tarjan’s algorithm for directed graphs. The second algorithm follows a simple approach to compute the stronglyconnected components. This approach is based on the fact that two nodes of a graph that are strongly-connected can also reach the same nodes. In other words, the connected component of each node is the same. Both algorithms are empirically evaluated to compare their performances. To this end, we have produced a selection of random directed hypergraphs inspired by existent and well-known random graphs models like Erd˝os-Renyi and Newman-Watts-Strogatz. Besides the application examples that we mentioned earlier, directed hypergraphs have also been employed in the field of knowledge representation. In particular, they have been used to compute the modules of an ontology. An ontology is defined as a collection of axioms that provides a formal specification of a set of terms and their relationships; and a module is a subset of an ontology that completely captures the meaning of certain terms as defined in the ontology. In particular, we focus on the modules computed using the notion of syntactic locality. As ontologies can be very large, the computation of modules facilitates the reuse and maintenance of these ontologies. Analysing all modules of an ontology, however, is in general not feasible as the number of modules grows exponentially in the number of terms and axioms of the ontology. Nevertheless, the modules can succinctly be represented using the Atomic Decomposition of an ontology. Using this representation, an ontology can be partitioned into atoms, which are maximal sets of axioms that co-occur in every module. The Atomic Decomposition is then defined as a directed graph such that each node correspond to an atom and each edge represents a dependency relation between two atoms. In this thesis, we introduce the notion of an axiom dependency hypergraph which is a generalization of the atomic decomposition of an ontology. A module in the ontology corresponds to a connected component in the hypergraph, and the atoms of the ontology to the strongly-connected components. We apply our algorithms for directed hypergraphs to axiom dependency hypergraphs and in this manner, we compute the atoms of an ontology. To demonstrate the viability of this approach, we have implemented the algorithms in the application HyS which computes the modules of ontologies and calculate their atomic decomposition. In the thesis, we provide an experimental evaluation of HyS with a selection of large and prominent biomedical ontologies, most of which are available in the NCBO Bioportal. HyS outperforms state-of-the-art implementations in the tasks of extracting modules and computing the atomic decomposition of these ontologies.
Resumo:
El presente trabajo ahonda en el conocimiento del viento urbano. La investigación pasa revista a la historia de la relación del viento y la ciudad y revisa tres pares de disciplinas implicadas en comprender mejor dicha relación: la arquitectura y el urbanismo, la meteorología y la climatología y, por último, la ingeniería aeroespacial y la aerodinámica civil. Se estudian el comportamiento y la fluidez del viento al desplazarse por cuerpos romos no fuselados (los edificios y la trama urbana), así como sus efectos dentro de la ciudad. Asimismo, se examinan las metodologías existentes para comprenderlo, medirlo y analizarlo, desde los estudios de proporción y modelamiento en túneles de viento hasta las simulaciones virtuales y las dinámicas de fluidos CFD. Posteriormente se reconoce un caso de estudio que permite analizar el viento como un factor aislado, pero desde los parámetros morfológicos de una ciudad en la que se generan patrones aerodinámicos muy característicos: Punta Arenas, la ciudad más austral del mundo, donde los vientos corren casi siempre desde la misma dirección, el “oeste”, a más de 33,3 m/s, lo que equivale a 120 Km/h. La hipótesis de la investigación es que la morfología del casco histórico de Punta Arenas genera patrones aerodinámicos que condicionan el bienestar en los espacios públicos. El objetivo general de la investigación es estudiar los efectos aerodinámicos presentes en la morfología urbana para mejorar la permanencia en los espacios públicos, proponiendo estrategias para el desarrollo morfológico y volumétrico de los cuerpos edificados. En el desarrollo del caso de estudio se reconocen, al interior del cañón urbano, las temperaturas, los índices de asoleamiento y sus conos de sombra, la dirección del viento y la visualización del vórtice al interior del cañón urbano, para determinar cómo estos factores impactan en el espacio público. Las conclusiones indican que los patrones aerodinámicos presentes en la morfología urbana conducen el viento hacia los espacios públicos que se encuentran o desprotegidos del viento o con excesiva turbulencias, por tanto, los patrones aerodinámicos inciden en el uso estancial de los espacios públicos, generando problemas mecánicos al peatón e incidiendo en la sensación térmica en dichos espacios. Ello permite confirmar que es posible modificar y mejorar el uso de los espacios públicos si somos capaces de modelar la morfología urbana con el fin de reorientar los patrones aerodinámicos que afectan significativamente a dichos espacios. ABSTRACT This work deepens into the knowledge of urban wind. The study reviews the history of the relationship between the wind and the city and reviews three pairs of disciplines involved in understanding better these relationship: Architecture and Urbanism, Meteorology and Climatology and, finally, Aerospace and Civil Aerodynamics. The behavior and flow of wind through blunt bodies not fairings (the buildings and the urban fabric) and its effects within the city are studied. Also, existing methodologies to understand, measure and analyze the wind are examined, from the studios of proportion and modeling in wind tunnels to virtual simulations and fluid dynamics CFD. Subsequently, a case study to analyze the wind as an isolated factor is recognized, but from the morphological parameters of a city where very characteristic aerodynamic patterns are generated: Punta Arenas, the southernmost city in the world, where the winds run almost always from the same direction, the "West", at more than 33.3 m/s, which is equivalent to 120 km/h. The research hypothesis is that the morphology of the historic center of Punta Arenas generates aerodynamic patterns that determine the well-being in public spaces. The overall objective of the research is to study the aerodynamic effects present in the urban morphology to improve retention in public spaces, proposing strategies for morphological and volumetric development of the built bodies. In developing the case study are recognized, within the urban canyon, temperatures, rates of sunlight and shadow cones, wind direction and visualization of the vortex into the urban canyon, to determine how these factors impact in public space. The findings indicate that the aerodynamic patterns in urban morphology lead wind to public spaces that are unprotected or find themselves in a condition of excessive wind or turbulence; therefore, aerodynamic patterns affect the use of public spaces, generating mechanical problems for pedestrians and affecting the thermal sensation in such spaces. This confirms that it is possible to modify and improve the use of public spaces if we are able to model the urban morphology in order to reorient the aerodynamic patterns that significantly affect those spaces.
Resumo:
Esta tesis trata sobre la construcción modular ligera, dentro del contexto de la eficiencia energética y de cara a los conceptos de nZEB (near Zero Energy Building) y NZEB (Net Zero Energy Building) que se manejan en el ámbito europeo y específicamente dentro del marco regulador de la Directiva 2010/31 UE. En el contexto de la Unión Europea, el sector de la edificación representa el 40% del total del consumo energético del continente. Asumiendo la necesidad de reducir este consumo se han planteado, desde los organismos de dirección europeos, unos objetivos (objetivos 20-20-20) para hacer más eficiente el parque edificatorio. Estos objetivos, que son vinculantes en términos de legislación, comprometen a todos los estados miembros a conseguir la meta de reducción de consumo y emisiones de GEI (Gases de Efecto Invernadero) antes del año 2020. Estos conceptos de construcción modular ligera (CML) y eficiencia energética no suelen estar asociados por el hecho de que este tipo de construcción no suele estar destinada a un uso intensivo y no cuenta con unos cerramientos con niveles de aislamiento de acuerdo a las normativas locales o códigos de edificación de cada país. El objetivo de nZEB o NZEB, e incluso Energy Plus, según sea el caso, necesariamente (y así queda establecido en las normativas), dependerá no sólo de la mejora de los niveles de aislamiento de los edificios, sino también de la implementación de sistemas de generación renovables, independientemente del tipo de sistema constructivo con el que se trabaje e incluso de la tipología edificatoria. Si bien es cierto que los niveles de industrialización de la sociedad tecnológica actual han alcanzado varias de las fases del proceso constructivo - sobre todo en cuanto a elementos compositivos de los edificios- también lo es el hecho de que las cotas de desarrollo conseguidas en el ámbito de la construcción no llegan al nivel de evolución que se puede apreciar en otros campos de las ingenierías como la aeronáutica o la industria del automóvil. Aunque desde finales del siglo pasado existen modelos y proyectos testimoniales de construcción industrializada ligera (CIL) e incluso ya a principios del siglo XX, ejemplos de construcción modular ligera (CML), como la Casa Voisin, la industrialización de la construcción de edificios no ha sido una constante progresiva con un nivel de comercialización equiparable al de la construcción masiva y pesada. Los términos construcción industrializada, construcción prefabricada, construcción modular y construcción ligera, no siempre hacen referencia a lo mismo y no siempre son sinónimos entre sí. Un edificio puede ser prefabricado y no ser modular ni ligero y tal es el caso, por poner un ejemplo, de la construcción con paneles de hormigón prefabricado. Lo que sí es una constante es que en el caso de la construcción modular ligera, la prefabricación y la industrialización, casi siempre vienen implícitas en muchos ejemplos históricos y actuales. Con relación al concepto de eficiencia energética (nZEB o incluso NZEB), el mismo no suele estar ligado a la construcción modular ligera y/o ligera industrializada; más bien se le ve unido a la idea de cerramientos masivos con gran inercia térmica propios de estándares de diseño como el Passivhaus; y aunque comúnmente a la construcción ligera se le asocian otros conceptos que le restan valor (corta vida útil; función y formas limitadas, fuera de todo orden estético; limitación en los niveles de confort, etc.), los avances que se van alcanzando en materia de tecnologías para el aprovechamiento de la energía y sistemas de generación renovables, pueden conseguir revertir estas ideas y unificar el criterio de eficiencia + construcción modular ligera. Prototipos y proyectos académicos– como el concurso Solar Decathlon que se celebra desde el año 2002 promovido por el DOE (Departamento de Energía de los Estados Unidos), y que cuenta con ediciones europeas como las de los años 2010 y 2012, replantean la idea de la construcción industrializada, modular y ligera dentro del contexto de la eficiencia energética, con prototipos de viviendas de ± 60m2, propuestos por las universidades concursantes, y cuyo objetivo es alcanzar y/o desarrollar el concepto de NZEB (Net Zero Energy Building) o edificio de energía cero. Esta opción constructiva no sólo representa durabilidad, seguridad y estética, sino también, rapidez en la fabricación y montaje, además de altas prestaciones energéticas como se ha podido demostrar en las sucesivas ediciones del Solar Decathlon. Este tipo de iniciativas de desarrollo de tecnologías constructivas, no sólo apuntan a la eficiencia energética sino al concepto global de energía neta, Energía plus o cero emisiones de CO2. El nivel de emisiones por la fabricación y puesta en obra de los materiales de construcción depende, en muchos casos, no solo de la propia naturaleza del material, sino también de la cantidad de recursos utilizados para producir una unidad de medida determinada (kg, m3, m2, ml, etc). En este sentido podría utilizarse, en muchos casos, el argumento válido de que a menos peso, y a menos tamaño, menos emisiones globales de gases de efecto invernadero y menos contaminación. Para el trabajo de investigación de esta tesis se han tomado como referencias válidas para estudio, prototipos tanto de CML (Modular 3D) como de CIL (panelizado y elementos 2D), dado que para los fines de análisis de las prestaciones energéticas de los materiales de cerramiento, ambos sistemas son equiparables. Para poder llegar a la conclusión fundamental de este trabajo de tesis doctoral - que consiste en demostrar la viabilidad tecnológica/ industrial que supone la combinación de la eficiencia energética y la construcción modular ligera - se parte del estudio del estado de la técnica ( desde la selección de los materiales y los posibles procesos de industrialización en fábrica, hasta su puesta en obra, funcionamiento y uso, bajo los conceptos de consumo cero, cero emisiones de carbono y plus energético). Además -y con un estado de la técnica que identifica la situación actual- se llevan a cabo pruebas y ensayos con un prototipo a escala natural y células de ensayo, para comprobar el comportamiento de los elementos compositivos de los mismos, frente a unas condicionantes climáticas determinadas. Este tipo de resultados se contrastan con los obtenidos mediante simulaciones informáticas basadas en los mismos parámetros y realizadas en su mayoría mediante métodos simplificados de cálculos, validados por los organismos competentes en materia de eficiencia energética en la edificación en España y de acuerdo a la normativa vigente. ABSTRACT This thesis discusses lightweight modular construction within the context of energy efficiency in nZEB (near Zero Energy Building) and NZEB (Net Zero Energy Building) both used in Europe and, specifically, within the limits of the regulatory framework of the EU Directive 2010/31. In the European Union the building sector represents 40% of the total energy consumption of the continent. Due to the need to reduce this consumption, European decision-making institutions have proposed aims (20-20-20 aims) to render building equipment more efficient. These aims are bound by law and oblige all member States to endeavour to reduce consumption and GEI emissions before the year 2020. Lightweight modular construction concepts and energy efficiency are not generally associated because this type of building is not normally meant for intensive use and does not have closures with insulation levels which fit the local regulations or building codes of each country. The objective of nZEB or NZEB and even Energy Plus, depending on each case, will necessarily be associated (as established in the guidelines) not only with the improvement of insulation levels in buildings, but also with the implementation of renewable systems of generation, independent of the type of building system used and of the building typology. Although it is true that the levels of industrialisation in the technological society today have reached several of the building process phases - particularly in the composite elements of buildings - it is also true that the quotas of development achieved in the area of construction have not reached the evolutionary levelfound in other fields of engineering, such as aeronautics or the automobile industry. Although there have been models and testimonial projects of lightweight industrialised building since the end of last century, even going back as far as the beginning of the XX century with examples of lightweight modular construction such as the Voisin House, industrialisation in the building industry has not been constant nor is its comercialisation comparable to massive and heavy construction. The terms industrialised building, prefabricated building, modular building and lightweight building, do not always refer to the same thing and they are not always synonymous. A building can be prefabricated yet not be modular or lightweight. To give an example, this is the case of building with prefabricated concrete panels. What is constant is that, in the case of lightweight modular construction, prefabrication and industrialisation are almost always implicit in many historical and contemporary examples. Energy efficiency (nZEB or even NZEB) is not normally linked to lightweight modular construction and/or industrialised lightweight; rather, it is united to the idea of massive closureswith high thermal inertia typical of design standards such as the Passive House; and although other concepts that subtract value from it are generally associated with lightweight building (short useful life, limited forms and function, inappropriate toany aesthetic pattern; limitation in comfort levels, etc.), the advances being achieved in technology for benefitting from energy and renewable systems of generation may well reverse these ideas and unify the criteria of efficiency + lightweight modular construction. Academic prototypes and projects - such as the Solar Decathlon competition organised by the US Department of Energy and celebrated since 2002, with its corresponding European events such as those held in 2010 and 2012, place a different slant on the idea of industrialised, modular and lightweight building within the context of energy efficiency, with prototypes of homes measuring approximately 60m2, proposed by university competitors, whose aim is to reach and/or develop the NZEB concept, or the zero energy building. This building option does not only signify durability, security and aesthetics, but also fast manufacture and assembly. It also has high energy benefits, as has been demonstrated in successive events of the Solar Decathlon. This type of initiative for the development of building technologies, does not only aim at energy efficiency, but also at the global concept of net energy, Energy Plus and zero CO2 emissions. The level of emissions in the manufacture and introduction of building materials in many cases depends not only on the inherent nature of the material, but also on the quantity of resources used to produce a specific unit of measurement (kg, m3, m2, ml, etc.). Thus in many cases itcould be validly arguedthat with less weight and smaller size, there will be fewer global emissions of greenhouse effect gases and less contamination. For the research carried out in this thesis prototypes such as the CML (3D Module) and CIL (panelled and elements) have been used as valid study references, becauseboth systems are comparablefor the purpose of analysing the energy benefits of closure materials. So as to reach a basic conclusion in this doctoral thesis - that sets out to demonstrate the technological/industrial viability of the combination of energy efficiency and lightweight modular construction - the departure point is the study of the state of the technique (from the selection of materials and the possible processes of industrialisation in manufacture, to their use on site, functioning and use, respecting the concepts of zero consumption, zero emissions of carbon and Energy Plus). Moreover, with the state of the technique identifying the current situation, tests and practices have been carried out with a natural scale prototype and test cells so as to verify the behaviour of the composite elements of these in certain climatic conditions. These types of result are contrasted with those obtained through computer simulation based on the same parameters and done, principally, using simplified methods of calculation, validated by institutions competent in energy efficiency in Spanish building and in line with the rules in force.
Resumo:
Esta pesquisa propõe um estudo do Evangelho produzido pela comunidade de Mateus, mais especificamente, o trabalho consiste em demonstrar a possibilidade de leitura desse evangelho a partir de implicações econômicas no seio da comunidade que o produziu. Entendemos o Evangelho de Mateus como um dos diversos movimentos judaicos do período pós-destruição do templo em 70 d.C.. Por causa desse contexto percebemos que o Evangelho de Mateus, debate com uma realidade de disputas religiosas desse período. É importante frisar que essas questões possuem vertentes e não terminam no âmbito religioso. As disputas religiosas conseqüentemente têm relações com todas as dimensões da vida, entre elas a econômica. Mateus resignifica para seu grupo a questão das posses, das riquezas, em virtude de uma realidade de crise econômica. E em meio a essa crise o Evangelho de Mateus, a partir de um trabalho redacional, dá novos significados à vida de fé da comunidade à luz das histórias de Jesus recebidas das fontes Marcos e Lucas. Este estudo justifica-se pela lacuna existente no material produzido sobre o Evangelho de Mateus, uma vez que o que é produzido a respeito dessas narrativas quase sempre se preocupa em analisar o conflito entre a comunidade de Mateus e os Fariseus somente no campo religioso deixando de lado as demais possibilidades, entre elas as relações econômicas.(AU)
Resumo:
Esta pesquisa propõe um estudo do Evangelho produzido pela comunidade de Mateus, mais especificamente, o trabalho consiste em demonstrar a possibilidade de leitura desse evangelho a partir de implicações econômicas no seio da comunidade que o produziu. Entendemos o Evangelho de Mateus como um dos diversos movimentos judaicos do período pós-destruição do templo em 70 d.C.. Por causa desse contexto percebemos que o Evangelho de Mateus, debate com uma realidade de disputas religiosas desse período. É importante frisar que essas questões possuem vertentes e não terminam no âmbito religioso. As disputas religiosas conseqüentemente têm relações com todas as dimensões da vida, entre elas a econômica. Mateus resignifica para seu grupo a questão das posses, das riquezas, em virtude de uma realidade de crise econômica. E em meio a essa crise o Evangelho de Mateus, a partir de um trabalho redacional, dá novos significados à vida de fé da comunidade à luz das histórias de Jesus recebidas das fontes Marcos e Lucas. Este estudo justifica-se pela lacuna existente no material produzido sobre o Evangelho de Mateus, uma vez que o que é produzido a respeito dessas narrativas quase sempre se preocupa em analisar o conflito entre a comunidade de Mateus e os Fariseus somente no campo religioso deixando de lado as demais possibilidades, entre elas as relações econômicas.(AU)
Resumo:
A presente pesquisa analisou a posição e ação política nas Assembleias de Deus do Brasil nos períodos 1930-1945 e 1978-1988. Defendemos a tese de que desde 1930 há no interior do pentecostalismo brasileiro posições e intervenções no mundo da política. Tanto no período de 1930-1945 como o de 1978-1988 nossas análises serão realizadas a partir das temporalidades discutidas por Giorgio Agamben: chronos, aiôn e kairos. No que diz respeito ao primeiro período 1930-1945, as pesquisas quase sempre vinculam o discurso escatológico do pentecostalismo a processos de alienação e não envolvimento com a política partidária. Entretanto, acredita-se que as narrativas escatológicas não foram causa de certo afastamento da esfera pública brasileira, mas sim efeito de processos de exclusão aos quais homens e mulheres de pertença pentecostal estiveram circunscritos. Doutrinas como a escatologia e a pneumatologia foram potencializadoras de processos que aqui denominamos de biopotência. Já no segundo período, de 1978-1988, a posição e a ação política que predominaram no pentecostalismo estiveram relacionadas com a biopolítica. Chamamos de capítulo intermedário ou de transição o período correspondente às datas 1946-1977. Nele descreveremos e analisaremos personalidades pentecostais de destaque no campo da política brasileira. Metodologicamente, fizemos nossa análise a partir de artigos publicados no órgão oficial de comunicação da denominação religiosa em questão, o jornal Mensageiro da Paz. Esse periódico circula desde 1930. Além dos artigos, destacamos também as autoras e os autores, todas elas e todos eles figuras de destaque no assembleianismo. Ao longo da pesquisa questionamos a ideia do apoliticismo pentecostal. Defendemos a tese de que desde 1930, que é o início de nossa pesquisa, há posição e ação política nas Assembleias de Deus. Como resultado disso, questionamos a ideia do apoliticismo pentecostal. Nossa hipótese é de que no período 1930-1945 o pentecostalismo foi um polo de biopotência. Se a biopolítica é o poder sobre a vida, a biopotência é o poder da vida. Doutrinas como a escatologia e pneumatologia contribuíram para que nos espaços marginais onde se reuniam os pentecostais fossem criados novos modelos de sociabilidade e de cooperação; eram também espaços de criação de outras narrativas e de crítica a modelos hegemônicos e excludentes. O pentecostalismo foi um movimento que promoveu a dignidade humana de sujeitos subalternos.
Resumo:
Global biogeochemical models have improved dramatically in the last decade in their representation of the biosphere. Although leaf area data are an important input to such models and are readily available globally, global root distributions for modeling water and nutrient uptake and carbon cycling have not been available. This analysis provides global distributions for fine root biomass, length, and surface area with depth in the soil, and global estimates of nutrient pools in fine roots. Calculated root surface area is almost always greater than leaf area, more than an order of magnitude so in grasslands. The average C:N:P ratio in living fine roots is 450:11:1, and global fine root carbon is more than 5% of all carbon contained in the atmosphere. Assuming conservatively that fine roots turn over once per year, they represent 33% of global annual net primary productivity.
Resumo:
Studies of carbon isotopes and cadmium in bottom-dwelling foraminifera from ocean sediment cores have advanced our knowledge of ocean chemical distributions during the late Pleistocene. Last Glacial Maximum data are consistent with a persistent high-ΣCO2 state for eastern Pacific deep water. Both tracers indicate that the mid-depth North and tropical Atlantic Ocean almost always has lower ΣCO2 levels than those in the Pacific. Upper waters of the Last Glacial Maximum Atlantic are more ΣCO2-depleted and deep waters are ΣCO2-enriched compared with the waters of the present. In the northern Indian Ocean, δ13C and Cd data are consistent with upper water ΣCO2 depletion relative to the present. There is no evident proximate source of this ΣCO2-depleted water, so I suggest that ΣCO2-depleted North Atlantic intermediate/deep water turns northward around the southern tip of Africa and moves toward the equator as a western boundary current. At long periods (>15,000 years), Milankovitch cycle variability is evident in paleochemical time series. But rapid millennial-scale variability can be seen in cores from high accumulation rate series. Atlantic deep water chemical properties are seen to change in as little as a few hundred years or less. An extraordinary new 52.7-m-long core from the Bermuda Rise contains a faithful record of climate variability with century-scale resolution. Sediment composition can be linked in detail with the isotope stage 3 interstadials recorded in Greenland ice cores. This new record shows at least 12 major climate fluctuations within marine isotope stage 5 (about 70,000–130,000 years before the present).