940 resultados para malem deepest dive
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).
Resumo:
L’extraction aurifère est l’une des activités humaines qui a fortement accru l’émission de contaminants métalliques dans l’environnement. Le mercure (Hg), l’arsenic (As) et le sélénium (Se) sont 3 polluants métalliques de grande toxicité environnementale. En milieu aquatique, ils peuvent subir des transformations menant à des composés capables de bioaccumulation et de bioamplification. Il peut en résulter des concentrations 106 fois celle mesurée dans l’eau chez les poissons et les organismes situés en haut des chaînes alimentaires posant de ce fait de graves menaces pour la santé de ces organismes ainsi que leurs consommateurs y compris les humains. Cette étude a évalué les teneurs en Hg, As et Se dans les milieux aquatiques au Burkina Faso, une région d’Afrique sub-saharienne soumise à une exploitation minière intensive. Le risque potentiel pour les organismes aquatiques et les humains a été évalué en considérant les effets des interactions antagonistes Se/Hg et As/Se. La bioaccumulation et le transfert du Hg et du Se dans les réseaux trophiques sont également décrits. L’exposition au Hg de poissons par les humains a été également évalué au laboratoire par mesure de la bioaccessibilité comme équivalent de la biodisponibilité par simulation de la digestion humaine. En général, les milieux aquatiques étudiés étaient peu affectés par ces 3 métal(loïd)s bien que certaines espèces de poisson issus des réservoirs les plus profonds indiquent des teneurs de Hg au dessus de 500 ngHg/g (poids frais) recommandé par l’OMS. Ces niveaux sont susceptibles de présenter des risques toxicologiques pour les poissons et pour leurs consommateurs. En considérant l’antagonisme Se/Hg, 99 % des échantillons de poisson seraient moins exposés à la toxicité du Hg dû à la présence simultanée du sélénium dans le milieu et pourraient être consommés sans risque. Cependant, les effets potentiels de l’antagonisme As/Se pourraient réduire les effets bénéfiques du Se et ramener cette proportion à 83 %. L’application des mesures de signatures en isotopes stables d’azote (δ15N) et de carbone (δ13C) des organismes aquatiques a permis le traçage des voies de transfert du Hg et du Se dans les réseaux trophiques. On y observe des chaînes trophiques très courtes (3 - 4 niveaux trophiques) et des poissons majoritairement benthiques. L’approche isotopique n’a cependant pas permis de détecter les variations saisonnières des niveaux de contamination en Hg des poissons. L’exploration des contenus stomacaux des poissons a permis de mieux expliquer la baisse des concentrations en Hg et Se observées chez certains poissons au cours de la saison sèche en lien avec la variation de la composition des proies que l’analyse isotopique n’a pas cerné. L’étude suggère que l’analyse de contenus stomacaux ainsi que l’étude de la dynamique des communautés d’invertébrés couplées à celle des métaux pourraient améliorer la compréhension du fonctionnement des écosystèmes étudiés. Enfin, l’évaluation expérimentale de l’exposition au Hg indique que les modes de traitement avant consommation ainsi que l’usage de composés alimentaires tels le thé, le café lors de repas de poisson par certaines communautés humaines ont un impact sur la bioaccessibilité du Hg de poisson. Ces résultats, sous réserve de validation par des modèles animaux, suggèrent la prise en compte des habitudes alimentaires des communautés dans l’élaboration adéquat des avis de consommation de poisson.
Resumo:
Dans cette thèse l’ancienne question philosophique “tout événement a-t-il une cause ?” sera examinée à la lumière de la mécanique quantique et de la théorie des probabilités. Aussi bien en physique qu’en philosophie des sciences la position orthodoxe maintient que le monde physique est indéterministe. Au niveau fondamental de la réalité physique – au niveau quantique – les événements se passeraient sans causes, mais par chance, par hasard ‘irréductible’. Le théorème physique le plus précis qui mène à cette conclusion est le théorème de Bell. Ici les prémisses de ce théorème seront réexaminées. Il sera rappelé que d’autres solutions au théorème que l’indéterminisme sont envisageables, dont certaines sont connues mais négligées, comme le ‘superdéterminisme’. Mais il sera argué que d’autres solutions compatibles avec le déterminisme existent, notamment en étudiant des systèmes physiques modèles. Une des conclusions générales de cette thèse est que l’interprétation du théorème de Bell et de la mécanique quantique dépend crucialement des prémisses philosophiques desquelles on part. Par exemple, au sein de la vision d’un Spinoza, le monde quantique peut bien être compris comme étant déterministe. Mais il est argué qu’aussi un déterminisme nettement moins radical que celui de Spinoza n’est pas éliminé par les expériences physiques. Si cela est vrai, le débat ‘déterminisme – indéterminisme’ n’est pas décidé au laboratoire : il reste philosophique et ouvert – contrairement à ce que l’on pense souvent. Dans la deuxième partie de cette thèse un modèle pour l’interprétation de la probabilité sera proposé. Une étude conceptuelle de la notion de probabilité indique que l’hypothèse du déterminisme aide à mieux comprendre ce que c’est qu’un ‘système probabiliste’. Il semble que le déterminisme peut répondre à certaines questions pour lesquelles l’indéterminisme n’a pas de réponses. Pour cette raison nous conclurons que la conjecture de Laplace – à savoir que la théorie des probabilités présuppose une réalité déterministe sous-jacente – garde toute sa légitimité. Dans cette thèse aussi bien les méthodes de la philosophie que de la physique seront utilisées. Il apparaît que les deux domaines sont ici solidement reliés, et qu’ils offrent un vaste potentiel de fertilisation croisée – donc bidirectionnelle.
Resumo:
Toutes les photographies présentes à l'intérieur de ce mémoire ont été prises par l'auteur de ce dernier.
Resumo:
A medida que pasa el tiempo; la ciencia, el desarrollo tecnológico y la constante búsqueda de encontrar nuevas verdades, más fehacientes y que logren responder más asertivamente los diferentes cuestionamientos de la humanidad, han logrado redefinir las teorías y los axiomas que, en su momento, se tomaron como el dogma a seguir en diferentes disciplinas y cuestionamientos de la sociedad y la industria. La concepción tradicional que se tiene de la mente y el comportamiento del consumidor tenía vacios importantes en términos de aplicabilidad y generalización de sus teorías, pues pensar que la humanidad desarrolla sus decisiones de compra bajo análisis netamente racionales y apegados a estructuras temporales para manejar su dinero es un supuesto que no se emplea de manera general y concienzuda por el común. Antes que agentes 100% racionales, con un completo flujo de información y en un mercado perfecto bajo todos los preceptos económicos, somos personas de sentimientos y sentidos. Reaccionamos ante situaciones, estados de ánimo y estímulos, donde es nuestro cerebro quien recibe todo el contexto cognitivo que nos brinda el entorno y entonces actúa (y compra) de diferentes maneras. Es allí donde el Neuromarketing nace como un claro ejemplo de esa búsqueda por una nueva verdad. Una donde entender al consumidor no deje de lado su faceta más real; sus reacciones, pues son estas las que realmente definen qué le gusta o no y qué despierta en él un impulso lo suficientemente importante como para incidir en su decisión de compra. Es por ello que el Neuromarketing se ha adentrado a estudiar lo más profundo y verídico del consumidor, su cerebro. Alejándose de las técnicas tradicionales de investigación de mercados, donde el consumidor puede desvirtuar la información que percibe de un producto o una campaña publicitaría por diferentes razones sociales y psicológicas. El Neuromarketing se ha adentrado al estudio del consumidor y su cerebro mediante técnicas biométricas, en las cuales expone al consumidor al marketing y analiza sus reacciones cerebrales en términos de interés, adrenalina, memoria activa y sentimientos, apoyado por técnicas como el ¨eye tracking¨, donde las interacciones visuales del consumidor permiten identificar los puntos calientes y de interés en determinada pieza publicitaria. Pero el estudio, entendido por algunos como ¨invasivo¨ frente a las libertades en términos de privacidad y libertad de elección del consumidor deben ser responsablemente dirigidos y puestos bajo un contexto científico, donde el único fin sea el de generar nuevas hipótesis y teorías que permitan tener un mejor conocimiento del comportamiento del consumidor sin traspasar los límites del control del mismo. El Neuromarketing debate su existencia misma entre la creación de nuevas metodologías de acercamiento al pensamiento del consumidor, la efectividad de sus conocimiento dados a la industria y el yugo social que acarrea esta ciencia debido a la potencial coerción a los consumidores debido a sus hallazgos.
Resumo:
El concepto de organización saludable cada vez toma más fuerza en el ámbito empresarial y académico, a razón de su enfoque integral y al impacto generado en distintos grupos de interés. Debido a su reciente consolidación como concepto, existe un limitado cuerpo de investigación en torno al tema. Para contribuir a la generación de conocimiento en este sentido, se desarrolló un estudio exploratorio el cual tenía como objetivo identificar la relación existente entre la implementación de prácticas saludables en las organizaciones y los valores culturales. En el estudio participaron 66 sujetos a quienes se les administró un cuestionario compuesto por nueve variables, cinco provenientes del modelo de Hofstede (1980) y cuatro más que evaluaban la implementación de prácticas organizacionales saludables. Los resultados obtenidos muestran que los valores culturales predicen la implementación de prácticas saludables.
Resumo:
Una gran parte de la producción académica desarrollada en América Latina desde la disciplina de las relaciones internacionales y, en particular, desde el campo de la política exterior, se ha concentrado en la autonomía. En efecto, reconocidos académicos se han aproximado a este concepto utilizando diversos enfoques teóricos en la búsqueda de su posible aplicación a la realidad latinoamericana. Este artículo pretende estudiar las principales propuestas de autonomía; para tal fin se utilizan las herramientas analíticas que proporciona la discusión entre racionalistas y reflectivistas. Este debate se remonta a los aspectos más profundos del proceso de elaboración del conocimiento, el método y la visión de mundo. Aquello que subyace a los supuestos o premisas de toda teoría y que la sostiene de principio a fin. La intención de ello es superar las reflexiones tradicionales que se enfocan en clasificar dichas nociones en virtud de su afiliación teórica o alrededor de supuestos similares. De esta manera, se presenta un estado del arte con una nueva perspectiva analítica que desnuda y cuestiona nuestra forma tradicional de comprender la realidad internacional. Lo anterior permite descubrir los efectos de adoptar métodos y visiones de mundo específicas para resolver problemas que revisten una enorme complejidad y que exigen ampliar el espectro analítico y teórico para su solución.-----A major portion of the academic production developed in Latin America by the international affairs discipline and, in particular, by the foreign policy field, has focused on the autonomy. Indeed, renowned scholars have approached this concept by using different theoretical methods in search of the potential application to the Latin American reality. The article intends to study the main autonomy proposals, using the analytic tools provided by the discussion between rationalists and reflectivists. This debate addresses the deepest aspects of the knowledge creation, the method and the world vision; what underlies the assumptions or premises of any theory and supports it from end to end. The purpose is to overcome the traditional thoughts focused on classifying such notions according to their theoretical affiliations or around similar assumptions. In this way, a state-of-the-art is submitted with a new analytic perspective, which unveils and challenges our traditional way of understanding the international reality. The foregoing allows finding out the effects of adopting methods and world visions specific for solving problems of huge complexity which demand the expansion of the analytical and theoretical spectrum for such purpose.
Resumo:
Este documento ofrece un análisis sociológico del papel que cumplía el honor como valor en la sociedad neogranadina a finales de la Colonia a partir de algunos conceptos clave que ofrecen autores clásicos de la disciplina. El honor se puede enmarcar dentro de lo que algunos autores han denominado solidaridades sociales o conciencia colectiva. Es decir, dentro del conjunto de creencias y valores compartidos por los integrantes de una misma sociedad. Dado que para la época estudiada la herencia española en torno al honor ya había logrado un alto nivel de arraigo, es posible pensar que el interés por proteger el honor hacía parte del sentimiento común en la sociedad neogranadina. Y es que el hecho de que la noción de honor estuviese anclada en los valores religiosos, que tanto la Iglesia como la Corona promovieron, condujo a que el fundamento del honor tuviese un carácter moral, logrando así una alta difusión dentro del territorio americano. La idea del honor determinaba, en buena medida, los parámetros del orden social deseado.
Resumo:
La corrupción sigue siendo uno de los principales problemas del Estado de Derecho en el siglo XXI. Su incidencia reduce la eficacia de la inversión, aumenta el valor de los bienes y servicios, reduce la competitividad de las empresas, vulnera la confianza de los ciudadanos en el ordenamiento jurídico y sobre todo condena a la miseria a quienes deben ser destinatarios de las políticas públicas.Sin embrago, la lucha que han realizado muchos gobiernos y funcionarios judiciales contra este fenómeno ha modificado sus formas de aparición, pues es cada vez menos frecuente la apropiación directa de los caudales públicos o la entrega de sobornos a los funcionarios, prefiriéndose métodos mucho más sutiles como los sobrecostos, la subcontratación masiva o la constitución de complicadas sociedades, en las cuales tienen participación los funcionarios públicos o sus familias.Este libro constituye un esfuerzo por el estudio jurídico y criminológico de la corrupción y los delitos contra la administración pública en Europa y Latinoamérica y reúne la selección de los temas penales más relevantes de la tesis doctoral del profesor Carlos Guillermo Castro Cuenca, denominada Aproximación a la Corrupción en la contratación pública y defendida en la universidad de Salamanca en febrero de 2008, con lo cual obtuvo la calificación de sobresaliente por unanimidad.
Resumo:
The paper studies the concept of limit in literary discourse. Two aspects are discussed: 1) the limit as a necessary structuring element in the process of verbal nomination; 2) the limit as a verbal constraint which appeals to be defeated in case of extreme experience, as death, love, desire, Shoah. We analyse two examples dealing with the language restriction in the literary practice: Montaignes’ essays and Duras’ novels. Montaigne adopts a specific style of unlimited judgements and topics accumulation in a spontaneous order and logic with the purpose of revealing the deepest profile of human nature. Duras practices a minimalist writing that ruins the linear syntactic structure and the narrative model, achieving an effect of silence thus providing the possibility of unlimited meaning.
Resumo:
Accurate estimation of the soil water balance (SWB) is important for a number of applications (e.g. environmental, meteorological, agronomical and hydrological). The objective of this study was to develop and test techniques for the estimation of soil water fluxes and SWB components (particularly infiltration, evaporation and drainage below the root zone) from soil water records. The work presented here is based on profile soil moisture data measured using dielectric methods, at 30-min resolution, at an experimental site with different vegetation covers (barley, sunflower and bare soil). Estimates of infiltration were derived by assuming that observed gains in the soil profile water content during rainfall were due to infiltration. Inaccuracies related to diurnal fluctuations present in the dielectric-based soil water records are resolved by filtering the data with adequate threshold values. Inconsistencies caused by the redistribution of water after rain events were corrected by allowing for a redistribution period before computing water gains. Estimates of evaporation and drainage were derived from water losses above and below the deepest zero flux plane (ZFP), respectively. The evaporation estimates for the sunflower field were compared to evaporation data obtained with an eddy covariance (EC) system located elsewhere in the field. The EC estimate of total evaporation for the growing season was about 25% larger than that derived from the soil water records. This was consistent with differences in crop growth (based on direct measurements of biomass, and field mapping of vegetation using laser altimetry) between the EC footprint and the area of the field used for soil moisture monitoring. Copyright (c) 2007 John Wiley & Sons, Ltd.
Resumo:
The recent solar minimum was the longest and deepest of the space age, with the lowest average sunspot numbers for nearly a century. The Sun appears to be exiting a grand solar maximum (GSM) of activity which has persisted throughout the space age, and is headed into a significantly quieter period. Indeed, initial observations of solar cycle 24 (SC24) continue to show a relatively low heliospheric magnetic field strength and sunspot number (R), despite the average latitude of sunspots and the inclination of the heliospheric current sheet showing the rise to solar maximum is well underway. We extrapolate the available SC24 observations forward in time by assuming R will continue to follow a similar form to previous cycles, despite the end of the GSM, and predict a very weak cycle 24, with R peaking at ∼65–75 around the middle/end of 2012. Similarly, we estimate the heliospheric magnetic field strength will peak around 6nT. We estimate that average galactic cosmic ray fluxes above 1GV rigidity will be ∼10% higher in SC24 than SC23 and that the probability of a large SEP event during this cycle is 0.8, compared to 0.5 for SC23. Comparison of the SC24 R estimates with previous ends of GSMs inferred from 9300 years of cosmogenic isotope data places the current evolution of the Sun and heliosphere in the lowest 5% of cases, suggesting Maunder Minimum conditions are likely within the next 40 years.
Resumo:
With the increasing frequency and magnitude of warmer days during the summer in the UK, bedding plants which were a traditional part of the urban green landscape are perceived as unsustainable and water-demanding. During recent summers when bans on irrigation have been imposed, use and sales of bedding plants have dropped dramatically having a negative financial impact on the nursery industry. Retaining bedding species as a feature in public and even private spaces in future may be conditional on them being managed in a manner that minimises their water use. Using Petunia x hybrida ‘Hurrah White’ we aimed to discover which irrigation approach was the most efficient for maintaining plants’ ornamental quality (flower numbers, size and longevity), shoot and root growth under water deficit and periods of complete water withdrawal. Plants were grown from plugs for 51 days in wooden rhizotrons (0.35 m (h) x 0.1 m (w) x 0.065 m (d)); the rhizotrons’ front comprised clear Perspex which enabled us to monitor root growth closely. Irrigation treatments were: 1. watering with the amount which constitutes 50% of container capacity by conventional surface drip-irrigation (‘50% TOP’); 2. 50% as sub-irrigation at 10 cm depth (‘50% SUB’); 3. ‘split’ irrigation: 25% as surface drip- and 25% as sub-irrigation at 15 cm depth (‘25/25 SPLIT’); 4. 25% as conventional surface drip-irrigation (‘25% TOP’). Plants were irrigated daily at 18:00 apart from days 34-36 (inclusive) when water was withdrawn for all the treatments. Plants in ‘50% SUB’ had the most flowers and their size was comparable to that of ‘50% TOP’. Differences between treatments in other ‘quality’ parameters (height, shoot number) were biologically small. There was less root growth at deeper soil surface levels for ‘50% TOP’ which indicated that irrigation methods like ‘50% SUB’ and ‘25/25 SPLIT’ and stronger water deficits encouraged deeper root growth. It is suggested that sub-irrigation at 10 cm depth with water amounts of 50% container capacity would result in the most root growth with the maximum flowering for Petunia. Leaf stomatal conductance appeared to be most sensitive to the changes in substrate moisture content in the deepest part of the soil profile, where most roots were situated.
Resumo:
There are approximately 7000 languages spoken in the world today. This diversity reflects the legacy of thousands of years of cultural evolution. How far back we can trace this history depends largely on the rate at which the different components of language evolve. Rates of lexical evolution are widely thought to impose an upper limit of 6000-10,000 years on reliably identifying language relationships. In contrast, it has been argued that certain structural elements of language are much more stable. Just as biologists use highly conserved genes to uncover the deepest branches in the tree of life, highly stable linguistic features hold the promise of identifying deep relationships between the world's languages. Here, we present the first global network of languages based on this typological information. We evaluate the relative evolutionary rates of both typological and lexical features in the Austronesian and Indo-European language families. The first indications are that typological features evolve at similar rates to basic vocabulary but their evolution is substantially less tree-like. Our results suggest that, while rates of vocabulary change are correlated between the two language families, the rates of evolution of typological features and structural subtypes show no consistent relationship across families.
Resumo:
In recent years a number of chemistry-climate models have been developed with an emphasis on the stratosphere. Such models cover a wide range of time scales of integration and vary considerably in complexity. The results of specific diagnostics are here analysed to examine the differences amongst individual models and observations, to assess the consistency of model predictions, with a particular focus on polar ozone. For example, many models indicate a significant cold bias in high latitudes, the “cold pole problem”, particularly in the southern hemisphere during winter and spring. This is related to wave propagation from the troposphere which can be improved by improving model horizontal resolution and with the use of non-orographic gravity wave drag. As a result of the widely differing modelled polar temperatures, different amounts of polar stratospheric clouds are simulated which in turn result in varying ozone values in the models. The results are also compared to determine the possible future behaviour of ozone, with an emphasis on the polar regions and mid-latitudes. All models predict eventual ozone recovery, but give a range of results concerning its timing and extent. Differences in the simulation of gravity waves and planetary waves as well as model resolution are likely major sources of uncertainty for this issue. In the Antarctic, the ozone hole has probably reached almost its deepest although the vertical and horizontal extent of depletion may increase slightly further over the next few years. According to the model results, Antarctic ozone recovery could begin any year within the range 2001 to 2008. The limited number of models which have been integrated sufficiently far indicate that full recovery of ozone to 1980 levels may not occur in the Antarctic until about the year 2050. For the Arctic, most models indicate that small ozone losses may continue for a few more years and that recovery could begin any year within the range 2004 to 2019. The start of ozone recovery in the Arctic is therefore expected to appear later than in the Antarctic.