109 resultados para la physique

em Université de Lausanne, Switzerland


Relevância:

70.00% 70.00%

Publicador:

Resumo:

Ce livre est une introduction à la philosophie des sciences qui se veut accessible aux étudiants. Il résume l'état actuel de la connaissance, en présentant les différents concepts et en proposant une évaluation des résultats fondés et des questions majeures qui restent ouvertes. Il vise à contribuer au développement d'une nouvelle philosophie de la nature qui prend en considération les théories scientifiques, cherchant à élaborer sur leur base une vision de l'ensemble de la nature : il utilise à cet effet les outils conceptuels de la philosophie analytique. La première partie de l'ouvrage dresse un bilan du débat entre l'empirisme logique et ses critiques. La deuxième partie, la partie principale, présente les principaux sujets de la métaphysique de la nature en se focalisant sur la philosophie de la physique. La troisième partie traite les thèmes de l'unité de la nature ainsi que l'unité des sciences. Cette deuxième édition intègre de nouvelles réflexions sur les Fondements physiques et la causalité. Elle ne considère pas la philosophie de la biologie, qui sera spécifiquement traitée dans un ouvrage à paraître prochainement chez le même éditeur. Chaque chapitre, contient un appareil pédagogique avec résumé, questions d'évaluations et propositions de travail, et l'ouvrage est complété d'un glossaire et d'une bibliographie exhaustive : il est donc particulièrement adapté à un support de cours.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Cette étude porte sur la recherche biomédicale en Suisse dans une perspective interprétative. Elle s'intéresse à l'usage que font les acteurs scientifiques et institutionnels de la catégorie «biomédical», à la signification qu'ils en donnent et aux processus de structuration de la recherche biomédicale autour de ces enjeux de catégorisation. Nous avons formulé l'hypothèse que le «biomédical» pouvait être considéré comme un label, à savoir une stratégie discursive de positionnement des acteurs, ou pouvait constituer un champ, à savoir un espace social de recherche fortement structuré. Pour pouvoir vérifier la validité de ces hypothèses, trois perspectives analytiques ont été retenues: topographie, discours et pratiques. Dans un premier temps, nous avons établi une topographie de la recherche biomédicale en repérant les acteurs (et leur appartenance disciplinaire) et les institutions qui s'associent au terme «biomédical», que ce soit pour décrire des institutions ou des projets de recherche. Les résultats de cette analyse offrent une première approximation d'un espace de la recherche en donnant une image d'un domaine peu unifié. Ainsi, l'usage de la catégorie «biomédical» dans les projets des chercheurs n'est pas le fait des seuls médecins et biologistes, mais également de représentants d'autres disciplines. La physique, la chimie et les sciences de l'ingénieur occupent ainsi également une place très importante dans cet espace de recherche. Puis, dans une perspective discursive, nous avons analysé le «biomédical» non seulement comme un label, mais également comme un objet-frontière permettant d'articuler différentes significations, de produire du sens là où des univers de recherche pourraient s'opposer, ou à coordonner des politiques qui ne l'étaient pas. L'analyse des différentes définitions du «biomédical» nous a confirmé l'existence d'un espace social marqué par une grande diversité disciplinaire, toutefois articulé autour d'un coeur médical et, plus particulièrement, d'une application médicale (potentielle ou actuelle). De plus, il ne semble pas y avoir de profondes luttes pour l'établissement de limites claires au «biomédical». Finalement, nous avons étudié les différentes activités de la production des savoirs (carrières, financement, collaboration, publication, etc.). Cette analyse a permis de comprendre que la diversité des définitions et des significations que les acteurs attribuent à la catégorie «biomédical» a aussi un ancrage dans la matérialité des réseaux sociotechniques dans lesquels les chercheurs s'inscrivent. Ces éléments confirment l'idée d'une fragmentation et d'une hétérogénéité de l'espace de la recherche biomédicale. En dépit de cette fragmentation, nous avons également montré que différentes mesures et instruments d'action publique visant à organiser et réguler les pratiques des chercheurs sont mis en oeuvre. Néanmoins et paradoxalement, la recherche biomédicale ne constitue pas pour autant un objet de politique scientifique abordé par les autorités politiques, en tous les cas pas sous l'angle de la catégorie «biomédical». Ces différents niveaux d'analyse ont permis d'arriver à la conclusion que la catégorie «biomédical» n'est pas suffisamment institutionnalisée et que le degré d'interaction entre l'ensemble des chercheurs qui en font usage est trop faible pour que l'on puisse considérer le «biomédical» comme un espace social fortement organisé et structuré, à savoir un champ de la recherche biomédicale. Cela est principalement lié au fait que les acteurs ne partagent pas les mêmes définitions de ce qu'est (ou devrait être) le «biomédical», que leurs pratiques de recherche s'inscrivent dans des univers relativement séparés, et que cette diversité ne donne pas lieu à de fortes luttes pour l'imposition d'une définition légitime ou de normes d'excellence scientifiques dominantes. Par contre, les analyses ont permis de confirmer la validité du «biomédical» comme label, puisque les acteurs se servent de cette catégorie pour valoriser leurs pratiques de recherche et se positionner, même si d'autres notions ont émergé ces dernières années («translationnel», «biotech», «medtech», médecine personnalisée, etc.). On peut, in fine, considérer le «biomédical» comme un probable langage commun («objet-frontière») reposant tant sur la scientificisation du médical que sur la médicalisation des sciences («de base» et «techniques »), visant à améliorer les conditions de possibilité d'un dialogue fructueux entre chercheurs fondamentaux et cliniciens.

Relevância:

70.00% 70.00%

Publicador:

Resumo:

Les textes inédits traduits et présentés dans ce volume constituent un témoignage exceptionnel quant à l'évolution de la pensée de Carnap, l'un des fondateurs de la philosophie analytique. Des premières ébauches d'une construction logique du monde à l'analyse logique des propositions du langage, ils nous font en effet assister aux différents moments d'un programme philosophique inscrit dans le débat du physicalisme et de l'unité de la science. La réductibilité des termes de la psychologie puis de la biologie aux termes de la physique implique-t-elle la dérivabilité de leurs lois aux siennes ? Y a-t-il bonne conséquence d'une épistémologie de la réduction à une réduction ontologique ? Le monde, en somme, est-il entièrement explicable par le langage, et si oui, lequel ?

Relevância:

70.00% 70.00%

Publicador:

Resumo:

RÉSUMÉ : L'article a pour but d'expliquer la théorie linguistique de D. N. Ovsjaniko ­Kulikovskij (Russie, 1853-1920) et de proposer une nouvelle vision de la conception de ce linguiste souvent présenté comme un simple élève de A. A. Potebnja (1835-1891). L'article veut montrer comment Ovsjaniko­ Kulikovskij réalise son projet de créer une « linguistique scientifique » par opposition à la « philologie ». Il permet de suivre la manière dont s'est développé l'emprunt à la physique des notions d'« écono­mie d'énergie » et de celle du « moindre effort » pour la psychologie et ensuite, la linguistique, notions qui étaient promises à un grand avenir dans la linguistique du XXe siècle.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Trois constats majeurs sont à l'origine de notre étude. Premièrement, les processus d'acquisition mobilisés par l'enseignement bilingue ont fait l'objet de très peu de recherches, alors que les résultats issus de ce type d'enseignement ont été largement explorés et ont globalement reçu une évaluation positive. Deuxièmement, l'apprentissage de la langue seconde (L2) et le bénéfice qu'il peut tirer d'un enseignement bilingue reste l'objet privilégié pour la plupart des études, alors que les particularités et les enjeux de l'apprentissage des disciplines dites "non linguistiques" (DNL) (telles l'histoire, la physique ou les mathématiques) restent largement inexplorées. Troisièmement, l'intégration a été souvent étudiée au niveau du curriculum scolaire pour dégager les interrelations entre enseignement de la L2 et enseignement des DNL, mais l'intégration demandait encore à être décrit de manière détaillée en tant qu'incorporation de l'apprentissage des savoirs disciplinaires et linguistiques et en tant que travail intégré des savoirs linguistiques et disciplinaires.Notre analyse s'inscrit alors dans une triple perspective prenant en compte ces trois axes de recherche : une perspective interactionniste et située de l'apprentissage des langues permettant d'envisager les processus d'acquisition mobilisés par l'enseignement bilingue in situ ; une perspective bi-plurilingue qui invite à étudier les spécificités de l'enseignement bilingue et s'affilie à une didactique du plurilinguisme valorisant un travail bilingue et intégré en classe ; une perspective des DNL permettant de considérer les enjeux de l'enseignement bilingue pour l'apprentissage des DNL, et non seulement pour l'apprentissage de la L2, et de considérer le travail intégré des savoirs linguistiques et disciplinaires.Ainsi, notre étude vise la description des pratiques effectives en classe bilingue s'appuyant sur l'analyse d'un important corpus d'interactions enregistrées dans diverses classes du secondaire II, orientée vers une méthodologie à caractère ethnographique et basée sur une démarche empirique et descriptive, ainsi que sur les outils de l'analyse conversationnelle appliquée à l'apprentissage des L2.Dans ce contexte, notre travail repose sur l'hypothèse que l'enseignement bilingue profite non seulement à l'apprentissage des savoirs linguistiques, mais également à celui des savoirs disciplinaires, lorsqu'il se base sur un travail intégré de la dimension linguistique et disciplinaire de cet apprentissage, et qu'un travail dans les deux langues en présence contribue à une intégration forte des savoirs linguistiques et disciplinaires. Il vise alors l'examen de l'articulation entre travail disciplinaire et travail linguistique dans différentes DNL et activités, ainsi que l'élaboration bilingue des concepts disciplinaires.D'abord, nos analyses montrent deux manières d'aborder l'élaboration des concepts disciplinaires dans les classes bilingues observées, le mode unilingue et le mode bilingue, et mettent en lumière l'apport du mode bilingue ou travail bilingue à l'élaboration des savoirs disciplinaires. Puis, la description détaillée de séquences-types permet de dégager les fonctionnements spécifiques à un enseignement bilingue et intégré, ainsi que les degrés et les procédés d'intégration des savoirs linguistiques et disciplinaires dans l'apprentissage en classe bilingue.En résumé, nos observations montrent que le bénéfice de l'enseignement bilingue réside dans l'attention particulière portée aux enjeux linguistiques des DNL et dans le travail linguistique, lorsqu'il est orienté vers un but disciplinaire. Aussi, cette orientation s'affirme dans la dynamique entre travail sur la dimension disciplinaire et travail sur la dimension linguistique.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

La fragmentation est un des mécanismes opérant lors d'avalanche rocheuses. La quantification de l'énergie associée à ce mécanisme permettrait d'apprécier l'influence de celui-ci sur la phase post-rupture d'une avalanche rocheuse. Dans cet article, les distributions des tailles des blocs du massif rocheux et des débris sont présentées et comparées pour neuf cas d'avalanches rocheuses : cinq dans les montagnes Rocheuses canadiennes et quatre dans les Alpes européennes. Des degrés de fragmentation ont pu être estimés. Pour évaluer l'énergie de fragmentation, deux méthodes on été examinées : l'une est basée sur l'énergie de concassage et l'autre est basée sur l'énergie de sautage utilisée dans le domaine minier. Les résultats obtenus portent à croire qu'il y aurait une relation entre l'indice de réduction de taille (Rr = D50/d50) et l'énergie potentielle par unité de volume, normalisée par la résistance au double poinçonnement (?HG/?c). Les énergies de fragmentation calculées pour les neuf cas étudiés donne en moyenne 20 % de l'énergie potentielle. Une relation empirique entre Rr et ?HG/?c est proposée, et est par la suite utilisée pour définir un indice de désintégration (ID). Cet indice reflète la physique du processus de désintégration puisqu'il considère que l'indice de réduction de taille est fonction de l'énergie dissipée et de la résistance de la roche. Ces facteurs connus depuis longtemps n'avaient jamais été présentés d'une façon cohérente pour des cas d'avalanches rocheuses.Mots clés : avalanches rocheuses, désintégration, énergie de fragmentation, Rocheuses canadiennes, Alpes européennes.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Résumé La cryptographie classique est basée sur des concepts mathématiques dont la sécurité dépend de la complexité du calcul de l'inverse des fonctions. Ce type de chiffrement est à la merci de la puissance de calcul des ordinateurs ainsi que la découverte d'algorithme permettant le calcul des inverses de certaines fonctions mathématiques en un temps «raisonnable ». L'utilisation d'un procédé dont la sécurité est scientifiquement prouvée s'avère donc indispensable surtout les échanges critiques (systèmes bancaires, gouvernements,...). La cryptographie quantique répond à ce besoin. En effet, sa sécurité est basée sur des lois de la physique quantique lui assurant un fonctionnement inconditionnellement sécurisé. Toutefois, l'application et l'intégration de la cryptographie quantique sont un souci pour les développeurs de ce type de solution. Cette thèse justifie la nécessité de l'utilisation de la cryptographie quantique. Elle montre que le coût engendré par le déploiement de cette solution est justifié. Elle propose un mécanisme simple et réalisable d'intégration de la cryptographie quantique dans des protocoles de communication largement utilisés comme les protocoles PPP, IPSec et le protocole 802.1li. Des scénarios d'application illustrent la faisabilité de ces solutions. Une méthodologie d'évaluation, selon les critères communs, des solutions basées sur la cryptographie quantique est également proposée dans ce document. Abstract Classical cryptography is based on mathematical functions. The robustness of a cryptosystem essentially depends on the difficulty of computing the inverse of its one-way function. There is no mathematical proof that establishes whether it is impossible to find the inverse of a given one-way function. Therefore, it is mandatory to use a cryptosystem whose security is scientifically proven (especially for banking, governments, etc.). On the other hand, the security of quantum cryptography can be formally demonstrated. In fact, its security is based on the laws of physics that assure the unconditional security. How is it possible to use and integrate quantum cryptography into existing solutions? This thesis proposes a method to integrate quantum cryptography into existing communication protocols like PPP, IPSec and the 802.l1i protocol. It sketches out some possible scenarios in order to prove the feasibility and to estimate the cost of such scenarios. Directives and checkpoints are given to help in certifying quantum cryptography solutions according to Common Criteria.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Résumé La structure, ou l'architecture, des êtres vivants définit le cadre dans lequel la physique de la vie s'accomplit. La connaissance de cette structure dans ses moindres détails est un but essentiel de la biologie. Son étude est toutefois entravée par des limitations techniques. Malgré son potentiel théorique, la microscopie électronique n'atteint pas une résolution atomique lorsqu'elle est appliquée ä la matièxe biologique. Cela est dû en grande partie au fait qu'elle contient beaucoup d'eau qui ne résiste pas au vide du microscope. Elle doit donc être déshydratée avant d'être introduite dans un microscope conventionnel. Des artéfacts d'agrégation en découlent inévitablement. La cryo-microscopie électronique des sections vitreuses (CEMOVIS) a ëté développée afin de résoudre cela. Les spécimens sont vitrifiés, c.-à-d. que leur eau est immobilisée sans cristalliser par le froid. Ils sont ensuite coupés en sections ultrafines et celles-ci sont observées à basse température. Les spécimens sont donc observés sous forme hydratée et non fixée; ils sont proches de leur état natif. Durant longtemps, CEMOVIS était très difficile à exécuter mais ce n'est plus le cas. Durant cette thèse, CEMOVIS a été appliqué à différents spécimens. La synapse du système nerveux central a été étudiée. La présence dans la fente synaptique d'une forte densité de molécules organisées de manière périodique a été démontrée. Des particules luminales ont été trouvées dans Ies microtubules cérébraux. Les microtubules ont servi d'objets-test et ont permis de démontrer que des détails moléculaires de l'ordre du nm sont préservés. La compréhension de la structure de l'enveloppe cellulaire des bactéries Grampositives aété améliorée. Nos observations ont abouti à l'élaboration d'un nouveau modèle hypothétique de la synthèse de la paroi. Nous avons aussi focalisé notre attention sur le nucléoïde bactérien et cela a suscité un modèle de la fonction des différents états structuraux du nucléoïde. En conclusion, cette thèse a démontré que CEMOVIS est une excellente méthode poux étudier la structure d'échantillons biologiques à haute résolution. L'étude de la structure de divers aspects des êtres vivants a évoqué des hypothèses quant à la compréhension de leur fonctionnement. Summary The structure, or the architecture, of living beings defines the framework in which the physics of life takes place. Understanding it in its finest details is an essential goal of biology. Its study is however hampered by technical limitations. Despite its theoretical potential, electron microscopy cannot resolve individual atoms in biological matter. This is in great part due to the fact. that it contains a lot of water that cannot stand the vacuum of the microscope. It must therefore be dehydrated before being introduced in a conventional mìcroscope. Aggregation artefacts unavoidably happen. Cryo-electron microscopy of vitreous sections (CEMOVIS) has been developed to solve this problem. Specimens are vitrified, i.e. they are rapidly cooled and their water is immobilised without crystallising by the cold. They are then. sectioned in ultrathin slices, which are observed at low temperatures. Specimens are therefore observed in hydrated and unfixed form; they are close to their native state. For a long time, CEMOVIS was extremely tedious but this is not the case anymore. During this thesis, CEMOVIS was applied to different specimens. Synapse of central nervous system was studied. A high density of periodically-organised molecules was shown in the synaptic cleft. Luminal particles were found in brain microtubules. Microtubules, used as test specimen, permitted to demonstrate that molecular details of the order of nm .are preserved. The understanding of the structure of cell envelope of Gram-positive bacteria was improved. Our observations led to the elaboration of a new hypothetic model of cell wall synthesis. We also focused our attention on bacterial nucleoids and this also gave rise to a functional model of nucleoid structural states. In conclusion, this thesis demonstrated that CEMOVIS is an excellent method for studying the structure of bìologìcal specimens at high resolution. The study of the structure of various aspects of living beings evoked hypothesis for their functioning.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Les textes inédits traduits et présentés dans ce volume constituent un témoignage exceptionnel quant à l'évolution de la pensée de Carnap, l'un des fondateurs de la philosophie analytique. Des premières ébauches d'une construction logique du monde à l'analyse logique des propositions du langage, ils nous font en effet assister aux différents moments d'un programme philosophique inscrit dans le débat du physicalisme et de l'unité de la science. La réductibilité des termes de la psychologie puis de la biologie aux termes de la physique implique-t-elle la dérivabilité de leurs lois aux siennes ? Y a-t-il bonne conséquence d'une épistémologie de la réduction à une réduction ontologique ? Le monde, en somme, est-il entièrement explicable par le langage, et si oui, lequel ?

Relevância:

60.00% 60.00%

Publicador:

Resumo:

L'expérience Belle, située dans le centre de recherche du KEK, au Japon, est consacrée principalement à l'étude de la violation de CP dans le système des mésons B. Elle est placée sur le collisionneur KEKB, qui produit des paires Banti-B. KEKB, l'une des deux « usines à B » actuellement en fonction, détient le record du nombre d'événements produits avec plus de 150 millions de paires. Cet échantillon permet des mesures d'une grande précision dans le domaine de la physique du méson B. C'est dans le cadre de ces mesures de précision que s'inscrit cette analyse. L'un des phénomènes remarquables de la physique des hautes énergies est la faculté qu'a l'interaction faible de coupler un méson neutre avec son anti-méson. Dans le présent travail, nous nous intéressons au méson B neutre couplé à l'anti-méson B neutre, avec une fréquence d'oscillation _md mesurable précisément. Outre la beauté de ce phénomène lui-même, une telle mesure trouve sa place dans la quête de l'origine de la violation de CP. Cette dernière n'est incluse que d'une façon peu satisfaisante dans le modèle standard des interactions électro-faibles. C'est donc la recherche de phénomènes physiques encore inexpliqués qui motive en premier lieu la collaboration Belle. Il existe déjà de nombreuses mesures de _md antérieures. Celle que nous présentons ici est cependant d'une précision encore jamais atteinte grâce, d'une part, à l'excellente performance de KEKB et, d'autre part, à une approche originale qui permet de réduire considérablement la contamination de la mesure par des événements indésirés. Cette approche fut déjà mise à profit par d'autres expériences, dans des conditions quelque peu différentes de celles de Belle. La méthode utilisée consiste à reconstruire partiellement l'un des mésons dans le canal ___D*(D0_)l_l, en n'utilisant que les informations relatives au lepton l et au pion _. L'information concernant l'autre méson de la paire Banti-B initiale n'est tirée que d'un seul lepton de haute énergie. Ainsi, l'échantillon à disposition ne souffre pas de grandes réductions dues à une reconstruction complète, tandis que la contamination due aux mésons B chargés, produits par KEKB en quantité égale aux B0, est fortement diminuée en comparaison d'une analyse inclusive. Nous obtenons finalement le résultat suivant : _md = 0.513±0.006±0.008 ps^-1, la première erreur étant l'erreur statistique et la deuxième, l'erreur systématique.<br/><br/>The Belle experiment is located in the KEK research centre (Japan) and is primarily devoted to the study of CP violation in the B meson sector. Belle is placed on the KEKB collider, one of the two currently running "B-meson factories", which produce Banti-B pairs. KEKB has created more than 150 million pairs in total, a world record for this kind of colliders. This large sample allows very precise measurements in the physics of beauty mesons. The present analysis falls within the framework of these precise measurements. One of the most remarkable phenomena in high-energy physics is the ability of weak interactions to couple a neutral meson to its anti-meson. In this work, we study the coupling of neutral B with neutral anti-B meson, which induces an oscillation of frequency _md we can measure accurately. Besides the interest of this phenomenon itself, this measurement plays an important role in the quest for the origin of CP violation. The standard model of electro-weak interactions does not include CP violation in a fully satisfactory way. The search for yet unexplained physical phenomena is, therefore, the main motivation of the Belle collaboration. Many measurements of _md have previously been performed. The present work, however, leads to a precision on _md that was never reached before. This is the result of the excellent performance of KEKB, and of an original approach that allows to considerably reduce background contamination of pertinent events. This approach was already successfully used by other collaborations, in slightly different conditions as here. The method we employed consists in the partial reconstruction of one of the B mesons through the decay channel ___D*(D0_)l_l, where only the information on the lepton l and the pion _ are used. The information on the other B meson of the initial Banti-B pair is extracted from a single high-energy lepton. The available sample of Banti-B pairs thus does not suffer from large reductions due to complete reconstruction, nor does it suffer of high charged B meson background, as in inclusive analyses. We finally obtain the following result: _md = 0.513±0.006±0.008 ps^-1, where the first error is statistical, and the second, systematical.<br/><br/>De quoi la matière est-elle constituée ? Comment tient-elle ensemble ? Ce sont là les questions auxquelles la recherche en physique des hautes énergies tente de répondre. Cette recherche est conduite à deux niveaux en constante interaction. D?une part, des modèles théoriques sont élaborés pour tenter de comprendre et de décrire les observations. Ces dernières, d?autre part, sont réalisées au moyen de collisions à haute énergie de particules élémentaires. C?est ainsi que l?on a pu mettre en évidence l?existence de quatre forces fondamentales et de 24 constituants élémentaires, classés en « quarks » et « leptons ». Il s?agit là de l?une des plus belles réussites du modèle en usage aujourd?hui, appelé « Modèle Standard ». Il est une observation fondamentale que le Modèle Standard peine cependant à expliquer, c?est la disparition quasi complète de l?anti-matière (le « négatif » de la matière). Au niveau fondamental, cela doit correspondre à une asymétrie entre particules (constituants de la matière) et antiparticules (constituants de l?anti-matière). On l?appelle l?asymétrie (ou violation) CP. Bien qu?incluse dans le Modèle Standard, cette asymétrie n?est que partiellement prise en compte, semble-t-il. En outre, son origine est inconnue. D?intenses recherches sont donc aujourd?hui entreprises pour mettre en lumière cette asymétrie. L?expérience Belle, au Japon, en est une des pionnières. Belle étudie en effet les phénomènes physiques liés à une famille de particules appelées les « mésons B », dont on sait qu?elles sont liées de près à l?asymétrie CP. C?est dans le cadre de cette recherche que se place cette thèse. Nous avons étudié une propriété remarquable du méson B neutre : l?oscillation de ce méson avec son anti-méson. Cette particule est de se désintégrer pour donner l?antiparticule associée. Il est clair que cette oscillation est rattachée à l?asymétrie CP. Nous avons ici déterminé avec une précision encore inégalée la fréquence de cette oscillation. La méthode utilisée consiste à caractériser une paire de mésons B à l?aide de leur désintégration comprenant un lepton chacun. Une plus grande précision est obtenue en recherchant également une particule appelée le pion, et qui provient de la désintégration d?un des mésons. Outre l?intérêt de ce phénomène oscillatoire en lui-même, cette mesure permet d?affiner, directement ou indirectement, le Modèle Standard. Elle pourra aussi, à terme, aider à élucider le mystère de l?asymétrie entre matière et anti-matière.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

RESUME : L'athérosclérose, pathologie inflammatoire artérielle chronique, est à l'origine de la plupart des maladies cardiovasculaires qui constituent l'une des premières causes de morbidité et mortalité en France. Les études observationnelles et expérimentales montrent que l'exercice physique prévient la mortalité cardiovasculaire. Cependant, les mécanismes précisant les bénéfices cliniques de l'exercice sur l'athérosclérose sont encore largement inconnus. Le but général de ce travail a donc été d'explorer, en utilisant un modèle expérimental d'athérosclérose, la souris hypercholestérolémique génétiquement dépourvue en apolipoprotéine E (apoE-/-), les mécanismes athéroprotecteurs de l'exercice. La dysfonction endothéliale, généralement associée aux facteurs de risque cardiovasculaire, serait l'une des étapes précoces majeures de l'athérogenèse. Elle est caractérisée par une diminution de la biodisponibilité en monoxyde d'azote (NO) avec la perte de ses propriétés vasculo-protectrices, ce qui favorise un climat pro-athérogène (stress oxydatif, adhésion et infiltration des cellules inflammatoires dans la paroi artérielle...) conduisant à la formation de la plaque athéromateuse. L'objectif de notre premier travail a donc été d'explorer les effets de l'exercice d'une part, sur le développement des plaques athéromateuses et d'autre part, sur la fonction endothéliale de la souris apoE-/-. Nos résultats montrent que l'exercice réduit significativement l'extension de l'athérosclérose et prévient la dysfonction endothéliale. L'explication pharmacologique montre que l'exercice stimule la fonction endothéliale via, notamment, une plus grande sensibilité des récepteurs endothéliaux muscariniques, ce qui active les événements signalétiques cellulaires récepteurs-dépendants à l'origine d'une bioactivité accrue de NO. Les complications cliniques graves de l'athérosclérose sont induites par la rupture de la plaque instable provoquant la formation d'un thrombus occlusif et l'ischémie du territoire tissulaire en aval. L'objectif de notre deuxième travail a été d'examiner l'effet de l'exercice sur la qualité/stabilité de la plaque. Nos résultats indiquent que l'exercice de longue durée stabilise la plaque en augmentant le nombre de cellules musculaires lisses et en diminuant le nombre de macrophages intra-plaques. Nos résultats montrent aussi que la phosphorylation de la eNOS (NO Synthase endothéliale) Akt-dépendante n'est pas le mécanisme moléculaire majeur à l'origine de ce bénéfice. Enfin, dans notre troisième travail, nous avons investigué l'effet de l'exercice sur le développement de la plaque vulnérable. Nos résultats montrent, chez un modèle murin de plaque instable (modèle d'hypertension rénovasculaire à rénine et angiotensine II élevés) que l'exercice prévient l'apparition de la plaque vulnérable indépendamment d'un effet hémodynamique. Ce bénéfice serait associé à une diminution de l'expression vasculaire des récepteurs AT1 de l'Angiotensine II. Nos résultats justifient l'importance de l'exercice comme outil préventif des maladies cardiovasculaires. ABSTRACT : Atherosclerosis, a chronic inflammatory disease, is one of the main causes of morbidity and mortality in France. Observational and experimental data indicate that regular physical exercise has a positive impact on cardiovascular mortality. However, the mechanisms by which exercise exerts clinical benefits on atherosclerosis are still unknown. The general aim of this work was to elucidate the anti-atherosclerotic effects of exercise, using a mouse model of atherosclerosis: the apolipoprotein E-deficient mice (apoE-/- mice). Endothelial dysfunction, generally associated with cardiovascular risk factors, has been recognized to be a major and early step in atherogenesis. Endothelial dysfunction is characterized by Nitric Oxide (NO) biodisponibility reduction with loss of NO-mediated vasculoprotective actions. This leads to vascular effects such as increased oxidative stress and increased adhesion of inflammatory cells into arterial wall thus playing a role in atherosclerotic plaque development. Therefore, one of the objective of our study was to explore the effects of exercise on atherosclerotic plaque extension and on endothelial function in apoE-/- mice. Results show that exercise significantly reduces plaque progression and prevents endothelial dysfunction. Pharmacological explanation indicates that exercise stimulates endothelial function by increasing muscarinic receptors sensitivity which in turn activates intracellular signalling receptor-dependent events leading to increased NO bioactivity. The clinical manifestations of atherosclerosis are the consequences of unstable plaque rupture with thrombus formation leading to tissue ischemia. The second aim of our work was to determine the effect of exercise on plaque stability. We demonstrate that long-term exercise stabilizes atherosclerotic plaques as shown by decreased macrophage and increased Smooth Muscle Cells plaque content. Our results also suggest that the Akt-dependent eNOS phosphorylation pathway is not the primary molecular mechanism mediating these beneficial effects. Finally, we assessed a putative beneficial effect of exercise on vulnerable plaque development. In a mouse model of Angiotensine II (Ang II)-mediated vulnerable atherosclerotic plaques, we provide fist evidence that exercise prevents atherosclerosis progression and plaque vulnerability. The beneficial effect of swimming was associated with decreased aortic Ang II AT1 receptor expression independently from any hemodynamic change. These findings suggest clinical benefit of exercise in terms of cardiovascular event protection.