251 resultados para Algorithmes Parallèles


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'hyperplasie intimale est la cause majeure de sténoses de pontages veineux. Différents médicaments tels que les statines permettent de prévenir les sténoses mais leur administration systémique n'a que peu d'effet. Nous avons développé une matrice d'hydrogel d'acide hyaluronique qui permet d'avoir un relargage contrôlé d'atorvastatine sur un site désiré. L'enjeu de ce projet de recherche est de démontrer que l'atorvastatine relarguée par l'hydrogel a un effet similaire sur les cellules musculaires lisses de veines saphènes humaines comparé à l'atorvastatine directement diluée dans le milieu de culture. La recherche a été conduite conjointement par le laboratoire de médecine expérimentale du département de chirurgie thoracique et vasculaire du Centre Hospitalier Universitaire Vaudois et de l'Ecole de sciences pharmaceutiques des Universités de Lausanne et de Genève. On a incorporé de l'atorvastatine calcium (Chemos GmbH, Regenstauf Allemagne) dans des gels d'acide hyaluronique (Fortelis extra) à des concentrations déterminées afin de pouvoir analyser le relargage de l'Atovastatine dans le milieu de culture cellulaire par rapport aux concentrations d'atorvastatine directement ajoutées dans le milieu. Des cellules musculaires lisses primaires ont été cultivées à partir d'expiants de veines saphènes humaines. Elles ont été identifiées grâce à l'immunohistochimie par des anticorps contre la desmine et l'alpha-smooth muscle actine. La prolifération et la viabilité de ces cellules ont été analysées à l'aide du test MTT, leur transmigration avec le test de la chambre de Boyden et leur migration avec le principe de cicatrisation de plaies (wound healing assey). L'expression de gènes connus pour participer au développement de l'hyperplasie intimale, tels que la gap junction protein Connexin43 (Cx43), l'inhibiteur du plasminogène PAI-1, Thème oxygénase HO-1, la métalloproteinase-9 et l'inhibiteur de l'activateur du plasminogène tissulaire tPA, a été déterminée par niveau de mRNA exprimé en PCR. Leur expression en protéines a été analysée en utilisant la méthode par Western blots ainsi que l'immunohistochimie. Les expériences ont été effectuées à triple reprise en duplicats en parallèles avec de l'atorvastatine calcium directement ajoutée dans le milieu de culture et avec l'atorvastatine relarguée par l'hydrogel d'acide hyaluronique. Conclusions L'atorvastatine est relarguée par l'hydrogel de façon contrôlée. L'hydrogel contenant l'atorvastatine diminue la viabilité et la transmigration des cellules musculaires lisses de veines saphènes humaines de façon similaire à l'atorvastatine directement introduite dans le milieu de culture. L'hydrogel contenant l'atorvastatine module de façon sélective l'expression de marqueurs de la différentiation cellulaire de cellules musculaires lisses de veines saphènes humaines avec un retard de 24 heures comparé avec les effets de l'atorvastatine directement ajoutée au milieu de culture, sans néanmoins changer la distribution intra-cellulaire des protéines Cx43, HO-1 et PAI-1. Perspectives Il s'agit d'un projet d'importance clinique majeure permettant de réaliser des améliorations du traitement des artériopathies occlusives, ainsi que de relevance pharmacologique permettant de réaliser des dépôts de molécules avec un relargage stable et contrôlé à un site spécifique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mise en perspective Le rein est un organe vital dont la fonction dépend en grande partie d'une perfusion tissulaire adéquate. Les techniques actuellement utilisées pour étudier la microcirculation rénale sont soit invasives soit très dispendieuses. L'échographie de contraste est une nouvelle technologie, non invasive, facile à réaliser au lit du malade et pour laquelle certaines techniques récemment présentées semblent permettre de quantifier la perfusion d'un organe. Une telle technique pourrait avoir des applications dans l'étude de l'insuffisance rénale aiguë. Buts de l'étude Notre étude vise à tester le potentiel de l'échographie de contraste pour détecter des modifications de la perfusion rénale, corticale et médullaire chez l'être humain. Plan de l'étude Nous avons étudié la microcirculation rénale par échographie de contraste chez 12 sujets sains. Les mesures ont été réalisées en baseline puis sous perfusion de doses croissantes d'angiotensine II (un puissant et spécifique vasoconstricteur rénal) et enfin après la prise orale d'un comprimé de Captopril (un puissant vasodilatateur rénal). Les valeurs obtenues par échographie de contraste ont été comparées à la perfusion globale rénale évaluée par la clairance du PAH, qui constitue le gold standard en physiologie rénale. Résultats principaux Le protocole a pu être réalisé sans complication. Les perfusions vasoactives ainsi que les différentes administrations de Sonovue ont été parfaitement tolérées. Les séquences vidéos ont été analysées par deux lecteurs et une bonne concordance a été trouvée. Nous avons trouvé une diminution statistiquement significative et dose dépendante de l'index de perfusion rénale lors de la perfusion d'angiotensine II: -45% (p<0.02) entre baseline et Ang II faible dose et -65% (p<0.01) entre baseline et Ang II à haute dose. Enfin, nous avons observé une hausse significative de cet indice après administration orale de Captopril (+35%, p>0.2). Ces changements étaient parallèles aux changements de flux plasmatique rénal mesurés par calcul de la clairance du PAH. Une corrélation moyenne mais significative (r=0.57, p=0.002) a été observée entre ces deux mesures. Conclusions et perspectives L'échographie de contraste est capable de détecter des modifications dans la microcirculation rénale induites par une perfusion d'angiotensine et ou une administration de Captopril. Il s'agit d'une technique rapide sensible et fiable qui pourrait participer à l'évaluation des patients souffrant d'insuffisance rénale aiguë. D'autres études sont nécessaires pour démontrer son utilité dans un contexte clinique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les femmes concernées par cette recherche sont des femmes bosniaques, requérantes d'asile en Suisse, suivies au sein de l'association « Appartenances ». Elles ont quitté leur pays à la suite de la prise de la ville de Srebrenica, en juillet 1995. Lors de cet exode, elles ont été séparées de leurs maris, qui sont aujourd'hui encore portés disparus. Ces femmes partagent une expérience douloureuse qui transparaît derrière un certain nombre de symptômes physiques et psychiques. Nous avons été frappés par la répétition de pertes importantes, sans que les conditions permettant un travail de deuil soient réunies. Aucune signification ne peut être attribuée aux disparitions et aux décès, masqués par le silence politique et par l'impossibilité d'accomplir un rituel. Le deuil peut ainsi se compliquer jusqu'à devenir un deuil impossible, dont le prototype pourrait être le « deuil gelé » lors d'une disparition. D'autre part, le stress et l'attaque de l'identité occasionnés par les traumatismes et l'exil ont coupé ces femmes de leurs ressources personnelles et culturelles. La perte d'une image entière de soi est prolongée par le statut précaire de requérant d'asile et par la perte des espoirs mis dans le pays d'accueil. Devant la complexité de cette problématique, nous nous sommes demandés sur quel aspect axer la prise en charge thérapeutique. Nous avons décidé de travailler sur le vécu et les deuils actuels de ces patientes (stress post-traumatique et statut précaire en Suisse). Le concept-clé qui a étayé cette recherche s'inspire de Pollock (7): « le processus de deuil devient très significatif, dans le sens qu 'il est apparemment une des formes les plus universelles de l'adaptation et de la croissance à travers la structuration, disponible pour l'homme. » Dès lors, nous avons fait l'hypothèse que si le deuil est une forme universelle d'adaptation, l'élaboration d'un travail de deuil ou d'un processus d'adaptation quel qu'il soit, pourra servir d'apprentissage pour l'élaboration d'autres deuils. Concrètement, en travaillant sur le rétablissement de leur identité, les femmes pourront retrouver un accès à leurs ressources personnelles et culturelles, tandis que travailler sur les espoirs et déceptions face au statut en Suisse permettra de développer des moyens permettant plus de contrôle sur l'environnement. Leur autonomie rétablie, elles pourront consacrer leurs énergies à attribuer une signification à leur vécu et faire face aux autres deuils paralysant leur guérison. Nous avons assisté aux entretiens thérapeutiques, en récoltant des témoignages sur la base d'un canevas d'entretien semi-structuré, puis nous avons transposé les éléments sur une grille d'analyse regroupant les informations en items. L'analyse de ces entretiens nous a permis de préciser notre hypothèse et de développer des pistes de réflexion pour l'accompagnement thérapeutique de personnes vivant une disparition. A l'issue de ce travail, nous pouvons tirer des parallèles entre les processus d'élaboration des divers deuils. Les femmes sont entrées peu à peu dans le souvenir de la personne aimée et non plus dans le souvenir des événements traumatiques qui ont marqué sa disparition. S'appuyant alors sur la « mémoire sereine » de Kristeva (1) une recherche de signification a pu être entreprise, rejoignant ce que Métraux et Fleuiy (43) définissent comme la santé : « ... se voir créateur du sens qu'on veut donner à sa propre existence, à ses actes et à ses projets. »

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Cette thèse est consacrée à l'analyse, la modélisation et la visualisation de données environnementales à référence spatiale à l'aide d'algorithmes d'apprentissage automatique (Machine Learning). L'apprentissage automatique peut être considéré au sens large comme une sous-catégorie de l'intelligence artificielle qui concerne particulièrement le développement de techniques et d'algorithmes permettant à une machine d'apprendre à partir de données. Dans cette thèse, les algorithmes d'apprentissage automatique sont adaptés pour être appliqués à des données environnementales et à la prédiction spatiale. Pourquoi l'apprentissage automatique ? Parce que la majorité des algorithmes d'apprentissage automatiques sont universels, adaptatifs, non-linéaires, robustes et efficaces pour la modélisation. Ils peuvent résoudre des problèmes de classification, de régression et de modélisation de densité de probabilités dans des espaces à haute dimension, composés de variables informatives spatialisées (« géo-features ») en plus des coordonnées géographiques. De plus, ils sont idéaux pour être implémentés en tant qu'outils d'aide à la décision pour des questions environnementales allant de la reconnaissance de pattern à la modélisation et la prédiction en passant par la cartographie automatique. Leur efficacité est comparable au modèles géostatistiques dans l'espace des coordonnées géographiques, mais ils sont indispensables pour des données à hautes dimensions incluant des géo-features. Les algorithmes d'apprentissage automatique les plus importants et les plus populaires sont présentés théoriquement et implémentés sous forme de logiciels pour les sciences environnementales. Les principaux algorithmes décrits sont le Perceptron multicouches (MultiLayer Perceptron, MLP) - l'algorithme le plus connu dans l'intelligence artificielle, le réseau de neurones de régression généralisée (General Regression Neural Networks, GRNN), le réseau de neurones probabiliste (Probabilistic Neural Networks, PNN), les cartes auto-organisées (SelfOrganized Maps, SOM), les modèles à mixture Gaussiennes (Gaussian Mixture Models, GMM), les réseaux à fonctions de base radiales (Radial Basis Functions Networks, RBF) et les réseaux à mixture de densité (Mixture Density Networks, MDN). Cette gamme d'algorithmes permet de couvrir des tâches variées telle que la classification, la régression ou l'estimation de densité de probabilité. L'analyse exploratoire des données (Exploratory Data Analysis, EDA) est le premier pas de toute analyse de données. Dans cette thèse les concepts d'analyse exploratoire de données spatiales (Exploratory Spatial Data Analysis, ESDA) sont traités selon l'approche traditionnelle de la géostatistique avec la variographie expérimentale et selon les principes de l'apprentissage automatique. La variographie expérimentale, qui étudie les relations entre pairs de points, est un outil de base pour l'analyse géostatistique de corrélations spatiales anisotropiques qui permet de détecter la présence de patterns spatiaux descriptible par une statistique. L'approche de l'apprentissage automatique pour l'ESDA est présentée à travers l'application de la méthode des k plus proches voisins qui est très simple et possède d'excellentes qualités d'interprétation et de visualisation. Une part importante de la thèse traite de sujets d'actualité comme la cartographie automatique de données spatiales. Le réseau de neurones de régression généralisée est proposé pour résoudre cette tâche efficacement. Les performances du GRNN sont démontrées par des données de Comparaison d'Interpolation Spatiale (SIC) de 2004 pour lesquelles le GRNN bat significativement toutes les autres méthodes, particulièrement lors de situations d'urgence. La thèse est composée de quatre chapitres : théorie, applications, outils logiciels et des exemples guidés. Une partie importante du travail consiste en une collection de logiciels : Machine Learning Office. Cette collection de logiciels a été développée durant les 15 dernières années et a été utilisée pour l'enseignement de nombreux cours, dont des workshops internationaux en Chine, France, Italie, Irlande et Suisse ainsi que dans des projets de recherche fondamentaux et appliqués. Les cas d'études considérés couvrent un vaste spectre de problèmes géoenvironnementaux réels à basse et haute dimensionnalité, tels que la pollution de l'air, du sol et de l'eau par des produits radioactifs et des métaux lourds, la classification de types de sols et d'unités hydrogéologiques, la cartographie des incertitudes pour l'aide à la décision et l'estimation de risques naturels (glissements de terrain, avalanches). Des outils complémentaires pour l'analyse exploratoire des données et la visualisation ont également été développés en prenant soin de créer une interface conviviale et facile à l'utilisation. Machine Learning for geospatial data: algorithms, software tools and case studies Abstract The thesis is devoted to the analysis, modeling and visualisation of spatial environmental data using machine learning algorithms. In a broad sense machine learning can be considered as a subfield of artificial intelligence. It mainly concerns with the development of techniques and algorithms that allow computers to learn from data. In this thesis machine learning algorithms are adapted to learn from spatial environmental data and to make spatial predictions. Why machine learning? In few words most of machine learning algorithms are universal, adaptive, nonlinear, robust and efficient modeling tools. They can find solutions for the classification, regression, and probability density modeling problems in high-dimensional geo-feature spaces, composed of geographical space and additional relevant spatially referenced features. They are well-suited to be implemented as predictive engines in decision support systems, for the purposes of environmental data mining including pattern recognition, modeling and predictions as well as automatic data mapping. They have competitive efficiency to the geostatistical models in low dimensional geographical spaces but are indispensable in high-dimensional geo-feature spaces. The most important and popular machine learning algorithms and models interesting for geo- and environmental sciences are presented in details: from theoretical description of the concepts to the software implementation. The main algorithms and models considered are the following: multi-layer perceptron (a workhorse of machine learning), general regression neural networks, probabilistic neural networks, self-organising (Kohonen) maps, Gaussian mixture models, radial basis functions networks, mixture density networks. This set of models covers machine learning tasks such as classification, regression, and density estimation. Exploratory data analysis (EDA) is initial and very important part of data analysis. In this thesis the concepts of exploratory spatial data analysis (ESDA) is considered using both traditional geostatistical approach such as_experimental variography and machine learning. Experimental variography is a basic tool for geostatistical analysis of anisotropic spatial correlations which helps to understand the presence of spatial patterns, at least described by two-point statistics. A machine learning approach for ESDA is presented by applying the k-nearest neighbors (k-NN) method which is simple and has very good interpretation and visualization properties. Important part of the thesis deals with a hot topic of nowadays, namely, an automatic mapping of geospatial data. General regression neural networks (GRNN) is proposed as efficient model to solve this task. Performance of the GRNN model is demonstrated on Spatial Interpolation Comparison (SIC) 2004 data where GRNN model significantly outperformed all other approaches, especially in case of emergency conditions. The thesis consists of four chapters and has the following structure: theory, applications, software tools, and how-to-do-it examples. An important part of the work is a collection of software tools - Machine Learning Office. Machine Learning Office tools were developed during last 15 years and was used both for many teaching courses, including international workshops in China, France, Italy, Ireland, Switzerland and for realizing fundamental and applied research projects. Case studies considered cover wide spectrum of the real-life low and high-dimensional geo- and environmental problems, such as air, soil and water pollution by radionuclides and heavy metals, soil types and hydro-geological units classification, decision-oriented mapping with uncertainties, natural hazards (landslides, avalanches) assessments and susceptibility mapping. Complementary tools useful for the exploratory data analysis and visualisation were developed as well. The software is user friendly and easy to use.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME Les fibres textiles sont des produits de masse utilisés dans la fabrication de nombreux objets de notre quotidien. Le transfert de fibres lors d'une action délictueuse est dès lors extrêmement courant. Du fait de leur omniprésence dans notre environnement, il est capital que l'expert forensique évalue la valeur de l'indice fibres. L'interprétation de l'indice fibres passe par la connaissance d'un certain nombre de paramètres, comme la rareté des fibres, la probabilité de leur présence par hasard sur un certain support, ainsi que les mécanismes de transfert et de persistance des fibres. Les lacunes les plus importantes concernent les mécanismes de transfert des fibres. A ce jour, les nombreux auteurs qui se sont penchés sur le transfert de fibres ne sont pas parvenus à créer un modèle permettant de prédire le nombre de fibres que l'on s'attend à retrouver dans des circonstances de contact données, en fonction des différents paramètres caractérisant ce contact et les textiles mis en jeu. Le but principal de cette recherche est de démontrer que la création d'un modèle prédictif du nombre de fibres transférées lors d'un contact donné est possible. Dans le cadre de ce travail, le cas particulier du transfert de fibres d'un tricot en laine ou en acrylique d'un conducteur vers le dossier du siège de son véhicule a été étudié. Plusieurs caractéristiques des textiles mis en jeu lors de ces expériences ont été mesurées. Des outils statistiques (régression linéaire multiple) ont ensuite été utilisés sur ces données afin d'évaluer l'influence des caractéristiques des textiles donneurs sur le nombre de fibres transférées et d'élaborer un modèle permettant de prédire le nombre de fibres qui vont être transférées à l'aide des caractéristiques influençant significativement le transfert. Afin de faciliter la recherche et le comptage des fibres transférées lors des expériences de transfert, un appareil de recherche automatique des fibres (liber finder) a été utilisé dans le cadre de cette recherche. Les tests d'évaluation de l'efficacité de cet appareil pour la recherche de fibres montrent que la recherche automatique est globalement aussi efficace qu'une recherche visuelle pour les fibres fortement colorées. Par contre la recherche automatique perd de son efficacité pour les fibres très pâles ou très foncées. Une des caractéristiques des textiles donneurs à étudier est la longueur des fibres. Afin de pouvoir évaluer ce paramètre, une séquence d'algorithmes de traitement d'image a été implémentée. Cet outil permet la mesure de la longueur d'une fibre à partir de son image numérique à haute résolution (2'540 dpi). Les tests effectués montrent que les mesures ainsi obtenues présentent une erreur de l'ordre du dixième de millimètre, ce qui est largement suffisant pour son utilisation dans le cadre de cette recherche. Les résultats obtenus suite au traitement statistique des résultats des expériences de transfert ont permis d'aboutir à une modélisation du phénomène du transfert. Deux paramètres sont retenus dans le modèle: l'état de la surface du tissu donneur et la longueur des fibres composant le tissu donneur. L'état de la surface du tissu est un paramètre tenant compte de la quantité de fibres qui se sont détachées de la structure du tissu ou qui sont encore faiblement rattachées à celle-ci. En effet, ces fibres sont les premières à se transférer lors d'un contact, et plus la quantité de ces fibres par unité de surface est importante, plus le nombre de fibres transférées sera élevé. La longueur des fibres du tissu donneur est également un paramètre important : plus les fibres sont longues, mieux elles sont retenues dans la structure du tissu et moins elles se transféreront. SUMMARY Fibres are mass products used to produce numerous objects encountered everyday. The transfer of fibres during a criminal action is then very common. Because fibres are omnipresent in our environment, the forensic expert has to evaluate the value of the fibre evidence. To interpret fibre evidence, the expert has to know some parameters as frequency of fibres,' probability of finding extraneous fibres by chance on a given support, and transfer and persistence mechanisms. Fibre transfer is one of the most complex parameter. Many authors studied fibre transfer mechanisms but no model has been created to predict the number of fibres transferred expected in a given type of contact according to parameters as characteristics of the contact and characteristics of textiles. The main purpose of this research is to demonstrate that it is possible to create a model to predict the number of fibres transferred during a contact. In this work, the particular case of the transfer of fibres from a knitted textile in wool or in acrylic of a driver to the back of a carseat has been studied. Several characteristics of the textiles used for the experiments were measured. The data obtained were then treated with statistical tools (multiple linear regression) to evaluate the influence of the donor textile characteristics on the number of úbers transferred, and to create a model to predict this number of fibres transferred by an equation containing the characteristics having a significant influence on the transfer. To make easier the searching and the counting of fibres, an apparatus of automatic search. of fibers (fiber finder) was used. The tests realised to evaluate the efficiency of the fiber finder shows that the results obtained are generally as efficient as for visual search for well-coloured fibres. However, the efficiency of automatic search decreases for pales and dark fibres. One characteristic of the donor textile studied was the length of the fibres. To measure this parameter, a sequence of image processing algorithms was implemented. This tool allows to measure the length of a fibre from it high-resolution (2'540 dpi) numerical image. The tests done shows that the error of the measures obtained are about some tenths of millimetres. This precision is sufficient for this research. The statistical methods applied on the transfer experiment data allow to create a model of the transfer phenomenon. Two parameters are included in the model: the shedding capacity of the donor textile surface and the length of donor textile fibres. The shedding capacity of the donor textile surface is a parameter estimating the quantity of fibres that are not or slightly attached to the structure of the textile. These fibres are easily transferred during a contact, and the more this quantity of fibres is high, the more the number of fibres transferred during the contact is important. The length of fibres is also an important parameter: the more the fibres are long, the more they are attached in the structure of the textile and the less they are transferred during the contact.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: En Suisse, toute hospitalisation pour un séjour de¦réadaptation doit être soumise à l'accord préalable du service du¦médecin-conseil de l'assurance du patient. Les assureurs fixent ensuite¦le nombre de jours d'hospitalisation qu'ils s'engagent à financer¦(délai de garantie initial). Dans le canton de Vaud, ces délais sont¦hétérogènes entre assureurs et souvent trop courts, ce qui nécessite¦fréquemment une demande de prolongation de garantie (jusqu'à 80%¦des hospitalisations dans certains services de réadaptation). Un travail¦précédent a montré la validité d'un groupage, basé principalement sur¦l'état fonctionnel du patient à l'admission (score d'activités de la vie¦quotidienne de base [AVQ]), pour prédire les durées de séjour en¦réadaptation. L'objectif de cette étude est d'évaluer si les scores AVQ¦communiqués aux assureurs permettraient d'établir un délai de garantie¦correspondant au plus près à la durée de séjour effective des patients¦en réadaptation, afin de diminuer le nombre de demandes de¦prolongation sans induire une augmentation artificielle des durées de¦séjour.¦Méthode: Les données de 2335 patients admis consécutivement sur¦une durée de trois ans au Centre de Traitement et de Réadaptation¦gériatrique du Centre Hospitalier Universitaire Vaudois (CUTR) ont été¦analysées rétrospectivement. Des délais de garantie fictifs ont été¦calculés à partir de plusieurs algorithmes utilisant des groupages de¦patients basés uniquement sur leurs AVQ à l'admission, et comparés¦aux durées de séjour effectives ainsi qu'aux délais de garantie initiaux¦fournis par les assureurs.¦Résultats: Une règle d'allocation de délais de garantie initiaux proches¦des durées réelles de séjour a pu être produite. Son application au¦CUTR réduirait la proportion estimée de séjours pour lesquels une¦demande de prolongation est nécessaire de 69% à 46% (0,1 EPT¦économisé). La proportion globale de jours en excès accordés par¦l'assureur passerait de 7% à 11%.¦Conclusion: L'utilisation systématique d'une règle d'allocation utilisant¦l'état fonctionnel du patient pour définir le délai de garantie initial¦accordé par les assureurs permettrait de diminuer de façon importante¦le nombre de demandes de prolongation. Cette mesure contribuerait à¦alléger les charges administratives, aussi bien pour les assureurs que¦pour les services de réadaptation. La proportion de jours accordés en¦excès resterait faible, limitant le risque d'augmentation artificielle de la¦durée de séjour.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estimer la filtration glomérulaire chez les personnes âgées, tout en tenant compte de la difficulté supplémentaire d'évaluer leur masse musculaire, est difficile et particulièrement important pour la prescription de médicaments. Le taux plasmatique de la creatinine dépend à la fois de la fraction d'élimination rénale et extra-rénale et de la masse musculaire. Actuellement, pour estimer là filtration glomérulaire différentes formules sont utilisées, qui se fondent principalement sur la valeur de la créatinine. Néanmoins, en raison de la fraction éliminée par les voies tubulaires et intestinales la clairance de la créatinine surestime généralement le taux de filtration glomérulaire (GFR). Le but de cette étude est de vérifier la fiabilité de certains marqueurs et algorithmes de la fonction rénale actuellement utilisés et d'évaluer l'avantage additionnel de prendre en considération la masse musculaire mesurée par la bio-impédance dans une population âgée (> 70 ans) et avec une fonction rénale chronique compromise basée sur MDRD eGFR (CKD stades lll-IV). Dans cette étude, nous comparons 5 équations développées pour estimer la fonction rénale et basées respectivement sur la créatinine sérique (Cockcroft et MDRD), la cystatine C (Larsson), la créatinine combinée à la bêta-trace protéine (White), et la créatinine ajustée à la masse musculaire obtenue par analyse de la bio-impédance (MacDonald). La bio-impédance est une méthode couramment utilisée pour estimer la composition corporelle basée sur l'étude des propriétés électriques passives et de la géométrie des tissus biologiques. Cela permet d'estimer les volumes relatifs des différents tissus ou des fluides dans le corps, comme par exemple l'eau corporelle totale, la masse musculaire (=masse maigre) et la masse grasse corporelle. Nous avons évalué, dans une population âgée d'un service interne, et en utilisant la clairance de l'inuline (single shot) comme le « gold standard », les algorithmes de Cockcroft (GFR CKC), MDRD, Larsson (cystatine C, GFR CYS), White (beta trace protein, GFR BTP) et Macdonald (GFR = ALM, la masse musculaire par bio-impédance. Les résultats ont montré que le GFR (mean ± SD) mesurée avec l'inuline et calculée avec les algorithmes étaient respectivement de : 34.9±20 ml/min pour l'inuline, 46.7±18.5 ml/min pour CKC, 47.2±23 ml/min pour CYS, 54.4±18.2ml/min pour BTP, 49±15.9 ml/min pour MDRD et 32.9±27.2ml/min pour ALM. Les courbes ROC comparant la sensibilité et la spécificité, l'aire sous la courbe (AUC) et l'intervalle de confiance 95% étaient respectivement de : CKC 0 68 (055-0 81) MDRD 0.76 (0.64-0.87), Cystatin C 0.82 (0.72-0.92), BTP 0.75 (0.63-0.87), ALM 0.65 (0.52-0.78). ' En conclusion, les algorithmes comparés dans cette étude surestiment la GFR dans la population agee et hospitalisée, avec des polymorbidités et une classe CKD lll-IV. L'utilisation de l'impédance bioelectrique pour réduire l'erreur de l'estimation du GFR basé sur la créatinine n'a fourni aucune contribution significative, au contraire, elle a montré de moins bons résultats en comparaison aux autres equations. En fait dans cette étude 75% des patients ont changé leur classification CKD avec MacDonald (créatinine et masse musculaire), contre 49% avec CYS (cystatine C), 56% avec MDRD,52% avec Cockcroft et 65% avec BTP. Les meilleurs résultats ont été obtenus avec Larsson (CYS C) et la formule de Cockcroft.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs du guide de prévention: Offrir aux médecins de premier recours, et en particulier à ceux du groupe AMI [Association des médecins indépendants], un document sur la médecine préventive qui établit les modalités pratiques d'une approche individuelle au cabinet individuel, selon une perspective de standard de qualité. Offrir aux patients de 50 ans un contrôle de santé et un conseil médical aptes à leur donner les moyens d'acquérir des aptitudes pour mieux contrôler leur santé. [Table des matières] Préambule. Corpus scientifique (la prévention en pratique clinique et la médecine fondée sur les preuves; etc.). Illustration de quelques facteurs peu scientifiques qui influencent le choix des examens préventifs par le médecin traitant. Recommandations pour la prévention dans le bilan de santé à 50 ans. Annexes: Fiches de prévention (consommation à risque et alcoolo-dépendance; dépistage du cancer du sein; désaccoutumance au tabac: algorithmes; vaccinations de routine de l'adulte).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le nombre d'examens tomodensitométriques (Computed Tomography, CT) effectués chaque année étant en constante augmentation, différentes techniques d'optimisation, dont les algorithmes de reconstruction itérative permettant de réduire le bruit tout en maintenant la résolution spatiale, ont étés développées afin de réduire les doses délivrées. Le but de cette étude était d'évaluer l'impact des algorithmes de reconstruction itérative sur la qualité image à des doses effectives inférieures à 0.3 mSv, comparables à celle d'une radiographie thoracique. Vingt CT thoraciques effectués à cette dose effective ont été reconstruits en variant trois paramètres: l'algorithme de reconstruction, rétroprojection filtrée versus reconstruction itérative iDose4; la matrice, 5122 versus 7682; et le filtre de résolution en densité (mou) versus spatiale (dur). Ainsi, 8 séries ont été reconstruites pour chacun des 20 CT thoraciques. La qualité d'image de ces 8 séries a d'abord été évaluée qualitativement par deux radiologues expérimentés en aveugle en se basant sur la netteté des parois bronchiques et de l'interface entre le parenchyme pulmonaire et les vaisseaux, puis quantitativement en utilisant une formule de merit, fréquemment utilisée dans le développement de nouveaux algorithmes et filtres de reconstruction. La performance diagnostique de la meilleure série acquise à une dose effective inférieure à 0.3 mSv a été comparée à celle d'un CT de référence effectué à doses standards en relevant les anomalies du parenchyme pulmonaire. Les résultats montrent que la meilleure qualité d'image, tant qualitativement que quantitativement a été obtenue en utilisant iDose4, la matrice 5122 et le filtre mou, avec une concordance parfaite entre les classements quantitatif et qualitatif des 8 séries. D'autre part, la détection des nodules pulmonaires de plus de 4mm étaient similaire sur la meilleure série acquise à une dose effective inférieure à 0.3 mSv et le CT de référence. En conclusion, les CT thoraciques effectués à une dose effective inférieure à 0.3 mSv reconstruits avec iDose4, la matrice 5122 et le filtre mou peuvent être utilisés avec confiance pour diagnostiquer les nodules pulmonaires de plus de 4mm.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction La stimulation cérébrale profonde est reconnue comme étant un traitement efficace des pathologies du mouvement. Nous avons récemment modifié notre technique chirurgicale, en limitant le nombre de pénétrations intracérébrales à trois par hémisphère. Objectif Le premier objectif de cette étude est d'évaluer la précision de l'électrode implantée des deux côtés de la chirurgie, depuis l'implémentation de cette technique chirurgicale. Le deuxième objectif est d'étudier si l'emplacement de l'électrode implantée était amélioré grâce à l'électrophysiologie. Matériel et méthode Il s'agit d'une étude rétrospective reprenant les protocoles opératoires et imageries à résonnance magnétique (IRM) cérébrales de 30 patients ayant subi une stimulation cérébrale profonde bilatérale. Pour l'électrophysiologie, nous avons utilisé trois canules parallèles du « Ben Gun », centrées sur la cible planifiée grâce à l'IRM. Les IRM pré- et post-opératoires ont été fusionnées. La distance entre la cible planifiée et le centre de l'artéfact de l'électrode implantée a été mesurée. Résultats Il n'y a pas eu de différence significative concernant la précision du ciblage des deux côtés (hémisphères) de la chirurgie. Il y a eu plus d'ajustements peropératoires du deuxième côté de la chirurgie, basé sur l'électrophysiologie, ce qui a permis d'approcher de manière significative la cible planifiée grâce à l'IRM, sur l'axe médio- latéral. Conclusion Il y a plus d'ajustements nécessaires de la position de la deuxième électrode, possiblement en lien avec le « brain shift ». Nous suggérons de ce fait d'utiliser une trajectoire d'électrode centrale accompagnée par de l'électrophysiologie, associé à une évaluation clinique. En cas de résultat clinique sub-optimal, nous proposons d'effectuer une exploration multidirectionnelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomodensitométrie (TDM) est une technique d'imagerie pour laquelle l'intérêt n'a cessé de croitre depuis son apparition au début des années 70. De nos jours, l'utilisation de cette technique est devenue incontournable, grâce entre autres à sa capacité à produire des images diagnostiques de haute qualité. Toutefois, et en dépit d'un bénéfice indiscutable sur la prise en charge des patients, l'augmentation importante du nombre d'examens TDM pratiqués soulève des questions sur l'effet potentiellement dangereux des rayonnements ionisants sur la population. Parmi ces effets néfastes, l'induction de cancers liés à l'exposition aux rayonnements ionisants reste l'un des risques majeurs. Afin que le rapport bénéfice-risques reste favorable au patient il est donc nécessaire de s'assurer que la dose délivrée permette de formuler le bon diagnostic tout en évitant d'avoir recours à des images dont la qualité est inutilement élevée. Ce processus d'optimisation, qui est une préoccupation importante pour les patients adultes, doit même devenir une priorité lorsque l'on examine des enfants ou des adolescents, en particulier lors d'études de suivi requérant plusieurs examens tout au long de leur vie. Enfants et jeunes adultes sont en effet beaucoup plus sensibles aux radiations du fait de leur métabolisme plus rapide que celui des adultes. De plus, les probabilités des évènements auxquels ils s'exposent sont également plus grandes du fait de leur plus longue espérance de vie. L'introduction des algorithmes de reconstruction itératifs, conçus pour réduire l'exposition des patients, est certainement l'une des plus grandes avancées en TDM, mais elle s'accompagne de certaines difficultés en ce qui concerne l'évaluation de la qualité des images produites. Le but de ce travail est de mettre en place une stratégie pour investiguer le potentiel des algorithmes itératifs vis-à-vis de la réduction de dose sans pour autant compromettre la qualité du diagnostic. La difficulté de cette tâche réside principalement dans le fait de disposer d'une méthode visant à évaluer la qualité d'image de façon pertinente d'un point de vue clinique. La première étape a consisté à caractériser la qualité d'image lors d'examen musculo-squelettique. Ce travail a été réalisé en étroite collaboration avec des radiologues pour s'assurer un choix pertinent de critères de qualité d'image. Une attention particulière a été portée au bruit et à la résolution des images reconstruites à l'aide d'algorithmes itératifs. L'analyse de ces paramètres a permis aux radiologues d'adapter leurs protocoles grâce à une possible estimation de la perte de qualité d'image liée à la réduction de dose. Notre travail nous a également permis d'investiguer la diminution de la détectabilité à bas contraste associée à une diminution de la dose ; difficulté majeure lorsque l'on pratique un examen dans la région abdominale. Sachant que des alternatives à la façon standard de caractériser la qualité d'image (métriques de l'espace Fourier) devaient être utilisées, nous nous sommes appuyés sur l'utilisation de modèles d'observateurs mathématiques. Nos paramètres expérimentaux ont ensuite permis de déterminer le type de modèle à utiliser. Les modèles idéaux ont été utilisés pour caractériser la qualité d'image lorsque des paramètres purement physiques concernant la détectabilité du signal devaient être estimés alors que les modèles anthropomorphes ont été utilisés dans des contextes cliniques où les résultats devaient être comparés à ceux d'observateurs humain, tirant profit des propriétés de ce type de modèles. Cette étude a confirmé que l'utilisation de modèles d'observateurs permettait d'évaluer la qualité d'image en utilisant une approche basée sur la tâche à effectuer, permettant ainsi d'établir un lien entre les physiciens médicaux et les radiologues. Nous avons également montré que les reconstructions itératives ont le potentiel de réduire la dose sans altérer la qualité du diagnostic. Parmi les différentes reconstructions itératives, celles de type « model-based » sont celles qui offrent le plus grand potentiel d'optimisation, puisque les images produites grâce à cette modalité conduisent à un diagnostic exact même lors d'acquisitions à très basse dose. Ce travail a également permis de clarifier le rôle du physicien médical en TDM: Les métriques standards restent utiles pour évaluer la conformité d'un appareil aux requis légaux, mais l'utilisation de modèles d'observateurs est inévitable pour optimiser les protocoles d'imagerie. -- Computed tomography (CT) is an imaging technique in which interest has been quickly growing since it began to be used in the 1970s. Today, it has become an extensively used modality because of its ability to produce accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase in the number of CT examinations performed has raised concerns about the potential negative effects of ionising radiation on the population. Among those negative effects, one of the major risks remaining is the development of cancers associated with exposure to diagnostic X-ray procedures. In order to ensure that the benefits-risk ratio still remains in favour of the patient, it is necessary to make sure that the delivered dose leads to the proper diagnosis without producing unnecessarily high-quality images. This optimisation scheme is already an important concern for adult patients, but it must become an even greater priority when examinations are performed on children or young adults, in particular with follow-up studies which require several CT procedures over the patient's life. Indeed, children and young adults are more sensitive to radiation due to their faster metabolism. In addition, harmful consequences have a higher probability to occur because of a younger patient's longer life expectancy. The recent introduction of iterative reconstruction algorithms, which were designed to substantially reduce dose, is certainly a major achievement in CT evolution, but it has also created difficulties in the quality assessment of the images produced using those algorithms. The goal of the present work was to propose a strategy to investigate the potential of iterative reconstructions to reduce dose without compromising the ability to answer the diagnostic questions. The major difficulty entails disposing a clinically relevant way to estimate image quality. To ensure the choice of pertinent image quality criteria this work was continuously performed in close collaboration with radiologists. The work began by tackling the way to characterise image quality when dealing with musculo-skeletal examinations. We focused, in particular, on image noise and spatial resolution behaviours when iterative image reconstruction was used. The analyses of the physical parameters allowed radiologists to adapt their image acquisition and reconstruction protocols while knowing what loss of image quality to expect. This work also dealt with the loss of low-contrast detectability associated with dose reduction, something which is a major concern when dealing with patient dose reduction in abdominal investigations. Knowing that alternative ways had to be used to assess image quality rather than classical Fourier-space metrics, we focused on the use of mathematical model observers. Our experimental parameters determined the type of model to use. Ideal model observers were applied to characterise image quality when purely objective results about the signal detectability were researched, whereas anthropomorphic model observers were used in a more clinical context, when the results had to be compared with the eye of a radiologist thus taking advantage of their incorporation of human visual system elements. This work confirmed that the use of model observers makes it possible to assess image quality using a task-based approach, which, in turn, establishes a bridge between medical physicists and radiologists. It also demonstrated that statistical iterative reconstructions have the potential to reduce the delivered dose without impairing the quality of the diagnosis. Among the different types of iterative reconstructions, model-based ones offer the greatest potential, since images produced using this modality can still lead to an accurate diagnosis even when acquired at very low dose. This work has clarified the role of medical physicists when dealing with CT imaging. The use of the standard metrics used in the field of CT imaging remains quite important when dealing with the assessment of unit compliance to legal requirements, but the use of a model observer is the way to go when dealing with the optimisation of the imaging protocols.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce travail cherche à comprendre quelle est la portée de l'expansion des médecines complémentaires à partir d'expériences de médecins qui, à un moment donné de leur parcours professionnel, ont décidé d'introduire dans leur pratique médicale, une ou plusieurs médecines complémentaires. [Table des matières] : Médecines parallèles, naturelles, douces - définitions. Vers un reconnaissance des médecines complémentaires. Problematique. Analyse des interviews : Itinéraire des médecins; Type de pratique; Origine de l'intérêt pour les médecines complémentaires; Types de complémentarité; Représentations des médecines; Représentations de la santé et de la maladie; Représentations de soi comme médecin; Représentation de contexte actuel au niveau de la LAMal; Représentation de l'avenir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'amitié et l'affinité intellectuelle qui caractérisèrent les rapports de Hobbes avec Gassendi forment un tissu ténu dont il n'est point aisé de démêler la trame. Aux côtés de points de convergence clairement définis, telle la commune aversion envers le dualisme et l'innéisme cartésiens, et par-delà des divergences non moins nettes dans leurs orientations philosophiques particulières, le sens des parcours maintes fois parallèles doit encore être éclairé de façon circonstanciée. Le terrain privilégié sur lequel élever une confrontation étroite entre deux auteurs est sans doute la construction d'une psychologie profondément marquée par des prémisses empiriques et dont l'orientation vise à établir une relation très étroite entre les processus de la perception, du désir (appetitus) et de la volonté avec ce qui les détermine matériellement et mécaniquement. On peut même affirmer que les écrits de Gassendi rédigés au tout début des années 1640 définissent une série d'hypothèses innovatrices sur lesquelles s'inscrit une certaine convergence avec les élaborations de Hobbes à elles contemporaines. Sous ce profil, le groupe de textes remontant aux années 1640-41, et où le philosophe d'Aix s'interroge sur la nature des phénomènes lumineux, est emblématique. L'explication du comportement des corps lumineux en terme de systole et de diastole, l'interprétation de la propagation de la lumière s'inspirant de la pure actualité cinématique (en polémique ouverte et explicite envers les thèses de la Dioptrique de Descartes sur la luminosité comme simple inclinaison au mouvement), le vacuisme (qui est propre à Gassendi, servant justement à rendre compte des phénomènes d'expansion et de contraction des sources lumineuses et qui, à cette époque, n'était pas encore exclu par Hobbes), la représentation, enfin, tout à fait matérielle et mécanique des phénomènes d'irradiation, voilà autant d'aspects de la recherche de Gassendi qui peuvent facilement être confrontés aux écrits de Hobbes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Divisé en deux parties parallèles, imprimées l'une sur le haut de la page et l'autre sur le bas.2 livres.