994 resultados para Parigi,Grands,Ensembles.
Resumo:
Atherosclerosis is a chronic cardiovascular disease that involves the thicken¬ing of the artery walls as well as the formation of plaques (lesions) causing the narrowing of the lumens, in vessels such as the aorta, the coronary and the carotid arteries. Magnetic resonance imaging (MRI) is a promising modality for the assessment of atherosclerosis, as it is a non-invasive and patient-friendly procedure that does not use ionizing radiation. MRI offers high soft tissue con¬trast already without the need of intravenous contrast media; while modifica¬tion of the MR pulse sequences allows for further adjustment of the contrast for specific diagnostic needs. As such, MRI can create angiographic images of the vessel lumens to assess stenoses at the late stage of the disease, as well as blood flow-suppressed images for the early investigation of the vessel wall and the characterization of the atherosclerotic plaques. However, despite the great technical progress that occurred over the past two decades, MRI is intrinsically a low sensitive technique and some limitations still exist in terms of accuracy and performance. A major challenge for coronary artery imaging is respiratory motion. State- of-the-art diaphragmatic navigators rely on an indirect measure of motion, per¬form a ID correction, and have long and unpredictable scan time. In response, self-navigation (SM) strategies have recently been introduced that offer 100% scan efficiency and increased ease of use. SN detects respiratory motion di¬rectly from the image data obtained at the level of the heart, and retrospectively corrects the same data before final image reconstruction. Thus, SN holds po-tential for multi-dimensional motion compensation. To this regard, this thesis presents novel SN methods that estimate 2D and 3D motion parameters from aliased sub-images that are obtained from the same raw data composing the final image. Combination of all corrected sub-images produces a final image with reduced motion artifacts for the visualization of the coronaries. The first study (section 2.2, 2D Self-Navigation with Compressed Sensing) consists of a method for 2D translational motion compensation. Here, the use of com- pressed sensing (CS) reconstruction is proposed and investigated to support motion detection by reducing aliasing artifacts. In healthy human subjects, CS demonstrated an improvement in motion detection accuracy with simula¬tions on in vivo data, while improved coronary artery visualization was demon¬strated on in vivo free-breathing acquisitions. However, the motion of the heart induced by respiration has been shown to occur in three dimensions and to be more complex than a simple translation. Therefore, the second study (section 2.3,3D Self-Navigation) consists of a method for 3D affine motion correction rather than 2D only. Here, different techniques were adopted to reduce background signal contribution in respiratory motion tracking, as this can be adversely affected by the static tissue that surrounds the heart. The proposed method demonstrated to improve conspicuity and vi¬sualization of coronary arteries in healthy and cardiovascular disease patient cohorts in comparison to a conventional ID SN method. In the third study (section 2.4, 3D Self-Navigation with Compressed Sensing), the same tracking methods were used to obtain sub-images sorted according to the respiratory position. Then, instead of motion correction, a compressed sensing reconstruction was performed on all sorted sub-image data. This process ex¬ploits the consistency of the sorted data to reduce aliasing artifacts such that the sub-image corresponding to the end-expiratory phase can directly be used to visualize the coronaries. In a healthy volunteer cohort, this strategy improved conspicuity and visualization of the coronary arteries when compared to a con¬ventional ID SN method. For the visualization of the vessel wall and atherosclerotic plaques, the state- of-the-art dual inversion recovery (DIR) technique is able to suppress the signal coming from flowing blood and provide positive wall-lumen contrast. How¬ever, optimal contrast may be difficult to obtain and is subject to RR variability. Furthermore, DIR imaging is time-inefficient and multislice acquisitions may lead to prolonged scanning times. In response and as a fourth study of this thesis (chapter 3, Vessel Wall MRI of the Carotid Arteries), a phase-sensitive DIR method has been implemented and tested in the carotid arteries of a healthy volunteer cohort. By exploiting the phase information of images acquired after DIR, the proposed phase-sensitive method enhances wall-lumen contrast while widens the window of opportunity for image acquisition. As a result, a 3-fold increase in volumetric coverage is obtained at no extra cost in scanning time, while image quality is improved. In conclusion, this thesis presented novel methods to address some of the main challenges for MRI of atherosclerosis: the suppression of motion and flow artifacts for improved visualization of vessel lumens, walls and plaques. Such methods showed to significantly improve image quality in human healthy sub¬jects, as well as scan efficiency and ease-of-use of MRI. Extensive validation is now warranted in patient populations to ascertain their diagnostic perfor¬mance. Eventually, these methods may bring the use of atherosclerosis MRI closer to the clinical practice. Résumé L'athérosclérose est une maladie cardiovasculaire chronique qui implique le épaississement de la paroi des artères, ainsi que la formation de plaques (lé¬sions) provoquant le rétrécissement des lumières, dans des vaisseaux tels que l'aorte, les coronaires et les artères carotides. L'imagerie par résonance magné¬tique (IRM) est une modalité prometteuse pour l'évaluation de l'athérosclérose, car il s'agit d'une procédure non-invasive et conviviale pour les patients, qui n'utilise pas des rayonnements ionisants. L'IRM offre un contraste des tissus mous très élevé sans avoir besoin de médias de contraste intraveineux, tan¬dis que la modification des séquences d'impulsions de RM permet en outre le réglage du contraste pour des besoins diagnostiques spécifiques. À ce titre, l'IRM peut créer des images angiographiques des lumières des vaisseaux pour évaluer les sténoses à la fin du stade de la maladie, ainsi que des images avec suppression du flux sanguin pour une première enquête des parois des vais¬seaux et une caractérisation des plaques d'athérosclérose. Cependant, malgré les grands progrès techniques qui ont eu lieu au cours des deux dernières dé¬cennies, l'IRM est une technique peu sensible et certaines limitations existent encore en termes de précision et de performance. Un des principaux défis pour l'imagerie de l'artère coronaire est le mou¬vement respiratoire. Les navigateurs diaphragmatiques de pointe comptent sur une mesure indirecte de mouvement, effectuent une correction 1D, et ont un temps d'acquisition long et imprévisible. En réponse, les stratégies d'auto- navigation (self-navigation: SN) ont été introduites récemment et offrent 100% d'efficacité d'acquisition et une meilleure facilité d'utilisation. Les SN détectent le mouvement respiratoire directement à partir des données brutes de l'image obtenue au niveau du coeur, et rétrospectivement corrigent ces mêmes données avant la reconstruction finale de l'image. Ainsi, les SN détiennent un poten¬tiel pour une compensation multidimensionnelle du mouvement. A cet égard, cette thèse présente de nouvelles méthodes SN qui estiment les paramètres de mouvement 2D et 3D à partir de sous-images qui sont obtenues à partir des mêmes données brutes qui composent l'image finale. La combinaison de toutes les sous-images corrigées produit une image finale pour la visualisation des coronaires ou les artefacts du mouvement sont réduits. La première étude (section 2.2,2D Self-Navigation with Compressed Sensing) traite d'une méthode pour une compensation 2D de mouvement de translation. Ici, on étudie l'utilisation de la reconstruction d'acquisition comprimée (compressed sensing: CS) pour soutenir la détection de mouvement en réduisant les artefacts de sous-échantillonnage. Chez des sujets humains sains, CS a démontré une amélioration de la précision de la détection de mouvement avec des simula¬tions sur des données in vivo, tandis que la visualisation de l'artère coronaire sur des acquisitions de respiration libre in vivo a aussi été améliorée. Pourtant, le mouvement du coeur induite par la respiration se produit en trois dimensions et il est plus complexe qu'un simple déplacement. Par conséquent, la deuxième étude (section 2.3, 3D Self-Navigation) traite d'une méthode de cor¬rection du mouvement 3D plutôt que 2D uniquement. Ici, différentes tech¬niques ont été adoptées pour réduire la contribution du signal du fond dans le suivi de mouvement respiratoire, qui peut être influencé négativement par le tissu statique qui entoure le coeur. La méthode proposée a démontré une amélioration, par rapport à la procédure classique SN de correction 1D, de la visualisation des artères coronaires dans le groupe de sujets sains et des pa¬tients avec maladies cardio-vasculaires. Dans la troisième étude (section 2.4,3D Self-Navigation with Compressed Sensing), les mêmes méthodes de suivi ont été utilisées pour obtenir des sous-images triées selon la position respiratoire. Au lieu de la correction du mouvement, une reconstruction de CS a été réalisée sur toutes les sous-images triées. Cette procédure exploite la cohérence des données pour réduire les artefacts de sous- échantillonnage de telle sorte que la sous-image correspondant à la phase de fin d'expiration peut directement être utilisée pour visualiser les coronaires. Dans un échantillon de volontaires en bonne santé, cette stratégie a amélioré la netteté et la visualisation des artères coronaires par rapport à une méthode classique SN ID. Pour la visualisation des parois des vaisseaux et de plaques d'athérosclérose, la technique de pointe avec double récupération d'inversion (DIR) est capa¬ble de supprimer le signal provenant du sang et de fournir un contraste posi¬tif entre la paroi et la lumière. Pourtant, il est difficile d'obtenir un contraste optimal car cela est soumis à la variabilité du rythme cardiaque. Par ailleurs, l'imagerie DIR est inefficace du point de vue du temps et les acquisitions "mul- tislice" peuvent conduire à des temps de scan prolongés. En réponse à ce prob¬lème et comme quatrième étude de cette thèse (chapitre 3, Vessel Wall MRI of the Carotid Arteries), une méthode de DIR phase-sensitive a été implémenté et testé
Resumo:
La fin de la mortalité due au vieillissement biologique est annoncée, et avec elle de grands bouleversements de la condition humaine, traditionnellement caractérisée par sa finitude. Fantasme futuriste ou engagement concret, le transhumanisme est désigné comme la bannière sous laquelle des biologistes, philosophes, gérontologues ou entrepreneurs préparent cette révolution. Cet article considère le transhumanisme avant tout comme un mouvement d'idées, dont les militants promeuvent un futur de l'humanité transformé par la technologie. Il montre ensuite que l'épistémologie mobilisée par les transhumanistes dans leur recherche de l'immortalité est guidée par une curiosité avide, mais reste fondée sur un savoir cumulatif intrinsèquement lacunaire. Il propose enfin d'envisager le transhumanisme non comme un fantasme de la toute-puissance humaine, mais comme une relation de confiance fragile avec des objets techniques retardataires, traces d'un futur récalcitrant.
Resumo:
Recent experiments of H2 adsorption on Pd(111) [T. Mitsui et al., Nature (London) 422, 705 (2003)] have questioned the classical Langmuir picture of second order adsorption kinetics at high surface coverage requiring pairs of empty sites for the dissociative chemisorption. Experiments find that at least three empty sites are needed. Through density functional theory, we find that H2 dissociation is favored on ensembles of sites that involve a Pd atom with no direct interaction with adsorbed hydrogen. Such active sites are formed by aggregation of at least 3 H-free sites revealing the complex structure of the "active sites."
Resumo:
Characterizing the geological features and structures in three dimensions over inaccessible rock cliffs is needed to assess natural hazards such as rockfalls and rockslides and also to perform investigations aimed at mapping geological contacts and building stratigraphy and fold models. Indeed, the detailed 3D data, such as LiDAR point clouds, allow to study accurately the hazard processes and the structure of geologic features, in particular in vertical and overhanging rock slopes. Thus, 3D geological models have a great potential of being applied to a wide range of geological investigations both in research and applied geology projects, such as mines, tunnels and reservoirs. Recent development of ground-based remote sensing techniques (LiDAR, photogrammetry and multispectral / hyperspectral images) are revolutionizing the acquisition of morphological and geological information. As a consequence, there is a great potential for improving the modeling of geological bodies as well as failure mechanisms and stability conditions by integrating detailed remote data. During the past ten years several large rockfall events occurred along important transportation corridors where millions of people travel every year (Switzerland: Gotthard motorway and railway; Canada: Sea to sky highway between Vancouver and Whistler). These events show that there is still a lack of knowledge concerning the detection of potential rockfalls, making mountain residential settlements and roads highly risky. It is necessary to understand the main factors that destabilize rocky outcrops even if inventories are lacking and if no clear morphological evidences of rockfall activity are observed. In order to increase the possibilities of forecasting potential future landslides, it is crucial to understand the evolution of rock slope stability. Defining the areas theoretically most prone to rockfalls can be particularly useful to simulate trajectory profiles and to generate hazard maps, which are the basis for land use planning in mountainous regions. The most important questions to address in order to assess rockfall hazard are: Where are the most probable sources for future rockfalls located? What are the frequencies of occurrence of these rockfalls? I characterized the fracturing patterns in the field and with LiDAR point clouds. Afterwards, I developed a model to compute the failure mechanisms on terrestrial point clouds in order to assess the susceptibility to rockfalls at the cliff scale. Similar procedures were already available to evaluate the susceptibility to rockfalls based on aerial digital elevation models. This new model gives the possibility to detect the most susceptible rockfall sources with unprecented detail in the vertical and overhanging areas. The results of the computation of the most probable rockfall source areas in granitic cliffs of Yosemite Valley and Mont-Blanc massif were then compared to the inventoried rockfall events to validate the calculation methods. Yosemite Valley was chosen as a test area because it has a particularly strong rockfall activity (about one rockfall every week) which leads to a high rockfall hazard. The west face of the Dru was also chosen for the relevant rockfall activity and especially because it was affected by some of the largest rockfalls that occurred in the Alps during the last 10 years. Moreover, both areas were suitable because of their huge vertical and overhanging cliffs that are difficult to study with classical methods. Limit equilibrium models have been applied to several case studies to evaluate the effects of different parameters on the stability of rockslope areas. The impact of the degradation of rockbridges on the stability of large compartments in the west face of the Dru was assessed using finite element modeling. In particular I conducted a back-analysis of the large rockfall event of 2005 (265'000 m3) by integrating field observations of joint conditions, characteristics of fracturing pattern and results of geomechanical tests on the intact rock. These analyses improved our understanding of the factors that influence the stability of rock compartments and were used to define the most probable future rockfall volumes at the Dru. Terrestrial laser scanning point clouds were also successfully employed to perform geological mapping in 3D, using the intensity of the backscattered signal. Another technique to obtain vertical geological maps is combining triangulated TLS mesh with 2D geological maps. At El Capitan (Yosemite Valley) we built a georeferenced vertical map of the main plutonio rocks that was used to investigate the reasons for preferential rockwall retreat rate. Additional efforts to characterize the erosion rate were made at Monte Generoso (Ticino, southern Switzerland) where I attempted to improve the estimation of long term erosion by taking into account also the volumes of the unstable rock compartments. Eventually, the following points summarize the main out puts of my research: The new model to compute the failure mechanisms and the rockfall susceptibility with 3D point clouds allows to define accurately the most probable rockfall source areas at the cliff scale. The analysis of the rockbridges at the Dru shows the potential of integrating detailed measurements of the fractures in geomechanical models of rockmass stability. The correction of the LiDAR intensity signal gives the possibility to classify a point cloud according to the rock type and then use this information to model complex geologic structures. The integration of these results, on rockmass fracturing and composition, with existing methods can improve rockfall hazard assessments and enhance the interpretation of the evolution of steep rockslopes. -- La caractérisation de la géologie en 3D pour des parois rocheuses inaccessibles est une étape nécessaire pour évaluer les dangers naturels tels que chutes de blocs et glissements rocheux, mais aussi pour réaliser des modèles stratigraphiques ou de structures plissées. Les modèles géologiques 3D ont un grand potentiel pour être appliqués dans une vaste gamme de travaux géologiques dans le domaine de la recherche, mais aussi dans des projets appliqués comme les mines, les tunnels ou les réservoirs. Les développements récents des outils de télédétection terrestre (LiDAR, photogrammétrie et imagerie multispectrale / hyperspectrale) sont en train de révolutionner l'acquisition d'informations géomorphologiques et géologiques. Par conséquence, il y a un grand potentiel d'amélioration pour la modélisation d'objets géologiques, ainsi que des mécanismes de rupture et des conditions de stabilité, en intégrant des données détaillées acquises à distance. Pour augmenter les possibilités de prévoir les éboulements futurs, il est fondamental de comprendre l'évolution actuelle de la stabilité des parois rocheuses. Définir les zones qui sont théoriquement plus propices aux chutes de blocs peut être très utile pour simuler les trajectoires de propagation des blocs et pour réaliser des cartes de danger, qui constituent la base de l'aménagement du territoire dans les régions de montagne. Les questions plus importantes à résoudre pour estimer le danger de chutes de blocs sont : Où se situent les sources plus probables pour les chutes de blocs et éboulement futurs ? Avec quelle fréquence vont se produire ces événements ? Donc, j'ai caractérisé les réseaux de fractures sur le terrain et avec des nuages de points LiDAR. Ensuite, j'ai développé un modèle pour calculer les mécanismes de rupture directement sur les nuages de points pour pouvoir évaluer la susceptibilité au déclenchement de chutes de blocs à l'échelle de la paroi. Les zones sources de chutes de blocs les plus probables dans les parois granitiques de la vallée de Yosemite et du massif du Mont-Blanc ont été calculées et ensuite comparés aux inventaires des événements pour vérifier les méthodes. Des modèles d'équilibre limite ont été appliqués à plusieurs cas d'études pour évaluer les effets de différents paramètres sur la stabilité des parois. L'impact de la dégradation des ponts rocheux sur la stabilité de grands compartiments de roche dans la paroi ouest du Petit Dru a été évalué en utilisant la modélisation par éléments finis. En particulier j'ai analysé le grand éboulement de 2005 (265'000 m3), qui a emporté l'entier du pilier sud-ouest. Dans le modèle j'ai intégré des observations des conditions des joints, les caractéristiques du réseau de fractures et les résultats de tests géoméchaniques sur la roche intacte. Ces analyses ont amélioré l'estimation des paramètres qui influencent la stabilité des compartiments rocheux et ont servi pour définir des volumes probables pour des éboulements futurs. Les nuages de points obtenus avec le scanner laser terrestre ont été utilisés avec succès aussi pour produire des cartes géologiques en 3D, en utilisant l'intensité du signal réfléchi. Une autre technique pour obtenir des cartes géologiques des zones verticales consiste à combiner un maillage LiDAR avec une carte géologique en 2D. A El Capitan (Yosemite Valley) nous avons pu géoréferencer une carte verticale des principales roches plutoniques que j'ai utilisé ensuite pour étudier les raisons d'une érosion préférentielle de certaines zones de la paroi. D'autres efforts pour quantifier le taux d'érosion ont été effectués au Monte Generoso (Ticino, Suisse) où j'ai essayé d'améliorer l'estimation de l'érosion au long terme en prenant en compte les volumes des compartiments rocheux instables. L'intégration de ces résultats, sur la fracturation et la composition de l'amas rocheux, avec les méthodes existantes permet d'améliorer la prise en compte de l'aléa chute de pierres et éboulements et augmente les possibilités d'interprétation de l'évolution des parois rocheuses.
Resumo:
Les villes sont bousculées par trois grandes révolutions en cours, qui vont les transformer durablement. La transition écologique contraint chacune à économiser les ressources, et à trouver les moyens d'assurer à toutes les populations une meilleure qualité de vie au quotidien. La mondialisation soumet toutes les villes à des restructurations économiques sous l'impulsion de transferts financiers de plus en plus ra- pides. Les technologies numériques bouleversent tout autant les modes de vie et de gestion de la ville que les conditions de production et d'interprétation des informations. En décryptant de nouvelles données urbaines, diverses et massives, cet ouvrage montre comment les villes, leurs gouvernements, leurs entreprises comme leurs habitants, s'adaptent à toutes ces transformations en profondeur. Il se divise en six grands chapitres, regroupant chacun des articles mis à la portée du grand public par des spécialistes, sur les politiques urbaines, la vie en ville, les structures spatiales et sociales, l'économie, le fonctionnement des villes en système et l'environnement urbain. La continuité de ces thèmes avec ceux des volumes précédents de la série permet de mesurer l'importance des transformations inter- venues et souligne à quel point l'adaptation au changement est plus que jamais le moteur de la dynamique des villes. Enseignants, étudiants, décideurs, praticiens de l'urbanisme et simples citoyens y trouveront des clés pour comprendre ces évolutions et y prendre part en toute connaissance de cause.
Resumo:
L'article présente une recherche menée auprès de jeunes diplômés universitaires en provenance d'une région rurale (canton du Jura en Suisse) et discute trois grands résultats. Tout d'abord, les parcours migratoires des jeunes diplômés sont majoritairement orientés vers les zones urbaines ; ils sont néanmoins accompagnés de migrations de retour non négligeables. Ensuite, la propension des jeunes diplômés à revenir dans leur région d'origine est un phénomène sélectif qui varie en fonction de leurs trajectoires socio-familiales, migratoires et professionnelles. Finalement, les migrations internes sont bien plus qu'une réponse automatique aux différentiels du marché de l'emploi ; elles renvoient à une conjonction variable de facteurs relatifs aux opportunités professionnelles, au lien social et au cadre de vie. Ces résultats ont une portée plus générale et demandent à être intégrés et testés dans l'analyse d'autres formes de migrations interrégionales.
Resumo:
On trouvera ici un recueil des grands textes médicaux, littéraires, de philosophie et de sciences sociales sur l'expérience de la maladie et du soin. Il révèle combien cette expérience était déjà au coeur de la pensée la plus classique, mais aussi comment elle est devenue classique dans la pensée la plus contemporaine. D'Hippocrate à Georges Canguilhem, de Tolstoï à Susan Sontag, de Montaigne à Michel Foucault et Erving Goffman, ces classiques permettent d'appréhender les tensions les plus profondes et actuelles du soin : geste technique et relation éthique ; souci de soi et présence à l'autre ; quête de sens et travail ; solidarité et risque d'exclusion ; raison d'être ou point aveugle de la médecine. Chaque texte est suivi d'un commentaire destiné aux étudiants de philosophie et de médecine (notamment de Première Année Commune des Études de Santé) et à tous ceux qu'intéressent les dimensions scientifiques, éthiques et sociales du soin.
Resumo:
On trouvera ici un recueil des grands textes médicaux, littéraires, de philosophie et de sciences sociales sur l'expérience de la maladie et du soin. Il révèle combien cette expérience était déjà au coeur de la pensée la plus classique, mais aussi comment elle est devenue classique dans la pensée la plus contemporaine. D'Hippocrate à Georges Canguilhem, de Tolstoï à Susan Sontag, de Montaigne à Michel Foucault et Erving Goffman, ces classiques permettent d'appréhender les tensions les plus profondes et actuelles du soin : geste technique et relation éthique ; souci de soi et présence à l'autre ; quête de sens et travail ; solidarité et risque d'exclusion ; raison d'être ou point aveugle de la médecine. Chaque texte est suivi d'un commentaire destiné aux étudiants de philosophie et de médecine (notamment de Première Année Commune des Études de Santé) et à tous ceux qu'intéressent les dimensions scientifiques, éthiques et sociales du soin.
Resumo:
Les erreurs innées du métabolisme (EIM) sont dues à des mutations de gènes codant pour des enzymes du métabolisme et sont classées selon trois grands groupes de maladies: 1) intoxications; 2) déficit énergétique et 3) déficit de synthèse ou catabolisme des maladies complexes. Le progrès thérapeutique des vingt dernières années a permis d'améliorer le pronostic des enfants atteints d'EIM. Ces enfants grandissent et doivent être pris en charge à l'adolescence et à l'âge adulte par des équipes spécialisées. Cette médecine métabolique pour adultes est une discipline relativement nouvelle avec une information limitée chez l'adulte. Les recommandations pédiatriques sont extrapolées à la prise en charge des adultes tout en intégrant les différentes étapes de vie (indépendance sociale, grossesse, vieillissement et éventuelles complications tardives). Inborn errors of metabolism (IEM) are due to mutations of genes coding for enzymes of intermediary metabolism and are classified into 3 broad categories: 1) intoxication, 2) energy defect and 3) cellular organelles synthesis or catabolism defect. Improvements of therapy over these last 20 years has improved prognosis of children with IEM. These children grow up and should have their transition to specialized adult care. Adult patients with IEM are a relatively new phenomenon with currently only limited knowledge. Extrapolated pediatric guidelines are applied to the adult population taking into account adult life stages (social independence, pregnancy, aging process and potential long-term complications).
Resumo:
Réunissant quelques-uns des meilleurs experts français sur la question, le projet de cet ouvrage est de dresser un bilan des principales orientations historiographiques de l'histoire du sport. Cette réflexion complète la table ronde organisée lors du congrès du comité français des sciences historiques (Reims 2012). Elle s'interroge sur la spécificité d'un champ qui s'est développé en marge de l'Histoire en abordant un objet - le sport - qui traverse les cultures et les périodes, et entretient avec les registres politiques, sociaux, économiques, médiatiques, ou scientifiques des liens originaux. Appuyée sur des comparaisons européennes et nordaméricaines, elle suggère aussi des perspectives et de nouvelles pistes à investiguer. Cet ouvrage constitue une base de données précieuse pour les étudiants, doctorants, enseignants, chercheurs, archivistes et conservateurs et, plus largement, tout public averti et désireux de comprendre comment l'histoire a, jusqu'ici, questionné le phénomène sportif. Le lecteur y puisera des éléments conceptuels et des points d'appui historiographiques essentiels. Les grands débats du moment s'y reflètent : sport dans l'Antiquité, histoire de l'éducation physique, histoire économique du sport, histoire des techniques, des médias, du genre, ou encore histoire du sport en milieu colonial.
Resumo:
Problématique: Les naissances prématurées sont des situations cliniques à risque pour l'enfant. Celui-ci arrive au monde avec une capacité amoindrie à être autonome, que ce soit, par exemple, au niveau respiratoire ou de la régulation thermique. Lors de leur séjour aux soins intensifs, les enfants prématurés subissent des interventions qui peuvent être douloureuses, ils sont souvent manipulés et exposés à des bruits et des lumières intenses; ceci peut induire un stress important pour l'enfant qui est déjà vulnérable du fait de sa prématurité. Lorsque confronté à une situation stressante, l'organisme humain réagit par l'activation de l'axe hypothalamo-hypophysio-surrénalien (HHS). Une des hormones principales sécrétées par l'axe HHS est le cortisol. Plusieurs études suggèrent que le cortisol, lorsque sécrété en quantités importantes, risque d'altérer la matière grise, en induisant une diminution de volume, notamment celui de l'hippocampe (Plotsky & Meaney, 1993; Sapolsky, 2000; McEwen, 1994; 2000; Sandman et al., 1994; Meaney et al., 1991;1996). Ces altérations auraient comme effet un dérèglement de l'axe HHS (Heim & Nemeroff, 1999) avec comme conséquence une variation de la réponse au stress mais aussi de la mémoire et de la régulation émotionnelle (Stam et al., 2000 et Siegel, 1998). Objectifs: Nous allons nous intéresser aux grands prématurés nés à moins de 32 semaines de gestations selon leur exposition à des interventions stressantes et douloureuses ou des complications postnatales. Nous allons étudier l'impact qu'un stress modéré ou sévère sur un prématuré a sur la réponse de l'axe HHS et sur sa régulation émotionnelle lorsque celui-ci est confronté à des situations de stress modéré ultérieurement, plus précisément à six mois d'age corrigé. Méthodologie: Dans le cadre de l'étude «Stress néonatal et réactivité au stress ultérieur: effets préventifs d'une intervention précoce» (SNF 3200 BO-104230) menée au SUPEA en collaboration avec le service de néonatologie du DMCP, le Lab-TAB (Laboratory Temperament Assessment Battery, prelocomotor version 3.1, Goldsmith & Rothbart, 1999) a été utilisé comme outil pour analyser le tempérament d'un enfant par l'analyse de ses réactions émotionnelles à certaines situations. L'enfant, qui était filmé, a été confronté à des mises en scène conçues pour susciter diverses émotions comme la peur, la colère, la frustration, la curiosité ou le plaisir. Un système de codage dérivé de celui du Lab-TAB sera utilisé par deux codeurs différents pour analyser les réactions émotionnelles des enfants. Les taux de cortisol sécrétés ont été mesurés dans la salive de l'enfant. La mesure du cortisol libre dans la salive montre une bonne corrélation avec le cortisol plasmatique ; plusieurs prélèvements de salive ont été faits avant, pendant et après la situation de stress. Les situations filmées n'ont pas encore été codés, ni les taux analysés par l'équipe de la SUPEA. Nous allons observer 40 vidéos, 20 d'enfants nés prématurément et 20 d'enfants nés à terme comme groupe contrôle, et examiner la réponse endocrinienne au stress ainsi que leur régulation émotionnelle au niveau de leur comportement comme l'excitation, les pleurs, l'évitement... Hypothèse : L'intensité de l'exposition au stress postnatal chez l'enfant prématuré induirait des variations de la réponse de l'axe HHS mais aussi de la régulation émotionnelle. Il n'est pas clair selon la littérature actuelle si les variations des réponses de l'axe HHS dues à l'exposition à un stress précoce vont dans les sens de l'hypo- ou l'hyperréactivité, et si cette réponse corrèle avec la régulation émotionnelle au niveau des comportements. C'est ce que l'analyse des données nous permettra de déterminer.
Resumo:
La grande prématurité, soit une naissance avant 32/40 semaines de gestation, concerne 1% des enfants en Suisse. L'avenir développemental de ces enfants prématurés est influencé pai" des facteurs présents avant la naissance, durant le séjour néonatal, puis par l'environnement. Certains enfants, à terme ou prématurés, naissent avec un poids trop petit pour l'âge gestationnel (Retard de Croissance Intra-utérin, RCIU). Chez les enfants nés à terme, les recherches montrent que cet élément est associé à des troubles du comportement, et notamment une hyperactivité. Chez l'enfant grand prématuré, les résultats sont plus mitigés, certaines études montrent plus de déficiences cognitives, d'autres plus d'hyperactivité, et finalement d'autres aucune séquelle. L'objectif de cette analyse rétrospective était donc d'évaluer l'impact, dans une cohorte d'enfants prématurés nés entre 2000 et 2005, du RCIU sur les scores cognitifs, le risque de déficience motrice, visuelle ou auditive, et le comportement. Durant cette période, 523 patients nés avant 32 semaines de gestation ont été hospitalisés dans notre centre tertiaire, dont 450 ont survécu et 343 (76%) ont été évalués à l'âge de 5 ans. L'évaluation à 5 ans comprenait une anamnèse, un examen neurologique détaillé, une évaluation cognitive au moyen d'un test standardisé, le K-ABC, et un questionnaire de dépistage des troubles du comportement (Strengths and Difficulties Questionnaire). Les analyses de régression ont montré l'absence d'association entre le petit poids de naissance et les score cognitifs, le risque de déficience neuro dé veloppementale (retard mental, paralysie cérébrale, cécité ou surdité), ou l'utilisation de thérapies. Par contre, comme chez les enfants nés à terme, cet élément était significativement associé au comportement hyperactif. Les facteurs néonataux associés au score cognitif dans l'analyse multi variée étaient l'âge gestationnel, le niveau socio-économique et les lésions cérébrales majeures. Le risque de déficience était influencé par l'âge gestationnel, les lésions cérébrales, la consommation de tabac durant la grossesse et l'asphyxie néonatale (pH< 7.0 et encéphalopathie). La présence de lésions cérébrales majeures était associée à l'utilisation de plusieurs thérapies, alors que 1 utilisation d'une seule thérapie était associée à l'âge gestationnel, à la présence d'une entérocolite nécrosante, ou d'une asphyxie néonatale. Conclusion : Dans notre cohorte, le petits poids de naissance chez les enfants grands prématurés n'était associé qu'au comportement hyperactif, et à aucune autre séquelle neurodeveloppementale. Pour mieux définir l'impact du RCIU chez les grands prématurés, des etudes complémentaires, permettant de distinguer les patients avec petit poids constitutionnel de ceux avec retard de croissance, sont nécessaires.
Resumo:
L'exposition professionnelle aux nanomatériaux manufacturés dans l'air présente des risques potentiels pour la santé des travailleurs dans les secteurs de la nanotechnologie. Il est important de comprendre les scénarios de libération des aérosols de nanoparticules dans les processus et les activités associées à l'exposition humaine. Les mécanismes de libération, y compris les taux de libération et les propriétés physico-chimiques des nanoparticules, déterminent leurs comportements de transport ainsi que les effets biologiques néfastes. La distribution de taille des particules d'aérosols est l'un des paramètres les plus importants dans ces processus. La stabilité mécanique d'agglomérats de nanoparticules affecte leurs distributions de tailles. Les potentiels de désagglomération de ces agglomérats déterminent les possibilités de leur déformation sous énergies externes. Cela rend les changements possibles dans leur distribution de taille et de la concentration en nombre qui vont finalement modifier leurs risques d'exposition. Les conditions environnementales, telles que l'humidité relative, peuvent influencer les processus de désagglomération par l'adhérence de condensation capillaire de l'humidité. L'objectif général de cette thèse était d'évaluer les scénarios de libération des nanomatériaux manufacturés des processus et activités sur le lieu de travail. Les sous-objectifs étaient les suivants: 1. Etudier les potentiels de désagglomération des nanoparticules dans des conditions environnementales variées. 2. Etudier la libération des nano-objets à partir de nanocomposites polymères; 3. Evaluer la libération de nanoparticules sur le lieu de travail dans des situations concrètes. Nous avons comparé différents systèmes de laboratoire qui présentaient différents niveau d'énergie dans l'aérosolisation des poudres. Des nanopoudres de TiO2 avec des hydrophilicités de surface distinctes ont été testées. Un spectromètre à mobilité électrique (SMPS), un spectromètre à mobilité aérodynamique (APS) et un spectromètre optique (OPC) ont été utilisés pour mesurer la concentration de particules et la distribution de taille des particules. La microscopie électronique à transmission (TEM) a été utilisée pour l'analyse morphologique d'échantillons de particules dans l'air. Les propriétés des aérosols (distribution de taille et concentration en nombre) étaient différentes suivant la méthode employée. Les vitesses des flux d'air d'aérosolisation ont été utilisées pour estimer le niveau d'énergie dans ces systèmes, et il a été montré que les tailles modales des particules étaient inversement proportionnelles à la vitesse appliquée. En général, les particules hydrophiles ont des diamètres plus grands et des nombres inférieurs à ceux des particules hydrophobes. Toutefois, cela dépend aussi des méthodes utilisées. La vitesse de l'air peut donc être un paramètre efficace pour le classement de l'énergie des procédés pour des systèmes d'aérosolisation similaires. Nous avons développé un système laboratoire pour tester les potentiels de désagglomération des nanoparticules dans l'air en utilisant des orifices critiques et un humidificateur. Sa performance a été comparée à un système similaire dans un institut partenaire. Une variété de nanopoudres différentes a été testée. Le niveau d'énergie appliquée et l'humidité ont été modifiés. Le SMPS et l'OPC ont été utilisés pour mesurer la concentration de particules et la distribution de la taille. Un TEM a été utilisé pour l'analyse morphologique d'échantillons de particules dans l'air. Le diamètre moyen des particules a diminué et la concentration en nombre s'est accrue lorsque des énergies externes ont été appliquées. Le nombre de particules inférieures à 100 nm a été augmenté, et celui au-dessus de 350 nm réduits. Les conditions humides ont faits exactement le contraire, en particulier pour les petites particules. En outre, ils ont réduits les effets de la différence de pression due à l'orifice. Les résultats suggèrent que la désagglomération d'agglomérats de nanoparticules dans l'air est possible dans la gamme d'énergie appliquée. Cependant, l'atmosphère humide peut favoriser leur agglomération et améliorer leurs stabilités en réduisant la libération de nanoparticules dans l'environnement. Nous proposons d'utiliser notre système pour le test de routine des potentiels de désagglomération des nanomatériaux manufacturés et de les classer. Un tel classement faciliterait la priorisation de l'exposition et du risque encouru en fonction du niveau d'ENM. Un système de perçage automatique et un système de sciage manuel ont été développés pour étudier la libération de nanoparticules à partir de différents types de nanocomposites. La vitesse de perçage et taille de la mèche ont été modifiées dans les expériences. La distribution de taille des particules et leur concentration en nombre ont été mesurées par un SMPS et un miniature diffusion size classifier (DISCmini). Les distributions de nanoparticules dans les composites et les particules libérées ont été analysés par un TEM et un microscope électronique à balayage (SEM). Les tests de perçage ont libérés un plus grand nombre de particules que le sciage. Des vitesses de perçage plus rapide et les mèches plus grandes ont augmentés la génération de particules. Les charges de nanoparticules manufacturées dans les composites ne modifient pas leurs comportements de libération dans les expériences de perçage. Toutefois, le sciage différencie les niveaux de libération entre les composites et les échantillons blancs. De plus, les vapeurs de polymères ont été générées par la chaleur de sciage. La plupart des particules libérées sont des polymères contenant des nanoparticules ou sur leurs surface. Les résultats ont souligné l'importance du type de processus et paramètres pour déterminer la libération de nanoparticules de composites. Les émissions secondaires telles que les fumées polymères appellent à la nécessité d'évaluations de l'exposition et de risque pour de tels scénarios. Une revue systématique de la littérature sur le sujet de libérations de nanoparticules dans l'air dans les secteurs industriels et laboratoires de recherche a été effectuée. Des stratégies de recherche des informations pertinentes et de stockage ont été développées. Les mécanismes de libération, tels que la taille de particules d'aérosol et de leur concentration en nombre, ont été comparés pour différentes activités. La disponibilité de l'information contextuelle qui est pertinente pour l'estimation de l'exposition humaine a été évaluée. Il a été constaté que les données relatives à l'exposition ne sont pas toujours disponibles dans la littérature actuelle. Les propriétés des aérosols libérés semblent dépendre de la nature des activités. Des procédés à haute énergie ont tendance à générer des plus hauts niveaux de concentrations de particules dans les gammes de plus petite taille. Les résultats peuvent être utiles pour déterminer la priorité des procédés industriels pour l'évaluation les risques associés dans une approche à plusieurs niveaux. Pour l'évaluation de l'exposition, la disponibilité de l'information peut être améliorée par le développement d'une meilleure méthode de communication des données.