227 resultados para Indice masse corporel
Resumo:
Depuis le début de cette décennie, les médias accordent un intérêt croissant au religieux. Cet intérêt évolue en relation étroite avec le changement socioculturel qui affecte aussi bien le champ de la communication de masse que celui de la religion. On ne s'étonnera pas dès lors, explique l'A., d'observer que la mise en scène du religieux par les médias échappe, partiellement du moins, au contrôle des institutions religieuses, même les mieux organisées, et obéisse aux lois qui régulent leur langage.
Resumo:
Dans le domaine de l'analyse et la détection de produits pharmaceutiques contrefaits, différentes techniques analytiques ont été appliquées afin de discriminer les produits authentiques des contrefaçons. Parmi celles-ci, les spectroscopies proche infrarouge (NIR) et Raman ont fourni des résultats prometteurs. L'objectif de cette étude était de développer une méthodologie, basée sur l'établissement de liens chimiques entre les saisies de produits contrefaits, permettant de fournir des informations utiles pour les acteurs impliqués dans la lutte à la prolifération de ces produits. Une banque de données de spectres NIR et Raman a été créée et différents algorithmes de classification non-supervisée (i.e., analyse en composantes principales (ACP) et analyse factorielle discriminante (AFD) - elus ter onolysis) ont été utilisées afin d'identifier les différents groupes de produits présents. Ces classes ont été comparées aux profils chimiques mis en évidence par la spectroscopie infrarouge à transformée de Fourier (FT-IR) et par la chromatographie gazeuse couplée à la spectrométrie de masse (GC -MS). La stratégie de classification proposée, fondée sur les classes identifiées par spectroscopie NIR et Raman, utilise un algorithme de classification basé sur des mesures de distance et des courbes Receiver Operating Characteristics (ROC). Le modèle est capable de comparer le spectre d'une nouvelle contrefaçon à ceux des saisies précédemment analysées afin de déterminer si le nouveau spécimen appartient à l'une des classes existantes, permettant ainsi de le lier à d'autres saisies dans la base de données.
Resumo:
Resume : L'utilisation de l'encre comme indice en sciences forensiques est décrite et encadrée par une littérature abondante, comprenant entre autres deux standards de l'American Society for Testing and Materials (ASTM). La grande majorité de cette littérature se préoccupe de l'analyse des caractéristiques physiques ou chimiques des encres. Les standards ASTM proposent quelques principes de base qui concernent la comparaison et l'interprétation de la valeur d'indice des encres en sciences forensiques. L'étude de cette littérature et plus particulièrement des standards ASTM, en ayant a l'esprit les développements intervenus dans le domaine de l'interprétation de l'indice forensique, montre qu'il existe un potentiel certain pour l'amélioration de l'utilisation de l'indice encre et de son impact dans l'enquête criminelle. Cette thèse propose d'interpréter l'indice encre en se basant sur le cadre défini par le théorème de Bayes. Cette proposition a nécessité le développement d'un système d'assurance qualité pour l'analyse et la comparaison d'échantillons d'encre. Ce système d'assurance qualité tire parti d'un cadre théorique nouvellement défini. La méthodologie qui est proposée dans ce travail a été testée de manière compréhensive, en tirant parti d'un set de données spécialement créer pour l'occasion et d'outils importés de la biométrie. Cette recherche répond de manière convaincante à un problème concret généralement rencontré en sciences forensiques. L'information fournie par le criminaliste, lors de l'examen de traces, est souvent bridée, car celui-ci essaie de répondre à la mauvaise question. L'utilisation d'un cadre théorique explicite qui définit et formalise le goal de l'examen criminaliste, permet de déterminer les besoins technologiques et en matière de données. Le développement de cette technologie et la collection des données pertinentes peut être justifiées économiquement et achevée de manière scientifique. Abstract : The contribution of ink evidence to forensic science is described and supported by an abundant literature and by two standards from the American Society for Testing and Materials (ASTM). The vast majority of the available literature is concerned with the physical and chemical analysis of ink evidence. The relevant ASTM standards mention some principles regarding the comparison of pairs of ink samples and the evaluation of their evidential value. The review of this literature and, more specifically, of the ASTM standards in the light of recent developments in the interpretation of forensic evidence has shown some potential improvements, which would maximise the benefits of the use of ink evidence in forensic science. This thesis proposes to interpret ink evidence using the widely accepted and recommended Bayesian theorem. This proposition has required the development of a new quality assurance process for the analysis and comparison of ink samples, as well as of the definition of a theoretical framework for ink evidence. The proposed technology has been extensively tested using a large dataset of ink samples and state of the art tools, commonly used in biometry. Overall, this research successfully answers to a concrete problem generally encountered in forensic science, where scientists tend to self-limit the usefulness of the information that is present in various types of evidence, by trying to answer to the wrong questions. The declaration of an explicit framework, which defines and formalises their goals and expected contributions to the criminal and civil justice system, enables the determination of their needs in terms of technology and data. The development of this technology and the collection of the data is then justified economically, structured scientifically and can be proceeded efficiently.
Resumo:
Les médias de masse, en particulier Internet, ont profondément modifié la distribution du pouvoir dans notre société. Sous l'oeil des caméras et des citoyens-reporters, le pouvoir policier est l'objet d'une intense « sous-veillance » publique et médiatique. Pourquoi et comment sensibiliser les nouveaux entrants aux « risques médiatiques » de leur future profession ?
Resumo:
Les acteurs du système judiciaire prennent des décisions à des niveaux différents. La distribution des rôles et des responsabilités se définissent par des procédures et des formes d'organisations qui varient parfois fortement d'une juridiction à l'autre. Ainsi, selon le contexte particulier et la nature de la tâche, le forensicien peut par exemple décider lui-même de cibler la recherche d'indices sur des lieux ou d'effectuer des traitements particuliers sur une trace. Il est susceptible dans d'autres rôles de recommander des pistes d'enquête ou d'évaluer la valeur probante d'un indice au profit d'une autorité judiciaire qui prend les décisions de condamnation. De mauvais choix peuvent aboutir in fine à des erreurs judiciaires. Comme les décisions se prennent sur la base d'informations incertaines et incomplètes, les risques d'erreurs doivent s'évaluer dans des cadres formels bien maîtrisés. L'erreur "acceptable" devient ainsi un thème crucial, surtout lorsque les systèmes automatisés sont susceptibles de prendre certaines décisions, notamment dans le cadre du contrôle de l'identité.
Resumo:
The increasing number of bomb attacks involving improvised explosive devices, as well as the nature of the explosives, give rise to concern among safety and law enforcement agencies. The substances used in explosive charges are often everyday products diverted from their primary licit applications. Thus, reducing or limiting their accessibility for prevention purposes is difficult. Ammonium nitrate, employed in agriculture as a fertiliser, is used worldwide in small and large homemade bombs. Black powder, dedicated to hunting and shooting sports, is used illegally as a filling in pipe bombs causing extensive damage. If the main developments of instrumental techniques in explosive analysis have been constantly pushing the limits of detection, their actual contribution to the investigation of explosives in terms of source discrimination is limited. Forensic science has seen the emergence of a new technology, isotope ratio mass spectrometry (IRMS), that shows promising results. Its very first application in forensic science dates back to 1979. Liu et al. analysed cannabis plants coming from different countries [Liu et al. 1979]. This preliminary study highlighted its potential to discriminate specimens coming from different sources. Thirty years later, the keen interest in this new technology has given rise to a flourishing number of publications in forensic science. The countless applications of IRMS to a wide range of materials and substances attest to its success and suggest that the technique is ready to be used in forensic science. However, many studies are characterised by a lack of methodology and fundamental data. They have been undertaken in a top-down approach, applying this technique in an exploratory manner on a restricted sampling. This manner of procedure often does not allow the researcher to answer a number of questions, such as: do the specimens come from the same source, what do we mean by source or what is the inherent variability of a substance? The production of positive results has prevailed at the expense of forensic fundamentals. This research focused on the evaluation of the contribution of the information provided by isotopic analysis to the investigation of explosives. More specifically, this evaluation was based on a sampling of black powders and ammonium nitrate fertilisers coming from known sources. Not only has the methodology developed in this work enabled us to highlight crucial elements inherent to the methods themselves, but also to evaluate both the longitudinal and transversal variabilities of the information. First, the study of the variability of the profile over time was undertaken. Secondly, the variability of black powders and ammonium nitrate fertilisers within the same source and between different sources was evaluated. The contribution of this information to the investigation of explosives was then evaluated and discussed. --------------------------------------------------------------------------------------------------- Le nombre croissant d'attentats à la bombe impliquant des engins explosifs artisanaux, ainsi que la nature des charges explosives, constituent une préoccupation majeure pour les autorités d'application de la loi et les organismes de sécurité. Les substances utilisées dans les charges explosives sont souvent des produits du quotidien, détournés de leurs applications licites. Par conséquent, réduire ou limiter l'accessibilité de ces produits dans un but de prévention est difficile. Le nitrate d'ammonium, employé dans l'agriculture comme engrais, est utilisé dans des petits et grands engins explosifs artisanaux. La poudre noire, initialement dédiée à la chasse et au tir sportif, est fréquemment utilisée comme charge explosive dans les pipe bombs, qui causent des dommages importants. Si les développements des techniques d'analyse des explosifs n'ont cessé de repousser les limites de détection, leur contribution réelle à l'investigation des explosifs est limitée en termes de discrimination de sources. Une nouvelle technologie qui donne des résultats prometteurs a fait son apparition en science forensique: la spectrométrie de masse à rapport isotopique (IRMS). Sa première application en science forensique remonte à 1979. Liu et al. ont analysé des plants de cannabis provenant de différents pays [Liu et al. 1979]. Cette étude préliminaire, basée sur quelques analyses, a mis en évidence le potentiel de l'IRMS à discriminer des spécimens provenant de sources différentes. Trente ans plus tard, l'intérêt marqué pour cette nouvelle technologie en science forensique se traduit par un nombre florissant de publications. Les innombrables applications de l'IRMS à une large gamme de matériaux et de substances attestent de son succès et suggèrent que la technique est prête à être utilisée en science forensique. Cependant, de nombreuses études sont caractérisées par un manque de méthodologie et de données fondamentales. Elles ont été menées sans définir les hypothèses de recherche et en appliquant cette technique de façon exploratoire sur un échantillonnage restreint. Cette manière de procéder ne permet souvent pas au chercheur de répondre à un certain nombre de questions, tels que: est-ce que deux spécimens proviennent de la même source, qu'entend-on par source ou encore quelle est l'intravariabilité d'une substance? La production de résultats positifs a prévalu au détriment des fondamentaux de science forensique. Cette recherche s'est attachée à évaluer la contribution réelle de l'information isotopique dans les investigations en matière d'explosifs. Plus particulièrement, cette évaluation s'est basée sur un échantillonnage constitué de poudres noires et d'engrais à base de nitrate d'ammonium provenant de sources connues. La méthodologie développée dans ce travail a permis non seulement de mettre en évidence des éléments cruciaux relatifs à la méthode d'analyse elle-même, mais également d'évaluer la variabilité de l'information isotopique d'un point de vue longitudinal et transversal. Dans un premier temps, l'évolution du profil en fonction du temps a été étudiée. Dans un second temps, la variabilité du profil des poudres noires et des engrais à base de nitrate d'ammonium au sein d'une même source et entre différentes sources a été évaluée. La contribution de cette information dans le cadre des investigations d'explosifs a ensuite été discutée et évaluée.
Resumo:
Introduction :¦Alors que le risque de métastases ganglionnaires est absent pour les adénomes coliques avec dysplasie de haut degré ou adénocarcinome intramuqueux limités à la muqueuse, ce risque existe à priori pour les adénomes avec transformation adénocarcinomateuse se définissant par l'envahissement de la sous-muqueuse (pT1). Néanmoins l'importance de leur potentiel à développer des métastases reste difficile à estimer posant un réel problème pour leur prise en charge. A ce jour, près de la moitié des adénocarcinomes débutants diagnostiqués sur des polypectomies est traitée par une résection colique chirurgicale complémentaire avec un curage ganglionnaire.¦Le but de cette étude est de quantifier le risque de développement de métastases ganglionnaires pour les adénocarcinomes pT1 et de définir les critères histologiques et macroscopiques utiles pour l'évaluation de ce risque.¦Méthode :¦Il s'agit d'une revue rétrospective de 32 cas d'adénocarcinomes colo-rectaux débutants chez 31 patients et recensés entre 2000 et 2010 à l'institut de pathologie du CHUV. Pour chaque tumeur nous avons procédé à une analyse macroscopique et histologique détaillée et nous l'avons corrélée à la rechercher de métastases ou de récidives lors du suivi. Enfin nous avons comparés nos résultats à une analyse de la littérature.¦Résultats et conclusion :¦Un seul adénocarcinome parmi les 32 adénocarcinomes recensés (3.13%) a présenté une métastase ganglionnaire avec 1 ganglion métastatique sur 21 ganglions prélevés. Aucune récidive n'a été mise en évidence lors du suivi des 32 adénocarcinomes. Ces résultats sont beaucoup plus optimistes que ceux de la littérature permettant de penser que la majorité de ces tumeurs peuvent être traités par polypectomie seule avec suivi endoscopique.¦Selon la littérature, les paramètres les plus significatifs pour la prédiction du risque métastatique sont un grade 3, une clearance inférieure à 2mm, un budding marqué (petits bourgeonnements de cellules tumorales éloignées de la masse tumorale principale), l'invasion du 3ème tiers de la sous-muqueuse (sm3) et l'invasion vasculaire. Notre étude confirme l'importance de la mise en évidence d'invasion lymphatique et montre un intérêt probable de la réaction de budding et de la taille du front d'invasion tumoral dans la prédiction du risque de développement de métastases ganglionnaires
Resumo:
The Zermatt-Saas Fee Zone (ZSZ) in the Western Alps consists of multiple slices of ultramafic, mafic and metasedimentary rocks. They represent the remnants of the Mesozoic Piemonte-Ligurian oceanic basin which was subducted to eclogite facies conditions with peak pressures and temperatures of up to 20-28 kbar and 550-630 °C, followed by a greenschist overprint during exhumation. Previous studies, emphasizing on isotopie geochronology and modeling of REE-behavior in garnets from mafic eclogites, suggest that the ZSZ is buildup of tectonic slices which underwent a protracted diachronous subduction followed by a rapid synchronous exhumation. In this study Rb/Sr geochronology is applied to phengite included in garnets from metasediments of two different slices of the ZSZ to date garnet growth. Inclusion ages for 2 metapelitic samples from the same locality from the first slice are 44.25 ± 0.48 Ma and 43.19 ± 0.32 Ma. Those are about 4 Ma older than the corresponding matrix mica ages of respectively 40.02 ± 0.13 Ma and 39.55 ± 0.25 Ma. The inclusion age for a third calcschist sample, collected from a second slice, is 40.58 ± 0.24 Ma and the matrix age is 39.8 ± 1.5 Ma. The results show that garnet effectively functioned as a shield, preventing a reset of the Rb/Sr isotopie clock in the included phengites to temperatures well above the closure of Sr in mica. The results are consistent with the results of former studies on the ZSZ using both Lu/Hf and Sm/Nd geochronology on mafic eclogites. They confirm that at least parts of the ZSZ underwent close to peak metamorphic HP conditions younger than 43 m.y. ago before being rapidly exhumed about 40 m.y. ago. Fluid infiltration in rocks of the second slice occurred likely close to the peak metamorphic conditions, resulting in rapid growth of garnets. Similar calcschists from the same slice contain two distinct types of porphyroblast garnets with indications of multiple growth pulses and resorption indicated by truncated chemical zoning patterns. In-situ oxygen isotope Sensitive High Resolution Ion Microprobe (SHRIMP) analyses along profiles on central sections of the garnets reveal variations of up to 5 %o in individual garnets. The complex compositional zoning and graphite inclusion patterns as well as the variations in oxygen isotopes correspond to growing under changing fluid composition conditions caused by external infiltrated fluids. The ultramafic and mafic rocks, which were subducted along with the sediments and form the volumetrically most important part of the ZSZ, are the likely source of those mainly aqueous fluids. - La Zone de Zermatt-Saas Fee (ZZS) est constituée de multiples écailles de roches ultramafiques, mafiques et méta-sédimentaires. Cette zone, qui affleure dans les Alpes occidentales, représente les restes du basin océanique Piémontais-Ligurien d'âge mésozoïque. Lors de la subduction de ce basin océanique à l'Eocène, les différentes roches composant le planché océanique ont atteint les conditions du faciès éclogitique avec des pressions et des températures maximales estimées entre 20 - 28 kbar et 550 - 630 °C respectivement, avant de subir une rétrogression au faciès schiste vert pendant l'exhumation. Différentes études antérieures combinant la géochronologie isotopique et la modélisation des mécanismes gouvernant l'incorporation des terres rares dans les grenats des éclogites mafiques, suggèrent que la ZZS ne correspond pas à une seule unité, mais est constituée de différentes écailles tectoniques qui ont subi une subduction prolongée et diachrone suivie d'une exhumation rapide et synchrone. Afin de tester cette hypothèse, j'ai daté, dans cette étude, des phengites incluses dans les grenats des méta-sédiments de deux différentes écailles tectoniques de la ZZS, afin de dater la croissance relative de ces grenats. Pour cela j'ai utilisé la méthode géochronologique basée sur la décroissance du Rb87 en Sr87. J'ai daté trois échantillons de deux différentes écailles. Les premiers deux échantillons proviennent de Triftji, au nord du Breithorn, d'une première écaille dont les méta-sédiments sont caractérisés par des bandes méta-pélitiques à grenat et des calcschistes. Le troisième échantillon a été collectionné au Riffelberg, dans une écaille dont les méta-sédiments sont essentiellement des calcschistes qui sont mélangés avec des roches mafiques et des serpentinites. Ce mélange se trouve au-dessus de la grande masse de serpentinites qui forment le Riffelhorn, le Trockenersteg et le Breithorn, et qui est connu sous le nom de la Zone de mélange de Riffelberg (Bearth, 1953). Les inclusions dans les grenats de deux échantillons méta-pélitiques de la première écaille sont datées à 44.25 ± 0.48 Ma et à 43.19 ± 0.32 Ma. Ces âges sont à peu près 4 Ma plus vieux que les âges obtenus sur les phengites provenant de la matrice de ces mêmes échantillons qui donnent des âges de 40.02 ± 0.13 Ma et 39.55 ± 0.25 Ma respectivement. Les inclusions de phengite dans les grenats appartenant à un calcschiste de la deuxième écaille ont un âge de 40.58 ± 0.24 Ma alors que les phengites de la matrice ont un âge de 39.8 ± 1.5 Ma. Pour expliquer ces différences d'âge entre les phengites incluses dans le grenat et les phengites provenant de la matrice, nous suggérons que la cristallisation de grenat ait permis d'isoler ces phengites et de les préserver de tous rééquilibrage lors de la suite du chemin métamorphique prograde, puis rétrograde. Ceci est particulièrement important pour expliquer l'absence de rééquilibrage des phengites dans des conditions de températures supérieures à la température de fermeture du système Rb/Sr pour les phengites. Les phengites en inclusions n'ayant pas pu être datées individuellement, nous interprétons l'âge de 44 Ma pour les inclusions de phengite comme un âge moyen pour l'incorporation de ces phengites dans le grenat. Ces résultats sont cohérents avec les résultats des études antérieures de la ZZS utilisant les systèmes isotopiques de Sm/Nd et Lu/Hf sur des eclogites mafiques. ils confirment qu'aux moins une partie de la ZZS a subi des conditions de pression et de température maximale il y a moins de 44 à 42 Ma avant d'être rapidement exhumée à des conditions métamorphiques du faciès schiste vert supérieur autour de 40 Ma. Cette étude détaillée des grenats a permis, également, de mettre en évidence le rôle des fluides durant le métamorphisme prograde. En effet, si tous les grenats montrent des puises de croissance et de résorption, on peut distinguer, dans différents calcschists provenant de la deuxième écaille, deux types distincts de porphyroblast de grenat en fonction de la présence ou non d'inclusions de graphite. Nous lions ces puises de croissances/résorptions ainsi que la présence ou l'absence de graphite en inclusion dans les grenats à l'infiltration de fluides dans le système, et ceci durant tous le chemin prograde mais plus particulièrement proche et éventuellement peu après du pic du métamorphisme comme le suggère l'âge de 40 Ma mesuré dans les inclusions de phengites de l'échantillon du Riffelberg. Des analyses in-situ d'isotopes d'oxygène réalisé à l'aide de la SHRIMP (Sensitive High Resolution Ion Microprobe) dans des coupes centrales des grenats indiquent des variations jusqu'à 5 %o au sein même d'un grenat. Les motifs de zonations chimiques et d'inclusions de graphite complexes, ainsi que les variations du δ180 correspondent à une croissance de grenat sous des conditions de fluides changeantes dues aux infiltrations de fluides externes. Nous lions l'origine de ces fluides aqueux aux unités ultramafiques et mafiques qui ont été subductés avec les méta-sédiments ; unités ultramafiques et mafiques qui forment la partie volumétrique la plus importante de la ZZS.
Resumo:
Le forensicien joue fréquemment le rôle d'expert judiciaire. Dans cette responsabilité, il doit par exemple évaluer le lien qu'est susceptible d'entretenir une trace avec une source putative (une personne, un objet) donnée. L'expert examine aussi parfois la relation entre deux traces (proviennent-elles de la même source ?), combine les indices, ou interprète les activités possibles en regard des traces recueillies. Un mouvement dominant et intégrateur préconise d'effectuer cette évaluation au moyen de probabilités qui expriment dans un cadre formel les incertitudes inhérentes à ce genre de questions. Basé sur le théorème découvert par le révérend Bayes sur la probabilité des causes, le rapport de vraisemblance équilibre le point de vue de l'accusation (par exemple, probabilité de la trace, sachant que x en est à l'origine) et de la défense (la probabilité de la trace si la source n'est pas x). L'exploitation de ce modèle fait appel à l'expérience de l'expert, mais aussi à de grandes quantités de données représentatives qui doivent encore être rassemblées. Une tendance consiste aussi à exploiter pour cela les données stockées par l'utilisation de systèmes automatisés (empreintes digitales, projectiles, etc.). De nouvelles possibilités d'extraire des caractéristiques encore inexplorées à partir des traces sont susceptibles d'augmenter considérablement les moyens pour les experts judiciaires d'apporter des réponses probabilistes dans des circonstances toujours plus variées aux autorités judiciaires qui les mandatent.
Resumo:
Le travail policier est depuis longtemps l'objet de récits etd'images qui ont durablement influencé notre imaginaire.Cette puissance narrative acquise fait aujourd'hui del'univers policier l'un des arrière-plans préférés des médias.À partir de ce constat, cet ouvrage se propose d'explorercomment des représentations de la police sont produiteset circulent dans, et entre, les champs du divertissement etde l'information, mais également comment l'institutionpolicière s'est elle-même constituée en pourvoyeuse et engardienne de son « image publique ». Plus que jamais, lemonde réel et le monde médiatique de la police coexistentet se confrontent, car les corps de police sont devenus desproducteurs actifs d'images et de discours sur leurspropres actions.Par un double mouvement, «médiatiser la police » et«policer les médias », ce livre étudie l'imaginaire social surla police, sa diffusion dans les médias de masse (télévision,presse, affiches, espaces muséaux...) ainsi que le travailcommunicationnel des polices modernes.
Resumo:
Acute exercise increases energy expenditure (EE) during exercise and post-exercise recovery [excess post-exercise oxygen consumption (EPOC)] and therefore may be recommended as part of the multidisciplinary management of obesity. Moreover, chronic exercise (training) effectively promotes an increase in insulin sensitivity, which seems to be associated with increased fat oxidation rates (FORs). The main purpose of this thesis is to investigate 1) FORs and extra-muscular factors (hormones and plasma metabolites) that regulate fat metabolism during acute and chronic exercise; and 2) EPOC during acute post-exercise recovery in obese and severely obese men (class II and III). In the first study, we showed that obese and severely obese men present a lower exercise intensity (Fatmax) eliciting maximal fat oxidation and a lower reliance on fat oxidation at high, but not at low and moderate, exercise intensities compared to lean men. This was most likely related to an impaired muscular capacity to oxidize non-esterified fatty acids (NEFA) rather than decreased plasma NEFA availability or a change in the hormonal milieu during exercise. In the second study, we developed an accurate maximal incremental test to correctly and simultaneously evaluate aerobic fitness and fat oxidation kinetics during exercise in this population. This test may be used for the prescription of an appropriate exercise training intensity. In the third study, we demonstrated that only 2 wk of exercise training [continuous training at Fatmax and adapted high-intensity interval training (HIIT)], matched with respect to mechanical work, may be effective to improve aerobic fitness, FORs during exercise and insulin sensitivity, which suggest that FORs might be rapidly improved and that adapted HIIT is feasible in this population. The increased FORs concomitant with the lack of changes in lipolysis during exercise suggest an improvement in the mismatching between NEFA availability and oxidation, highlighting the importance of muscular (oxidative capacity) rather than extra-muscular (hormones and plasma metabolites) factors in the regulation of fat metabolism after a training program. In the fourth study, we observed a positive correlation between EE during exercise and EPOC, suggesting that a chronic increase in the volume or intensity of exercise may increase EE during exercise and during recovery. This may have an impact in weight management in obesity. In conclusion, these findings might have practical implications for exercise training prescriptions in order to improve the therapeutic approaches in obesity and severe obesity. -- L'exercice aigu augmente la dépense énergétique (DE) pendant l'exercice et la récupération post-exercice [excès de consommation d'oxygène post-exercise (EPOC)] et peut être utilisé dans la gestion multidisciplinaire de l'obésité. Quant à l'exercice chronique (entraînement), il est efficace pour augmenter la sensibilité à l'insuline, ce qui semble être associé à une amélioration du débit d'oxydation lipidique (DOL). Le but de cette thèse est d'étudier 1) le DOL et les facteurs extra-musculaires (hormones et métabolites plasmatiques) qui régulent le métabolisme lipidique pendant l'exercice aigu et chronique et 2) l'EPOC lors de la récupération aiguë post-exercice chez des hommes obèses et sévèrement obèses (classe II et III). Dans la première étude nous avons montré que les hommes obèses et sévèrement obèses présentent une plus basse intensité d'exercice (Fatmax) correspondant au débit d'oxydation lipidique maximale et un plus bas DOL à hautes, mais pas à faibles et modérées, intensités d'exercice comparé aux sujets normo-poids, ce qui est probablement lié à une incapacité musculaire à oxyder les acides gras non-estérifiés (AGNE) plutôt qu'à une diminution de leur disponibilité ou à un changement du milieu hormonal pendant l'exercice. Dans la deuxième étude nous avons développé un test maximal incrémental pour évaluer simultanément l'aptitude physique aérobie et la cinétique d'oxydation des lipides pendant l'exercice chez cette population. Dans la troisième étude nous avons montré que seulement deux semaines d'entraînement (continu à Fatmax et intermittent à haute intensité), appariés par la charge de travail, sont efficaces pour améliorer l'aptitude physique aérobie, le DOL pendant l'exercice et la sensibilité à l'insuline, ce qui suggère que le DOL peut être rapidement amélioré chez cette population. Ceci, en absence de changements de la lipolyse pendant l'exercice, suggère une amélioration de la balance entre la disponibilité et l'oxydation des AGNE, ce qui souligne l'importance des facteurs musculaires (capacité oxydative) plutôt que extra-musculaires (hormones et métabolites plasmatiques) dans la régulation du métabolisme lipidique après un entraînement. Dans la quatrième étude nous avons observé une corrélation positive entre la DE pendant l'exercice et l'EPOC, ce qui suggère qu'une augmentation chronique du volume ou de l'intensité de l'exercice pourrait augmenter la DE lors de l'exercice et lors de la récupération post-exercice. Ceci pourrait avoir un impact sur la gestion du poids chez cette population. En conclusion, ces résultats pourraient avoir des implications pratiques lors de la prescription des entraînements dans le but d'améliorer les approches thérapeutiques de l'obésité et de l'obésité sévère.
Resumo:
L'auteur propose une analyse des travaux de Wallon sur la fonction première des émotions et de ceux de Vygotski sur les instruments psychologiques pour montrer que les émotions peuvent être considérées comme instruments psychologiques. Celles-ci, en cours de développement s'intègrent aux autres fonctions et deviennent ainsi un système expressif, corporel, culturellement marqué, qui accompagne toutes les formes de communication. Ce système expressif constitue une forme d'intelligence spatiale et des situations. Intelligence dont l'expression peut être entravée par différents mécanismes, internes ou externes au sujet. L'exemple des effets des différentes formes d'organisation de travail est ainsi discuté.
Resumo:
Nanopartikel sind sehr kleine Partikel, die gezielt so hergestellt sind, dass ihr Durchmesser kleiner als etwa 100 nm ist. Sie werden in der Industrie eingesetzt, weil Materialien mit solch kleinen Dimensionen oft neue Eigenschaften aufweisen, die sie vom Ursprungsmaterial unterscheidet. Das Potenzial für mögliche Gesundheits- und Umwelteffekte von Nanomaterialien wird zurzeit intensiv diskutiert, denn die möglichen Effekte der neuen Eigenschaften auf Umwelt und Gesundheit sind erst unvollständig geklärt. Für die Abklärung der Risiken ist es wichtig, Informationen über die möglichen Expositionen und mögliche Freisetzungen in die Umwelt zu haben. Bisher wurden aber Daten über eingesetzte Stoffmengen und Materialarten selten systematisch erhoben. Wir haben in der Schweiz eine repräsentative Studie durchgeführt, um den Einsatz von Nanopartikeln im gesamten Industriesektor abschätzen zu können. Diese Studie ist unseres Wissens weltweit die erste solche Studie. Sie verwendete die Definition von Nanopartikeln, welche Nanofasern und Agglomerate von Nanopartikeln mit einschließt. Geschätzte 1.300 Arbeiter in 600 Firmen sind direkt an einer Nanopartikelanwendung beteiligt und könnten somit exponiert werden. Dies sind etwa 0,6% der Firmen und etwa 0,08% der Arbeiter des Schweizer Produktionssektors. Um nun zu bestimmen, ob solche Arbeiter mit Nanopartikel in Kontakt kommen oder nicht, stehen verschiedene Messmethoden zur Verfügung. Die aktuelle Technik erlaubt eine quantitative Messung der Anzahl der Partikel in der Luft, deren Masse oder auch Oberfläche. Diese Messgrößen allein geben zwar Hinweise auf die Präsenz von Nanopartikeln, die möglichen Gesundheitseffekte einer Exposition sind aber erst unvollständig abgeklärt und erlauben keine abschließende Risikoanalyse für den Arbeitsplatz. Mehrere Aktionspläne für die Entwicklung eines sicheren und nachhaltigen Umgangs mit Nanomaterialien wurden in den letzten Jahren gestartet (EU, Schweiz). Internationale und nationale Organisationen entwickelten Guidelines und Empfehlungen für industrielle Anwendungen (Internationale Organisation für Normung - ISO, Schweizerische Unfallversicherungsanstalt - SUVA, Bundesanstalt für Arbeitsschutz und Arbeitsmedizin - BAuA, zusammen mit dem Verband der Chemischen Industrie - VCI). Diese generellen Informationen müssen nun in die Industrie transferiert und an die spezifischen Bedürfnisse der betroffenen Unternehmen angepasst werden. Die aufgezeigte, relativ geringe Verbreitung von Nanopartikelanwendungen in der Industrie weist darauf hin, dass heute Schutzmaßnahmen noch proaktiv und kostengünstig entwickelt und eingeführt werden können. Aber sollte die vorhergesagte "Nano-Revolution" wirklich eintreten, ist die Zeit gekommen, jetzt aktiv zu werden. [Autoren]
Resumo:
La créatine joue un rôle essentiel dans le métabolisme cellulaire par sa conversion, par la creatine kinase, en phosphocreatine permettant la régénération de l'ATP. La synthèse de créatine, chez les mammifères, s'effectue par une réaction en deux étapes impliquant Γ arginine: glycine amidinotransférase (AGAT) et la guanidinoacétate méthyltransférase (GAMT). L'entrée de créatine dans les cellules s'effectue par son transporteur, SLC6A8. Les déficiences en créatine, dues au déficit en GAMT, AGAT ou SLC6A8, sont fréquentes et caractérisées par une absence ou une forte baisse de créatine dans le système nerveux central. Alors qu'il est connu que AGAT, GAMT et SLC6A8 sont exprimés par le cerveau, les conséquences des déficiences en créatine sur les cellules nerveuses sont peu comprises. Le but de ce travail était de développer de nouveaux modèles expérimentaux des déficiences en Cr dans des cultures 3D de cellules nerveuses de rat en agrégats au moyen de l'interférence à l'ARN appliquée aux gènes GAMT et SLC6A8. Des séquences interférentes (shRNAs) pour les gènes GAMT et SLC6A8 ont été transduites par des vecteurs viraux AAV (virus adéno-associés), dans les cellules nerveuses en agrégats. Nous avons ainsi démontré une baisse de l'expression de GAMT au niveau protéique (mesuré par western blot), et ARN messager (mesuré par qPCR) ainsi qu'une variation caractérisitique de créatine et guanidinoacétate (mesuré par spectrométrie de masse). Après avoir validé nos modèles, nous avons montré que les knockdown de GAMT ou SLC6A8 affectent le développement des astrocytes et des neurones ou des oligodendrocytes et des astrocytes, respectivement, ainsi qu'une augmentation de la mort cellulaire et des modifications dans le pattern d'activation des voies de signalisation impliquant caspase 3 et p38 MAPK, ayant un rôle dans le processus d'apoptose. - Creatine plays essential roles in energy metabolism by the interconversion, by creatine kinase, to its phosphorylated analogue, phosphocreatine, allowing the regeneration of ATP. Creatine is synthesized in mammals by a two step mechanism involving arginine:glycine amidinotransferase (AGAT) and guanidinoacetate methyltransferase (GAMT). Creatine is taken up by cells by a specific transporter, SLC6A8. Creatine deficiency syndromes, due to defects in GAMT, AGAT and SLC6A8, are among the most frequent inborn errors of metabolism, and are characterized by an absence or a severe decrease of creatine in central nervous system, which is the main tissue affected. While it is known that AGAT, GAMT and SLC6A8 are expressed in CNS, many questions remain on the specific effects of AGAT, GAMT and SLC6A8 deficiencies on brain cells. Our aim was to develop new experimental models of creatine deficiencies by knockdown of GAMT and SLC6A8 genes by RNAi in 3D organotypic rat brain cell cultures in aggregates. Specific shRNAs for the GAMT and SLC6A8 genes were transduced in brain cell aggregates by adeno-associated viruses (AAV). The AAV-transduced shRNAs were able to efficiently knockdown the expression of our genes of interest, as shown by a strong decrease of protein by western blotting, a decrease of mRNA by qPCR or characteristic variations of creatine and guanidinoacetate by tandem mass spectrometry. After having validated our experimental models, we have also shown that GAMT and SLC6A8 knockdown affected the development of astrocytes and neurons or oligodendrocytes and astrocytes, respectively. We also observed an increase of cell death and variations in activation pattern of caspase 3 and p38 MAPK pathways, involved in apoptosis, in our experimental model.
Resumo:
On a testé la sensibilité présumée aux basses températures de Suncus etruscus, le plus petit mammifère connu. Nourri à profusion, cette espèce a supporté des températures inférieures à 0° C. L'activité de l'animal (=absence du nid) à une température ambiante de 0-10° C s'élève en moyenne de 303min/24 h contre 358 min24 h à des températures de 15°-20° C. Si on retire toute nourriture à la musaraigne étrusque, celle-ci entre en hypothermie réversible et léthargique, de laquelle elle sort de temps en temps à la recherche de nourriture. En léthargie, la température corporelle est d'environ 2° C au dessus de la température ambiante. Avec 1 1/2 à 2 g de nourriture par jour et à la température ambiante de 16° à 18° C, les phases de léthargie durent de 1 1/2 à 2 h avec un maximum de 7 1/2h. En 24 h, un animal insuffisamment nourri montrait une activité totale de 205 min seulement. Pendant 696 min l'animal a dormi en conservant sa température "normale", et pendant 539 min il était en léthargie. L'hypothermie réversible chez un représentant des Soricidae s'explique probablement par une insuffisance de son métabolisme par rapport à sa taille minuscule. Comme les espèces du genre Sorex de taille voisine n'ont pas la possibilité d'entrer en léthargie réversible, cette adaptation particulière peut être considérée comme un indice d'un métabolisme relativement bas chez les Crocidurinae