999 resultados para Choix discrets dynamiques
Resumo:
Introduction générale : D'après une étude réalisée en Suisse en 2004, les entreprises de famille représentent 88,14% des entreprises, dont 80,2% sont constitués en sociétés anonymes. Les chiffres parlent d'eux-mêmes : les sociétés anonymes de famille occupent une place considérable dans le paysage des entreprises suisses. Les sociétés anonymes de famille correspondent donc à une réalité pratique. Juridiquement, la notion de société de famille n'apparaît pas dans le Code des obligations ; les sociétés anonymes de famille revêtent la forme juridique de la société anonyme, qui représente l'entreprise commerciale la plus courante en pratique. Le Code des obligations, à ses art. 620 ss, se limite à donner un cadre général de réglementation, ce qui a notamment pour conséquence que la forme juridique de la société anonyme s'adapte à des entités très variées, dans toutes sortes de secteurs d'activité, que ce soient des petites et moyennes entreprises ou de grandes multinationales, des sociétés capitalistes et impersonnelles ou des sociétés purement privées. Selon la conception générale de la forme juridique de la société anonyme, celle-ci revêt en principe un caractère capitaliste. L'intérêt de l'actionnaire pour la société anonyme est normalement de nature financière. Le fait que la qualité d'actionnaire soit matérialisée dans un titre, l'action, implique tant une certaine liquidité de l'actionnariat qu'une dépersonnalisation des rapports entre les membres qui composent la société anonyme. A l'opposé, la famille repose sur des liens personnels particuliers, étroits, avec notamment des dimensions psychologiques, affectives, émotives. Au premier abord, société anonyme et famille semblent donc antinomiques. Cette dichotomie présente un intérêt dogmatique. Elle correspond en outre à l'un des principaux enjeux : comment tenir compte des intérêts d'une entité fortement personnalisée - la famille - dans une structure impersonnelle et de type capitaliste - la société anonyme ? Le fait que le Code des obligations se limite à donner un cadre général de réglementation prend alors ici toute son importance ; la marge de manoeuvre et la liberté d'aménagement que le législateur accorde aux sociétés anonymes r vont permettre - ou alors empêcher - d'adapter la forme juridique de la société anonyme aux besoins d'une entité personnalisée comme la famille. Cette liberté n'est donc pas sans limites et les membres de la famille devront peut-être aussi assumer les conséquences du choix de cette forme de société. Partant, le but de notre travail est d'étudier les raisons d'être, l'organisation et la pérennité des sociétés anonymes de famille, spécifiquement sous l'angle du maintien du caractère familial de la société. Nous nous concentrerons sur la détention du capital, mais aussi sur sa structure, son maintien et son optimisation ; nous aborderons ainsi notamment les questions relatives à la transmissibilité des actions. Au regard de l'ampleur du sujet, nous avons dû procéder à certains choix, parfois arbitraires, notamment en raison des implications presque infinies des règles avec d'autres domaines. Nous nous limiterons ainsi, dans la première partie, à exposer les notions de base employées dans la suite de notre travail et nous focaliserons sur l'élaboration des définitions d'entreprise, société et société anonyme de famille, prémisses non seulement essentielles sous l'angle théorique, mais aussi fondamentales pour nos développements ultérieurs. S'agissant ensuite de l'analyse des possibilités d'aménagement d'une société anonyme dans le cadre du maintien du caractère familial de la société, nous nous concentrerons sur les règles relatives à la société anonyme et étudierons les limites qu'elles imposent et la liberté qu'elles offrent aux actionnaires familiaux. Nous laisserons en revanche de côté les problématiques particulières de la protection des actionnaires minoritaires et des organes. Enfin, si nous traitons toutes les notions théoriques nécessaires à la compréhension de chaque thématique présentée, seules celles primordiales et déterminantes sous l'angle de la conservation de l'hégémonie familiale seront approfondies. Nous avons structuré notre étude en quatre titres. Dans un premier titre, nous développerons les notions et principes élémentaires de notre sujet. Nous rappellerons ainsi la définition et les particularités de la société anonyme en général, y compris les sources et les modifications législatives, et les conditions de la cotation en bourse. Au stade des notions introductives, nous devrons également définir la société anonyme de famille, en particulier en établissant les éléments de la définition. Qu'entend-on par famille ? Quels critères permettent de qualifier une société anonyme de « société anonyme de famille » ? La définition de la société anonyme de famille devra être à la fois suffisamment précise, afin que cette notion puisse être appréhendée de manière adéquate pour la suite de notre travail, et suffisamment large, pour qu'elle englobe toute la variété des sociétés anonymes de famille. Nous présenterons aussi les raisons du choix de la forme juridique de la société anonyme pour une société de famille. Nous terminerons nos développements introductifs par un exposé relatif à la notion d'action et à son transfert en sa qualité de papier-valeur, préalables nécessaires à nos développements sur la transmissibilité des actions. Nous mettrons ainsi en évidence les conditions de transfert des actions, en tenant compte de la tendance à la dématérialisation des titres. Une fois ces éléments mis en place, qui nous donneront une première idée de la structure du capital d'une société anonyme de famille, nous devrons préciser la manière dont le capital doit être structuré. Nous chercherons comment il peut être maintenu en mains de la famille et si d'autres moyens n'ayant pas directement trait au capital peuvent être mis en oeuvre. Ainsi, dans un deuxième titre, nous analyserons les dispositions statutaires relatives à la structure du capital et à son maintien en mains familiales, en particulier les restrictions au transfert des actions nominatives. Les dispositions statutaires constituent-elles un moyen adéquat pour maintenir le caractère familial de la société ? Quelles sont les conditions pour limiter le transfert des actions ? Le caractère familial de la société peut-il être utilisé afin de restreindre le transfert des actions ? Les solutions sont-elles différentes si les actions sont, en tout ou en partie, cotées en bourse ? Nous traiterons aussi, dans ce même titre, les modalités du droit de vote et déterminerons si des dispositions statutaires peuvent être aménagées afin de donner plus de voix aux actions des membres de la famille et ainsi d'optimiser la détention du capital. Nous examinerons, dans notre troisième titre, un acte qui a trait à la fois au droit des contrats et au droit de la société anonyme, la convention d'actionnaires. En quoi consistent ces contrats ? Quels engagements les actionnaires familiaux peuvent-ils et doivent-ils prendre ? Quelle est l'utilité de ces contrats dans les sociétés anonymes de famille ? Quelles en sont les limites ? Les clauses conventionnelles peuvent-elles être intégrées dans les statuts ? Comment combiner les différentes clauses de la convention entre elles ? Dans ce même titre, nous étudierons également la concrétisation et la mise en application des dispositions statutaires et des clauses conventionnelles, afin de déterminer si, combinées, elles constituent des moyens adéquats pour assurer la structure, le maintien et l'optimisation de la détention du capital. Enfin, dans le quatrième et dernier titre, qui est davantage conçu comme un excursus, nous nous éloignerons du domaine strict du droit des sociétés (et des contrats) pour envisager certains aspects matrimoniaux et d'ordre successoral. En effet, puisque la famille est à la base de la société, il convient de relever l'importance des règles matrimoniales et successorales pour les sociétés anonymes de famille et leur incidence sur la détention des actions et le maintien du caractère familial de la société. Nous examinerons en particulier comment ces instruments doivent être utilisés pour qu'ils n'annihilent pas les efforts entrepris pour conserver la société en mains familiales. Notre travail a pour but et pour innovation de présenter une analyse transversale aussi complète que possible du droit de la société anonyme et des instruments connexes en étudiant les moyens à disposition des actionnaires d'une société anonyme de type personnel, la société anonyme de famille. Il tentera ainsi d'apporter une approche théorique nouvelle de ces questions, de présenter certains aspects de manière pragmatique, d'analyser la mise en oeuvre des différents moyens étudiés et de discuter leur opportunité.
Resumo:
Summary : With regard to exercise metabolism, lactate was long considered as a dead-end waste product responsible for muscle fatigue and a limiting factor for motor performance. However, a large body of evidence clearly indicates that lactate is an energy efficient metabolite able to link the glycolytic pathway with aerobic metabolism and has endocrine-like actions, rather than to be a dead-end waste product. Lactate metabolism is also known to be quickly upregulated by regular endurance training and is thought to be related to exercise performance. However, to what extent its modulation can increase exercise performance in already endurance-trained subjects is unknown. The general hypothesis of this work was therefore that increasing either lactate metabolic clearance rate or lactate availability could, in turn, increase endurance performance. The first study (Study I) aimed at increasing the lactate clearance rate by means of assumed interaction effects of endurance training and hypoxia on lactate metabolism and endurance performance. Although this study did not demonstrate any interaction of training and hypoxia on both lactate metabolism and endurance performance, a significant deleterious effect of endurance training in hypoxia was shown on glucose homeostasis. The methods used to determine lactate kinetics during exercise exhibited some limitations, and the second study did delineate some of the issues raised (Study 2). The third study (Study 3) investigated the metabolic and performance effects of increasing plasma lactate production and availability during prolonged exercise in the fed state. A nutritional intervention was used for this purpose: part of glucose feedings ingested during the control condition was substituted by fructose. The results of this study showed a significant increase of lactate turnover rate, quantified the metabolic fate of fructose; and demonstrated a significant decrease of lipid oxidation and glycogen breakdown. In contrast, endurance performance appeared to be unmodified by this dietary intervention, being at odds with recent reports. Altogether the results of this thesis suggest that in endurance athletes the relationship between endurance performance and lactate turnover rate remains unclear. Nonetheless, the result of the present study raises questions and opens perspectives on the rationale of using hypoxia as a therapeutic aid for the treatment of insulin resistance. Moreover, the results of the second study open perspectives on the role of lactate as an intermediate metabolite and its modulatory effects on substrate metabolism during exercise. Additionally it is suggested that the simple nutritional intervention used in the third study can be of interest in the investigation on the aforementioned roles of lactate. Résumé : Lorsque le lactate est évoqué en rapport avec l'exercice, il est souvent considéré comme un déchet métabolique responsable de l'acidose métabolique, de la fatigue musculaire ou encore comme un facteur limitant de la performance. Or la littérature montre clairement que le lactate se révèle être plutôt un métabolite utilisé efficacement par de nombreux tissus par les voies oxydatives et, ainsi, il peut être considéré comme un lien entre le métabolisme glycolytique et le métabolisme oxydatif. De plus on lui prête des propriétés endocrines. Il est connu que l'entraînement d'endurance accroît rapidement le métabolisme du lactate, et il est suggéré que la performance d'endurance est liée à son métabolisme. Toutefois la relation entre le taux de renouvellement du lactate et la performance d'endurance est peu claire, et, de même, de quelle manière la modulation de son métabolisme peut influencer cette dernière. Le but de cette thèse était en conséquence d'investiguer de quelle manière et à quel degré l'augmentation du métabolisme du lactate, par l'augmentation de sa clearance et de son turnover, pouvait à son tour améliorer la performance d'endurance de sujets entraînés. L'objectif de la première étude a été d'augmenter la clearance du lactate par le biais d'un entraînement en conditions hypoxiques chez des cyclistes d'endurance. Basé sur la littérature scientifique existante, on a fait l'hypothèse que l'entraînement d'endurance et l'hypoxie exerceraient un effet synergétique sur le métabolisme du lactate et sur la performance, ce qui permettrait de montrer des relations entre performance et métabolisme du lactate. Les résultats de cette étude n'ont montré aucun effet synergique sur la performance ou le métabolisme du lactate. Toutefois, un effet délétère sur le métabolisme du glucose a été démontré. Quelques limitations de la méthode employée pour la mesure du métabolisme du lactate ont été soulevées, et partiellement résolues dans la seconde étude de ce travail, qui avait pour but d'évaluer la sensibilité du modèle pharmacodynamique utilisé pour le calcul du turnover du lactate. La troisième étude a investigué l'effet d'une augmentation de la lactatémie sur le métabolisme des substrats et sur la performance par une intervention nutritionnelle substituant une partie de glucose ingéré pendant l'exercice par du fructose. Les résultats montrent que les composants dynamiques du métabolisme du lactate sont significativement augmentés en présence de fructose, et que les oxydations de graisse et de glycogène sont significativement diminuées. Toutefois aucun effet sur la performance n'a été démontré. Les résultats de ces études montrent que la relation entre le métabolisme du lactate et la performance reste peu claire. Les résultats délétères de la première étude laissent envisager des pistes de travail, étant donné que l'entraînement en hypoxie est considéré comme outil thérapeutique dans le traitement de pathologies liées à la résistance à l'insuline. De plus les résultats de la troisième étude ouvrent des perspectives de travail quant au rôle du lactate comme intermédiaire métabolique durant l'exercice ainsi que sur ses effets directs sur le métabolisme. Ils suggèrent de plus que la manipulation nutritionnelle simple qui a été utilisée se révèle être un outil prometteur dans l'étude des rôles et effets métaboliques que peut revêtir le lactate durant l'exercice.
Resumo:
Introduction¦La dépression est une maladie fréquente à travers le monde. D'un point de vue épidémiologique, une différence entre hommes et femmes a été observée, un diagnostic de dépression étant attribué à deux fois plus de femmes que d'hommes. Le médecin de famille est souvent le premier¦professionnel sollicité face à une dépression, cependant un grand nombre patients atteints de dépression consultent leur médecin de famille pour une plainte physique.¦Objectifs et méthodes¦L'objectif de ce travail est de déterminer s'il existe une différence entre hommes et femmes dans la prévalence de la dépression dépistée chez des patients consultant leur médecin de famille exclusivement pour une plainte d'ordre physique en Suisse romande. Afin d'y parvenir, nous avons effectué une sous-analyse de l'étude SODA (SOmatoform, Depression, Anxiety dont nous disposons de la base de données). Il s'agit d'une étude menée en Suisse romande qui a pour but de d'évaluer la prévalence des troubles anxieux, dépressif et somatoforme, à une année d'intervalle, chez des patients consultant leur médecin de famille exclusivement pour une plainte physique. Le Patient Health Questionnaire (PHQ) est le questionnaire utilisé dans l'étude SODA afin de déterminer le diagnostic de dépression.¦Résultats¦L'analyse statistique effectuée n'a pas permis de mettre en évidence une différence entre hommes et femmes dans la prévalence de la dépression au sein de l'étude SODA, que ce soit au moment de¦l'inclusion (t0, p=0.764), à une année d'intervalle (t1, p=0.9) ou dans l'évolution de la dépression.¦Conclusion¦Nous nous attendions à trouver une différence significative dans la prévalence de la dépression avec¦une prépondérance féminine comme le suggère la littérature. L'absence de différence significative¦entre hommes et femmes dans la prévalence de la dépression au sein de l'étude SODA pourrait provenir de certaines modalités de l'étude telles que le PHQ par exemple et du choix de ne considérer que les patients se présentant pour une plainte somatique. Ceci a peut être contribué à une meilleure détection de la dépression chez les hommes et ceci, peut-être, au détriment des femmes.
Resumo:
Contexte : l'adolescence est une période de transition au cours de laquelle l'enfant développe les capacités physiques et cognitives qui lui permettent de s'intégrer au monde adulte et qui se caractérise notamment par une prise de risque, une grande impulsivité et une constante recherche de sensations. Bien que des déterminants sociaux et familiaux entrent en jeu dans ce domaine, il y a également une composante neurobiologique importante. Les avancées techniques dans le domaine de l'imagerie ont permis de mettre en évidence plusieurs changements structurels à l'adolescence tels qu'un remodelage de la matière grise avec une perte de synapses plus ou moins importante selon la région observée et une augmentation de la myélinisation. En outre, le développement cérébral n'est pas uniforme dans le temps. En effet, la maturation du cortex préfrontal est ultérieure au développement du système limbique. Cet asynchronisme pourrait expliquer l'impulsivité des adolescents (consécutive à l'immaturité du cortex préfrontal) et leur comportement de recherche de sensation et/ou de prise de risque (consécutif au développement précoce du noyau accumbens notamment). Ces régions font également partie intégrante du système de récompense et modulent la motivation pour des récompenses naturelles et non-‐naturelles, comme l'alcool et d'autres drogues. L'émergence d'une consommation d'alcool excessive est justement préoccupante chez les adolescents. En 2007, l'étude ESPAD (The European School Survey Project On Alcohol and Other Drugs) menée auprès de jeunes de 15 à 16 ans relève que 41% des jeunes questionnées ont régulièrement bu jusqu'à l'ivresse dans les 12 mois précédant l'entretien. Les conséquences neuropsychologiques à long terme de ce comportement de « binge-‐drinking » commencent à alarmer le corps médical, mais l'interrogation demeure sur les risques de ce type de comportement vis-‐à-‐vis du développement d'un alcoolisme chronique à l'âge adulte. Objectifs du travail : en s'appuyant sur une revue de la littérature, ce travail a pour objectif d'expliquer les comportements qui émergent à l'adolescence à la lumière des modifications neurobiologiques qui s'opèrent durant cette période critique. Au niveau expérimental, nous proposons d'évaluer la propension de rats juvéniles exposés précocement à de l'alcool à développer un comportement d'abus de consommation d'alcool à l'âge adulte en comparaison avec un groupe contrôle. Dans un deuxième temps nous souhaitons déterminer la propension des rats exposés précocement à de l'alcool à montrer une préférence pour l'alcool par rapport à la saccharine, puis par rapport à de l'eau en comparaison au groupe contrôle. Méthode : nous comparons deux groupes de rongeurs adolescents (âgés de 32 jours à 67 jours). Le groupe test (groupe E, n=8), qui est exposé par un accès ad libitum à une solution d'éthanol 10 % contenant de la saccharine 0.2%, ceci afin de limiter l'aspect gustatif aversif de l'éthanol. Et le groupe témoin (groupe S, n=8), qui est exposé par un accès ad libitum à une solution de saccharine 0.2%. Ce conditionnement se fait sur 13 semaines. Une fois atteinte l'âge adulte, les animaux sont ensuite entraînés à appuyer sur un levier afin de recevoir de l'éthanol (0,1 ml d'une solution à 10%). Nous nous proposons d'évaluer la quantité d'alcool ainsi consommée, puis la motivation des animaux pour obtenir de l'éthanol et enfin leur capacité de résistance à un choc électrique non douloureux mais aversif, lorsque celui-‐ci est associé à l'éthanol. Enfin, nous évaluerons, via un paradigme de choix à deux leviers, la propension des animaux à choisir de consommer volontairement de l'éthanol quand ils ont le choix entre de l'éthanol 10% et une solution de saccharine à différentes concentrations, puis entre de l'éthanol 10% et de l'eau. Résultats : la phase de tests de comportements à risque d'abus ne permet pas de mettre en évidence une différence significative entre les deux groupes. La phase de test de choix montre une diminution significative du pourcentage d'appuis sur le levier associé à la saccharine avec la diminution de la concentration de saccharine pour les deux groupes. Le groupe S a un pourcentage d'appuis sur le levier associé à l'éthanol significativement plus important que les rats du groupe E et a tendance à préférer l'éthanol pour une concentration de saccharine plus grande que le groupe E. Le groupe S montre également une préférence significative pour l'éthanol quand il n'a plus que le choix avec l'eau alors que le groupe E ne montre pas de préférence. Conclusions : chez des rats élevés dans les mêmes conditons, la consommation précoce d'éthanol n'est pas un facteur de risque de comportements d'abus de consommation d'alcool à l'âge adulte. Cependant un phénomène dit de « sensiblisation croisée » entre le goût sucrée et l'éthanol a été soulevé au cours de cette étude permettant de se questionner sur l'impact d'une consommation intermittente de substances au goût sucré à l'adolescence sur la consommation d'alcool à l'âge adulte.
Resumo:
[Table des matières] 1. Zusammenfassung. 2. Introduction et contexte de l'étude. 3. Méthode. 4. Besoins des personnes vivant avec le VIH/sida, amis et partenaires. 5. Etudes donnant des indications sur certaines catégories de besoins des personnes séropositives. 5.1.Programme national VIH/sida de 1999 à 2003. 5. 2. Test de dépistage du VIH. 5.3. Prophylaxie post exposition VIH (PEP). 5.4. La sexualité des personnes vivant avec le VIH/sida. 5.5. Discriminations institutionnelles à l'encontre des personnes vivant avec le VIH en Suisse. 5.6. Evaluation de la stratégie de prévention du sida en Suisse sur mandat de l'Office fédéral de la santé publique : sixième rapport de synthèse. 5.7. Activité de prévention du sida des médecins de premier recours, le counselling pré-test. 5.8. Comparaison 1989/1997 : est-ce que l'amélioration du traitement médical se répercute aussi sur la perception des patients de leur maladie ? 5.9. Histoires individuelles avec le VIH, bien-être psychophysique, coping, charge psychosociale. 5.10. Etude médico-ethnologique sur la prise en charge et les choix thérapeutiques. 5.11. Qualité des soins d'un service ambulatoire spécialisé dans le suivi des patients infectés par le VIH, le point de vue des patients. 5.12. Prévention de la transmission du VIH dans les prisons suisses : analyse secondaire sur la base de la littérature disponible. 5. 13. Recommandations. 5.14. Formation VIH/sida 1989-1999. 5.15. Etude sur les nouveaux traitements du VIH/sida dans la perspective des patients. 5.16. Projet SESAM. 5.17. Etude : Evaluation du site HivNet. 5.18. Etudes relatives à la paupérisation des personnes vivant avec le VIH. 5.19. Travail, revenu et pauvreté chez les personnes vivant avec le VIH/sida de la "Swiss Cohort Study". 5.20. Séropositivité, sida et les assurances sociales. 5.21. Politiques et pratqieus cantonales en matière de prévention VIH/sida et d'éducation sexuelle à l'école. 5.22. Données épidémiologiques sur le VIH/sida issues du système de surveillance. 5.23. Données descriptives issues de la Swiss HIV Cohort Study. 6. Tableau récapitulatif : conclusions et recommandations.
Resumo:
Summary Cell therapy has emerged as a strategy for the treatment of various human diseases. Cells can be transplanted considering their morphological and functional properties to restore a tissue damage, as represented by blood transfusion, bone marrow or pancreatic islet cells transplantation. With the advent of the gene therapy, cells also were used as biological supports for the production of therapeutic molecules that can act either locally or at distance. This strategy represents the basis of ex vivo gene therapy characterized by the removal of cells from an organism, their genetic modification and their implantation into the same or another individual in a physiologically suitable location. The tissue or biological function damage dictates the type of cells chosen for implantation and the required function of the implanted cells. The general aim of this work was to develop an ex vivo gene therapy approach for the secretion of erythropoietin (Epo) in patients suffering from Epo-responsive anemia, thus extending to humans, studies previously performed with mouse cells transplanted in mice and rats. Considering the potential clinical application, allogeneic primary human cells were chosen for practical and safety reasons. In contrast to autologous cells, the use of allogeneic cells allows to characterize a cell lineage that can be further transplanted in many individuals. Furthermore allogeneic cells avoid the potential risk of zoonosis encountered with xenogeneic cells. Accordingly, the immune reaction against this allogeneic source was prevented by cell macro- encapsulation that prevents cell-to-cell contact with the host immune system and allows to easy retrieve the implanted device. The first step consisted in testing the survival of various human primary cells that were encapsulated and implanted for one month in the subcutaneous tissue of immunocompetent and naturally or therapeutically immunodepressed mice, assuming that xenogeneic applications constitute a stringent and representative screening before human transplantation. A fibroblast lineage from the foreskin of a young donor, DARC 3.1 cells, showed the highest mean survival score. We have then performed studies to optimize the manufacturing procedures of the encapsulation device for successful engraftment. The development of calcifications on the polyvinyl alcohol (PVA) matrix serving as a scaffold for enclosed cells into the hollow fiber devices was reported after one month in vivo. Various parameters, including matrix rinsing solutions, batches of PVA and cell lineages were assessed for their respective role in the development of the phenomenon. We observed that the calcifications could be totally prevented by using ultra-pure sterile water instead of phosphate buffer saline solution in the rinsing procedure of the PVA matrix. Moreover, a higher lactate dehydrogenase activity of the cells was found to decrease calcium depositions due to more acidic microenvironment, inhibiting the calcium precipitation. After the selection of the appropriate cell lineage and the optimization of encapsulation conditions, a retroviral-based approach was applied to DARC 3.1 fibroblasts for the transduction of the human Epo cDNA. Various modifications of the retroviral vector and the infection conditions were performed to obtain clinically relevant levels of human Epo. The insertion of a post-transcriptional regulatory element from the woodchuck hepatitis virus as well as of a Kozak consensus sequence led to a 7.5-fold increase in transgene expression. Human Epo production was further optimized by increasing the multiplicity of infection and by selecting high producer cells allowing to reach 200 IU hEpo/10E6 cells /day. These modified cells were encapsulated and implanted in vivo in the same conditions as previously described. All the mouse strains showed a sustained increase in their hematocrit and a high proportion of viable cells were observed after retrieval of the capsules. Finally, in the perspective of human application, a syngeneic model using encapsulated murine myoblasts transplanted in mice was realized to investigate the roles of both the host immune response and the cells metabolic requirements. Various loading densities and anti-inflammatory as well as immunosuppressive drugs were studied. The results showed that an immune process is responsible of cell death in capsules loaded at high cell density. A supporting matrix of PVA was shown to limit the cell density and to avoid early metabolic cell death, preventing therefore the immune reaction. This study has led to the development of encapsulated cells of human origin producing clinically relevant amounts of human EPO. This work resulted also to the optimization of cell encapsulation technical parameters allowing to begin a clinical application in end-stage renal failure patients. Résumé La thérapie cellulaire s'est imposée comme une stratégie de traitement potentiel pour diverses maladies. Si l'on considère leur morphologie et leur fonction, les cellules peuvent être transplantées dans le but de remplacer une perte tissulaire comme c'est le cas pour les transfusions sanguines ou les greffes de moelle osseuse ou de cellules pancréatiques. Avec le développement de la thérapie génique, les cellules sont également devenues des supports biologiques pour la production de molécules thérapeutiques. Cette stratégie représente le fondement de la thérapie génique ex vivo, caractérisée par le prélèvement de cellules d'un organisme, leur modification génétique et leur implantation dans le même individu ou dans un autre organisme. Le choix du type de cellule et la fonction qu'elle doit remplir pour un traitement spécifique dépend du tissu ou de la fonction biologique atteintes. Le but général de ce travail est de développer .une approche par thérapie génique ex vivo de sécrétion d'érythropoïétine (Epo) chez des patients souffrant d'anémie, prolongeant ainsi des travaux réalisés avec des cellules murines implantées chez des souris et des rats. Dans cette perpective, notre choix s'est porté sur des cellules humaines primaires allogéniques. En effet, contrairement aux cellules autologues, une caractérisation unique de cellules allogéniques peut déboucher sur de nombreuses applications. Par ailleurs, l'emploi de cellules allogéniques permet d'éviter les riques de zoonose que l'on peut rencontrer avec des cellules xénogéniques. Afin de protéger les cellules allogéniques soumises à une réaction immunitaire, leur confinement dans des macro-capsules cylindriques avant leur implantation permet d'éviter leur contact avec les cellules immunitaires de l'hôte, et de les retrouver sans difficulté en cas d'intolérance ou d'effet secondaire. Dans un premier temps, nous avons évalué la survie de différentes lignées cellulaires humaines primaires, une fois encapsulées et implantées dans le tissu sous-cutané de souris, soit immunocompétentes, soit immunodéprimées naturellement ou par l'intermédiaire d'un immunosuppresseur. Ce modèle in vivo correspond à des conditions xénogéniques et représente par conséquent un environnement de loin plus hostile pour les cellules qu'une transplantation allogénique. Une lignée fibroblastique issue du prépuce d'un jeune enfant, nommée DARC 3 .1, a montré une remarquable résistance avec un score de survie moyen le plus élevé parmi les lignées testées. Par la suite, nous nous sommes intéressés aux paramètres intervenant dans la réalisation du système d'implantation afin d'optimaliser les conditions pour une meilleure adaptation des cellules à ce nouvel environnement. En effet, en raison de l'apparition, après un mois in vivo, de calcifications au niveau de la matrice de polyvinyl alcohol (PVA) servant de support aux cellules encapsulées, différents paramètres ont été étudiés, tels que les procédures de fabrication, les lots de PVA ou encore les lignées cellulaires encapsulées, afin de mettre en évidence leur rôle respectif dans la survenue de ce processus. Nous avons montré que l'apparition des calcifications peut être totalement prévenue par l'utilisation d'eau pure au lieu de tampon phosphaté lors du rinçage des matrices de PVA. De plus, nous avons observe qu'un taux de lactate déshydrogénase cellulaire élevé était corrélé avec une diminution des dépôts de calcium au sein de la matrice en raison d'un micro-environnement plus acide inhibant la précipitation du calcium. Après sélection de la lignée cellulaire appropriée et de l'optimisation des conditions d'encapsulation, une modification génétique des fibroblastes DARC 3.1 a été réalisée par une approche rétrovirale, permettant l'insertion de l'ADN du gène de l'Epo dans le génome cellulaire. Diverses modifications, tant au niveau génétique qu'au niveau des conditions d'infection, ont été entreprises afin d'obtenir des taux de sécrétion d'Epo cliniquement appropriés. L'insertion dans la séquence d'ADN d'un élément de régulation post¬transcriptionnelle dérivé du virus de l'hépatite du rongeur (« woodchuck ») ainsi que d'une séquence consensus appelée « Kozak » ont abouti à une augmentation de sécrétion d'Epo 7.5 fois plus importante. De même, l'optimisation de la multiplicité d'infection et la sélection plus drastique des cellules hautement productrices ont permis finalement d'obtenir une sécrétion correspondant à 200 IU d'Epo/10E6 cells/jour. Ces cellules génétiquement modifiées ont été encapsulées et implantées in vivo dans les mêmes conditions que celles décrites plus haut. Toutes les souris transplantées ont montré une augmentation significative de leur hématocrite et une proportion importante de cellules présentait une survie conservée au moment de l'explantation des capsules. Finalement, dans la perspective d'une application humaine, un modèle syngénique a été proposé, basé sur l'implantation de myoblastes murins encapsulés dans des souris, afin d'investiguer les rôles respectifs de la réponse immunitaire du receveur et des besoins métaboliques cellulaires sur leur survie à long terme. Les cellules ont été encapsulées à différentes densités et les animaux transplantés se sont vus administrer des injections de molécules anti-inflammatoires ou immunosuppressives. Les résultats ont démontré qu'une réaction immunologique péri-capsulaire était à la base du rejet cellulaire dans le cas de capsules à haute densité cellulaire. Une matrice de PVA peut limiter cette densité et éviter une mort cellulaire précoce due à une insuffisance métabolique et par conséquent prévenir la réaction immunitaire. Ce travail a permis le développement de cellules encapsulées d'origine humaine sécrétant des taux d'Epo humaine adaptés à des traitements cliniques. De pair avec l'optimalisation des paramètres d'encapsulation, ces résultats ont abouti à l'initiation d'une application clinique destinée à des patients en insuffisance rénale terminale.
Resumo:
L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.
Resumo:
Résumé de la thèseLe présent travail analyse la notion d'autonomie en éthique biomédicale et en propose unecompréhension à partir des théories de la délibération éthique. La thèse s'articule en deux parties.La première partie consiste en l'examen de la conception de l'autonomie développée en éthiquebiomédicale. Notamment, on retrace les origines de la notion de l'autonomie du patient dans lecontexte états-unien, on analyse l'élaboration de l'autonomie sous la forme de principe éthique, etl'on considère les critiques qui lui ont été adressées. Cette première partie débouche sur la thèsesuivante: en éthique biomédicale, l'autonomie est pensée comme un outil pour la légitimation deschoix, des pratiques, ou des politiques de santé, non pas comme réflexion critique sur les raisonspour agir ou sur les conditions des choix. Le risque est que l'autonomie se réduise à un dispositif dereproduction des normes et des conditions de l'interaction, sans pour autant remettre en discussionla rationalité médicale qui prédispose les options de choix et qui justifie les pratiques et lespolitiques dans le contexte du soin. Cette conception de l'autonomie présuppose une théorie de ladélibération éthique «en troisième personne». Selon cette théorie, la délibération consiste en uneprise de distance du point de vue subjectif de l'agent, pour assumer un point de vue plus objectif: lepoint de vue d'un «spectateur» impartial. Ainsi, le but de la délibération éthique est l'élaboration deraisons morales objectives, partageables par toute personne raisonnable, pouvant générer unconsensus sur la justification des actions. Cette théorie de la délibération a une implicationimportante pour la conception de l'autonomie en éthique biomédicale: l'autonomie est représentéecomme un principe moral partageable, comme le résultat d'un processus d'abstraction réflexive.Selon une théorie de la délibération éthique différente, que l'on appelle «en première personne», onpeut apprécier la valeur de l'autonomie seulement du point de vue de l'«agent». Ainsi, l'autonomieest la véritable modalité de la délibération éthique, dont le but est la constitution de soi-même, deson intégrité et identité morale. Dans ce travail, on s'est donc demandé si et comment cette manièrede concevoir la délibération du point de vue de l'agent peut apporter quelque chose à lacompréhension de la valeur de l'autonomie personnelle en éthique biomédicale.La deuxième partie de la thèse explore deux modèles de l'autonomie en première personnedéveloppés dans le débat philosophique plus récent: le modèle «hiérarchique» et le modèle«constructiviste kantien». Les deux modèles débouchent sur une compréhension «monologique» del'autonomie, qui est centrée sur l'agent et qui ne tient pas suffisamment compte du contexterelationnel du soin. Pour apprécier la valeur de l'autonomie dans les relations intersubjectives il fautadopter une perspective différente, que l'on appelle «en deuxième personne». Selon cette théorie, ladélibération est un dialogue entre les agents et l'autonomie est issue d'une relation de respect etreconnaissance réciproque. Comme l'autonomie est toujours issue d'une relation de réciprocité,comme elle est essentiellement relationnelle, elle n'est pas une entreprise simplement singulièremais toujours et inévitablement plurielle, collective. Ainsi, l'autonomie peut représenter un idéalnon seulement personnel mais aussi public. Il s'agit d'un idéal qu'on peut adopter dans nos relationsréciproques, un idéal normatif qui nous demande d'interroger la praticabilité de l'autonomie, c'est-àdired'identifier les sources de sa vulnérabilité. Cette vulnérabilité se situe à trois niveaux: au niveaudes relations interpersonnelles, au niveau des pratiques et des institutions, et au niveau des liensd'appartenance à des communautés culturelles ou à des groupes sociaux, qui contribuent à définirles relations réciproques et donc l'exercice de l'autonomie. Ces trois sources de vulnérabilité del'autonomie se retrouvent, toutes les trois, dans le contexte du soin. Selon cette conception del'autonomie, le but de la délibération n'est ni l'élaboration des raisons objectives, ni simplement laconstitution de sa propre identité ou intégrité, quant plutôt la construction de notre monde social.Ainsi, l'autonomie est quelque chose dont on est responsables, quelque chose qui nous engage àentrer en dialogue avec l'autre comme interlocuteurs dans une communauté morale.
Resumo:
Pratique verbale à la fois familière et fondamentale dans les sociétés démocratiques contemporaines, le débat reste paradoxalement peu connu et peu étudié en tant que tel. L'ouvrage propose de plonger au coeur de cette pratique et d'opérer ce travail à deux niveaux étroitement articulés. À un niveau théorique, le débat pose certaines questions aux sciences du langage et à la sociologie de l'action. L'auteur s'attache à y répondre en approchant les pratiques verbales à l'articulation des perspectives textuelle (problématique de l'enchaînement des énoncés) et interactionnelle (problématique des dynamiques au travers desquelles les agents gèrent leur relation). Le caractère multimodal de ces pratiques est également considéré, qu'il s'agisse de l'articulation oral-écrit, du lien entre parole et mimo-gestualité ou encore de la répartition des participants dans l'espace. À un niveau pratique, la spécificité du débat repose sur certains observables qu'il s'agit d'identifier et de décrire et qui permettent de distinguer le débat d'autres formes de comportement, telles que l'anecdote, la discussion ou la dispute. Par l'analyse de nombreux exemples tirés d'interactions publiques, l'ouvrage montre en quoi la pratique de l'argumentation et l'inscription langagière de certaines identités apparaissent comme les deux ressources fondamentales d'accomplissement et de reconnaissance de la pratique du débat.
Resumo:
RESUME DE THESEUne majorité d'abolitions dans le Nouveau Monde (1777-1888) donne lieu à l'octroi d'indemnités aux propriétaires d'esclaves. Si cet aspect des émancipations n'a pas retenu l'attention des spécialistes jusqu'à présent, il s'agit d'un phénomène récurrent dans les Amériques. L'étude globale de la question de l'indemnité par l'examen des objectifs d'une telle mesure, de ses enjeux, ainsi que de son coût pour les Etats concernés, constitue ainsi l'ambition de cette recherche.L'originalité de la démarche adoptée réside dans le choix de la comparaison comme mode d'investigation et dans la sélection des débats parlementaires comme sources de travail. Une scène d'investigation sur deux niveaux a été construite. Les processus d'indemnisation britannique et français - jugés les plus représentatifs - ont été traités par le biais de sources, les autres cas par la littérature secondaire. Les discussions tenues de 1788 à 1848 aux Chambres des Communes et des députés ont été isolées comme bases d'investigation.Cette recherche démontre que la question de l'indemnité - bien que délaissée par les historiens qui ne l'ont pas perçue comme telle - constitue une cheville ouvrière d'une émancipation. Bien plus, l'étude du thème de l'indemnité - mesure s'inscrivant dans le concept d'économie morale - élargit l'angle de vue au-delà des seuls enjeux d'une abolition jusqu'à présent privilégiés. Outre des facteurs juridiques et économiques, des éléments sociaux et politiques doivent en effet être considérés, qui permettent de mieux cerner - par le biais de l'indemnité - la problématique complexe d'une abolition.
Resumo:
L' évaluation quantitative des dangers et des expositions aux nanomatériaux se heurte à de nombreuses incertitudes qui ne seront levées qu'à mesure de la progression des connaissances scientifiques de leurs propriétés. L' une des conséquences de ces incertitudes est que les valeurs limites d'exposition professionnelle définies actuellement pour les poussières ne sont pas nécessairement pertinentes aux nanomatériaux. En l'absence de référentiel quantitatif et, à la demande de la DGS pour éclairer les réflexions de l' AFNOR et de l'ISO sur le sujet, une démarche de gestion graduée des risques (control banding) a été élaborée au sein de l' Anses. Ce développement a été réalisé à l'aide d'un groupe d'experts rapporteurs rattaché au Comité d'experts spécialisés évaluation des risques liés aux agents physiques, aux nouvelles technologies et aux grands aménagements. La mise en oeuvre de la démarche de gestion graduée des risques proposée repose sur quatre grandes étapes: 1. Le recueil des informations. Cette étape consiste à réunir les informations disponibles sur les dangers du nanomatériau manufacturé considéré ; ainsi que sur l'exposition potentielle des personnes aux postes de travail (observation sur le terrain, mesures, etc.). 2. L'attribution d'une bande de danger. Le danger potentiel du nanomatériau manufacturé présent, qu'il soit brut où incorporé dans une matrice (liquide ou solide) est évalué dans cette étape. La bande danger attribuée tient compte de la dangerosité du produit bulk ou de sa substance analogue à l'échelle non-nanométrique, de la bio-persistance du matériau (pour les matériaux fibreux), de sa solubilité et de son éventuelle réactivité. 3. Attribution d'une bande d'exposition. La bande d'exposition du nanomatériau manufacturé considéré ou du produit en contenant est définie par le niveau de potentiel d'émission du produit. Elle tient compte de sa forme physique (solide, liquide, poudre aérosol), de sa pulvérulence et de sa volatilité. Le nombre de travailleurs, la fréquence, la durée d'exposition ainsi que la quantité mise en oeuvre ne sont pas pris en compte, contrairement à une évaluation classique des risques chimiques. 4. Obtention d'une bande de maîtrise des risques. Le croisement des bandes de dangers et d'exposition préalablement attribuées permet de défi nir le niveau de maîtrise du risque. Il fait correspondre les moyens techniques et organisationnels à mettre en oeuvre pour maintenir le risque au niveau le plus faible possible. Un plan d'action est ensuite défi ni pour garantir l'effi cacité de la prévention recommandée par le niveau de maîtrise déterminé. Il tient compte des mesures de prévention déjà existantes et les renforce si nécessaire. Si les mesures indiquées par le niveau de maîtrise de risque ne sont pas réalisables, par exemple, pour des raisons techniques ou budgétaires, une évaluation de risque approfondie devra être réalisée par un expert. La gestion graduée des risques est une méthode alternative pour réaliser une évaluation qualitative de risques et mettre en place des moyens de prévention sans recourir à une évaluation quantitative des risques. Son utilisation semble particulièrement adaptée au contexte des nanomatériaux manufacturés, pour lequel les choix de valeurs de référence (Valeurs limites d'exposition en milieu professionnel) et des techniques de mesurage appropriées souffrent d'une grande incertitude. La démarche proposée repose sur des critères simples, accessibles dans la littérature scientifi que ou via les données techniques relatives aux produits utilisés. Pour autant, sa mise en oeuvre requiert des compétences minimales dans les domaines de la prévention des risques chimiques (chimie, toxicologie, etc.), des nanosciences et des nanotechnologies.
Resumo:
L'article présente les étapes de la mise en place d'une veille bibliographique (ou veille scientifique) thématique effectuée conjointement depuis 2005 par 4 institutions francophones du domaine de la santé au travail : l'INRS (France), l'IRSST (Québec), l'IST (Suisse) et l'UCL (Belgique).La thématique suivie est celle de la surveillance biologique de l'exposition aux produits chimiques en milieu de travail. Les données recueillies et mises en forme par les documentalistes servent aux chercheurs spécialistes du sujet non seulement pour suivre les nouveautés du domaine, mais aussi pour documenter des cours et mettre à jour des guides de surveillance biologique. Les différentes étapes de l'approche méthodologique du projet sont décrites : le choix des bases de données à interroger et la mise au point de la stratégie de recherche, la mise en place d'une procédure de partage des tâches pour toutes les étapes du processus de veille qui se répètent à chaque mise à jour (interrogation, création de bases de données avec le logiciel Reference Manager, mise en forme et indexation des références, création et mise à disposition des partenaires des bases de données consolidées au fil du temps avec tous les articles analysés), les moyens administratifs, humains et techniques d'échange de fichiers et les essais pour élargir la veille à la surveillance de pages Web sélectionnées.Un bilan chiffré des six années de la veille est également donné.L'information récoltée et analysée durant les deux dernières années par les partenaires du projet fera l'objet d'un second article axé sur les principales tendances de la thématique choisie.
Resumo:
Introduction: Les données épidémiologiques montrent que seuls25-30% des patients avec syndrome coronarien aigu (SCA) atteignentles valeurs cibles de LDL-cholestérol (LDL-C). Les recommandationsexistantes précisent le choix et le dosage des statines à utiliser enfonction du LDL-C cible souhaité. Le but de cette étude observationnelleétait de connaître les pratiques actuelles au CHUV avant d'introduireune étude d'intervention.Méthode: Pour être inclus, les patients devaient être admis au CHUVpour un SCA avec troponine positive (>= 0.1 microg/l) entre le23.11.2008 et le 29.05.2010. Un bilan lipidique complet (CT, HDL-C,LDL-C, TG) a été dosé à leur admission et un nouveau contrôle desparamètres lipidiques a été effectué à 3 mois. Les hypolipémiantsutilisés durant cette période ont été analysés pour chaque patient.Résultats: 141 patients, 101 hommes (âge moyen 63 ± 13 ans) et 40femmes (âge moyen 73 ± 13 ans) admis aux urgences pour un SCAavec troponine positive ont été inclus. La valeur moyenne du LDL-C àl'admission était de 3,4 ± 1,1 mmol/l (hommes 3,5 ± 1,1; femmes 3,3 ±1,1) et de 2,4 ± 0,8 mmol/l (hommes 2,4 ± 0,8; femmes 2,2 ± 0,7) aucontrôle de 3 mois. Parmi ces 141 patients, 52 (37%) étaient déjàtraités par une statine (36 hommes et 16 femmes). Leur valeur deLDL-C à l'admission était de 2,8 ± 0,9 mmol/l et de 2,5 ± 0,6 mmol/l aucontrôle de 3 mois. 7 patients (13%) ont eu une augmentation dudosage de leur statine, 14 patients (27%) ont eu un changement destatine et 31 patients (60%) n'ont eu aucune modification de leurtraitement. 89 patients n'avaient pas de statine (65 hommes et 24femmes) à leur admission mais ont quitté l'hôpital sous une statine.Leur valeur de LDL-C à l'entrée s'élevait à 3,8 ± 1 mmol/l et à 2,3 ± 0,8mmol/l au contrôle de 3 mois.Conclusion: Chez les patients hospitalisés pour un SCA mais sanstraitement par statine préalable, les résultats montrent une bonneadéquation (peut-être liée au hasard au vu d'une prescriptionstandardisée) entre le traitement prescrit et l'obtention d'un LDL-C ciblesouhaitable à 3 mois. Chez les patients déjà sous traitement de statine,les résultats montrent une faible baisse du LDL-C à 3 mois malgré leurrisque cardio-vasculaire plus élevé. Une prise en charge individualiséesemble d'autant plus nécessaire que le risque est élevé.
Resumo:
RESUME: Etude de l'activation et de l'inactivation pH-dépendantes des canaux ASICs (Acid-Sensing Ion Channels) Benoîte BARGETON, Département de Pharmacologie et de Toxicologie, Université de Lausanne, rue du Bugnon 27, CH-1005 Lausanne, Suisse Les canaux sodiques ASICs (Acid-Sensing Ion Channels) participent à la signalisation neuronale dans les systèmes nerveux périphérique et central. Ces canaux non voltage dépendants sont impliqués dans l'apprentissage, l'expression de la peur, la neurodégénération consécutive à une attaque cérébrale et la douleur. Les bases moléculaires sous-tendant leur activité ne sont pas encore totalement comprises. Ces canaux sont activés par une acidification du milieu extracellulaire et régulés, entre autres, par des ions tels que le Ca2+, le Zn2+ et le CI". La cristallisation de ASIC inactivé a été publiée. Le canal est un trimére de sous-unités identiques ou homologues. Chaque sous-unité a été décrite en analogie à un avant bras, un poignet et une main constituée d'un pouce, d'un doigt, d'une articulation, une boule β et une paume. Nous avons appliqué une approche bioinformatique systématique pour identifier les pH senseurs putatifs de ASICIa. Le rôle des pH senseurs putatifs a été testé par mutagénèse dirigée et des modifications chimiques combinées à une analyse fonctionnelle afin de comprendre comment les variations de ρ H ouvrent ces canaux. Les pH senseurs sont des acides aspartiques et glutamiques éparpillés sur la boucle extracellulaire suggérant que les changements de pH contrôlent l'activation et l'inactivation de ASIC en (dé)protonant ces résidus en divers endroits de la protéine. Par exemple lors de l'activation, la protonation des résidus à l'interface entre le pouce, la boule β et le doigt d'une même sous-unité induit un mouvement du pouce vers la bouie β et le doigt. De même lors de l'inactivation du canal les paumes des trois sous-unités formant une cavité se rapprochent. D'après notre approche bioinformatique, aucune histidine n'est impliquée dans la détection des variations de pH extracellulaire c'est-à-dire qu'aucune histidine ne serait un pH-senseur. Deux histidines de ASIC2a lient le Zn2+ et modifient l'affinité apparente du canal pour les protons. Une seule des deux est conservée parmi tous les ASICs, hASICIa H163. Elle forme un réseau de liaison hydrogène avec ses voisins conservés. L'étude détaillée de ce domaine, Pinterzone, montre son importance dans l'expression fonctionnelle des canaux. La perturbation de ce réseau par l'introduction d'un résidu hydrophobe (cystéine) par mutagénèse dirigée diminue l'expression du canal à la membrane plasmique. La modification des cystéines introduites par des réactifs spécifiques aux groupements sulfhydryle inhibe les canaux mutés en diminuant leur probabilité d'ouverture. Ces travaux décrivent les effets de l'acidification du milieu extracellulaire sur les canaux ASICs. ABSTRACT: Study of pH-dependent activation and inactivation of ASIC channels Benoîte BARGETON, Department of Pharmacology and Toxicology, University of Lausanne, Rue du Bugnon 27, CH-1G05 Lausanne, Switzerland The ASIC (Acid-Sensing Ion Channels) sodium channels are involved in neuronal signaling in the central and peripheral nervous system. These non-voltage-gated channels are involved in learning, the expression of fear, neurodegeneration after ischemia and pain sensation. The molecular bases underlying their activity are not yet fully understood. ASICs are activated by extracellular acidification and regulated, eg by ions such as Ca2+, the Zn2+ and CI". The crystallization of inactivated ASIC has been published. The channel is a trimer of identical or homologous subunits. Each subunit has been described in analogy to a forearm, wrist and hand consisting of a thumb, a finger, a knuckle, a β-ball and a palm. We applied a systematic computational approach to identify putative pH sensor(s) of ASICIa. The role of putative pH sensors has been tested by site-directed mutagenesis and chemical modification combined with functional analysis in order to understand how changes in pH open these channels. The pH sensors are aspartic and glutamic acids distributed throughout the extracellular loop, suggesting that changes in pH control activation and inactivation of ASIC by protonation / deprotonation of many residues in different parts of the protein. During activation the protonation of various residues at the interface between the finger, the thumb and the β-ball induces the movement of the thumb toward the finger and the β-ball. During inactivation of the channel the palms of the three subunits forming a cavity approach each other. No histidine has been shown to be involved in extracellular pH changes detection, i.e. no histidine is a pH- sensor. Two histidines of ASIC2 bind Zn2+ and alter the apparent affinity of channel for protons. Only one of the two His is conserved among all ASICs, hASICIa H163. This residue is part of a network of hydrogen bonding with its conserved neighbors. The detailed study of this area, the interzone, shows its importance in the functional expression of ASICs. Disturbance of this network by the introduction of hydrophobic residues decreases the cell surface channel expression. Chemical modification of the introduced cysteines by thiol reactive compounds inhibits the mutated channels by a reduction of their open probability. These studies describe the effects of extracellular acidification on ASICs. RESUME GRAND PUBLIC: Etude de l'activation et de l'inactivation pH-dépendantes des canaux ASICs (Acid-Sensing Ion Channels) Benoîte BARGETON, Département de Pharmacologie et de Toxicologie, Université de Lausanne, rue du Bugnon 27, CH-1005 Lausanne, Suisse La transmission synaptique est un processus chimique entre deux neurones impliquant des neurotransmetteurs et leurs récepteurs. Un dysfonctionnement de certains types de synapses est à l'origine de beaucoup de troubles nerveux, tels que certaine forme d'épilepsie et de l'attention. Les récepteurs des neurotransmetteurs sont de très bonnes cibles thérapeutiques dans de nombreuses neuropathologies. Les canaux ASICs sont impliqués dans la neurodégénération consécutive à une attaque cérébrale et les bloquer pourraient permettre aux patients d'avoir moins de séquelles. Les canaux ASICs sont des détecteurs de l'acidité qui apparaît lors de situations pathologiques comme l'ischémie et l'inflammation. Ces canaux sont également impliqués dans des douleurs. Cibler spécifiquement ces canaux permettrait d'avoir de nouveaux outils thérapeutiques car à l'heure actuelle l'inhibiteur de choix, l'amiloride, bloque beaucoup d'autres canaux empêchant son utilisation pour bloquer les ASICs. C'est pourquoi il faut connaître et comprendre les bases moléculaires du fonctionnement de ces récepteurs. Les ASICs formés de trois sous-unités détectent les variations de l'acidité puis s'ouvrent transitoirement pour laisser entrer des ions chargés positivement dans la cellule ce qui active la signalisation neuronale. Afin de comprendre les bases moléculaires de l'activité des ASICs nous avons déterminé les sites de liaison des protons (pH-senseurs), ligands naturels des ASICs et décrit une zone importante pour l'expression fonctionnelle de ces canaux. Grâce à une validation systématique de résultats obtenus en collaboration avec l'Institut Suisse de Bioinformatique, nous avons décrit les pH-senseurs de ASICIa. Ces résultats, combinés à ceux d'autres groupes de recherche, nous ont permis de mieux comprendre comment les ASICs sont ouverts par une acidification du milieu extracellulaire. Une seconde étude souligne le rôle structural crucial d'une région conservée parmi tous les canaux ASICs : y toucher c'est diminuer l'activité de la protéine. Ce domaine permet l'harmonisation des changements dus à l'acidification du milieu extracellulaire au sein d'une même sous-unité c'est-à-dire qu'elle participe à l'induction de l'inactivation due à l'activation du canal Cette étude décrit donc quelle région de la protéine atteindre pour la bloquer efficacement en faisant une cible thérapeutique de choix.
Resumo:
The integration of specific institutions for teacher education into the higher education system represents a milestone in the Swiss educational policy and has broad implications. This thesis explores organizational and institutional change resulting from this policy reform, and attempts to assess structural change in terms of differentiation and convergence within the system of higher education. Key issues that are dealt with are, on the one hand, the adoption of a research function by the newly conceptualized institutions of teacher education, and on the other, the positioning of the new institutions within the higher education system. Drawing on actor-centred approaches to differentiation, this dissertation discusses system-level specificities of tertiarized teacher education and asks how this affects institutional configurations and actor constellations. On the basis of qualitative and quantitative empirical data, a comparative analysis has been carried out including case studies of four universities of teacher education as well as multivariate regression analysis of micro-level data on students' educational choices. The study finds that the process of system integration and adaption to the research function by the various institutions have unfolded differently depending on the institutional setting and the specific actor constellations. The new institutions have clearly made a strong push to position themselves as a new institutional type and to find their identity beyond the traditional binary divide which assigns the universities of teacher education to the college sector. Potential conflicts have been identified in divergent cognitive normative orientations and perceptions of researchers, teacher educators, policy-makers, teachers, and students as to the mission and role of the new type of higher education institution. - L'intégration dans le système d'enseignement supérieur d'institutions qui ont pour tâche spécifique de former des enseignants peut être considérée comme un événement majeur dans la politique éducative suisse, qui se trouve avoir des conséquences importantes à plusieurs niveaux. Cette thèse explore les changements organisationnels et institutionnels résultant de cette réforme politique, et elle se propose d'évaluer en termes de différentiation et de convergence les changements structurels intervenus dans le système d'éducation tertiaire. Les principaux aspects traités sont d'une part la nouvelle mission de recherche attribuée à ces institutions de formation pédagogique, et de l'autre la place par rapport aux autres institutions du système d'éducation tertiaire. Recourant à une approche centrée sur les acteurs pour étudier les processus de différen-tiation, la thèse met en lumière et en discussion les spécificités inhérentes au système tertiaire au sein duquel se joue la formation des enseignants nouvellement conçue et soulève la question des effets de cette nouvelle façon de former les enseignants sur les configurations institutionnelles et les constellations d'acteurs. Une analyse comparative a été réalisée sur la base de données qualitatives et quantitatives issues de quatre études de cas de hautes écoles pédagogiques et d'analyses de régression multiple de données de niveau micro concernant les choix de carrière des étudiants. Les résultats montrent à quel point le processus d'intégration dans le système et la nouvelle mission de recherche peuvent apparaître de manière différente selon le cadre institutionnel d'une école et la constellation spécifique des acteurs influents. A pu clairement être observée une forte aspiration des hautes écoles pédagogiques à se créer une identité au-delà de la structure binaire du système qui assigne la formation des enseignants au secteur des hautes écoles spéciali-sées. Des divergences apparaissent dans les conceptions et perceptions cognitives et normatives des cher-cheurs, formateurs, politiciens, enseignants et étudiants quant à la mission et au rôle de ce nouveau type de haute école. - Die Integration spezieller Institutionen für die Lehrerbildung ins Hochschulsystem stellt einen bedeutsamen Schritt mit weitreichenden Folgen in der Entwicklung des schweizerischen Bildungswesens dar. Diese Dissertation untersucht die mit der Neuerung verbundenen Veränderungen auf organisatorischer und institutioneller Ebene und versucht, die strukturelle Entwicklung unter den Gesichtspunkten von Differenzierung und Konvergenz innerhalb des tertiären Bildungssystems einzuordnen. Zentrale Themen sind dabei zum einen die Einführung von Forschung und Entwicklung als zusätzlichem Leistungsauftrag in der Lehrerbildung und zum andern die Positionierung der pädagogischen Hochschulen innerhalb des Hochschulsystems. Anhand akteurzentrierter Ansätze zur Differenzierung werden die Besonderheiten einer tertiarisierten Lehrerbildung hinsichtlich der Systemebenen diskutiert und Antworten auf die Frage gesucht, wie die Reform die institutionellen Konfigurationen und die Akteurkonstellationen beeinflusst. Auf der Grundlage qualitativer und quantitativer Daten wurde eine vergleichende Analyse durchgeführt, welche Fallstudien zu vier pädagogischen Hochschulen umfasst sowie Regressionsanalysen von Mikrodaten zur Studienwahl von Maturanden. Die Ergebnisse machen deutlich, dass sich der Prozess der Systemintegration und die Einführung von Forschung in die Lehrerbildung in Abhängigkeit von institutionellen Ordnungen und der jeweiligen Akteurkonstellation unterschiedlich gestalten. Es lässt sich bei den neu gegründeten pädagogischen Hochschulen ein starkes Bestreben feststellen, sich als neuen Hochschultypus zu positionieren und sich eine Identität zu schaffen jenseits der herkömmlichen binären Struktur, welche die pädagogischen Hochschulen dem Fachhochschul-Sektor zuordnet. Potentielle Konflikte zeichnen sich ab in den divergierenden kognitiven und normativen Orientierungen und Wahrnehmungen von Forschern, Ausbildern, Bildungspolitikern, Lehrern und Studierenden hinsichtlich des Auftrags und der Rolle dieses neuen Typs Hochschule.