939 resultados para Stratégie posturale


Relevância:

10.00% 10.00%

Publicador:

Resumo:

STRUCTURE DU DOCUMENT ET PRINCIPALES CONTRIBUTIONS CHAPITRE 1 INTRODUCTION ET MÉTHODOLOGIE Le chapitre 1 présente un aperçu de la recherche, le contexte, les objectifs, la méthodologie, la démarche. CHAPITRE 2 : ÉTAT DE LA QUESTION Le chapitre 2 présente un état de la question des principaux concepts : les compétences, la gestion des compétences, les systèmes de gestion des compétences. La question de la gestion des compétences en sciences de gestion, et son lien avec la stratégie de l'entreprise a beaucoup occupé les chercheurs et les praticiens. On peut distinguer deux tendances principales : les recherches provenant du champ disciplinaire de la stratégie d'entreprise, regroupées par commodité sous l'étiquette «approche stratégique », et les recherches issues du domaine de la gestion des ressources humaines, qu'on appellera GRH. Au-delà du vocabulaire souvent commun (ressources, compétences), de la vision partagée qu'il est nécessaire de voir l'entreprise « de l'intérieur » et non plus uniquement dans son environnement, les deux approches ont des problématiques très similaires, comme le lien avec la performance ou les changements organisationnels induits par une démarche compétence. Pourtant, les divergences subsistent. L'approche stratégique procède d'un niveau « macro »pour identifier des « compétences-clés », et peine souvent à opérationnaliser ce concept. Les démarches GRH ont un souci analytique de décomposition de la compétence et de la ressource qui risque de noyer la démarche dans le détail. En outre, alors que le vocabulaire est similaire, les définitions divergent. Concilier ces divergences, afin de conserver les avantages de l'une et de l'autre de ces théories, à savoir le lien avec la stratégie pour l'une et le souci d'opérationnaliser les concepts pour l'autre est peut être plus aisé à l'heure ou les nouvelles conditions auxquelles sont soumises les entreprises qui oeuvrent dans l' »économie de la connaissance ». Les technologies qui deviennent accessibles plus facilement font qu'en dernière instance, ce sont bien les collaborateurs de l'entreprise qui sont le support de la compétence. L'objectif de cet état de la question n'est pas de procéder à un recensement exhaustif des manières de traiter de la compétence en sciences de gestion. Il est plutôt de mettre en évidence ce que les deux approches peuvent amener, chacun à leur manière, à notre problème, l'identification des compétences d'entreprise en lien avec la stratégie. Ces éléments nous serviront de matériau pour construire notre propre modèle d'identification des compétences. C'est sans doute la première fois que ces deux modèles sont confrontés du point de vue de la stratégie de l'entreprise. CHAPITRE 3 : LE MODÈLE CONCEPTUEL Le chapitre 3 présente le modèle conceptuel d'identification des compétences d'entreprise. Après une discussion sur la notion de modèle en sciences de gestion, il présente l'intérêt d'une modélisation, et la démarche de modélisation. Celle-ci se décompose en 3 étapes concentriques successives : un modèle informel, un modèle semi-formel qui prendra la forme d'une ontologie, et quelques éléments d'un modèle formel. Une présentation des ontologies et de l'utilité de cette technique précèdera la construction du modèle à proprement parler. Cette construction se fera à partir des fonctionnalités d'un système de gestion des compétences défini comme utile à l'entreprise, c'est à dire répondant aux objectifs. Dans cette partie, nous construirons notre modèle conceptuel d'identification et de qualification des compétences d'entreprises. Nous commencerons par préciser la notion de modèle. Un modèle consiste en une schématisation, -qui typifie certaines caractéristiques du réel, pour en faire ressortir certains traits dominants, les mettre en valeur et permettre ainsi d'anticiper certains développements de la réalité. Nous sélectionnerons et préciserons ensuite les entités nécessaires à la composition du modèle. Nous définirons ainsi le concept de compétences et les concepts qui lui sont liés. Dans une troisième partie, nous montrerons en quoi la technique des ontologies peut se révéler utile pour notre problématique. CHAPITRE 4 : LE MODÈLE DE RAISONNEMENT Le chapitre 4 présente le modèle de raisonnement, quelques fonctionnalités du prototype, quelques éléments de l'algorithme, une esquisse de l'architecture, des requêtes possibles, vues à travers une technique inspirée des use-cases. La partie précédente aura permis de sélectionner les entités nécessaires à un modèle d'identification et de qualification des compétences. Dans cette partie, nous allons développer le modèle de raisonnement. L'objectif de notre travail est d'identifier concrètement les compétences de l'entreprise, et de les qualifier, afin de servir d'aide à la décision. Dans cette optique, le modèle de raisonnement décrira les opérations effectuées sur les entités identifiées précédemment. Après avoir défini le modèle de raisonnement et son fonctionnement, nous présenterons les quatre cas d'utilisation qui nous servirons d'exemples d'utilisation. Il s'agit des cas de dirigeant d'entreprise, responsable des ressources humaines, chef de projet, et collaborateur de l'entreprise. Ces cas d'utilisation nous permettrons d'opérationnaliser les concepts décrits dans le modèle conceptuel à travers un système d'indicateurs, d'effectuer des opérations sur ces concepts. ANNEXE : UNE ÉTUDE DE CAS Enfin, en annexe de ce document, nous décrirons une étude de cas. Il s'agit d'une intervention menée en entreprise, qui a repris, et ainsi testé, une bonne partie des éléments décrits dans ce travail. Cette intervention a débouché sur la mise en place d'une gestion des compétences qui se concrétise notamment par un «tableau de bord des compétences ». CHAPITRE 5 : CONCLUSIONS ET PERSPECTIVES Le chapitre 5 présente les conclusions, et quelques perspectives. Il présente les principaux apports, les limites, un retour sur certaines questions méthodologiques. PRINCIPALES CONTRIBUTIONS L'objectif de cette thèse est de proposer un modèle qui permette d'identifier et de qualifier les compétences d'entreprise. On peut dégager un certain nombre de contributions 1. Nous proposons un modèle d'identification et de qualification des compétences en cohérence avec les préoccupations des entreprises, notamment par le lien avec la stratégie, qui permet l'adaptabilité et la flexibilité. 2. Nous proposons une méthode de qualification des compétences qui permet de distinguer les compétences d'entreprise selon différents points de vue 3. Nous proposons des fonctionnalités et une architecture rendant possible la réalisation d'un outil de gestion des compétences.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse : Introduction : La perfusion isolée de membre (isolated limb perfusion, ou ILP) par TNF-alpha et melphalan, utilisés en association, est une stratégie de prise en charge chirurgicale des sarcomes non opérables des extrémités. Elle a été en partie développée au CHUV dans les années 1990, sous l'impulsion du Professeur F. Lejeune, ancien Chef du Service d'oncologie médicale (CePO). Les résultats des 31 premiers patients ont été publiés en 2000 dans l'European Journal of Surgical Oncology. Les données dans la littérature manquant sur les résultats à long terme, nous avons revu tous les patients traités au CHUV depuis 1992 pour tenter des de déterminer ces résultats à long terme, en se focalisant sur l'efficacité du traitement, symbolisée par le taux de sauvetage de membres, autrement condamnés à l'amputation ou à une chirurgie mutilante. Matériel et méthode : Etude rétrospective. De 1992 à mars 2006, 51 patients ont été traités par ILP dans notre institution, certains à deux reprises (58 ILP au total). Quatre-vingt-huit pour cent présentaient un sarcome de haut grade de malignité, et 84% une tumeur localement avancée (T2b NO Mo ou plus). Résultats : Le follow-up moyen est de 38.9 mois (4-159, médiane 22 mois), on note 21 % de complications immédiates et 23% de complications tardives ou chroniques. Une réponse complète (nécrose totale ou disparition de la tumeur) a été observée dans 25% des cas, une réponse partielle (>50% de nécrose ou de diminution de taille tumorale) dans 42%, une stabilité de la maladie dans 14% et une progression tumorale dans 14%. Un traitement adjuvant a été entrepris dans 31 % des cas, une résection des résidus tumoraux a pu être effectuée chez 65% des patients. On note un taux de récidive locale de 35% (après 20,3 mois en moyenne) et un taux de récidive à distance de 45% (après 13,4 mois en moyenne). Le disease-free survival est de 14,9 mois et la survie à 5 ans de 43,5%. Le taux d'amputation s'élève à 24%. Conclusion : La perfusion isolée de membre est un traitement grevé d'un taux élevé de complications, mais il peut étre entrepris dans les sarcomes les plus sévères avec un succès significatif. Ainsi, dans notre série, une chirurgie mutilante (en général l'amputation) a pu être épargnée à 76% des patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The research performed a sustainability assessment of supply chains of the anchoveta (Engraulis ringens) in Peru. The corresponding fisheries lands 6.5 million t per year, of which <2% is rendered into products for direct human consumption (DHC) and 98% reduced into feed ingredients (fishmeal and fish oil, FMFO), for export. Several industries compete for the anchoveta resources, generating local and global impacts. The need for understanding these dynamics, towards sustainability-improving management and policy recommendations, determined the development of a sustainability assessment framework: 1) characterisation and modelling of the systems under study (with Life Cycle Assessment and other tools) including local aquaculture, 2) calculation of sustainability indicators (i.e. energy efficiency, nutritional value, socio-economic performances), and 3) sustainability comparison of supply chains; definition and comparison of alternative exploitation scenarios. Future exploitation scenarios were defined by combining an ecosystem and a material flow models: continuation of the status quo (Scenario 1), shift towards increased proportion of DHC production (Scenario 2), and radical reduction of the anchoveta harvest in order for other fish stocks to recover and be exploited for DHC (Scenario 3). Scenario 2 was identified as the most sustainable. Management and policy recommendations include improving of: controls for compliance with management measures, sanitary conditions for DHC, landing infrastructure for small- and medium-scale (SMS) fisheries; the development of a national refrigerated distribution chain; and the assignation of flexible tolerances for discards from different DHC processes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary Landscapes are continuously changing. Natural forces of change such as heavy rainfall and fires can exert lasting influences on their physical form. However, changes related to human activities have often shaped landscapes more distinctly. In Western Europe, especially modern agricultural practices and the expanse of overbuilt land have left their marks in the landscapes since the middle of the 20th century. In the recent years men realised that mare and more changes that were formerly attributed to natural forces might indirectly be the result of their own action. Perhaps the most striking landscape change indirectly driven by human activity we can witness in these days is the large withdrawal of Alpine glaciers. Together with the landscapes also habitats of animal and plant species have undergone vast and sometimes rapid changes that have been hold responsible for the ongoing loss of biodiversity. Thereby, still little knowledge is available about probable effects of the rate of landscape change on species persistence and disappearance. Therefore, the development and speed of land use/land cover in the Swiss communes between the 1950s and 1990s were reconstructed using 10 parameters from agriculture and housing censuses, and were further correlated with changes in butterfly species occurrences. Cluster analyses were used to detect spatial patterns of change on broad spatial scales. Thereby, clusters of communes showing similar changes or transformation rates were identified for single decades and put into a temporally dynamic sequence. The obtained picture on the changes showed a prevalent replacement of non-intensive agriculture by intensive practices, a strong spreading of urban communes around city centres, and transitions towards larger farm sizes in the mountainous areas. Increasing transformation rates toward more intensive agricultural managements were especially found until the 1970s, whereas afterwards the trends were commonly negative. However, transformation rates representing the development of residential buildings showed positive courses at any time. The analyses concerning the butterfly species showed that grassland species reacted sensitively to the density of livestock in the communes. This might indicate the augmented use of dry grasslands as cattle pastures that show altered plant species compositions. Furthermore, these species also decreased in communes where farms with an agricultural area >5ha have disappeared. The species of the wetland habitats were favoured in communes with smaller fractions of agricultural areas and lower densities of large farms (>10ha) but did not show any correlation to transformation rates. It was concluded from these analyses that transformation rates might influence species disappearance to a certain extent but that states of the environmental predictors might generally outweigh the importance of the corresponding rates. Information on the current distribution of species is evident for nature conservation. Planning authorities that define priority areas for species protection or examine and authorise construction projects need to know about the spatial distribution of species. Hence, models that simulate the potential spatial distribution of species have become important decision tools. The underlying statistical analyses such as the widely used generalised linear models (GLM) often rely on binary species presence-absence data. However, often only species presence data have been colleted, especially for vagrant, rare or cryptic species such as butterflies or reptiles. Modellers have thus introduced randomly selected absence data to design distribution models. Yet, selecting false absence data might bias the model results. Therefore, we investigated several strategies to select more reliable absence data to model the distribution of butterfly species based on historical distribution data. The results showed that better models were obtained when historical data from longer time periods were considered. Furthermore, model performance was additionally increased when long-term data of species that show similar habitat requirements as the modelled species were used. This successful methodological approach was further applied to assess consequences of future landscape changes on the occurrence of butterfly species inhabiting dry grasslands or wetlands. These habitat types have been subjected to strong deterioration in the recent decades, what makes their protection a future mission. Four spatially explicit scenarios that described (i) ongoing land use changes as observed between 1985 and 1997, (ii) liberalised agricultural markets, and (iii) slightly and (iv) strongly lowered agricultural production provided probable directions of landscape change. Current species-environment relationships were derived from a statistical model and used to predict future occurrence probabilities in six major biogeographical regions in Switzerland, comprising the Jura Mountains, the Plateau, the Northern and Southern Alps, as well as the Western and Eastern Central Alps. The main results were that dry grasslands species profited from lowered agricultural production, whereas overgrowth of open areas in the liberalisation scenario might impair species occurrence. The wetland species mostly responded with decreases in their occurrence probabilities in the scenarios, due to a loss of their preferred habitat. Further analyses about factors currently influencing species occurrences confirmed anthropogenic causes such as urbanisation, abandonment of open land, and agricultural intensification. Hence, landscape planning should pay more attention to these forces in areas currently inhabited by these butterfly species to enable sustainable species persistence. In this thesis historical data were intensively used to reconstruct past developments and to make them useful for current investigations. Yet, the availability of historical data and the analyses on broader spatial scales has often limited the explanatory power of the conducted analyses. Meaningful descriptors of former habitat characteristics and abundant species distribution data are generally sparse, especially for fine scale analyses. However, this situation can be ameliorated by broadening the extent of the study site and the used grain size, as was done in this thesis by considering the whole of Switzerland with its communes. Nevertheless, current monitoring projects and data recording techniques are promising data sources that might allow more detailed analyses about effects of long-term species reactions on landscape changes in the near future. This work, however, also showed the value of historical species distribution data as for example their potential to locate still unknown species occurrences. The results might therefore contribute to further research activities that investigate current and future species distributions considering the immense richness of historical distribution data. Résumé Les paysages changent continuellement. Des farces naturelles comme des pluies violentes ou des feux peuvent avoir une influence durable sur la forme du paysage. Cependant, les changements attribués aux activités humaines ont souvent modelé les paysages plus profondément. Depuis les années 1950 surtout, les pratiques agricoles modernes ou l'expansion des surfaces d'habitat et d'infrastructure ont caractérisé le développement du paysage en Europe de l'Ouest. Ces dernières années, l'homme a commencé à réaliser que beaucoup de changements «naturels » pourraient indirectement résulter de ses propres activités. Le changement de paysage le plus apparent dont nous sommes témoins de nos jours est probablement l'immense retraite des glaciers alpins. Avec les paysages, les habitats des animaux et des plantes ont aussi été exposés à des changements vastes et quelquefois rapides, tenus pour coresponsable de la continuelle diminution de la biodiversité. Cependant, nous savons peu des effets probables de la rapidité des changements du paysage sur la persistance et la disparition des espèces. Le développement et la rapidité du changement de l'utilisation et de la couverture du sol dans les communes suisses entre les années 50 et 90 ont donc été reconstruits au moyen de 10 variables issues des recensements agricoles et résidentiels et ont été corrélés avec des changements de présence des papillons diurnes. Des analyses de groupes (Cluster analyses) ont été utilisées pour détecter des arrangements spatiaux de changements à l'échelle de la Suisse. Des communes avec des changements ou rapidités comparables ont été délimitées pour des décennies séparées et ont été placées en séquence temporelle, en rendrent une certaine dynamique du changement. Les résultats ont montré un remplacement répandu d'une agriculture extensive des pratiques intensives, une forte expansion des faubourgs urbains autour des grandes cités et des transitions vers de plus grandes surfaces d'exploitation dans les Alpes. Dans le cas des exploitations agricoles, des taux de changement croissants ont été observés jusqu'aux années 70, alors que la tendance a généralement été inversée dans les années suivantes. Par contre, la vitesse de construction des nouvelles maisons a montré des courbes positives pendant les 50 années. Les analyses sur la réaction des papillons diurnes ont montré que les espèces des prairies sèches supportaient une grande densité de bétail. Il est possible que dans ces communes beaucoup des prairies sèches aient été fertilisées et utilisées comme pâturages, qui ont une autre composition floristique. De plus, les espèces ont diminué dans les communes caractérisées par une rapide perte des fermes avec une surface cultivable supérieure à 5 ha. Les espèces des marais ont été favorisées dans des communes avec peu de surface cultivable et peu de grandes fermes, mais n'ont pas réagi aux taux de changement. Il en a donc été conclu que la rapidité des changements pourrait expliquer les disparitions d'espèces dans certains cas, mais que les variables prédictives qui expriment des états pourraient être des descripteurs plus importants. Des informations sur la distribution récente des espèces sont importantes par rapport aux mesures pour la conservation de la nature. Pour des autorités occupées à définir des zones de protection prioritaires ou à autoriser des projets de construction, ces informations sont indispensables. Les modèles de distribution spatiale d'espèces sont donc devenus des moyens de décision importants. Les méthodes statistiques courantes comme les modèles linéaires généralisés (GLM) demandent des données de présence et d'absence des espèces. Cependant, souvent seules les données de présence sont disponibles, surtout pour les animaux migrants, rares ou cryptiques comme des papillons ou des reptiles. C'est pourquoi certains modélisateurs ont choisi des absences au hasard, avec le risque d'influencer le résultat en choisissant des fausses absences. Nous avons établi plusieurs stratégies, basées sur des données de distribution historique des papillons diurnes, pour sélectionner des absences plus fiables. Les résultats ont démontré que de meilleurs modèles pouvaient être obtenus lorsque les données proviennent des périodes de temps plus longues. En plus, la performance des modèles a pu être augmentée en considérant des données de distribution à long terme d'espèces qui occupent des habitats similaires à ceux de l'espèce cible. Vu le succès de cette stratégie, elle a été utilisée pour évaluer les effets potentiels des changements de paysage futurs sur la distribution des papillons des prairies sèches et marais, deux habitats qui ont souffert de graves détériorations. Quatre scénarios spatialement explicites, décrivant (i) l'extrapolation des changements de l'utilisation de sol tels qu'observés entre 1985 et 1997, (ii) la libéralisation des marchés agricoles, et une production agricole (iii) légèrement amoindrie et (iv) fortement diminuée, ont été utilisés pour générer des directions de changement probables. Les relations actuelles entre la distribution des espèces et l'environnement ont été déterminées par le biais des modèles statistiques et ont été utilisées pour calculer des probabilités de présence selon les scénarios dans six régions biogéographiques majeures de la Suisse, comportant le Jura, le Plateau, les Alpes du Nord, du Sud, centrales orientales et centrales occidentales. Les résultats principaux ont montré que les espèces des prairies sèches pourraient profiter d'une diminution de la production agricole, mais qu'elles pourraient aussi disparaître à cause de l'embroussaillement des terres ouvertes dû à la libéralisation des marchés agricoles. La probabilité de présence des espèces de marais a décrû à cause d'une perte générale des habitats favorables. De plus, les analyses ont confirmé que des causes humaines comme l'urbanisation, l'abandon des terres ouvertes et l'intensification de l'agriculture affectent actuellement ces espèces. Ainsi ces forces devraient être mieux prises en compte lors de planifications paysagères, pour que ces papillons diurnes puissent survivre dans leurs habitats actuels. Dans ce travail de thèse, des données historiques ont été intensivement utilisées pour reconstruire des développements anciens et pour les rendre utiles à des recherches contemporaines. Cependant, la disponibilité des données historiques et les analyses à grande échelle ont souvent limité le pouvoir explicatif des analyses. Des descripteurs pertinents pour caractériser les habitats anciens et des données suffisantes sur la distribution des espèces sont généralement rares, spécialement pour des analyses à des échelles fores. Cette situation peut être améliorée en augmentant l'étendue du site d'étude et la résolution, comme il a été fait dans cette thèse en considérant toute la Suisse avec ses communes. Cependant, les récents projets de surveillance et les techniques de collecte de données sont des sources prometteuses, qui pourraient permettre des analyses plus détaillés sur les réactions à long terme des espèces aux changements de paysage dans le futur. Ce travail a aussi montré la valeur des anciennes données de distribution, par exemple leur potentiel pour aider à localiser des' présences d'espèces encore inconnues. Les résultats peuvent contribuer à des activités de recherche à venir, qui étudieraient les distributions récentes ou futures d'espèces en considérant l'immense richesse des données de distribution historiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME Le diabète de type 1 se définit comme un désordre métabolique d'origine auto-immune qui aboutit à la destruction progressive et sélective de la cellule ß-pancréatique sécrétrice d'insuline. Cette maladie représente 10 % des cas de diabète enregistrés dans la population mondiale, et touche les jeunes de moins de 20 ans. Le traitement médical par insulinothérapie corrige le manque d'hormone mais ne prévient pas les nombreuses complications telles que les atteintes cardiaques, neurologiques, rénales, rétiniennes, et les amputations que la maladie provoque. Le remplacement de la cellule ß par transplantation d'îlots de Langerhans est une alternative prometteuse au traitement médical du diabète de type 1. Cependant la greffe d'îlots est encore un traitement expérimental et ne permet pas un contrôle efficace de la glycémie au long terme chez les patients transplantés, et les raisons de cet échec restent mal comprises. L'obstacle immédiat qui se pose est la purification d'un nombre suffisant d'îlots viables et la perte massive de ces îlots dans les premières heures suite à la greffe. Cette tendance presque systématique de la perte fonctionnelle du greffon immédiatement après la transplantation est connue sous le terme de « primary graft non-function » (PNF). En effet, la procédure d'isolement des îlots provoque la destruction des composantes cellulaires et non cellulaires du tissu pancréatique qui jouent un rôle déterminant dans le processus de survie de l'îlot. De plus, la transplantation elle-même expose les cellules à différents stress, notamment le stress par les cytokines inflammatoires qui encourage la mort cellulaire par apoptose et provoque par la suite le rejet de la greffe. L'ensemble de ces mécanismes aboutit a une perte de la masse d'îlot estimée a plus de 60%. Dans ce contexte, nous nous sommes intéressés à définir les voies majeures de stress qui régissent cette perte massive d'îlot par apoptose lors du processus d'isolement et suite à l'exposition immédiate aux cytokines. L'ensemble des résultats obtenus indique que plusieurs voies de signalisation intracellulaire sont recrutées qui s'activent de manière maximale très tôt lors des premières phases de l'isolement. La mise en culture des îlots deux jours permet aux voies activées de revenir aux taux de base. De ce fait nous proposons une stratégie dite de protection qui doit être 1) initiée aussitôt que possible lors de l'isolement des îlots pancréatiques, 2) devrait probablement bloquer l'activation de ces différentes voies de stress mis en évidence lors de notre étude et 3) devrait inclure la mise en culture des îlots purifiés deux jours après l'isolement et avant la transplantation. RESUME LARGE PUBLIC Le diabète est une maladie qui entraîne un taux anormalement élevé de sucre (glucose) dans le sang du à une insuffisance du pancréas endocrine à produire de l'insuline, une hormone qui régule la glycémie (taux de glucose dans le sang). On distingue deux types majeurs de diabètes; le diabète de type 1 ou juvénile ou encore appelé diabète maigre qui se manifeste souvent pendant l'enfance et qui se traduit par une déficience absolue en insuline. Le diabète de type 2 ou diabète gras est le plus fréquent, et touche les sujets de plus de 40 ans qui souffrent d'obésité et qui se traduit par une dysfonction de la cellule ß avec une incapacité à réguler la glycémie malgré la production d'insuline. Dans le diabète de type 1, la destruction de la cellule ß est programmée (apoptose) et est majoritairement provoquée par des médiateurs inflammatoires appelés cytokines qui sont produites localement par des cellules inflammatoires du système immunitaire qui envahissent la cellule ß-pancréatiques. Les cytokines activent différentes voies de signalisation parmi lesquelles on distingue celles des Mitogen-Activated Protein Kinase (MAPKs) composées de trois familles de MAPKs: ERK1/2, p38, et JNK, et la voie NF-κB. Le traitement médical par injections quotidiennes d'insuline permet de contrôler la glycémie mais ne prévient pas les nombreuses complications secondaires liées à cette maladie. La greffe d'îlots de Langerhans est une alternative possible au traitement médical, considérée avantageuse comparée a la greffe du pancréas entier. En effet l'embolisation d'îlots dans le foie par injection intraportale constitue une intervention simple sans complications majeures. Néanmoins la technique de préparation d'îlots altère la fonction endocrine et cause la perte massive d'îlots pancréatiques. De plus, la transplantation elle-même expose la cellule ß à différents stress, notamment le stress par les cytokines inflammatoires qui provoque le rejet de greffon cellulaire. Dans la perspective d'augmenter les rendements des îlots purifiés, nous nous sommes intéressés à définir les voies majeures de stress qui régissent cette perte massive d'îlot lors du processus d'isolement et suite à l'exposition immédiate aux cytokines après transplantation. L'ensemble de ces résultats indique que le stress induit lors de l'isolement des îlots et celui des cytokines recrute différentes voies de signalisation intracellulaire (JNK, p38 et NF-κB) qui s'additionnent entre-elles pour altérer la fonction et la viabilité de l'îlot. De ce fait une stratégie doit être mise en place pour bloquer toute action synergique entre ces différentes voies activées pour améliorer la viabilité et la fonction de la cellule ß lors du greffon cellulaire. SUMMARY Type 1 diabetes mellitus (T1DM) is an autoimmune disease characterized by the progressive and selective destruction of the pancreatic ß-cells that secrete insulin, leading to absolute insulin deficiency. T1DM accounts for about 10% of all diabetes cases, affecting persons younger than 20 years of age. Medical treatment using daily exogenous insulin injection corrects hormone deficiency but does not prevent devastating complications such as heart attack, neuropathy, kidney failure, blindness, and amputation caused by the disease. Pancreatic islet transplantation (PIT) is one strategy that holds promise to cure patients with T1DM, but purified pancreatic islet grafts have failed to maintain long-term glucose homeostasis in human recipients, the reasons for this failure being still poorly understood. There is however a more immediate problem with islet grafting that is dependent upon poor islet recovery from donors and early islet loss following the first hours of grafting. This tendency of islet grafts to fail to function within a short period after transplantation is termed primary graft non-function (PNF). Indeed, the islet isolation procedure itself destroys cellular and non-cellular components of the pancreas that may play a role in supporting islet survival. Further, islet transplantation exposes cells to a variety of stressful stimuli, notably pro-inflammatory cytokines that encourage ß-cell death by apoptosis and lead to early graft failure. Altogether these mechanisms lead to an estimated loss of 60% of the total islet mass. Here, we have mapped the major intracellular stress signaling pathways that may mediate human islet loss by apoptosis during isolation and following cytokine attack. We found that several stress pathways are maximally activated from the earliest stages of the isolation procedure. Culturing islet for two days allow for the activated pathways to return to basal levels. We propose that protective strategies should 1) be initiated as early as possible during isolation of the islets, 2) should probably target the activated stress pathways that we uncovered during our studies and 3) should include culturing islets for two days post-isolation and prior transplantation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le diabète est une maladie chronique caractérisée par une élévation du taux de sucre dans le sang aussi appelé « glycémie » reflétant un état pathologique. L'élévation de la glycémie au long cours a des répercussions délétères sur nombreux de nos tissus et organes d'où l'apparition de complications sévères chez les sujets diabétiques pouvant atteindre les yeux, les reins, le système nerveux, le système cardiovasculaire et les membres inférieurs. La carence en une hormone essentielle à notre organisme, l'insuline, est au coeur du développement de la maladie. L'insuline induit la captation du glucose circulant dans le sang en excès suite à une prise alimentaire riche en glucides et favorise son utilisation et éventuellement son stockage dans les tissus tels que le foie, le tissu adipeux et les muscles. Ainsi, l'insuline est vitale pour réguler et maintenir stable notre niveau de glycémie. Les cellules bêta du pancréas sont les seules entités de notre corps capables de produire de l'insuline et une perte de fonctionnalité associée à leur destruction ont été mises en cause dans le processus pathologique du diabète de type 2. Cependant la pleine fonctionnalité et la maturation des cellules bêta n'apparaissent qu'après la naissance lorsque le pancréas en développement a atteint sa masse adulte définitive. Enfin, une fois la masse des cellules bêta définitive établie, leur nombre et volume restent relativement constants au cours de la vie adulte chez un sujet sain. Néanmoins, au cours de périodes critiques les besoins en insuline sont augmentés tel qu'observé chez les femmes enceintes et les personnes obèses qui ont une perte de sensibilité à l'insuline qui se traduit par la nécessité de sécréter plus d'insuline afin de maintenir une glycémie normale. Dans l'hypothèse où la compensation n'a pas lieu ou n'est pas aboutie, le diabète se développe. Le processus de maturation postnatale ainsi que les événements compensatoires sont donc des étapes essentielles et de nombreuses questions sont encore non résolues concernant l'identification des mécanismes les régulant. Parmi les acteurs potentiels figurent de petites molécules d'ARN découvertes récemment appelées microARNs et qui ont été rapidement suggérées très prometteuses dans l'identification de nouvelles cibles thérapeutiques dans le cadre du diabète et d'autres pathologies. Les microARNs vont réguler l'expression de notre génome sans en modifier la séquence, phénomène également appelé épigénétique, ce qui résulte en des différences de comportement et de fonction cellulaires. Les microARNs sont donc susceptibles de jouer un rôle clé dans l'ensemble des processus biologiques et notre environnement associé à nos prédispositions génétiques peuvent grandement modifier leur niveau et donc leur action, qui à son tour se répercutera sur notre état physiologique. En effet nous avons identifié des changements de microARNs dans les cellules d'îlots pancréatiques de modèles animaux (rats et souris) associés à un état de résistance à l'insuline (grossesse et obésité). Par le biais d'expériences in vitro sur des cellules bêta extraites de rats et conservées en culture, nous avons pu analyser de plus près l'implication des microARNs dans la capacité des cellules bêta à sécréter de l'insuline mais aussi à se multiplier et à survivre au sein d'un environnement toxique. Ainsi, nous avons identifié des microARNs qui participent positivement à la compensation des cellules bêta, sous la direction d'hormones telles les estrogènes ou d'une hormone libérée par l'intestin au cours de la digestion (l'inerétine GLP1) et qui est largement utilisée comme agent thérapeutique dans la médication contre le diabète. Dans un second temps nous avons utilisé une stratégie similaire afin de déterminer le rôle de microARNs préalablement détectés comme étant changés au cours du développement postnatal des cellules bêta chez le rat. Cette étude a également mené à l'identification de microARNs participant à la maturation et à l'expansion de la masse des cellules bêta sous l'influence de la composition du régime alimentaire et des besoins en insuline adéquats qui en dépendent. Ces études apportent la vision de nouveaux mécanismes moléculaires impliquant les microARNs et démontrant leur importance pour le bon fonctionnement des cellules bêta et leur capacité d'adaptation à l'environnement. -- Les cellules bêta sont une composante des îlots pancréatiques de Langerhans et sont des cellules hautement différenciées qui ont l'unique capacité de sécréter de l'insuline sous l'influence des nutriments suite à une prise alimentaire. L'insuline facilite l'incorporation de glucose dans ses tissus cibles tels le foie, le tissu adipeux et les muscles. Bien que les besoins en insuline soient relativement constants au cours de la vie d'un individu sain, certaines conditions associées à un état de résistance à l'insuline, telles la grossesse ou l'obésité, requièrent une libération d'insuline majorée. En cas de résistance à l'insuline, une dysfonction des cellules bêta plus ou moins associée à leur mort cellulaire, conduisent à une sécrétion d'insuline insuffisante et au développement d'une hyperglycémie chronique, caractéristique du diabète de type 2. Jusqu'à présent, les mécanismes moléculaires sous- jacents à la compensation des cellules bêta ou encore menant à leur dysfonction restent peu connus. Découverts récemment, les petits ARNs non-codant appelés microARNs (miARNs), suscitent un intérêt grandissant de par leur potentiel thérapeutique pour la prise en charge et le traitement du diabète. Les miARNs sont de puissants régulateurs de l'expression génique qui lient directement le 3'UTR de leurs ARN messagers cibles afin d'inhiber leur traduction ou d'induire leur dégradation, ce qui leur permet de contrôler des fonctions biologiques multiples. Ainsi, nous avons pris pour hypothèse que les miARNs pourraient jouer un rôle essentiel en maintenant la fonction des cellules bêta et des processus compensatoires afin de prévenir le développement du diabète. Lors d'une première étude, une analyse transcriptomique a permis l'identification de miARNs différemment exprimés au sein d'îlots pancréatiques de rattes gestantes. Parmi eux, le miR-338-3p a démontré la capacité de promouvoir la prolifération et la survie des cellules bêta exposées à des acides gras saturés et des cytokines pro-inflammatoires, sans altérer leur propriété sécrétrice d'insuline. Nous avons également identifié deux hormones reconnues pour leurs propriétés bénéfiques pour la physiologie de la cellule bêta, l'estradiol et l'incrétine GLP1, qui régulent les niveaux du miR-338-3p. Ce miARN intègre parfaitement les voies de signalisation de ces deux hormones dépendantes de l'AMP cyclique, afin de contrôler l'expression de nombreux gènes conduisant à son action biologique. Dans un projet ultérieur, notre objectif était de déterminer la contribution de miARNs dans l'acquisition de l'identité fonctionnelle des cellules bêta en période postnatale. En effet, directement après la naissance les cellules bêta sont reconnues pour être encore immatures et incapables de sécréter de l'insuline spécifiquement en réponse à l'élévation de la glycémie. Au contraire, la réponse insulinique induite par les acides aminés ainsi que la biosynthèse d'insuline sont déjà fonctionnelles. Nos recherches ont permis de montrer que les changements de miARNs corrélés avec l'apparition du phénotype sécrétoire en réponse au glucose, sont régis par la composition nutritionnelle du régime alimentaire et des besoins en insuline qui en découlent. En parallèle, le taux de prolifération des cellules bêta est considérablement réduit. Les miARNs que nous avons étudiés coordonnent des changements d'expression de gènes clés impliqués dans l'acquisition de propriétés vitales de la cellule bêta et dans la maintenancé de son identité propre. Enfin, ces études ont permis de clairement démontrer l'importance des miARNs dans la régulation de la fonction des cellules bêta pancréatiques. -- Beta-cells are highly differentiated cells localized in the pancreatic islets and are characterized by the unique property of secreting insulin in response to nutrient stimulation after meal intake. Insulin is then in charge of facilitating glucose uptake by insulin target tissues such as liver, adipose tissue and muscles. Despite insulin needs stay more or less constant throughout life of healthy individuals, there are circumstances such as during pregnancy or obesity which are associated to insulin resistance, where insulin needs are increased. In this context, defects in beta-cell function, sometimes associated with beta-cell loss, may result in the release of inappropriate amounts of insulin leading to chronic hyperglycemia, properly defined as type 2 diabetes mellitus. So far, the mechanisms underlying beta- cell compensation as well as beta-cell failure remain to be established. The recently discovered small non-coding RNAs called microRNAs (miRNAs) are emerging as interesting therapeutic targets and are bringing new hope for the treatment of diabetes. miRNAs display a massive potential in regulating gene expression by directly binding to the 3'UTR of messenger RNAs and by inhibiting their translation and/or stability, enabling them to modify a wide range of biological functions. In view of this, we hypothesized that miRNAs may play an essential role in preserving the functional beta-cell mass and permitting to fight against beta-cell exhaustion and decompensation that can lead to diabetes development. In a first study, global profiling in pancreatic islets of pregnant rats, a model of insulin resistance, led to the identification of a set of differentially expressed miRNAs. Among them, miR-338- 3p was found to promote beta-cell proliferation and survival upon exposure of islet cells to pro- apoptotic stimuli such as saturated fatty acids or pro-inflammatory cytokines, without impairment in their capacity to release insulin. We also discovered that miR-338-3p changes are driven by two hormones, the estradiol and the incretin GLP1, both well known for their beneficial impact on beta- cell physiology. Consistently, we found that miR-338-3p integrates the cAMP-dependent signaling pathways regulated by these two hormones in order to control the expression of numerous genes and execute its biological functions. In a second project, we aimed at determining whether miRNAs contribute to the acquisition of beta-cell identity. Indeed, we confirmed that right after birth beta-cells are still immature and are unable to secrete insulin specifically in response to elevated concentrations of glucose. In contrast, amino acid-stimulated insulin release as well as insulin biosynthesis are already fully functional. In parallel, newborn beta-cells are proliferating intensively within the expanding pancreas. Interestingly, we demonstrated that the miRNA changes and the subsequent acquisition of glucose responsiveness is influenced by the diet composition and the resulting insulin needs. At the same time, beta-cell proliferation declines. The miRNAs that we have identified orchestrate expression changes of essential genes involved in the acquisition of specific beta-cell properties and in the maintenance of a mature beta-cell identity. Altogether, these studies clearly demonstrate that miRNAs play important roles in the regulation of beta-cell function.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une des percées les plus importantes dans la recherche sur les nanoparticules (ambiantes et manufacturées) a été la reconnaissance de leur potentiel à générer un stress oxydatif au niveau cellulaire. Dans cette optique, la mesure du potentiel oxydant intrinsèque des particules pourrait présenter une première étape dans l'évaluation des dangers. Ce projet méthodologique avait pour but de caractériser le potentiel oxydant de différentes nanoparticules « modèles » (ambiantes et manufacturées) au moyen de trois tests acellulaires (Test DTT, Test DCFH, Test oxymétrique) et d'utiliser ces résultats pour proposer une méthode de « référence ». D'autre part, nous avons appliqué la méthode sélectionnée à deux cas (exposition d'ouvriers à des particules de combustion et évaluation du danger de différentes nanoparticules manufacturées) afin de déterminer quels sont les paramètres qui influencent la mesure. Les résultats obtenus indiquent que la préparation des suspensions joue un rôle dans la mesure de ce potentiel oxydant. La réactivité dépend de la concentration du surfactant et de la durée de sonication. D'autre part, l'ordre de réactivité est dépendant de la métrique utilisée (masse ou surface) pour exprimer les résultats. Parmi les trois tests considérés, le test DTT pourrait être le plus utile pour effectuer une évaluation initiale du danger potentiel de nanoparticules ambiantes ou manufacturées. Ce test pourrait être intégré dans une stratégie d'évaluation de la toxicité des nanoparticules. Le test DTT correspond bien un test intégratif. Pour des situations de travail dans lesquelles les particules de combustion sont majoritaires, les paramètres physico-chimiques qui corrèlent de manière significative avec la réactivité DTT sont la surface des particules, les concentrations de carbone organique, la somme des concentrations de quatre quinones et les concentrations de fer et cuivre. Un nombre plus faible de corrélations est observé dans des ateliers mécaniques, suggérant que d'autres composés non mesurés interviennent également dans cette réactivité. Concernant les nanoparticules carbonées manufacturées, les fonctions chimiques de surface corrélées avec la réactivité DTT sont des fonctions acides et des fonctions inconnues pouvant dismuter. D'autre part, la solubilité et la possibilité de former des complexes avec le DTT sur la surface des NP manufacturées influencent le résultat de réactivité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alors que l'immunisation active contre l'influenza semble être actuellement largement entrée dans la pratique médicale, force est de constater que c'est loin d'être le cas pour les infections à pneumocoque. La vaccination anti-pneumocoque. La vaccination anti-pneumococcique, qui est incluse dans les schémas d'immunisation de nombreux pays, ne fait actuellement pas l'objet de recommendations particulières en Suisse et son utilisation y reste marginale. Compte tenu du nombre élevé d'infections sévères et de décès potentiellement évitables, sa généralisation à tous les groupes à risque doit être encouragée. De plus, cette stratégie pourrait se révéler utile face à la progression inexorable de la proportion de souches résistantes à la pénicilline et aux autres microbes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[Table des matières] 1. Zusammenfassung. 2. Introduction et contexte de l'étude. 3. Méthode. 4. Besoins des personnes vivant avec le VIH/sida, amis et partenaires. 5. Etudes donnant des indications sur certaines catégories de besoins des personnes séropositives. 5.1.Programme national VIH/sida de 1999 à 2003. 5. 2. Test de dépistage du VIH. 5.3. Prophylaxie post exposition VIH (PEP). 5.4. La sexualité des personnes vivant avec le VIH/sida. 5.5. Discriminations institutionnelles à l'encontre des personnes vivant avec le VIH en Suisse. 5.6. Evaluation de la stratégie de prévention du sida en Suisse sur mandat de l'Office fédéral de la santé publique : sixième rapport de synthèse. 5.7. Activité de prévention du sida des médecins de premier recours, le counselling pré-test. 5.8. Comparaison 1989/1997 : est-ce que l'amélioration du traitement médical se répercute aussi sur la perception des patients de leur maladie ? 5.9. Histoires individuelles avec le VIH, bien-être psychophysique, coping, charge psychosociale. 5.10. Etude médico-ethnologique sur la prise en charge et les choix thérapeutiques. 5.11. Qualité des soins d'un service ambulatoire spécialisé dans le suivi des patients infectés par le VIH, le point de vue des patients. 5.12. Prévention de la transmission du VIH dans les prisons suisses : analyse secondaire sur la base de la littérature disponible. 5. 13. Recommandations. 5.14. Formation VIH/sida 1989-1999. 5.15. Etude sur les nouveaux traitements du VIH/sida dans la perspective des patients. 5.16. Projet SESAM. 5.17. Etude : Evaluation du site HivNet. 5.18. Etudes relatives à la paupérisation des personnes vivant avec le VIH. 5.19. Travail, revenu et pauvreté chez les personnes vivant avec le VIH/sida de la "Swiss Cohort Study". 5.20. Séropositivité, sida et les assurances sociales. 5.21. Politiques et pratqieus cantonales en matière de prévention VIH/sida et d'éducation sexuelle à l'école. 5.22. Données épidémiologiques sur le VIH/sida issues du système de surveillance. 5.23. Données descriptives issues de la Swiss HIV Cohort Study. 6. Tableau récapitulatif : conclusions et recommandations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La promotion de l'utilisation de préservatifs lors de relations sexuelles est un élément central de la stratégie de prévention du VIH/Sida en Suisse. Depuis 1986, l'Unité d'Evaluation de Programmes de Prévention de l'Institut Universitaire de Médecine Sociale et Préventive de Lausanne effectue le suivi de la mise à disposition de préservatifs sur le marché suisse. D'abord entrepris dans le cadre de l'évaluation de la stratégie nationale de prévention du VIH/Sida de l'OFSP, ce suivi s'effectue depuis 2000 dans le cadre du monitoring de cette prévention.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary Cell therapy has emerged as a strategy for the treatment of various human diseases. Cells can be transplanted considering their morphological and functional properties to restore a tissue damage, as represented by blood transfusion, bone marrow or pancreatic islet cells transplantation. With the advent of the gene therapy, cells also were used as biological supports for the production of therapeutic molecules that can act either locally or at distance. This strategy represents the basis of ex vivo gene therapy characterized by the removal of cells from an organism, their genetic modification and their implantation into the same or another individual in a physiologically suitable location. The tissue or biological function damage dictates the type of cells chosen for implantation and the required function of the implanted cells. The general aim of this work was to develop an ex vivo gene therapy approach for the secretion of erythropoietin (Epo) in patients suffering from Epo-responsive anemia, thus extending to humans, studies previously performed with mouse cells transplanted in mice and rats. Considering the potential clinical application, allogeneic primary human cells were chosen for practical and safety reasons. In contrast to autologous cells, the use of allogeneic cells allows to characterize a cell lineage that can be further transplanted in many individuals. Furthermore allogeneic cells avoid the potential risk of zoonosis encountered with xenogeneic cells. Accordingly, the immune reaction against this allogeneic source was prevented by cell macro- encapsulation that prevents cell-to-cell contact with the host immune system and allows to easy retrieve the implanted device. The first step consisted in testing the survival of various human primary cells that were encapsulated and implanted for one month in the subcutaneous tissue of immunocompetent and naturally or therapeutically immunodepressed mice, assuming that xenogeneic applications constitute a stringent and representative screening before human transplantation. A fibroblast lineage from the foreskin of a young donor, DARC 3.1 cells, showed the highest mean survival score. We have then performed studies to optimize the manufacturing procedures of the encapsulation device for successful engraftment. The development of calcifications on the polyvinyl alcohol (PVA) matrix serving as a scaffold for enclosed cells into the hollow fiber devices was reported after one month in vivo. Various parameters, including matrix rinsing solutions, batches of PVA and cell lineages were assessed for their respective role in the development of the phenomenon. We observed that the calcifications could be totally prevented by using ultra-pure sterile water instead of phosphate buffer saline solution in the rinsing procedure of the PVA matrix. Moreover, a higher lactate dehydrogenase activity of the cells was found to decrease calcium depositions due to more acidic microenvironment, inhibiting the calcium precipitation. After the selection of the appropriate cell lineage and the optimization of encapsulation conditions, a retroviral-based approach was applied to DARC 3.1 fibroblasts for the transduction of the human Epo cDNA. Various modifications of the retroviral vector and the infection conditions were performed to obtain clinically relevant levels of human Epo. The insertion of a post-transcriptional regulatory element from the woodchuck hepatitis virus as well as of a Kozak consensus sequence led to a 7.5-fold increase in transgene expression. Human Epo production was further optimized by increasing the multiplicity of infection and by selecting high producer cells allowing to reach 200 IU hEpo/10E6 cells /day. These modified cells were encapsulated and implanted in vivo in the same conditions as previously described. All the mouse strains showed a sustained increase in their hematocrit and a high proportion of viable cells were observed after retrieval of the capsules. Finally, in the perspective of human application, a syngeneic model using encapsulated murine myoblasts transplanted in mice was realized to investigate the roles of both the host immune response and the cells metabolic requirements. Various loading densities and anti-inflammatory as well as immunosuppressive drugs were studied. The results showed that an immune process is responsible of cell death in capsules loaded at high cell density. A supporting matrix of PVA was shown to limit the cell density and to avoid early metabolic cell death, preventing therefore the immune reaction. This study has led to the development of encapsulated cells of human origin producing clinically relevant amounts of human EPO. This work resulted also to the optimization of cell encapsulation technical parameters allowing to begin a clinical application in end-stage renal failure patients. Résumé La thérapie cellulaire s'est imposée comme une stratégie de traitement potentiel pour diverses maladies. Si l'on considère leur morphologie et leur fonction, les cellules peuvent être transplantées dans le but de remplacer une perte tissulaire comme c'est le cas pour les transfusions sanguines ou les greffes de moelle osseuse ou de cellules pancréatiques. Avec le développement de la thérapie génique, les cellules sont également devenues des supports biologiques pour la production de molécules thérapeutiques. Cette stratégie représente le fondement de la thérapie génique ex vivo, caractérisée par le prélèvement de cellules d'un organisme, leur modification génétique et leur implantation dans le même individu ou dans un autre organisme. Le choix du type de cellule et la fonction qu'elle doit remplir pour un traitement spécifique dépend du tissu ou de la fonction biologique atteintes. Le but général de ce travail est de développer .une approche par thérapie génique ex vivo de sécrétion d'érythropoïétine (Epo) chez des patients souffrant d'anémie, prolongeant ainsi des travaux réalisés avec des cellules murines implantées chez des souris et des rats. Dans cette perpective, notre choix s'est porté sur des cellules humaines primaires allogéniques. En effet, contrairement aux cellules autologues, une caractérisation unique de cellules allogéniques peut déboucher sur de nombreuses applications. Par ailleurs, l'emploi de cellules allogéniques permet d'éviter les riques de zoonose que l'on peut rencontrer avec des cellules xénogéniques. Afin de protéger les cellules allogéniques soumises à une réaction immunitaire, leur confinement dans des macro-capsules cylindriques avant leur implantation permet d'éviter leur contact avec les cellules immunitaires de l'hôte, et de les retrouver sans difficulté en cas d'intolérance ou d'effet secondaire. Dans un premier temps, nous avons évalué la survie de différentes lignées cellulaires humaines primaires, une fois encapsulées et implantées dans le tissu sous-cutané de souris, soit immunocompétentes, soit immunodéprimées naturellement ou par l'intermédiaire d'un immunosuppresseur. Ce modèle in vivo correspond à des conditions xénogéniques et représente par conséquent un environnement de loin plus hostile pour les cellules qu'une transplantation allogénique. Une lignée fibroblastique issue du prépuce d'un jeune enfant, nommée DARC 3 .1, a montré une remarquable résistance avec un score de survie moyen le plus élevé parmi les lignées testées. Par la suite, nous nous sommes intéressés aux paramètres intervenant dans la réalisation du système d'implantation afin d'optimaliser les conditions pour une meilleure adaptation des cellules à ce nouvel environnement. En effet, en raison de l'apparition, après un mois in vivo, de calcifications au niveau de la matrice de polyvinyl alcohol (PVA) servant de support aux cellules encapsulées, différents paramètres ont été étudiés, tels que les procédures de fabrication, les lots de PVA ou encore les lignées cellulaires encapsulées, afin de mettre en évidence leur rôle respectif dans la survenue de ce processus. Nous avons montré que l'apparition des calcifications peut être totalement prévenue par l'utilisation d'eau pure au lieu de tampon phosphaté lors du rinçage des matrices de PVA. De plus, nous avons observe qu'un taux de lactate déshydrogénase cellulaire élevé était corrélé avec une diminution des dépôts de calcium au sein de la matrice en raison d'un micro-environnement plus acide inhibant la précipitation du calcium. Après sélection de la lignée cellulaire appropriée et de l'optimisation des conditions d'encapsulation, une modification génétique des fibroblastes DARC 3.1 a été réalisée par une approche rétrovirale, permettant l'insertion de l'ADN du gène de l'Epo dans le génome cellulaire. Diverses modifications, tant au niveau génétique qu'au niveau des conditions d'infection, ont été entreprises afin d'obtenir des taux de sécrétion d'Epo cliniquement appropriés. L'insertion dans la séquence d'ADN d'un élément de régulation post¬transcriptionnelle dérivé du virus de l'hépatite du rongeur (« woodchuck ») ainsi que d'une séquence consensus appelée « Kozak » ont abouti à une augmentation de sécrétion d'Epo 7.5 fois plus importante. De même, l'optimisation de la multiplicité d'infection et la sélection plus drastique des cellules hautement productrices ont permis finalement d'obtenir une sécrétion correspondant à 200 IU d'Epo/10E6 cells/jour. Ces cellules génétiquement modifiées ont été encapsulées et implantées in vivo dans les mêmes conditions que celles décrites plus haut. Toutes les souris transplantées ont montré une augmentation significative de leur hématocrite et une proportion importante de cellules présentait une survie conservée au moment de l'explantation des capsules. Finalement, dans la perspective d'une application humaine, un modèle syngénique a été proposé, basé sur l'implantation de myoblastes murins encapsulés dans des souris, afin d'investiguer les rôles respectifs de la réponse immunitaire du receveur et des besoins métaboliques cellulaires sur leur survie à long terme. Les cellules ont été encapsulées à différentes densités et les animaux transplantés se sont vus administrer des injections de molécules anti-inflammatoires ou immunosuppressives. Les résultats ont démontré qu'une réaction immunologique péri-capsulaire était à la base du rejet cellulaire dans le cas de capsules à haute densité cellulaire. Une matrice de PVA peut limiter cette densité et éviter une mort cellulaire précoce due à une insuffisance métabolique et par conséquent prévenir la réaction immunitaire. Ce travail a permis le développement de cellules encapsulées d'origine humaine sécrétant des taux d'Epo humaine adaptés à des traitements cliniques. De pair avec l'optimalisation des paramètres d'encapsulation, ces résultats ont abouti à l'initiation d'une application clinique destinée à des patients en insuffisance rénale terminale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est important pour les entreprises de compresser les informations détaillées dans des sets d'information plus compréhensibles. Au chapitre 1, je résume et structure la littérature sur le sujet « agrégation d'informations » en contrôle de gestion. Je récapitule l'analyse coûts-bénéfices que les comptables internes doivent considérer quand ils décident des niveaux optimaux d'agrégation d'informations. Au-delà de la perspective fondamentale du contenu d'information, les entreprises doivent aussi prendre en considération des perspectives cogni- tives et comportementales. Je développe ces aspects en faisant la part entre la comptabilité analytique, les budgets et plans, et la mesure de la performance. Au chapitre 2, je focalise sur un biais spécifique qui se crée lorsque les informations incertaines sont agrégées. Pour les budgets et plans, des entreprises doivent estimer les espérances des coûts et des durées des projets, car l'espérance est la seule mesure de tendance centrale qui est linéaire. A la différence de l'espérance, des mesures comme le mode ou la médiane ne peuvent pas être simplement additionnés. En considérant la forme spécifique de distributions des coûts et des durées, l'addition des modes ou des médianes résultera en une sous-estimation. Par le biais de deux expériences, je remarque que les participants tendent à estimer le mode au lieu de l'espérance résultant en une distorsion énorme de l'estimati¬on des coûts et des durées des projets. Je présente également une stratégie afin d'atténuer partiellement ce biais. Au chapitre 3, j'effectue une étude expérimentale pour comparer deux approches d'esti¬mation du temps qui sont utilisées en comptabilité analytique, spécifiquement « coûts basés sur les activités (ABC) traditionnelles » et « time driven ABC » (TD-ABC). Au contraire des affirmations soutenues par les défenseurs de l'approche TD-ABC, je constate que cette dernière n'est pas nécessairement appropriée pour les calculs de capacité. Par contre, je démontre que le TD-ABC est plus approprié pour les allocations de coûts que l'approche ABC traditionnelle. - It is essential for organizations to compress detailed sets of information into more comprehensi¬ve sets, thereby, establishing sharp data compression and good decision-making. In chapter 1, I review and structure the literature on information aggregation in management accounting research. I outline the cost-benefit trade-off that management accountants need to consider when they decide on the optimal levels of information aggregation. Beyond the fundamental information content perspective, organizations also have to account for cognitive and behavi¬oral perspectives. I elaborate on these aspects differentiating between research in cost accounti¬ng, budgeting and planning, and performance measurement. In chapter 2, I focus on a specific bias that arises when probabilistic information is aggregated. In budgeting and planning, for example, organizations need to estimate mean costs and durations of projects, as the mean is the only measure of central tendency that is linear. Different from the mean, measures such as the mode or median cannot simply be added up. Given the specific shape of cost and duration distributions, estimating mode or median values will result in underestimations of total project costs and durations. In two experiments, I find that participants tend to estimate mode values rather than mean values resulting in large distortions of estimates for total project costs and durations. I also provide a strategy that partly mitigates this bias. In the third chapter, I conduct an experimental study to compare two approaches to time estimation for cost accounting, i.e., traditional activity-based costing (ABC) and time-driven ABC (TD-ABC). Contrary to claims made by proponents of TD-ABC, I find that TD-ABC is not necessarily suitable for capacity computations. However, I also provide evidence that TD-ABC seems better suitable for cost allocations than traditional ABC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The widespread use of combination antiretroviral therapy (ARVs) has considerably improved the prognosis of patients infected with HIV. Conversely, considerable advances have been recently realized for the therapy of hepatitis C infection with the recent advent of potent new anti-HCV drugs that allow an increasing rate HCV infection cure. Despite their overall efficacy, a significant number of patients do not achieve or maintain adequate clinical response, defined as an undetectable viral load for HIV, and a sustained virological response (or cure) in HCV infection. Treatment failure therefore still remains an important issue besides drugs toxicities and viral resistance which is not uncommon in a significant percentage of patients who do not reach adequate virological suppression. The reasons of variability in drug response are multifactorial and apart from viral genetics, other factors such as environmental factors, drug- drug interactions, and imperfect compliance may have profound impact on antiviral drugs' clinical response. The possibility of measuring plasma concentration of antiviral drugs enables to guide antiviral drug therapy and ensure optimal drug exposure. The overall objective of this research was to widen up the current knowledge on pharmacokinetic and pharmacogenetic factors that influence the clinical response and toxicity of current and newly approved antiretroviral and anti-HCV drugs. To that endeavour, analytical methods using liquid chromatography coupled with tandem mass spectrometry have been developed and validated for the precise and accurate measurement of new antiretroviral and anti-HCV drugs . These assays have been applied for the TDM of ARVs and anti-HCV in patients infected with either HIV or HCV respectively, and co-infected with HIV- HCV. A pharmacokinetic population model was developed to characterize inter and intra-patient variability of rilpivirine, the latest marketed Non Nucleoside Reverse transcriptase (NNRTI) Inhibitor of HIVand to identify genetic and non genetic covariates influencing rilpivirine exposure. None of the factors investigated so far showed however any influence of RPV clearance. Importantly, we have found that the standard daily dosage regimen (25 mg QD) proposed for rilpivirine results in concentrations below the proposed therapeutic target in about 40% of patients. In these conditions, virologie escape is a potential risk that remains to be further investigated, notably via the TDM approach that can be a useful tool to identify patients who are at risk for being exposed to less than optimal levels of rilpivirine in plasma. Besides the last generation NNRTI rilpivirine, we have studied efavirenz, the major NNRTI clinically used so far. Namely for efavirenz, we aimed at identifying a potential new marker of toxicity that may be incriminated for the neuropsychological sides effects and hence discontinuation of efavirenz therapy. To that endeavour, a comprehensive analysis of phase I and phase II metabolites profiles has been performed in plasma, CSF and in urine from patients under efavirenz therapy. We have found that phase II metabolites of EFV constitute the major species circulating in blood, sometimes exceeding the levels of the parent drug efavirenz. Moreover we have identified a new metabolite of efavirenz in humans, namely the 8-OH-EFV- sulfate which is present at high concentrations in all body compartments from patients under efavirenz therapy. These investigations may open the way to possible alternate phenotypic markers of efavirenz toxicity. Finally, the specific influence of P-glycoprotein on the cellular disposition of a series ARVs (NNRTIs and Pis] has been studies in in vitro cell systems using the siRNA silencing approach. -- Depuis l'introduction de la thérapie antirétrovirale (ARVs) la morbidité et la mortalité liées au VIH ont considérablement diminué. En parallèle le traitement contre le virus de l'hépatite C (VHC) a connu récemment d'énormes progrès avec l'arrivée de nouveaux médicaments puissants, ce qui a permis une augmentation considérable de la guérison de l'infection par le VHC. En dépit de l'efficacité de ces traitements antiviraux, les échecs thérapeutiques ainsi que les effets secondaires des traitements restent un problème important. Une réponse imparfaite ou la toxicité du traitement est certainement multifactorielle. Le suivi thérapeutique des médicaments [Therapeutic Drug Monitoring TDM) à travers la mesure des concentrations plasmatiques constitue une approche importante pour guider le traitement médicamenteux et de s'assurer que les patients sont exposés à des concentrations optimales des médicaments dans le sang, et puissent tirer tout le bénéfice potentiel du traitement. L'objectif global de cette thèse était d'étudier les facteurs pharmacocinétiques et pharmacogénétiques qui influencent l'exposition des médicaments antiviraux (ARVs et anti- VHC) récemment approuvés. A cet effet, des méthodes de quantification des concentrations plasmatiques des médicaments antirétroviraux, anti-VHC ainsi que pour certains métabolites ont été développées et validées en utilisant la Chromatographie liquide couplée à la spectrométrie de masse tandem. Ces méthodes ont été utilisées pour le TDM des ARVs et pour les agents anti-VHC chez les patients infectés par le VIH, et le VHC, respectivement, mais aussi chez les patients co-infectés par le VIH-VHC. Un modèle de pharmacocinétique de population a été développé pour caractériser la variabilité inter-et intra-patient du médicament rilpivirine, un inhibiteur non nucléosidique de la transcriptase de VIH et d'identifier les variables génétiques et non génétiques influençant l'exposition au médicament. Aucun des facteurs étudiés n'a montré d'influence notable sur la clairance de la rilpivirine. Toutefois, la concentration résiduelle extrapolée selon le modèle de pharmacocinétique de population qui a été développé, a montré qu'une grande proportion des patients présente des concentrations minimales inférieures à la cible thérapeutique proposée. Dans ce contexte, la relation entre les concentrations minimales et l'échappement virologique nécessite une surveillance étroite des taux sanguins des patients recevant de la rilpivirine. A cet effet, le suivi thérapeutique est un outil important pour l'identification des patients à risque soient sous-exposés à lai rilpivirine. Pour identifier de nouveaux marqueurs de la toxicité qui pourraient induire l'arrêt du traitement, le profil des métabolites de phase I et de phase II a été étudié dans différentes matrices [plasma, LCR et urine) provenant de patients recevant de l'efavirenz. Les métabolites de phase II, qui n'avaient à ce jour jamais été investigués, constituent les principales espèces présentes dans les matrices étudiées. Au cours de ces investigations, un nouveau métabolite 8- OH-EFV-sulfate a été identifié chez l'homme, et ce dernier est. présent à des concentrations importantes. L'influence de certains facteurs pharmacogénétique des patients sur le profil des métabolites a été étudiée et ouvre la voie à de possibles nouveaux marqueurs phénotypiques alternatifs qui pourraient possiblement mieux prédire la toxicité associée au traitement par l'efavirenz. Finalement, nous nous sommes intéressés à étudier dans un modèle in vitro certains facteurs, comme la P-glycoprotéine, qui influencent la disposition cellulaire de certains médicaments antirétroviraux, en utilisant l'approche par la technologie du siRNA permettant de bloquer sélectivement l'expression du gène de cette protéine d'efflux des médicaments. -- Depuis l'introduction de la thérapie antiretrovirale (ARVs] la morbidité et la mortalité liées au VIH ont considérablement diminué. En parallèle le traitement contre le virus de l'hépatite C (VHC) a connu récemment d'énormes progrès avec l'arrivée de nouveaux médicaments puissants, ce qui a permis une augmentation considérable de la guérison de l'infection par le VHC. En dépit de l'efficacité de ces traitements antiviraux, les échecs thérapeutiques ainsi que les effets secondaires des traitements restent un problème important. Il a pu être démontré que la concentration de médicament présente dans l'organisme est corrélée avec l'efficacité clinique pour la plupart des médicaments agissant contre le VIH et contre le VHC. Les médicaments antiviraux sont généralement donnés à une posologie fixe et standardisée, à tous les patients, il existe cependant une importante variabilité entre les concentrations sanguines mesurées chez les individus. Cette variabilité peut être expliquée par plusieurs facteurs démographiques, environnementaux ou génétiques. Dans ce contexte, le suivi des concentrations sanguines (ou Therapeutic Drug Monitoring, TDM) permet de contrôler que les patients soient exposés à des concentrations suffisantes (pour bloquer la réplication du virus dans l'organisme) et éviter des concentrations excessives, ce qui peut entraîner l'apparition d'intolérence au traitement. Le but de ce travail de thèse est d'améliorer la compréhension des facteurs pharmacologiques et génétiques qui peuvent influencer l'efficacité et/ou la toxicité des médicaments antiviraux, dans le but d'améliorer le suivi des patients. A cet effet, des méthodes de dosage très sensibles et ont été mises au point pour permettre de quantifier les médicaments antiviraux dans le sang et dans d'autres liquides biologiques. Ces méthodes de dosage sont maintenant utilisées d'une part dans le cadre de la prise en charge des patients en routine et d'autre part pour diverses études cliniques chez les patients infectés soit par le HIV, le HCV ou bien coinfectés par les deux virus. Une partie de ce travail a été consacrée à l'investigation des différents facteurs démographiques, génétiques et environnementaux qui pourraient l'influencer la réponse clinique à la rilpivirine, un nouveau médicament contre le VIH. Toutefois, parmi tous les facteurs étudiés à ce jour, aucun n'a permis d'expliquer la variabilité de l'exposition à la rilpivirine chez les patients. On a pu cependant observer qu'à la posologie standard recommandée, un pourcentage relativement élevé de patients pourrait présenter des concentrations inférieures à la concentration sanguine minimale actuellement proposée. Il est donc utile de surveiller étroitement les concentrations de rilpivirine chez les patients pour identifier sans délai ceux qui risquent d'être sous-exposés. Dans l'organisme, le médicament subit diverses transformations (métabolisme) par des enzymes, notamment dans le foie, il est transporté dans les cellules et tissus par des protéines qui modulent sa concentration au site de son action pharmacologique. A cet effet, différents composés (métabolites) produits dans l'organisme après l'administration d'efavirenz, un autre médicament anti-VIH, ont été étudiés. En conclusion, nous nous sommes intéressés à la fois aux facteurs pharmacologiques et génétiques des traitements antiviraux, une approche qui s'inscrit dans l'optique d'une stratégie globale de prise en charge du patient. Dans ce contexte, le suivi des concentrations sanguines de médicaments constitue une des facettes du domaine émergent de la Médecine Personnalisée qui vise à maximiser le bénéfice thérapeutique et le profil de tolérance des médicaments antiviraux

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'article présente les étapes de la mise en place d'une veille bibliographique (ou veille scientifique) thématique effectuée conjointement depuis 2005 par 4 institutions francophones du domaine de la santé au travail : l'INRS (France), l'IRSST (Québec), l'IST (Suisse) et l'UCL (Belgique).La thématique suivie est celle de la surveillance biologique de l'exposition aux produits chimiques en milieu de travail. Les données recueillies et mises en forme par les documentalistes servent aux chercheurs spécialistes du sujet non seulement pour suivre les nouveautés du domaine, mais aussi pour documenter des cours et mettre à jour des guides de surveillance biologique. Les différentes étapes de l'approche méthodologique du projet sont décrites : le choix des bases de données à interroger et la mise au point de la stratégie de recherche, la mise en place d'une procédure de partage des tâches pour toutes les étapes du processus de veille qui se répètent à chaque mise à jour (interrogation, création de bases de données avec le logiciel Reference Manager, mise en forme et indexation des références, création et mise à disposition des partenaires des bases de données consolidées au fil du temps avec tous les articles analysés), les moyens administratifs, humains et techniques d'échange de fichiers et les essais pour élargir la veille à la surveillance de pages Web sélectionnées.Un bilan chiffré des six années de la veille est également donné.L'information récoltée et analysée durant les deux dernières années par les partenaires du projet fera l'objet d'un second article axé sur les principales tendances de la thématique choisie.