995 resultados para Stratégie syndicale


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec plus de 100000 transplantations d'organes solides (TOS) par année dans le monde, la transplantation d'organes reste actuellement l'un des meilleurs traitements disponibles pour de nombreuses maladies en phase terminale. Bien que les médicaments immunosuppresseurs couramment utilisés soient efficaces dans le contrôle de la réponse immune engendrant le rejet aigu d'une greffe, la survie du greffon à long terme ainsi que la présence d'effets secondaires indésirables restent un enjeu considérable en clinique. C'est pourquoi il est nécessaire de trouver de nouvelles approches thérapeutiques innovantes permettant de contrôler la réponse immunitaire et ainsi d'améliorer les résultats à long terme. L'utilisation des lymphocytes T régulateurs (Treg), suppresseurs naturels de la réponse inflammatoire, a fait l'objet de nombreuses études ces dix dernières années, et pourrait être considérée comme un moyen intéressant d'améliorer la tolérance immunologique de la greffe. Cependant, l'un des obstacles de l'utilisation des Treg comme agent thérapeutique est leur nombre insuffisant non seulement en conditions normales, mais en particulier lors d'une forte réponse immune avec expansion de cellules immunitaires alloréactives. En raison des limitations techniques connues pour l'induction des Treg ex-vivo ou in vitro, nous avons dédié la première partie du travail de thèse à la détermination de l'efficacité de l'induction des Treg in vivo grâce à l'utilisation d'un complexe protéique IL-2/JES6-1 (IL2c). Nous avons montré que l'expansion des Treg par IL2c permettait d'augmenter la survie du greffon sur un modèle murin de transplantation de peau avec mismatch entre le donneur et le receveur pour le complexe majeur d'histocompatibilité (CMH). De plus, nous avons vu qu'en combinant IL2c à une inhibition à court terme de la voie de co-stimulation CD40L-CD40 (anti-CD154/MRl, administré au moment de la transplantation) pour empêcher l'activation des lymphocytes T, il est possible d'induire une tolérance robuste à long terme. Finalement, nos résultats soulignent l'importance de cibler une voie de co-stimulation bien particulière. En effet, l'utilisation d'IL2c combinée au blocage de la co-stimulation CD28-B7.1/2 (CTLA-4 Ig) n'induit qu'une faible prolongation de la survie de la greffe et n'induit pas de tolérance. L'application chez l'humain des traitements induisant la tolérance dans des modèles expérimentaux murins ou de primates n'a malheureusement pas montré de résultats probants en recherche clinique ; une des principales raisons étant la présence de lymphocytes B et T mémoires provenant du systeme d immunité acquise. C est pourquoi nous avons testé si la combinaison d'IL2c et MR1 améliorait la survie de la greffe dans des souris pré¬sensibilisées. Nous avons trouvé qu'en présence de lymphocytes B et T mémoires alloréactifs, l'utilisation d'IL2c et MR1 permettait une amélioration de la survie de la greffe de peau des souris immunocompétentes mais comparé aux souris receveuses naïves, aucune tolérance n'a pu être induite. Toutefois, l'ajout d'un traitement anti-LFA-1 (permettant de bloquer la circulation des lymphocytes T activées) a permis d'améliorer de manière significative la survie de la greffe. Cependant, le rejet chronique, dû à la présence de lymphocytes B activés/mémoires et la production d'anticorps donneur-spécifiques, n'a pas pu être évité. Cibler l'activation des lymphocytes T est la stratégie immunothérapeutique prépondérente après une TOS. C'est pourquoi dans la deuxième partie de cette thèse nous nous sommes intéressés au système de signalisation d'un récepteur des lymphocytes T qui dépend de la paracaspase Malti en tant que nouvelle stratégie immunosuppressive pour le contrôle des lymphocytes T alloréactifs. Nous avons montré que bien que l'inhibition de la signalisation du lymphocyte T en aval de Malti induise une tolérance envers un greffon de peau avec incompatibilités antigéniques mineures, cela ne permet cependant qu'une régulation partielle de l'alloréponse contre des antigènes du CMH. Nous nous sommes aussi intéressés spécifiquement à l'activité protéolytique de Malti. L'inhibition constitutive de l'activité protéolytique de Malti chez les souris Malti-ki s'est révélée délétère pour l'induction de la tolérance car elle diminue la fonction des Treg et augmente l'alloréactivité des cellules Thl. Cependant, lors de l'utilisation d'un inhibiteur peptidique de l'activité protéase de Malti in vitro, il a été possible d'observer une atténuation de l'alloéactivité des lymphocytes T ainsi qu'un maintien de la population des Treg existants. Ces résultats nous laissent penser que des études plus poussées sur le rôle de la signalisation médiée par Malti seraient à envisager dans le domaine de la transplantation. En résumé, les résultats obtenus durant cette thèse nous ont permis d'élucider certains mécanismes immunologiques propres à de nouvelles stratégies thérapeutiques potentielles dont le but est d'induire une tolérance lors de TOS. De plus, ces résultats nous ont permis de souligner l'importance d'utiliser des modèles davantage physiologiques contenant, notamment en tenant compte des lymphocytes B et T mémoires alloréactifs. -- Organ transplantation remains the best available treatment for many forms of end-stage organ diseases, with over 100,000 solid organ transplantations (SOT) occurring worldwide eveiy year. Although the available immunosuppressive (IS) drugs are efficient in controlling acute immune activation and graft rejection, the off-target side effects as well as long-term graft and patient survival remain a challenge in the clinic. Hence, innovative therapeutic approaches are needed to improve long-term outcome across immunological barriers. Based on extensive experimental data obtained over the last decade, it is tempting to consider immunotherapy using Treg; the natural suppressors of overt inflammatory responses, in promoting transplantation tolerance. The first hurdle for the therapeutic use of Treg is their insufficient numbers in non- manipulated individuals, in particular when facing strong immune activation and expanding alloreactive effector cells. Because of the limitations associated with current protocols aiming at ex-vivo expansion or in vitro induction of Treg, the aim of the first part of this thesis was to determine the efficacy of direct in vivo expansion of Treg using the IL-2/JES6- 1 immune complex (IL2c). We found that whilst IL2c mediated Treg expansion alone allowed the prolonged graft survival of fìlli MHC-mismatched skin grafts, its combination with short-term CD40L-CD40 co-stimulation blockade (anti-CD 154/MR1) to inhibit T cell activation administered at the time of transplantation was able to achieve long-term robust tolerance. This study also highlighted the importance of combining Treg based therapies with the appropriate co-stimulation blockade as a combination of IL2c and CD28-B7.1/2 co- stimulation blockade (CTLA-4 Ig) only resulted in slight prolongation of graft survival but not tolerance. The translation of tolerance induction therapies modelled in rodents into non-human primates or into clinical trials has seldom been successful. One main reason being the presence of pre-existing memory T- and B-cells due to acquired immunity in humans versus laboratory animals. Hence, we tested whether IL2c+MRl could promote graft survival in pre-sensitized mice. We found that in the presence of alloreactive memory T- and B-cells, IL2c+MRl combination therapy could prolong MHC-mismatched skin graft survival in immunocompetent mice but tolerance was lost compared to the naïve recipients. The addition of anti-LF A-1 treatment, which prevents the trafficking of memory T cells worked synergistically to significantly further enhance graft survival. However, late rejection mediated by activated/memory B cells and persistent donor-specific alloantibodies still occurred. Immunotherapeutic strategies targeting the activation of T cells are the cornerstone in the current immunosuppressive management after SOT. Therefore, in the next part of this thesis we investigated the paracaspase Malti-dependent T-cell receptor signalling as a novel immunosuppressive strategy to control alloreactive T cells in transplantation. We observed that although the inhibition of Malti downstream T signalling lead to tolerance of a minor H- mismatch skin grafts, it was however not sufficient to regulate alloresponses against MHC mismatches and only prolonged graft survival. Furthermore, we investigated the potential of more selectively targeting the protease activity of Malti. Constitutive inhibition of Malti protease activity in Malti-ki mice was detrimental to tolerance induction as it diminished Treg function and increased Thl alloreactivity. However, when using a small peptide inhibitor of Malti proteolytic activity in vitro, we observed an attenuation of alloreactive T cells and sparing of the pre-existing Treg pool. This indicates that further investigation of the role of Malti signalling in the field of transplantation is required. Collectively, the findings of this thesis provide immunological mechanisms underlying novel therapeutic strategies for the promotion of tolerance in SOT. Moreover, we highlight the importance of testing tolerance induction therapies in more physiological models with pre-existing alloreactive memory T and B cells.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les membres de la Génération Sandwich (GS) jouent un rôle pivot dans la société : tout en ayant un emploi, ils s'occupent de leurs enfants ou petits-enfants et offrent de l'aide à leurs parents ou beaux-parents (P/BP) fragilisés par leur vieillissement. Les charges de travail coexistantes générées par ces activités représentent pour leur santé un risque potentiel qui pourrait augmenter. Les connaissances sur la GS et sa santé perçue sont cependant insuffisantes pour que les infirmières de santé au travail développent des interventions préventives basées sur des preuves. La majorité des recherches existantes ont considéré la coexistence des charges comme a priori pathogénique. La plupart des études n'ont examiné l'association que d'une ou de deux de ces trois activités avec la santé. Très peu ont utilisé un cadre théorique infirmier. La présente thèse visait à développer les connaissances sur les membres de la GS et leur santé perçue. Aussi, nous avons adopté une des stratégies existantes pour développer des théories en science infirmière - donc pour développer des connaissances infirmières pour intervenir - décrites par Meleis (2012) : la stratégie « de la Théorie à la Recherche à la Théorie ». Premièrement, un cadre de référence infirmier salutogénique a été construit. Il s'est basé sur le modèle de soins Neuman Systems Model, des concepts issus de la théorie Déséquilibre entre Effort et Récompense de Siegrist et d'une recension intégrative des écrits. Il relie les charges de la GS avec la santé perçue et suggère l'existence de facteurs protégeant la santé. Deuxièmement, un dispositif de recherche descriptif corrélationnel exploratoire a été mis en place pour confronter les deux propositions relationnelles du cadre théorique au monde empirique. Des données ont été récoltées au moyen d'un questionnaire électronique rempli par 826 employés d'une administration publique (âge 45-65 ans). Après examen, 23.5% de l'échantillon appartenait à la GS. La probabilité d'appartenir à la GS augmentait avec l'avancement en âge des P/BP, la co-résidence et la présence d'un enfant dans le ménage ; cependant le sexe n'influençait pas cette probabilité. Les analyses n'ont révélé aucune relation entre la charge totale et la santé physique ou mentale des femmes. Néanmoins, il y avait une relation négative entre cette charge et la santé physique des hommes et une relation négative proche du seuil de significativité, sans toutefois l'atteindre, entre cette charge et leur santé mentale. La nature de ces deux dernières relations était principalement le fait de la charge de travail domestique et familiale. Cinq facteurs identifiés théoriquement ont effectivement protégé la santé de la GS de leurs charges coexistantes : l'absence de sur-engagement dans l'activité professionnelle et une grande latitude décisionnelle dans l'aide aux P/BP ont protégé la santé mentale des femmes ; une grande latitude décisionnelle dans l'activité domestique et familiale a protégé la santé mentale des hommes ; l'absence de sur-engagement dans l'aide aux P/BP et des relations de bonne qualité dans l'activité professionnelle ont protégé la santé physique des hommes. S'appuyant sur ces facteur protecteurs de la santé, cette thèse a proposé des pistes afin de développer des interventions pour la prévention primaire en santé au travail qui soient soucieuses de faire évoluer favorablement les inégalités de genre (gender-transformative). Elles ne concernent pas seulement les membres de la GS et les P/BP, mais aussi les employeurs. Troisièmement, comme les deux propositions relationnelles ont plutôt bien supporté la confrontation avec le monde empirique, cette thèse offre des suggestions pour poursuivre le développement de son cadre théorique et tendre vers la création d'une théorie de moyenne portée en science infirmière.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Détecter et comprendre les formes de criminalité, notamment organisées, qui sont impliquées dans la fabrication, la diffusion et/ou l'utilisation de faux documents d'identité est un enjeu complexe et persistant, mais est une nécessité pour soutenir l'action de la sécurité et l'étude des phénomènes criminels. A cet égard, il est postulé qu'une approche traçologique s'appuyant sur un profilage systématique des caractéristiques matérielles des faux documents d'identité peut fournir des renseignements criminels originaux, utiles et pertinents. Une méthode générale a été développée pour extraire, mémoriser et comparer systématiquement les profils des faux documents d'identité saisis par les acteurs de la sécurité. Cette méthode permet de détecter et de suivre les relations entre cas, les tendances et patterns criminels, dont l'interprétation au travers de différentes formes d'analyse permet la mise en évidence de potentiels groupes criminels, d'auteurs prolifiques et de <i>modus operandi</i> récurrents. Par l'étude de centaines de faux documents d'identité saisis par la police et les garde-frontière dans deux pays distincts, cet article démontre comment le renseignement forensique peut soutenir la génération et l'étude d'hypothèses sur la criminalité, aidant par-là la compréhension des marchés et réseaux criminels sur les plans stratégique, opérationnel et tactique. L'article illustre également comment le renseignement forensique peut soutenir des mesures préventives et peut contribuer à l'analyse des risques que posent les faux documents d'identité, voire à la remise en cause de la stratégie sécuritaire et de contrôle actuelle. L'approche proposée présente un carctère essentiellement générique puisque, à l'instar de l'exemple des faux documents d'identité, n'importe quel type de trace matérielle peut être traité systématiquement et scientifiquement de sorte à contribuer à la construction structurée de connaissances sur la criminalité et la sécurité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le système nerveux périphérique est responsable de la transmission des impulses motrices, ainsi que de la réception des afférences sensorielles. Les lésions traumatiques des nerfs périphériques conduisent à une impotence fonctionnelle qui peut être dévastant, notamment chez les travailleurs manuels,. La récupération fonctionnelle est donc le but principal dans chirurgie des nerfs périphériques. Malheureusement, une suture directe des moignons nerveux est souvent impossible dans le contexte des traumatismes complexes qui surviennent lors des accidents. La suture nerveuse par interposition d'autogreffe reste le gold standard dans la pratique chirurgicale mais nécessite le sacrifice d'un nerf donneur, avec dysesthésie et possibles douleurs neuropathiques conséquentes. Alternativement, des guides tubulaires pour les nerfs peuvent être utilisées si le gap nerveux est inférieur à 3 cm. Plusieurs guides résorbables en collagène sont approuve en Europe et aux Etas Unis (FDA). Dans cette étude, des conduits de collagène ont été associe a des cellules régénératives (cellules souches adultes) comme stratégie supplémentaire de régénération. Une fois testé le rapport des cellules avec le biomatériau (NeuraGen® nerve guides) in vitro, une étude in vivo dans le rat a été effectuée. Les différents groupes de conduits ont été supplémentés respectivement avec Schwann cells (SC); avec cellules souches adultes dérivées de la moelle épinière, différentiées en cellules "Schwann-like" (dMSC); avec cellules souches adultes dérivées de la graisse, différentiées en cellules "Schwann-like" (dASC). Un groupe de conduits avec du milieu de culture sans cellules a été utilisé comme group control. Les conduits ont été utilisés pour combler un gap de 1cm dans un model de section totale du nerf sciatique chez le rat. Deux semaines post implantation, une analyse immuno-histochimique a été effectuée pour évaluer la régénération axonales et l'infiltration de cellules de Schwann au niveau du conduit. Les cellules ont montré une adhérence efficace aux parois de collagène. En particulier, les cellules de Schwann ont montré une amélioration significative au niveau du sprouting distale. Par contre, aucune différence significative n'a été remarquée entre les groupes pour le sprouting axonale proximal. De plus, si les cellules souches ont montré un pattern de sprouting diffus, les cellules de Schwann ont par contre garanti un cône de croissance typique, associé a une affinité remarquable pour les parois de collagène. NeuraGen® guides pourraient donc être un moyen adapté a l'association avec la thérapie cellulaire en raison de la bonne adhérence des cellules au biomatériau. Des modifications de surface dans le but d'améliorer la performance neurotrophique cellulaire in vivo (e.g. peptides de matrice extracellulaire) pourront être utilisées dans des applications futures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Background. Le considérable déclin de la malaria au niveau mondial remet en question la stratégie de chimioprophylaxie pour les voyageurs à destination de pays à risque modéré à faible de malaria. Un consensus international de la meilleure stratégie de prévention reste à trouver. Suivant le mouvement actuel de partage décisionnel, cette étude invite le voyageur au sein du débat comme acteur du processus de décision. Objectifs. Investiguer les préférences des voyageurs à destination de pays à risque modéré à faible de malaria en matière de prévention contre la malaria, en mettant en perspective leur perception du risque et les raisons de leur choix. Méthodologie. Dans la salle d'attente du Centre de Vaccination et Médecine de Voyage, les voyageurs à destination de risque modéré à faible de malaria remplissent un questionnaire et choisissent la méthode de prévention qu'ils préfèrent aidés d'un tableau leur proposant 4 choix possible ; mesure de prévention des piqûres de moustique uniquement, chimioprophylaxie, traitement de réserve seul et traitement de réserve avec test diagnostic rapide. Ils reçoivent aussi une échelle de risque illustrant les risques de malaria et d'effets indésirables des anti-malariques comparés à différents autres risques liés au voyage, inspirée par les palettes de Paling de la Communication Risk Institut. Résultats. De décembre 2012 à décembre 2013, 391 voyageurs on été inclus. 59 (15%) ont choisi la chimioprophylaxie, 116 (30%) un traitement de réserve, 112 (29%) un traitement de réserve avec test rapide diagnostic, 100 (26%) une prévention des piqûre de moustiques uniquement, and 4 (1%) plusieurs alternatives. Les raisons de choisir une chimioprophylaxie étaient la sécurité (42%), l'action préventive (29%), l'efficacité (15%) et la facilité d'utilisation (15%). Les raisons de choisir un traitement de réserve étaient moins de prise de médicament (29%), moins d'effets secondaires de ceux-ci (23%) et le prix (9%). Les voyageurs choisissant la chimioprohylaxie l'avaient plus souvent déjà utilisée par le passé [OR=3.0 (CI 1.7-5.44)], sans différence en terme de profil démographique, caractéristique du voyage ou comportement à risque. Conclusions. Quand interrogés, 85% des voyageurs à destination de pays à risque modéré à faible de malaria préfèrent ne pas prendre la chimioprophylaxie, bien que la plupart des pays la recommande encore. Les raisons avancées sont cohérentes avec leur choix. Les nouvelles recommandations devraient prendre en compte la préférence des voyageurs et inclure un processus de décision partagé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les tâches nécessitant des manipulations et des transformations de figures géométriques et de formes, comme les tâches de rotation mentale, donnent lieu à des différences de performance entre hommes et femmes qui restent intrigantes. Plusieurs hypothèses ont été proposées pour expliquer ces différences. La plus récurrente porte sur les différences de stratégie globale vs locale utilisées pour traiter l'information. Bien que cette conjecture soit intéressante, elle reste difficile à opérationnaliser car elle englobe tous les mécanismes cognitifs (acquisition, conservation et récupération de l'information). Ce travail prend la forme d'un retour aux sources dans la mesure où il se base sur des recherches anciennes qui ont montré que les hommes perçoivent significativement mieux que les femmes la verticale et l'horizontale. Il teste l'hypothèse selon laquelle les hommes, comparativement aux femmes, présentent une plus forte indépendance au champ perceptif visuel et sont donc plus susceptibles d'utiliser la verticalité et l'horizontalité pour résoudre une tâche de rotation mentale. Une première série d'expériences s'est penchée sur la perception spatiale pour évaluer son impact sur la résolution d'une tâche impliquant la rotation mentale. Les résultats ont montré que seuls les hommes se référaient à la verticalité et à l'horizontalité pour résoudre la tâche. Une seconde série d'expériences ont investigué l'effet de la présence, ou absence, d'axes directionnels directement liés à une tâche de rotation mentale. Elles ont été menées également en environnement réel afin d'évaluer comment le déplacement actif ou passif, correspondant à un changement de perspective en lieu et place d'une rotation mentale, module la performance des hommes et des femmes. Les résultats n'ont pas mis en évidence de différence sexuelle. Notre hypothèse est vérifiée puisque c'est uniquement lorsque la tâche ne présente pas d'axes orthogonaux évidents mais implicites que seuls les hommes, plus indépendants au champ perceptif visuel que les femmes, utilisent la perception de la verticalité et de l'horizontalité pour améliorer leur compétence en rotation mentale. -- Tasks that require manipulation and transformation of geometric shapes and forms, like tasks of mental rotation and give rise to differences in performance between men and women, remain intriguing. Several hypotheses have been proposed to explain these differences. The most recurring hypothesis addresses differences in global versus local strategies for processing information. While this conjecture is interesting, it remains difficult to study because it encompasses all the cognitive mechanisms (acquisition, retention and output). This work returns to the sources, which are based on earlier research that shows that men are significantly better than women at perceiving verticality and horizontality. It tests the hypothesis according to which men, as compared to women, exhibit a greater independence on the perceptive visual field, and therefore are more susceptible to utilizing the verticality and the horizontality to solve a mental rotation task. A first set of experiments examined spatial perception in order to assess its impact on the resolution of a task involving mental rotation. The results showed that only men referred to the verticality and the horizontality to solve the task. A second series of experiments investigated the effect of a presence, or absence of directional axes directed tied to the task of mental rotation. They were also conducted in a real world environment to evaluate how the active or passive displacement, corresponding to a change in perspective instead of a mental rotation, modulates the performance of men and women. The results did not show sex differences. Our hypothesis is verified: it is only when the task presents no obvious, but implicit orthogonal axes that men, who exhibit a greater independence on the perceptive visual field than women, use the perception of verticality and horizontality to improve their competence in mental rotation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette thèse, nous étudions les évolutions des systèmes d'information. Nous nous intéressons plus particulièrement à l'étude des facteurs déclencheurs d'évolution, ce qu'ils représentent et comment ils permettent d'en apprendre d'avantage sur le cycle de vie des systèmes d'information. Pour ce faire, nous avons développé un cadre conceptuel pour l'étude des évolutions qui tient compte non seulement des facteurs déclencheurs d'évolution, mais également de la nature des activités entreprises pour évoluer. Nous avons suivi une approche Design Science pour la conception de ce cadre conceptuel. Selon cette approche, nous avons développé itérativement le cadre conceptuel en l'instanciant puis en l'évaluant afin de raffiner sa conception. Ceci nous a permis de faire plusieurs contributions tant pratiques que théoriques. La première contribution théorique de cette recherche est l'identification de 4 facteurs principaux déclenchant les évolutions. Ces facteurs sont des éléments issus de domaines généralement étudiés séparément. Le cadre conceptuel les rassemble dans un même outil pour l'étude des évolutions. Une autre contribution théorique est l'étude du cycle de vie des systèmes selon ces facteurs. En effet, l'utilisation répétée du cadre conceptuel pour la qualification des évolutions met en lumière les principales motivations des évolutions lors de chaque étape du cycle de vie. En comparant les évolutions de plusieurs systèmes, il devient possible de mettre en évidence des modèles spécifiques d'évolution des systèmes. Concernant les contributions pratiques, la principale concerne le pilotage de l'évolution. Pour un gestionnaire de système d'information, l'application du cadre conceptuel permet de connaître précisément l'allocation réelle des ressources pour une évolution ainsi que la localisation du système dans son cycle de vie. Le cadre conceptuel peut donc aider les gestionnaires dans la planification et la stratégie d'évolution du système. Les modèles d'évolution, identifiés suite à l'application du cadre conceptuel, sont également une aide précieuse pour définir la stratégie de pilotage et les activités à entreprendre lors de la planification des évolutions. Finalement, le cadre conceptuel a fourni les bases nécessaires à l'élaboration d'un tableau de bord pour le suivi du cycle de vie et le pilotage de l'évolution des systèmes d'information.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This study compares the impact of quality management tools on the performance of organisations utilising the ISO 9001:2000 standard as a basis for a quality-management system band those utilising the EFQM model for this purpose. A survey is conducted among 107 experienced and independent quality-management assessors. The study finds that organisations with qualitymanagement systems based on the ISO 9001:2000 standard tend to use general-purpose qualitative tools, and that these do have a relatively positive impact on their general performance. In contrast, organisations adopting the EFQM model tend to use more specialised quantitative tools, which produce significant improvements in specific aspects of their performance. The findings of the study will enable organisations to choose the most effective quality-improvement tools for their particular quality strategy

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'espace du cyclisme se caractérise à la fois par la concurrence entre les cyclistes pour l'obtention des meilleurs classements et celle des organisateurs de course et de l'UCI (Union Cycliste Internationale) pour leure contrôle de ces classements. Cette double concurrence produit une concentration de la valeur des compétitions, permet à l'UCI de jouer un rôle de régulateur et a pour effet de structurer le travail des cyclistes et leur forme d'emploi, avec des conséquences sur leur, spécialement en termes de précarité. Les coureurs n'exercent ainsi que très peu de contrôle sur les principes de classement mais en subissent les effets. Les carrières des cyclistes, leurs contraintes et leurs expériences vont cependant se décliner différemment selon le type d'équipe à laquelle ils appartiennent. Si pour certains d'entre eux, l'équipe offre un accompagnement et sont en condition de pouvoir limiter leur charge de travail, d'autres ne sont pas en mesure de le faire. Face à cette précarité le dopage apparaît comme une stratégie de maintien en emploi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'intrigue est une notion polysémique qui a été récemment revisitée par les théories du récit, que certains définissent comme « postclassiques », pour souligner leurs différences par rapport aux paradigmes formalistes. Dans ce nouveau cadre d'analyse, l'intrigue n'est plus seulement conçue comme représentant la logique de l'histoire racontée, mais comme une stratégie discursive visant à engendrer un effet de tension chez le lecteur. A ce titre, l'étude de l'intrigue devient la voie royale pour explorer les liens passionnels qui se nouent entre les récits et leurs lecteurs. L'oeuvre de Ramuz Derborence sert d'illustration à ce que pourrait être un enseignement de la littérature centré sur l'intrigue dans sa définition la plus dynamique et dans son extension la plus large.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La plupart des inhibiteurs de protéines kinases développés en nombre à la suite de l'imatinib partagent avec celui-ci les caractéristiques des médicaments candidats au suivi thérapeutique pharmacologique : importante variabilité pharmacocinétique entre patients, influences de traits pharmacogénétiques et d'atteintes d'organes, potentiel d'interactions médicamenteuses, relations stables entre exposition et efficacité ou toxicité, index thérapeutique restreint. Alors que le profilage génétique des tumeurs ouvre la voie vers une oncologie personnalisée quant au choix des molécules thérapeutiques, le monitoring des concentrations et l'individualisation des posologies devraient assurer que chaque patient est exposé aux concentrations lui garantissant la meilleure efficacité pour le minimum de toxicité. Pour cela, il faut d'abord disposer d'études observationnelles décrivant la pharmacocinétique de population du médicament et les concentrations attendues sous une posologie donnée. Des études pharmacodynamiques doivent aussi déterminer les relations concentration-efficacité-toxicité, dont découlent les cibles d'exposition à viser par le traitement. Sur ces bases, une stratégie rationnelle de monitoring peut être élaborée, puis testée dans des essais cliniques randomisés contrôlés. Les progrès se font attendre dans ce domaine, en raison non seulement du désintérêt des groupes pharmaceutiques, des cliniciens et des autorités, mais aussi des difficultés inhérentes au processus de suivi des concentrations, tel qu'il se pratique aujourd'hui. Des innovations technologiques associant des méthodes de mesure miniaturisées intégrées à des systèmes électroniques et une connexion à des outils informatiques d'assistance à l'interprétation pourraient prochainement mettre ce monitoring à la disposition immédiate des oncologues sur le lieu de consultation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'année 2014 a été marquée par de nouvelles acquisitions thérapeutiques en médecine d'urgence.L'estimation de la probabilité d'une néphrolithiase permet d'éviter une imagerie chez les patients à haut risque. L'hypothermie thérapeutique post-arrêt cardiorespiratoire n'a pas de bénéfice par rapport à une stratégie de normothermie contrôlée. Le traitement d'une bronchite aiguë sans signe de gravité par co-amoxicilline ou AINS est inutile. L'adjonction de colchicine au traitement standard de la péricardite aiguë diminue le risque de récidive. L'ajustement du seuil de D-dimères à l'âge permet de réduire le recours à l'imagerie en cas de risque non élevé d'embolie pulmonaire. Enfin, un monitorage invasif précoce n'apporte pas de bénéfice à la prise en charge initiale du choc septique. The year 2014 was marked by new therapeutic acquisitions in emergency medicine. Nephrolithiasis likelihood estimation should avoid imaging in patients at high risk. Therapeutic hypothermia post cardio-respiratory arrest has no benefit compared to a strategy of controlled normothermia. Treatment of acute bronchitis with no signs of severity by coamoxicillin or NSAIDs is useless. Adding colchicine to standard treatment of acute pericarditis reduces the rate of recurrence. The D-dimerthreshold adjustment by age reduces the number of imaging in case of low or intermediate risk of pulmonary embolism. Finally, the speed of the initial management of septic shock is crucial to the outcome of patients, but an early invasive monitoring provides no benefit.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les femmes migrantes d'Afrique subsaharienne et séropositives cumulent les vulnérabilités. Fondé sur une recherche qualitative menée auprès de 30 femmes atteintes du VIH, cet article se propose d'analyser comment elles investissent les diverses sphères sociales (familiales, professionnelles, communautaires, etc.) et créent différents types de liens. Si le statut légal, l'expérience migratoire, l'origine, la précarité sociale ou le genre tendent à orienter les pratiques de sociabilité, nous montrerons que l'usage du secret comme stratégie de gestion de l'information relative au VIH reste l'élément déterminant dans l'organi­sation des relations sociales des femmes interrogées. La proximité sociale et l'investissement affectif sont forts dans le milieu médical et associatif, alors que par crainte de stigmatisation, ils le sont moins au sein des communautés africaines, ce qui réduit les possibilités d'entraide et de solidarité. Fortement liée aux représentations négatives du VIH/sida, la pratique du secret conditionne également les relations au sein de la famille et du couple où se mêlent soutien et violence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomodensitométrie (TDM) est une technique d'imagerie pour laquelle l'intérêt n'a cessé de croitre depuis son apparition au début des années 70. De nos jours, l'utilisation de cette technique est devenue incontournable, grâce entre autres à sa capacité à produire des images diagnostiques de haute qualité. Toutefois, et en dépit d'un bénéfice indiscutable sur la prise en charge des patients, l'augmentation importante du nombre d'examens TDM pratiqués soulève des questions sur l'effet potentiellement dangereux des rayonnements ionisants sur la population. Parmi ces effets néfastes, l'induction de cancers liés à l'exposition aux rayonnements ionisants reste l'un des risques majeurs. Afin que le rapport bénéfice-risques reste favorable au patient il est donc nécessaire de s'assurer que la dose délivrée permette de formuler le bon diagnostic tout en évitant d'avoir recours à des images dont la qualité est inutilement élevée. Ce processus d'optimisation, qui est une préoccupation importante pour les patients adultes, doit même devenir une priorité lorsque l'on examine des enfants ou des adolescents, en particulier lors d'études de suivi requérant plusieurs examens tout au long de leur vie. Enfants et jeunes adultes sont en effet beaucoup plus sensibles aux radiations du fait de leur métabolisme plus rapide que celui des adultes. De plus, les probabilités des évènements auxquels ils s'exposent sont également plus grandes du fait de leur plus longue espérance de vie. L'introduction des algorithmes de reconstruction itératifs, conçus pour réduire l'exposition des patients, est certainement l'une des plus grandes avancées en TDM, mais elle s'accompagne de certaines difficultés en ce qui concerne l'évaluation de la qualité des images produites. Le but de ce travail est de mettre en place une stratégie pour investiguer le potentiel des algorithmes itératifs vis-à-vis de la réduction de dose sans pour autant compromettre la qualité du diagnostic. La difficulté de cette tâche réside principalement dans le fait de disposer d'une méthode visant à évaluer la qualité d'image de façon pertinente d'un point de vue clinique. La première étape a consisté à caractériser la qualité d'image lors d'examen musculo-squelettique. Ce travail a été réalisé en étroite collaboration avec des radiologues pour s'assurer un choix pertinent de critères de qualité d'image. Une attention particulière a été portée au bruit et à la résolution des images reconstruites à l'aide d'algorithmes itératifs. L'analyse de ces paramètres a permis aux radiologues d'adapter leurs protocoles grâce à une possible estimation de la perte de qualité d'image liée à la réduction de dose. Notre travail nous a également permis d'investiguer la diminution de la détectabilité à bas contraste associée à une diminution de la dose ; difficulté majeure lorsque l'on pratique un examen dans la région abdominale. Sachant que des alternatives à la façon standard de caractériser la qualité d'image (métriques de l'espace Fourier) devaient être utilisées, nous nous sommes appuyés sur l'utilisation de modèles d'observateurs mathématiques. Nos paramètres expérimentaux ont ensuite permis de déterminer le type de modèle à utiliser. Les modèles idéaux ont été utilisés pour caractériser la qualité d'image lorsque des paramètres purement physiques concernant la détectabilité du signal devaient être estimés alors que les modèles anthropomorphes ont été utilisés dans des contextes cliniques où les résultats devaient être comparés à ceux d'observateurs humain, tirant profit des propriétés de ce type de modèles. Cette étude a confirmé que l'utilisation de modèles d'observateurs permettait d'évaluer la qualité d'image en utilisant une approche basée sur la tâche à effectuer, permettant ainsi d'établir un lien entre les physiciens médicaux et les radiologues. Nous avons également montré que les reconstructions itératives ont le potentiel de réduire la dose sans altérer la qualité du diagnostic. Parmi les différentes reconstructions itératives, celles de type « model-based » sont celles qui offrent le plus grand potentiel d'optimisation, puisque les images produites grâce à cette modalité conduisent à un diagnostic exact même lors d'acquisitions à très basse dose. Ce travail a également permis de clarifier le rôle du physicien médical en TDM: Les métriques standards restent utiles pour évaluer la conformité d'un appareil aux requis légaux, mais l'utilisation de modèles d'observateurs est inévitable pour optimiser les protocoles d'imagerie. -- Computed tomography (CT) is an imaging technique in which interest has been quickly growing since it began to be used in the 1970s. Today, it has become an extensively used modality because of its ability to produce accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase in the number of CT examinations performed has raised concerns about the potential negative effects of ionising radiation on the population. Among those negative effects, one of the major risks remaining is the development of cancers associated with exposure to diagnostic X-ray procedures. In order to ensure that the benefits-risk ratio still remains in favour of the patient, it is necessary to make sure that the delivered dose leads to the proper diagnosis without producing unnecessarily high-quality images. This optimisation scheme is already an important concern for adult patients, but it must become an even greater priority when examinations are performed on children or young adults, in particular with follow-up studies which require several CT procedures over the patient's life. Indeed, children and young adults are more sensitive to radiation due to their faster metabolism. In addition, harmful consequences have a higher probability to occur because of a younger patient's longer life expectancy. The recent introduction of iterative reconstruction algorithms, which were designed to substantially reduce dose, is certainly a major achievement in CT evolution, but it has also created difficulties in the quality assessment of the images produced using those algorithms. The goal of the present work was to propose a strategy to investigate the potential of iterative reconstructions to reduce dose without compromising the ability to answer the diagnostic questions. The major difficulty entails disposing a clinically relevant way to estimate image quality. To ensure the choice of pertinent image quality criteria this work was continuously performed in close collaboration with radiologists. The work began by tackling the way to characterise image quality when dealing with musculo-skeletal examinations. We focused, in particular, on image noise and spatial resolution behaviours when iterative image reconstruction was used. The analyses of the physical parameters allowed radiologists to adapt their image acquisition and reconstruction protocols while knowing what loss of image quality to expect. This work also dealt with the loss of low-contrast detectability associated with dose reduction, something which is a major concern when dealing with patient dose reduction in abdominal investigations. Knowing that alternative ways had to be used to assess image quality rather than classical Fourier-space metrics, we focused on the use of mathematical model observers. Our experimental parameters determined the type of model to use. Ideal model observers were applied to characterise image quality when purely objective results about the signal detectability were researched, whereas anthropomorphic model observers were used in a more clinical context, when the results had to be compared with the eye of a radiologist thus taking advantage of their incorporation of human visual system elements. This work confirmed that the use of model observers makes it possible to assess image quality using a task-based approach, which, in turn, establishes a bridge between medical physicists and radiologists. It also demonstrated that statistical iterative reconstructions have the potential to reduce the delivered dose without impairing the quality of the diagnosis. Among the different types of iterative reconstructions, model-based ones offer the greatest potential, since images produced using this modality can still lead to an accurate diagnosis even when acquired at very low dose. This work has clarified the role of medical physicists when dealing with CT imaging. The use of the standard metrics used in the field of CT imaging remains quite important when dealing with the assessment of unit compliance to legal requirements, but the use of a model observer is the way to go when dealing with the optimisation of the imaging protocols.