434 resultados para Coût-efficacité


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse comprend trois essais qui abordent l'information le processus d'ap-prentissage ainsi que le risque dans les marchés finances. Elle se concentre d'abord sur les implications à l'équilibre de l'hétérogénéité des agents à travers un processus d'apprentissage comprtemental et de mise à jour de l'information. De plus, elle examine les effets du partage des risques dans un reseau entreprise-fournisseur. Le premier chapitre étudie les effets du biais de disponibili sur l'évaluation des actifs. Ce biais décrit le fait que les agents surestiment l'importance de l'information acquise via l'expérience personnelle. L'hétérogénéité restante des différentes perceptions individuelles amène à une volonté d'échanges. Conformé¬ment aux données empiriques, les jeunes agents échangent plus mais en même temps souffrent d'une performance inférieure. Le deuxième chapitre se penche sur l'impact qu'ont les différences de modelisation entre les agents sur leurs percevons individuelles du processus de prix, dans le contexte des projections de modèles. Les agents sujets à un biais de projection pensent être représentatifs et interprètent les opinions des autres agents comme du bruit. Les agents, avec des modèles plus persistants, perçoivent que les prix réagissent de façon excessive lors des périodes de turbulence. Le troisième chapitre analyse l'impact du partage des risques dans la relation entreprise-fournisseur sur la décision optimale de financement de l'entreprise. Il étudie l'impact sur l'optimisation de la structure du capital ainsi que sur le coût du capital. Les résultats indiquent en particulier qu'un fournisseur avec un effet de levier faible est utile pour le financement d'un nouveau projet d'investissement. Pour des projets très rentables et des fournisseurs à faible effet de levier, le coût des capitaux propres de l'entreprise peut diminuer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atherosclerosis is a chronic cardiovascular disease that involves the thicken¬ing of the artery walls as well as the formation of plaques (lesions) causing the narrowing of the lumens, in vessels such as the aorta, the coronary and the carotid arteries. Magnetic resonance imaging (MRI) is a promising modality for the assessment of atherosclerosis, as it is a non-invasive and patient-friendly procedure that does not use ionizing radiation. MRI offers high soft tissue con¬trast already without the need of intravenous contrast media; while modifica¬tion of the MR pulse sequences allows for further adjustment of the contrast for specific diagnostic needs. As such, MRI can create angiographic images of the vessel lumens to assess stenoses at the late stage of the disease, as well as blood flow-suppressed images for the early investigation of the vessel wall and the characterization of the atherosclerotic plaques. However, despite the great technical progress that occurred over the past two decades, MRI is intrinsically a low sensitive technique and some limitations still exist in terms of accuracy and performance. A major challenge for coronary artery imaging is respiratory motion. State- of-the-art diaphragmatic navigators rely on an indirect measure of motion, per¬form a ID correction, and have long and unpredictable scan time. In response, self-navigation (SM) strategies have recently been introduced that offer 100% scan efficiency and increased ease of use. SN detects respiratory motion di¬rectly from the image data obtained at the level of the heart, and retrospectively corrects the same data before final image reconstruction. Thus, SN holds po-tential for multi-dimensional motion compensation. To this regard, this thesis presents novel SN methods that estimate 2D and 3D motion parameters from aliased sub-images that are obtained from the same raw data composing the final image. Combination of all corrected sub-images produces a final image with reduced motion artifacts for the visualization of the coronaries. The first study (section 2.2, 2D Self-Navigation with Compressed Sensing) consists of a method for 2D translational motion compensation. Here, the use of com- pressed sensing (CS) reconstruction is proposed and investigated to support motion detection by reducing aliasing artifacts. In healthy human subjects, CS demonstrated an improvement in motion detection accuracy with simula¬tions on in vivo data, while improved coronary artery visualization was demon¬strated on in vivo free-breathing acquisitions. However, the motion of the heart induced by respiration has been shown to occur in three dimensions and to be more complex than a simple translation. Therefore, the second study (section 2.3,3D Self-Navigation) consists of a method for 3D affine motion correction rather than 2D only. Here, different techniques were adopted to reduce background signal contribution in respiratory motion tracking, as this can be adversely affected by the static tissue that surrounds the heart. The proposed method demonstrated to improve conspicuity and vi¬sualization of coronary arteries in healthy and cardiovascular disease patient cohorts in comparison to a conventional ID SN method. In the third study (section 2.4, 3D Self-Navigation with Compressed Sensing), the same tracking methods were used to obtain sub-images sorted according to the respiratory position. Then, instead of motion correction, a compressed sensing reconstruction was performed on all sorted sub-image data. This process ex¬ploits the consistency of the sorted data to reduce aliasing artifacts such that the sub-image corresponding to the end-expiratory phase can directly be used to visualize the coronaries. In a healthy volunteer cohort, this strategy improved conspicuity and visualization of the coronary arteries when compared to a con¬ventional ID SN method. For the visualization of the vessel wall and atherosclerotic plaques, the state- of-the-art dual inversion recovery (DIR) technique is able to suppress the signal coming from flowing blood and provide positive wall-lumen contrast. How¬ever, optimal contrast may be difficult to obtain and is subject to RR variability. Furthermore, DIR imaging is time-inefficient and multislice acquisitions may lead to prolonged scanning times. In response and as a fourth study of this thesis (chapter 3, Vessel Wall MRI of the Carotid Arteries), a phase-sensitive DIR method has been implemented and tested in the carotid arteries of a healthy volunteer cohort. By exploiting the phase information of images acquired after DIR, the proposed phase-sensitive method enhances wall-lumen contrast while widens the window of opportunity for image acquisition. As a result, a 3-fold increase in volumetric coverage is obtained at no extra cost in scanning time, while image quality is improved. In conclusion, this thesis presented novel methods to address some of the main challenges for MRI of atherosclerosis: the suppression of motion and flow artifacts for improved visualization of vessel lumens, walls and plaques. Such methods showed to significantly improve image quality in human healthy sub¬jects, as well as scan efficiency and ease-of-use of MRI. Extensive validation is now warranted in patient populations to ascertain their diagnostic perfor¬mance. Eventually, these methods may bring the use of atherosclerosis MRI closer to the clinical practice. Résumé L'athérosclérose est une maladie cardiovasculaire chronique qui implique le épaississement de la paroi des artères, ainsi que la formation de plaques (lé¬sions) provoquant le rétrécissement des lumières, dans des vaisseaux tels que l'aorte, les coronaires et les artères carotides. L'imagerie par résonance magné¬tique (IRM) est une modalité prometteuse pour l'évaluation de l'athérosclérose, car il s'agit d'une procédure non-invasive et conviviale pour les patients, qui n'utilise pas des rayonnements ionisants. L'IRM offre un contraste des tissus mous très élevé sans avoir besoin de médias de contraste intraveineux, tan¬dis que la modification des séquences d'impulsions de RM permet en outre le réglage du contraste pour des besoins diagnostiques spécifiques. À ce titre, l'IRM peut créer des images angiographiques des lumières des vaisseaux pour évaluer les sténoses à la fin du stade de la maladie, ainsi que des images avec suppression du flux sanguin pour une première enquête des parois des vais¬seaux et une caractérisation des plaques d'athérosclérose. Cependant, malgré les grands progrès techniques qui ont eu lieu au cours des deux dernières dé¬cennies, l'IRM est une technique peu sensible et certaines limitations existent encore en termes de précision et de performance. Un des principaux défis pour l'imagerie de l'artère coronaire est le mou¬vement respiratoire. Les navigateurs diaphragmatiques de pointe comptent sur une mesure indirecte de mouvement, effectuent une correction 1D, et ont un temps d'acquisition long et imprévisible. En réponse, les stratégies d'auto- navigation (self-navigation: SN) ont été introduites récemment et offrent 100% d'efficacité d'acquisition et une meilleure facilité d'utilisation. Les SN détectent le mouvement respiratoire directement à partir des données brutes de l'image obtenue au niveau du coeur, et rétrospectivement corrigent ces mêmes données avant la reconstruction finale de l'image. Ainsi, les SN détiennent un poten¬tiel pour une compensation multidimensionnelle du mouvement. A cet égard, cette thèse présente de nouvelles méthodes SN qui estiment les paramètres de mouvement 2D et 3D à partir de sous-images qui sont obtenues à partir des mêmes données brutes qui composent l'image finale. La combinaison de toutes les sous-images corrigées produit une image finale pour la visualisation des coronaires ou les artefacts du mouvement sont réduits. La première étude (section 2.2,2D Self-Navigation with Compressed Sensing) traite d'une méthode pour une compensation 2D de mouvement de translation. Ici, on étudie l'utilisation de la reconstruction d'acquisition comprimée (compressed sensing: CS) pour soutenir la détection de mouvement en réduisant les artefacts de sous-échantillonnage. Chez des sujets humains sains, CS a démontré une amélioration de la précision de la détection de mouvement avec des simula¬tions sur des données in vivo, tandis que la visualisation de l'artère coronaire sur des acquisitions de respiration libre in vivo a aussi été améliorée. Pourtant, le mouvement du coeur induite par la respiration se produit en trois dimensions et il est plus complexe qu'un simple déplacement. Par conséquent, la deuxième étude (section 2.3, 3D Self-Navigation) traite d'une méthode de cor¬rection du mouvement 3D plutôt que 2D uniquement. Ici, différentes tech¬niques ont été adoptées pour réduire la contribution du signal du fond dans le suivi de mouvement respiratoire, qui peut être influencé négativement par le tissu statique qui entoure le coeur. La méthode proposée a démontré une amélioration, par rapport à la procédure classique SN de correction 1D, de la visualisation des artères coronaires dans le groupe de sujets sains et des pa¬tients avec maladies cardio-vasculaires. Dans la troisième étude (section 2.4,3D Self-Navigation with Compressed Sensing), les mêmes méthodes de suivi ont été utilisées pour obtenir des sous-images triées selon la position respiratoire. Au lieu de la correction du mouvement, une reconstruction de CS a été réalisée sur toutes les sous-images triées. Cette procédure exploite la cohérence des données pour réduire les artefacts de sous- échantillonnage de telle sorte que la sous-image correspondant à la phase de fin d'expiration peut directement être utilisée pour visualiser les coronaires. Dans un échantillon de volontaires en bonne santé, cette stratégie a amélioré la netteté et la visualisation des artères coronaires par rapport à une méthode classique SN ID. Pour la visualisation des parois des vaisseaux et de plaques d'athérosclérose, la technique de pointe avec double récupération d'inversion (DIR) est capa¬ble de supprimer le signal provenant du sang et de fournir un contraste posi¬tif entre la paroi et la lumière. Pourtant, il est difficile d'obtenir un contraste optimal car cela est soumis à la variabilité du rythme cardiaque. Par ailleurs, l'imagerie DIR est inefficace du point de vue du temps et les acquisitions "mul- tislice" peuvent conduire à des temps de scan prolongés. En réponse à ce prob¬lème et comme quatrième étude de cette thèse (chapitre 3, Vessel Wall MRI of the Carotid Arteries), une méthode de DIR phase-sensitive a été implémenté et testé

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The present PhD dissertation consists of three papers, organized in chapters, in the field of behavioral economics. This discipline studies economic behavior of individuals subject to limitations, such as bounded self-interest and bounded willpower. The behavior studied in the present thesis ranges from the complex decision to register as an organ donor, decision¬making in the presence of uncertainty and the decision to give money to a charitable organization. The first chapter aims at testing the effectiveness of an active-decision (AD) mechanism on the decision to become an organ donor in Switzerland, using field experiments. We found that stimulating participants' reflection on the topic of organ donation had a negative effect on the decision to become an organ donor. Moreover, a non-binding commitment nudge reduces putting off the decision, but does not lead to donation rates higher than in the control group. The results suggest that AD may be far more limited than previously thought and raise doubts about the efficacy of engaging potential donors to reflect on the topic of organ donation. Beyond carrying for others, behavioral economics also recognizes that individuals do not evaluate outcomes in absolute terms but rather by comparing them to some reference levels, called reference points. Above the reference points, economic outcomes are perceived as gains, while below these levels the same outcomes are felt as losses. The last two chapters analyze the importance of reference points in the evaluation of economic outcomes. Using a laboratory experiment where subjects played two consecutive lotteries, Chapter 2 studies the speed of adjustment of the reference point. We find that varying the probability of winning the first lottery has no effect on subjects' risk behavior regarding the second lottery. This result indicates a very fast adjustment of the reference point to the latest information. Chapter 3 investigates whether reference points are relevant for charitable preferences. Using actual donation decisions of participants in a laboratory experiment, the results suggest that reference points are not crucial for shaping charitable giving. -- Cette thèse de doctorat consiste en trois articles, organisés en chapitres, dans le domaine de l'économie comportementale. Cette discipline étudie le comportement d'agents économiques sujets à des limitations, telles qu'un égoïsme limité et une volonté limitée. Le comportement étudié dans cette thèse va de la décision complexe de devenir donneur d'organes, la prise de décision en présence d'incertitude à la décision de donner de l'argent à une oeuvre caritative. Le premier chapitre vise à tester l'efficacité d'un mécanisme de « décision active » (active decision, AD) sur la décision de devenir donneur d'organes en Suisse, et ce en recourant à deux expériences hors-laboratoire. Les résultats montrent que stimuler la réflexion des participants sur le don d'organes a un effet négatif sur la décision de devenir donneur. De plus, un mécanisme qui encourage les participants à prendre une décision sur le champ réduit la tendance à procrastiner, mais ne mène pas à un taux de donneurs plus élevé par rapport à un groupe de contrôle. Les résultats suggèrent que le mécanisme AD est bien plus limité que ce qui a été supposé jusqu'à maintenant. De plus, ils suscitent le doute quant à l'efficacité de stimuler la réflexion de potentiels donneurs sur le sujet du don d'organes. En plus de se soucier des autres, l'économie comportementale admet également que les individus n'évaluent pas les résultats de façon absolue, mais en comparant ceux-ci à des niveaux de références, souvent appelés points de référence. Au-dessus de ces points de référence, les résultats sont perçus en tant que gains, tandis qu'en-dessous ces mêmes résultats sont considérés comme des pertes. Les deux derniers chapitres analysent l'importance des points de référence dans diverses situations. A l'aide d'une expérience en laboratoire dans laquelle les participants participent à deux loteries consécutives, le chapitre 2 étudie la vitesse d'ajustement du point de référence. Le résultat montre que varier la probabilité de gagner la première loterie n'a aucun effet sur le comportement en matière de risques concernant la deuxième loterie. Cela indique un ajustement très rapide du point de référence. Le chapitre 3 vise à déterminer si les points de référence ont un rôle majeur concernant les préférences caritatives. Les données relatives aux décisions de don des participants d'une expérience en laboratoire montrent que les points de référence n'influencent pas significativement le don caritatif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'imagerie par résonance magnétique (IRM) peut fournir aux cardiologues des informations diagnostiques importantes sur l'état de la maladie de l'artère coronarienne dans les patients. Le défi majeur pour l'IRM cardiaque est de gérer toutes les sources de mouvement qui peuvent affecter la qualité des images en réduisant l'information diagnostique. Cette thèse a donc comme but de développer des nouvelles techniques d'acquisitions des images IRM, en changeant les techniques de compensation du mouvement, pour en augmenter l'efficacité, la flexibilité, la robustesse et pour obtenir plus d'information sur le tissu et plus d'information temporelle. Les techniques proposées favorisent donc l'avancement de l'imagerie des coronaires dans une direction plus maniable et multi-usage qui peut facilement être transférée dans l'environnement clinique. La première partie de la thèse s'est concentrée sur l'étude du mouvement des artères coronariennes sur des patients en utilisant la techniques d'imagerie standard (rayons x), pour mesurer la précision avec laquelle les artères coronariennes retournent dans la même position battement après battement (repositionnement des coronaires). Nous avons découvert qu'il y a des intervalles dans le cycle cardiaque, tôt dans la systole et à moitié de la diastole, où le repositionnement des coronaires est au minimum. En réponse nous avons développé une nouvelle séquence d'acquisition (T2-post) capable d'acquérir les données aussi tôt dans la systole. Cette séquence a été testée sur des volontaires sains et on a pu constater que la qualité de visualisation des artère coronariennes est égale à celle obtenue avec les techniques standard. De plus, le rapport signal sur bruit fourni par la séquence d'acquisition proposée est supérieur à celui obtenu avec les techniques d'imagerie standard. La deuxième partie de la thèse a exploré un paradigme d'acquisition des images cardiaques complètement nouveau pour l'imagerie du coeur entier. La technique proposée dans ce travail acquiert les données sans arrêt (free-running) au lieu d'être synchronisée avec le mouvement cardiaque. De cette façon, l'efficacité de la séquence d'acquisition est augmentée de manière significative et les images produites représentent le coeur entier dans toutes les phases cardiaques (quatre dimensions, 4D). Par ailleurs, l'auto-navigation de la respiration permet d'effectuer cette acquisition en respiration libre. Cette technologie rend possible de visualiser et évaluer l'anatomie du coeur et de ses vaisseaux ainsi que la fonction cardiaque en quatre dimensions et avec une très haute résolution spatiale et temporelle, sans la nécessité d'injecter un moyen de contraste. Le pas essentiel qui a permis le développement de cette technique est l'utilisation d'une trajectoire d'acquisition radiale 3D basée sur l'angle d'or. Avec cette trajectoire, il est possible d'acquérir continûment les données d'espace k, puis de réordonner les données et choisir les paramètres temporel des images 4D a posteriori. L'acquisition 4D a été aussi couplée avec un algorithme de reconstructions itératif (compressed sensing) qui permet d'augmenter la résolution temporelle tout en augmentant la qualité des images. Grâce aux images 4D, il est possible maintenant de visualiser les artères coronariennes entières dans chaque phase du cycle cardiaque et, avec les mêmes données, de visualiser et mesurer la fonction cardiaque. La qualité des artères coronariennes dans les images 4D est la même que dans les images obtenues avec une acquisition 3D standard, acquise en diastole Par ailleurs, les valeurs de fonction cardiaque mesurées au moyen des images 4D concorde avec les valeurs obtenues avec les images 2D standard. Finalement, dans la dernière partie de la thèse une technique d'acquisition a temps d'écho ultra-court (UTE) a été développée pour la visualisation in vivo des calcifications des artères coronariennes. Des études récentes ont démontré que les acquisitions UTE permettent de visualiser les calcifications dans des plaques athérosclérotiques ex vivo. Cepandent le mouvement du coeur a entravé jusqu'à maintenant l'utilisation des techniques UTE in vivo. Pour résoudre ce problème nous avons développé une séquence d'acquisition UTE avec trajectoire radiale 3D et l'avons testée sur des volontaires. La technique proposée utilise une auto-navigation 3D pour corriger le mouvement respiratoire et est synchronisée avec l'ECG. Trois échos sont acquis pour extraire le signal de la calcification avec des composants au T2 très court tout en permettant de séparer le signal de la graisse depuis le signal de l'eau. Les résultats sont encore préliminaires mais on peut affirmer que la technique développé peut potentiellement montrer les calcifications des artères coronariennes in vivo. En conclusion, ce travail de thèse présente trois nouvelles techniques pour l'IRM du coeur entier capables d'améliorer la visualisation et la caractérisation de la maladie athérosclérotique des coronaires. Ces techniques fournissent des informations anatomiques et fonctionnelles en quatre dimensions et des informations sur la composition du tissu auparavant indisponibles. CORONARY artery magnetic resonance imaging (MRI) has the potential to provide the cardiologist with relevant diagnostic information relative to coronary artery disease of patients. The major challenge of cardiac MRI, though, is dealing with all sources of motions that can corrupt the images affecting the diagnostic information provided. The current thesis, thus, focused on the development of new MRI techniques that change the standard approach to cardiac motion compensation in order to increase the efficiency of cardioavscular MRI, to provide more flexibility and robustness, new temporal information and new tissue information. The proposed approaches help in advancing coronary magnetic resonance angiography (MRA) in the direction of an easy-to-use and multipurpose tool that can be translated to the clinical environment. The first part of the thesis focused on the study of coronary artery motion through gold standard imaging techniques (x-ray angiography) in patients, in order to measure the precision with which the coronary arteries assume the same position beat after beat (coronary artery repositioning). We learned that intervals with minimal coronary artery repositioning occur in peak systole and in mid diastole and we responded with a new pulse sequence (T2~post) that is able to provide peak-systolic imaging. Such a sequence was tested in healthy volunteers and, from the image quality comparison, we learned that the proposed approach provides coronary artery visualization and contrast-to-noise ratio (CNR) comparable with the standard acquisition approach, but with increased signal-to-noise ratio (SNR). The second part of the thesis explored a completely new paradigm for whole- heart cardiovascular MRI. The proposed techniques acquires the data continuously (free-running), instead of being triggered, thus increasing the efficiency of the acquisition and providing four dimensional images of the whole heart, while respiratory self navigation allows for the scan to be performed in free breathing. This enabling technology allows for anatomical and functional evaluation in four dimensions, with high spatial and temporal resolution and without the need for contrast agent injection. The enabling step is the use of a golden-angle based 3D radial trajectory, which allows for a continuous sampling of the k-space and a retrospective selection of the timing parameters of the reconstructed dataset. The free-running 4D acquisition was then combined with a compressed sensing reconstruction algorithm that further increases the temporal resolution of the 4D dataset, while at the same time increasing the overall image quality by removing undersampling artifacts. The obtained 4D images provide visualization of the whole coronary artery tree in each phases of the cardiac cycle and, at the same time, allow for the assessment of the cardiac function with a single free- breathing scan. The quality of the coronary arteries provided by the frames of the free-running 4D acquisition is in line with the one obtained with the standard ECG-triggered one, and the cardiac function evaluation matched the one measured with gold-standard stack of 2D cine approaches. Finally, the last part of the thesis focused on the development of ultrashort echo time (UTE) acquisition scheme for in vivo detection of calcification in the coronary arteries. Recent studies showed that UTE imaging allows for the coronary artery plaque calcification ex vivo, since it is able to detect the short T2 components of the calcification. The heart motion, though, prevented this technique from being applied in vivo. An ECG-triggered self-navigated 3D radial triple- echo UTE acquisition has then been developed and tested in healthy volunteers. The proposed sequence combines a 3D self-navigation approach with a 3D radial UTE acquisition enabling data collection during free breathing. Three echoes are simultaneously acquired to extract the short T2 components of the calcification while a water and fat separation technique allows for proper visualization of the coronary arteries. Even though the results are still preliminary, the proposed sequence showed great potential for the in vivo visualization of coronary artery calcification. In conclusion, the thesis presents three novel MRI approaches aimed at improved characterization and assessment of atherosclerotic coronary artery disease. These approaches provide new anatomical and functional information in four dimensions, and support tissue characterization for coronary artery plaques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec plus de 100000 transplantations d'organes solides (TOS) par année dans le monde, la transplantation d'organes reste actuellement l'un des meilleurs traitements disponibles pour de nombreuses maladies en phase terminale. Bien que les médicaments immunosuppresseurs couramment utilisés soient efficaces dans le contrôle de la réponse immune engendrant le rejet aigu d'une greffe, la survie du greffon à long terme ainsi que la présence d'effets secondaires indésirables restent un enjeu considérable en clinique. C'est pourquoi il est nécessaire de trouver de nouvelles approches thérapeutiques innovantes permettant de contrôler la réponse immunitaire et ainsi d'améliorer les résultats à long terme. L'utilisation des lymphocytes T régulateurs (Treg), suppresseurs naturels de la réponse inflammatoire, a fait l'objet de nombreuses études ces dix dernières années, et pourrait être considérée comme un moyen intéressant d'améliorer la tolérance immunologique de la greffe. Cependant, l'un des obstacles de l'utilisation des Treg comme agent thérapeutique est leur nombre insuffisant non seulement en conditions normales, mais en particulier lors d'une forte réponse immune avec expansion de cellules immunitaires alloréactives. En raison des limitations techniques connues pour l'induction des Treg ex-vivo ou in vitro, nous avons dédié la première partie du travail de thèse à la détermination de l'efficacité de l'induction des Treg in vivo grâce à l'utilisation d'un complexe protéique IL-2/JES6-1 (IL2c). Nous avons montré que l'expansion des Treg par IL2c permettait d'augmenter la survie du greffon sur un modèle murin de transplantation de peau avec mismatch entre le donneur et le receveur pour le complexe majeur d'histocompatibilité (CMH). De plus, nous avons vu qu'en combinant IL2c à une inhibition à court terme de la voie de co-stimulation CD40L-CD40 (anti-CD154/MRl, administré au moment de la transplantation) pour empêcher l'activation des lymphocytes T, il est possible d'induire une tolérance robuste à long terme. Finalement, nos résultats soulignent l'importance de cibler une voie de co-stimulation bien particulière. En effet, l'utilisation d'IL2c combinée au blocage de la co-stimulation CD28-B7.1/2 (CTLA-4 Ig) n'induit qu'une faible prolongation de la survie de la greffe et n'induit pas de tolérance. L'application chez l'humain des traitements induisant la tolérance dans des modèles expérimentaux murins ou de primates n'a malheureusement pas montré de résultats probants en recherche clinique ; une des principales raisons étant la présence de lymphocytes B et T mémoires provenant du systeme d immunité acquise. C est pourquoi nous avons testé si la combinaison d'IL2c et MR1 améliorait la survie de la greffe dans des souris pré¬sensibilisées. Nous avons trouvé qu'en présence de lymphocytes B et T mémoires alloréactifs, l'utilisation d'IL2c et MR1 permettait une amélioration de la survie de la greffe de peau des souris immunocompétentes mais comparé aux souris receveuses naïves, aucune tolérance n'a pu être induite. Toutefois, l'ajout d'un traitement anti-LFA-1 (permettant de bloquer la circulation des lymphocytes T activées) a permis d'améliorer de manière significative la survie de la greffe. Cependant, le rejet chronique, dû à la présence de lymphocytes B activés/mémoires et la production d'anticorps donneur-spécifiques, n'a pas pu être évité. Cibler l'activation des lymphocytes T est la stratégie immunothérapeutique prépondérente après une TOS. C'est pourquoi dans la deuxième partie de cette thèse nous nous sommes intéressés au système de signalisation d'un récepteur des lymphocytes T qui dépend de la paracaspase Malti en tant que nouvelle stratégie immunosuppressive pour le contrôle des lymphocytes T alloréactifs. Nous avons montré que bien que l'inhibition de la signalisation du lymphocyte T en aval de Malti induise une tolérance envers un greffon de peau avec incompatibilités antigéniques mineures, cela ne permet cependant qu'une régulation partielle de l'alloréponse contre des antigènes du CMH. Nous nous sommes aussi intéressés spécifiquement à l'activité protéolytique de Malti. L'inhibition constitutive de l'activité protéolytique de Malti chez les souris Malti-ki s'est révélée délétère pour l'induction de la tolérance car elle diminue la fonction des Treg et augmente l'alloréactivité des cellules Thl. Cependant, lors de l'utilisation d'un inhibiteur peptidique de l'activité protéase de Malti in vitro, il a été possible d'observer une atténuation de l'alloéactivité des lymphocytes T ainsi qu'un maintien de la population des Treg existants. Ces résultats nous laissent penser que des études plus poussées sur le rôle de la signalisation médiée par Malti seraient à envisager dans le domaine de la transplantation. En résumé, les résultats obtenus durant cette thèse nous ont permis d'élucider certains mécanismes immunologiques propres à de nouvelles stratégies thérapeutiques potentielles dont le but est d'induire une tolérance lors de TOS. De plus, ces résultats nous ont permis de souligner l'importance d'utiliser des modèles davantage physiologiques contenant, notamment en tenant compte des lymphocytes B et T mémoires alloréactifs. -- Organ transplantation remains the best available treatment for many forms of end-stage organ diseases, with over 100,000 solid organ transplantations (SOT) occurring worldwide eveiy year. Although the available immunosuppressive (IS) drugs are efficient in controlling acute immune activation and graft rejection, the off-target side effects as well as long-term graft and patient survival remain a challenge in the clinic. Hence, innovative therapeutic approaches are needed to improve long-term outcome across immunological barriers. Based on extensive experimental data obtained over the last decade, it is tempting to consider immunotherapy using Treg; the natural suppressors of overt inflammatory responses, in promoting transplantation tolerance. The first hurdle for the therapeutic use of Treg is their insufficient numbers in non- manipulated individuals, in particular when facing strong immune activation and expanding alloreactive effector cells. Because of the limitations associated with current protocols aiming at ex-vivo expansion or in vitro induction of Treg, the aim of the first part of this thesis was to determine the efficacy of direct in vivo expansion of Treg using the IL-2/JES6- 1 immune complex (IL2c). We found that whilst IL2c mediated Treg expansion alone allowed the prolonged graft survival of fìlli MHC-mismatched skin grafts, its combination with short-term CD40L-CD40 co-stimulation blockade (anti-CD 154/MR1) to inhibit T cell activation administered at the time of transplantation was able to achieve long-term robust tolerance. This study also highlighted the importance of combining Treg based therapies with the appropriate co-stimulation blockade as a combination of IL2c and CD28-B7.1/2 co- stimulation blockade (CTLA-4 Ig) only resulted in slight prolongation of graft survival but not tolerance. The translation of tolerance induction therapies modelled in rodents into non-human primates or into clinical trials has seldom been successful. One main reason being the presence of pre-existing memory T- and B-cells due to acquired immunity in humans versus laboratory animals. Hence, we tested whether IL2c+MRl could promote graft survival in pre-sensitized mice. We found that in the presence of alloreactive memory T- and B-cells, IL2c+MRl combination therapy could prolong MHC-mismatched skin graft survival in immunocompetent mice but tolerance was lost compared to the naïve recipients. The addition of anti-LF A-1 treatment, which prevents the trafficking of memory T cells worked synergistically to significantly further enhance graft survival. However, late rejection mediated by activated/memory B cells and persistent donor-specific alloantibodies still occurred. Immunotherapeutic strategies targeting the activation of T cells are the cornerstone in the current immunosuppressive management after SOT. Therefore, in the next part of this thesis we investigated the paracaspase Malti-dependent T-cell receptor signalling as a novel immunosuppressive strategy to control alloreactive T cells in transplantation. We observed that although the inhibition of Malti downstream T signalling lead to tolerance of a minor H- mismatch skin grafts, it was however not sufficient to regulate alloresponses against MHC mismatches and only prolonged graft survival. Furthermore, we investigated the potential of more selectively targeting the protease activity of Malti. Constitutive inhibition of Malti protease activity in Malti-ki mice was detrimental to tolerance induction as it diminished Treg function and increased Thl alloreactivity. However, when using a small peptide inhibitor of Malti proteolytic activity in vitro, we observed an attenuation of alloreactive T cells and sparing of the pre-existing Treg pool. This indicates that further investigation of the role of Malti signalling in the field of transplantation is required. Collectively, the findings of this thesis provide immunological mechanisms underlying novel therapeutic strategies for the promotion of tolerance in SOT. Moreover, we highlight the importance of testing tolerance induction therapies in more physiological models with pre-existing alloreactive memory T and B cells.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Our contribution aims to explore some intersections between forensic science and criminology through the notion of time. The two disciplines analyse the vestiges of illicit activities in order to reconstruct and understand the past, and occasionally to prevent future harms. While forensic science study the material and digital traces as signs of criminal activities and repetitions, criminology contributes to the acquisition of knowledge through its analysis of crime, its authors and victims, as well as social (re)actions to harmful behaviours. Exploratory, our contribution proposes a conceptual delimitation of the notion of time considering its importance in the study of criminality and harms. Through examples, we propose a "crimino-forensic" analysis of three types of actions of social control - prevention, investigation and intelligence - through their respective temporality (before, near or during and after the criminal activity or harm). The temporal issues of the different methodologies developed to appreciate the efficiency of these actions are also addressed to highlight the connections between forensic science and criminology. This attempt to classify the relations between different times and actions of social control are discussed through the multiple benefits and challenges carried out by the formalisation of fusing those two sciences. Notre contribution vise à explorer quelques intersections entre la science forensique (ou criminalistique) et la criminologie au travers de la notion de temps. En effet, les deux disciplines ont en commun qu'elles analysent les vestiges du phénomène criminel pour tenter de reconstruire et comprendre le passé et parfois prévenir de futurs incidents. Alors que la science forensique étudie les traces matérielles et numériques comme signe d'activités et de répétitions criminelles, la criminologie contribue à l'avancée des connaissances en ce domaine par son analyse des comportements contraires aux normes, de leurs auteurs et de leurs victimes, ainsi que des (ré)actions sociales à ces comportements. A but exploratoire, notre contribution propose une délimitation conceptuelle de la notion de temps en regard de l'importance que revêtent ses différentes manifestations dans l'étude de la criminalité. A l'appui d'exemples, nous proposons une analyse « crimino-forensique » de trois types d'action de contrôle social - la prévention, l'investigation et le renseignement - en fonction de leur temporalité respective (avant, proche voire pendant et après l'activité criminelle). Les enjeux temporels entourant les différentes stratégies méthodologiques développées pour apprécier l'efficacité de ces actions sont aussi abordés pour mettre en évidence des pistes d'intégration entre la science forensique et la criminologie. Cet essai de classification des relations entre les temps et ces trois actions de contrôle social est discuté sous l'angle des bénéfices, multiples, mais aussi des défis, que pose la formalisation des liens entre ces deux disciplines des sciences criminelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En 2015, l'Association CIAO a démarré un processus de réflexion en profondeur sur son offre et son identité de manière générale, avec l'objectif de pouvoir être reconnue comme un service d'utilité publique. L'évaluation vise ainsi à situer le rôle du site ciao.ch au sein du dispositif de santé publique, et plus particulièrement des outils de prévention-santé destinés aux adolescents. La notoriété et l'effet du site sur son public-cible et pour les professionnels travaillant au contact des adolescents sont également évalués. Les résultats de cette évaluation permettront à l'équipe de CIAO de compléter les indices qu'elle possède déjà dans les aspects évalués. Les recommandations finales conduiront à une éventuelle redéfinition de certains aspects du site, de son public et de ses vecteurs de promotion, dans le but de correspondre au mieux aux besoins et aux modes de vie de ses bénéficiaires, et de garantir son efficacité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse met en lumière les relations réciproques entre les deux artefacts‐clés de la culture russe et mondiale du XXe siècle : la théorie du carnaval et de la ménippée de Mikhaïl Bakhtine et le dernier roman de Mikhaïl Boulgakov. Les chercheurs n'ont pas tardé à remarquer leur étonnante synthonie après leur sortie de l'oubli qui a eu lieu presque en même temps et qui a été marquée par la publication des ouvrages de Bakhtine Problèmes de la poétique de Dostoïevski (1963), L'oeuvre de François Rabelais et la culture populaire au Moyen Âge et sous la Renaissance (1965) et par la parution du roman de Boulgakov Le Maître et Marguerite (1966-1967). C'est déjà dans la postface de la première édition du roman que Le Maître et Marguerite reçoit le nom de «ménippée de Bakhtine». Un tel rapprochement entre la théorie de Bakhtine et le roman de Boulgakov s'explique par leur intérêt simultané pour différentes manifestations de la poétique du carnaval qui s'appuie sur des traditions portant l'empreinte des conceptions du temps cyclique et de l'éternel retour par le biais de la mort, propres aux rituels agraires de l'époque archaïque et aux fêtes du Nouvel An de l'Antiquité. A partir du début du XXe siècle et jusqu'aux années 40, la notion de carnavalesque en Russie est un ensemble d'idées unique, un concept doté d'un caractère d'universalité culturelle de son temps: le carnavalesque attire l'attention non seulement de Bakhtine et de Boulgakov, mais aussi de presque tous les modernistes russes et de certains philologues de l'époque. Dans notre travail, l'étude de la ressemblance des approches du problème du carnaval chez Boulgakov et chez Bakhtine s'organise selon deux axes de recherche. Le premier est lié à la théorie des genres moderne et à son développement dans la philosophie de Bakhtine. C'est dans ce contexte que nous examinons la notion antique de la satire ménippée (ou de la ménippée), considérée par Bakhtine en tant que genre littéraire qui reflète le mieux la poétique du carnaval. C'est également ce contexte qui nous permet d'analyser l'évolution de la théorie du carnaval et de la ménippée chez Bakhtine depuis ses travaux des années 30 jusqu'à la parution du « quatrième chapitre célèbre » de la deuxième édition de son ouvrage consacré à Dostoïevski. Le même contexte sert à délimiter l'emploi de la théorie du carnaval et de la ménippée dans la critique littéraire et à déterminer l'efficacité de cet outil théorique que nous utilisons lors de l'analyse du roman Le Maître et Marguerite. Le second axe de notre recherche est lié à l'étude des traditions du carnaval, à l'examen de leurs sources mythologiques et de leurs sources relatives aux mystères. Ces sources sont considérées telles qu'elles se présentent dans les manières de concevoir le carnaval propres à Bakhtine et à Boulgakov que nous avons nommées, respectivement, le carnaval de Bakhtine et le carnaval de Boulgakov. La reconstruction du carnaval de Bakhtine a permis de mettre en évidence plusieurs approches du thème du carnaval présentes dans ses ouvrages. La distinction de ces approches est d'autant plus importante que son oubli peut causer de fausses interprétations des idées de Bakhtine exprimées dans L'oeuvre de François Rabelais et mener à des critiques injustes de son auteur. Nous avons également tenu compte des théories avec lesquelles dialogue la philosophie du carnaval de Bakhtine : nous l'avons examinée en relation avec des études de la fête, du carnaval et du sacrifice caractéristiques du paysage scientifique des premières décennies du XXe siècle. Nous avons également comparée la philosophie du carnaval aux théories des philosophes européens contemporains de Bakhtine qui se sont intéressés à la même problématique, mais qu'on n'a pas l'habitude de mentionner à ce propos. En ce qui concerne l'étude du roman Le Maître et Marguerite et l'analyse du carnaval de Boulgakov, nous avons tâché d'unir deux approches. D'une part, nous avons mis au jour les sources de l'auteur ; d'autre part, nous avons examiné cette oeuvre dans une perspective dont le but est d'aider à comprendre la spécificité du carnavalesque chez Boulgakov en s'appuyant sur des travaux d'éminents spécialistes du folklore, de la mytho-archéologie, de la mytho-critique et de la sémiotique moderne. Notre recherche a permis de mettre en évidence les manifestations caractéristiques de la poétique du carnaval dans Le Maître et Marguerite, auparavant négligées par la critique. En outre, nous avons prêté une attention particulière à la façon dont Boulgakov utilise des éléments et modèles mythologiques « pré-carnavalesques » qui n'ont pas été étudiés de manière suffisante dans l'oeuvre de Bakhtine. Cela nous a permis non seulement de voir sous un autre jour les scènes-clés du roman, mais aussi d'avoir la connaissance plus approfondie du carnaval de Bakhtine à travers le carnaval de Boulgakov.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les membranes de dialyse à haut flux et à faible flux pourraient être liées à différents profils hemodynamiques pendant les séances de dialyse. Cette étude visait à comparer le profil hémodynamique des certains filtres de dialyse polysulfone couramment utilisés en Suisse. Nous avons réalisé une étude ouverte, cross-over, avec 25 pazients en hémodialyse On a comparés entre eux 4 filtres de polysulfone de la surface de 1 8 m2 A (Revaclear HF, Gambro), B (Helixone HF, Fresenius), C (Xevonta HF, BBraun) et D (Helixone LF Fresenius). Le profil hémodynamique a été mesuré en utilisant une technique non invasive et au patient a été demandé de fournir une opinion sur la tolérance à la seance de dialyse. La même membrane était utilisée pour 3 séances de suites Chaque semaine la membrane de dialyse était modifiée conformément à la séquence de randomisation. Pour chaque patient on a recueillie les données de 12 séances de dialyse. L'étude a été réalisé sur trois mois à compter de novembre 2012. Les analyses ont encore une fois montré la supériorité des filtres à haut débit comparés aux filtres à faible débit, et ne tendance à la supériorité du filtre Helixone (haut debit) comparé aux deux autres membranes. Les filtres à faible débit par rapport a ceux a haut debit sont associés ä une pression systolique et diastolique plus élevées a des résistances périphériques plus hautes et à un débit cardiaque plus faible L incidence d'épisodes d'hypotension en dialyse était la suivante: Revaclear HF (A) 70 Helixone HF (B) 87 Xevonta HF 73 (C), Helixone LF (D) 75. Le nombre d'épisodes d hypotension associée au filtre B était supérieure, de manière significative. La membrane à faible flux était associée à une pression artérielle supérieure à celles des membranes de haut flux. La membrane à haut flux Helixone garantie la meilleure efficacité de dialyse. Malheureusement, la même membrane est associée à une augmentation de l'incidence des épisodes d'hypotension, probablement due à un déséquilibré hé à l'efficacité de la dialyse. Malgré ces résultats, la tolérance subjective pour les différents filtres était comparable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La transfusion de concentrés plaquettaires, dès 1958, a permis d'augmenter l'espérance et la qualité de vie des patients dans le domaine de l'onco-hématologie, notamment en réduisant les risques hémorragiques induits par les chimiothérapies intensives. Après le traumatisme de l'affaire du sang contaminé dans les années 1980-1990, la médecine transfusionnelle a adopté des exigences de sécurité et de qualité très strictes et régulées dans plusieurs pays par les instances politiques. Cependant même les mesures de qualité les plus strictes n'ont permis d'atteindre le risque « zéro », notamment en ce qui concerne les contaminations bactériennes. De plus, la prise de conscience de l'existence de nouveaux pathogènes (West Nile Virus, Chikungunya, Prions) a stimulé le développement de 3 techniques d'inactivation des pathogènes pouvant s'appliquer au plasma et aux concentrés plaquettaires : la technique INTERCEPT utilisant l'amotosalen/UVA, la technique MIRASOL avec la riboflavine/UV et la technique THERAFLEX avec les UVC. La Suisse a fait office de pionnière en étant le premier pays au monde à adopter de manière généralisée l'inactivation des pathogènes par la technique INTERCEPT pour les concentrés plaquettaires dès 2011 après sa validation par Swissmedic en 2009 et son implémentation réussie dans plusieurs centres de transfusion pilotes. Coïncidence? Le décès tragique d'un patient pédiatrique en 2009 suite à une contamination bactérienne par une transfusion de concentré plaquettaire a précédé cette décision. Les cliniciens ont besoin de disposer de concentrés plaquettaires sûrs d'un point de vue microbiologique mais également sur le plan hémostatique, d'où la nécessité de disposer de preuves solides sur l'efficacité thérapeutique de ces nouveaux produits. Ceci a fait l'objet de la revue publiée dans Blood Reviews « The clinical and biological impact of new pathogen inactivation technologies on platelets concentrates » dont l'originalité est de couvrir l'étude de l'effet des processus d'inactivation des pathogènes sur la fonction plaquettaire sous toutes ses facettes allant de la protéomique aux études d'hémovigilance. Ce travail montre l'efficacité de ces méthodes et leur sécurité et souligne que l'observation de taux de recirculation moindre peut être compensée par une augmentation du statut d'activation des plaquettes. Le deuxième article publié comme co-auteur dans le journal Blood Transfusion « In vitro evaluation of pathogen-inactivated buffy coat-derived platelet concentrates during storage: The psoralen-based photochemical treatment step-by-step » se pose la question de la modification des propriétés fonctionnelles des plaquettes dans une étude à deux bras (par comparaison entre plaquettes traitées et non traitées). En plus de deux tests utilisés en pratique clinique (agrégation plaquettaire et cytométrie de flux) un test expérimental d'adhésion plaquettaire au fibrinogène en condition statique a été développé en collaboration avec le Prof Angelillo-Scherrer dans le cadre du laboratoire de recherche et développement du SRTS-VD. Les résultats obtenus démontrent la conservation du métabolisme plaquettaire et des changements mineurs dans la capacité d'agrégation mais une augmentation de la capacité d'adhésion au fibrinogène des plaquettes traitées probablement via une augmentation de la conversion de l'intégrine ailb(B3 dans sa forme activée. Les techniques d'inactivation des pathogènes appliqués aux concentrés plaquettaires représentent un important progrès dans le domaine de la médecine transfusionnelle. Leur impact au niveau moléculaire reste cependant encore en partie inconnu et fait l'objet d'études. Le défi actuel consiste à réussir à les adopter aux concentrés érythrocytaires, ce qui révolutionnerait la médecine transfusionnelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Background. Le considérable déclin de la malaria au niveau mondial remet en question la stratégie de chimioprophylaxie pour les voyageurs à destination de pays à risque modéré à faible de malaria. Un consensus international de la meilleure stratégie de prévention reste à trouver. Suivant le mouvement actuel de partage décisionnel, cette étude invite le voyageur au sein du débat comme acteur du processus de décision. Objectifs. Investiguer les préférences des voyageurs à destination de pays à risque modéré à faible de malaria en matière de prévention contre la malaria, en mettant en perspective leur perception du risque et les raisons de leur choix. Méthodologie. Dans la salle d'attente du Centre de Vaccination et Médecine de Voyage, les voyageurs à destination de risque modéré à faible de malaria remplissent un questionnaire et choisissent la méthode de prévention qu'ils préfèrent aidés d'un tableau leur proposant 4 choix possible ; mesure de prévention des piqûres de moustique uniquement, chimioprophylaxie, traitement de réserve seul et traitement de réserve avec test diagnostic rapide. Ils reçoivent aussi une échelle de risque illustrant les risques de malaria et d'effets indésirables des anti-malariques comparés à différents autres risques liés au voyage, inspirée par les palettes de Paling de la Communication Risk Institut. Résultats. De décembre 2012 à décembre 2013, 391 voyageurs on été inclus. 59 (15%) ont choisi la chimioprophylaxie, 116 (30%) un traitement de réserve, 112 (29%) un traitement de réserve avec test rapide diagnostic, 100 (26%) une prévention des piqûre de moustiques uniquement, and 4 (1%) plusieurs alternatives. Les raisons de choisir une chimioprophylaxie étaient la sécurité (42%), l'action préventive (29%), l'efficacité (15%) et la facilité d'utilisation (15%). Les raisons de choisir un traitement de réserve étaient moins de prise de médicament (29%), moins d'effets secondaires de ceux-ci (23%) et le prix (9%). Les voyageurs choisissant la chimioprohylaxie l'avaient plus souvent déjà utilisée par le passé [OR=3.0 (CI 1.7-5.44)], sans différence en terme de profil démographique, caractéristique du voyage ou comportement à risque. Conclusions. Quand interrogés, 85% des voyageurs à destination de pays à risque modéré à faible de malaria préfèrent ne pas prendre la chimioprophylaxie, bien que la plupart des pays la recommande encore. Les raisons avancées sont cohérentes avec leur choix. Les nouvelles recommandations devraient prendre en compte la préférence des voyageurs et inclure un processus de décision partagé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une lésion nerveuse périphérique est susceptible d'engendrer une douleur neuropathique caractérisée par des changements d'expression génique dans les neurones nociceptifs des ganglions spinaux. Parmi ces modifications, on note une augmentation transcriptionnelle du gène codant pour la guanosine triphosphate cyclohydrolase 1 (GCH1) considérée comme modulateur clé des douleurs neuropathiques périphériques1. La surexpression de la GCH1 induit alors une hausse de la concentration de la tétrahydrobiopterin (BH4), un cofacteur essentiel pour la production de catécholamines, de sérotonine et d'oxide nitrique dans les ganglions spinaux. La surexpression de ce cofacteur induit la production de ces neurotransmetteurs et contribue à l'augmentation de la sensibilité douloureuse. Dans ce travail, j'ai modulé l'expression de GCH1 par l'utilisation d'un vecteur viral adéno-associé. Tout d'abord, j'ai testé in vitro dans des cellules PC12 différentes molécules d'ARN interfèrent permettant la régulation négative de GCH1. Les cellules PC 12 contiennent constitutionnellement la GCH1 et sont donc intéressantes afin de tester et sélectionner un plasmide permettant une régulation négative efficace de cette molécule in vitro. Cela m'a permis de choisir après sélection de cellules par FACS et quantification protéique par Western blot les meilleurs sh-ARN à utiliser tant pour la régulation négative de GCH1 que pour le vecteur contrôle. J'ai ensuite co- transfecté ces plasmides avec le plasmide pDF6 dans des cellules HEK293T pour la production de mon vecteur viral (rAAV2/6) permettant la régulation négative de la GCH1 ainsi que de mon vecteur contrôle. Après avoir étudié deux voies d'injection chez le rat (dans le nerf sciatique et en intrathécal), j'ai retenu la voie intrathécale comme ayant le meilleur taux de transduction de mon vecteur viral au niveau des ganglions spinaux. Utiliser cette voie d'injection pour mon vecteur permet de cibler plus particulièrement les neurones nociceptifs des ganglions spinaux. J'ai ensuite étudié la modulation de la GCH1 et sa répercussion sur le développement et le maintien des douleurs neuropathiques dans le modèle animal « spared nerve injury » (SNI). Je n'ai pas obtenu de diminution de douleur ni au niveau comportemental ni au niveau moléculaire chez le rat. Ayant répété l'expérience chez la souris, j'ai obtenu une diminution significative de l'expression de la GCH1 au niveau de l'ARN messager. Je n'ai pas étudié l'efficacité de mon vecteur in vivo chez la souris car un autre groupe m'a devancé dans cette expérience et a publié une étude similaire montrant une régulation négative et efficace de la GCH1 sur les symptômes de douleur neuropathique. Mes résultats, associés à cette publication, démontrent la validité de mon hypothèse de départ et ouvrent de nouvelles perspectives thérapeutiques en prenant comme cible la production de BH4.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La grande majorité des organismes vivants ont développé un système d'horloges biologiques internes, appelées aussi horloges circadiennes, contrôlant l'expression de gênes impliqués dans de nombreux processus moléculaires et comportementaux. Au cours de la dernière décennie, des analyses « microarray » et séquençages à haut débit sur divers tissus de mammifères, indiquent que jusqu'à 20% du transcriptome serait sous contrôle circadien. Il était jusqu'à présent admis que la majorité des ARNm ayant une accumulation rythmique était générée par une transcription qui était elle-même rythmique. Toutefois, de récentes études ont suggéré qu'une proportion considérable des ARNm cycliques serait en fait générée par des mécanismes post-transcriptionnelles, incluant une régulation par micro-ARN (miARN). Lorsque j'ai débuté mon travail de thèse, l'influence des miARN sur l'expression des gènes circadiens, au niveau pangénomique, était encore méconnue. Par l'utilisation d'un modèle murin, dont la biogenèse des miARN a été spécifiquement désactivée au niveau des cellules hépatiques (knockout conditionnel pour Dicer), je me suis donc intéressée au rôle que jouaient ces molécules régulatrices sur la rythmicité de l'expression génique dans le foie. Des séquençages sur l'ensemble du transcriptome révèlent que l'horloge interne du foie est étonnement résistante à la perte totale des miARN. Nous avons cependant trouvé que les miARN agissent de façon importante sur la régulation de l'expression des gènes contrôlés par l'horloge moléculaire. La corégulation par les miARN, affectant jusqu'à 30% des gènes transcrits de façon rythmiques, conduit ainsi à une modulation de phase et d'amplitude du rythme de l'abondance des ARNm. En revanche, seuls peu de transcrits dépendent uniquement des miARN pour la rythmicité de leur accumulation. Enfin, mon travail met en évidence plusieurs miARN spécifiques, qui semblent préférentiellement moduler l'expression des gènes cycliques et permet l'identification de voies hépatiques particulièrement sujettes à une double régulation par les miARN et l'horloge biologique interne. La première masse d'analyses a essentiellement porté sur le rôle que jouent les miARN au niveau de l'expression des gènes contrôlés par l'horloge interne. Dans deux études de suivi, je me suis penchée sur deux aspects supplémentaires et complémentaires de la manière dont les miARN et l'oscillation de l'expression des gènes interagissent. Dans les hépatocytes murins, spécifiquement privés de Dicer, je me suis demandée si un phénotype horloge avait pu être masqué, dû à un entraînement stable de l'horloge du foie par l'horloge maîtresse du cerveau. J'ai donc commencé une série d'expériences ambitieuses (impliquant la mesure de la rythmicité du foie in vivo, chez l'animal vivant) afin de déséquilibrer l'entrainement de l'horloge hépatique via l'utilisation d'un protocole nutritionnel spécifique. Les premiers résultats suggèrent que dans des conditions où l'animal subit une restriction alimentaire pendant la journée, les miARN sont importants dans la cinétique d'adaptation des organes périphériques à un nouvel horaire de sustentation. Dans une deuxième ligne de recherche, j'ai plus profondément étudié quels seraient les miARN responsables des rythmes post-transcriptionnels des ARNm, en utilisant le séquençage de « small » ARN sur 24h. L'analyse est en cours et se poursuivra après l'obtention de mon diplôme. De façon générale, mon travail révèle d'importants et nouveaux rôles des miARN dans la modulation de l'expression circadienne des gènes hépatiques. De plus, le set de données générées dans l'étude déjà publiée, peut dorénavant servir de ressource valable pour de prochaines investigations sur le rôle physiologique que les miARN jouent au niveau du foie. -- Most living organisms have developed internal timing systems, called circadian clocks, to drive the rhythmic expression of genes involved in many molecular and behavioral processes. Over the last decade, microarray analyses and high- throughput sequencing from various mammalian tissues have indicated that up to 20% of the transcriptome are under circadian control. It was generally assumed that the majority of rhythmic mRNA accumulation is generated by rhythmic transcription. However, recent studies have suggested that a considerable proportion of mRNA cycling may actually be generated by post-transcriptional mechanisms, including by microRNAs. When I started my thesis work, it was still unknown how miRNAs influence circadian gene expression in a genome-wide fashion. Using a mouse model in which miRNA biogenesis can be inactivated in hepatocytes (conditional Dicer knockout mouse), I have thus addressed the role that these regulatory molecules play in rhythmic gene expression in the liver. Whole transcriptome sequencing revealed that the hepatic core clock was surprisingly resilient to total miRNA loss. However, we found that miRNAs acted as important regulators of clock-controlled gene expression. Co- regulation by miRNAs, which affected up to 30% of rhythmically transcribed genes, thus led to the modulation of phases and amplitudes of mRNA abundance rhythms. By contrast, only very few transcripts were strictly dependent on miRNAs for their rhythmic accumulation. Finally, my work highlights several specific miRNAs that appear to preferentially modulate cyclic gene expression, and identifies pathways in the liver that are particularly prone to dual regulation through miRNAs and the clock. The first bulk of analyses mainly dealt with the role that miRNAs play at the level of rhythmic clock output gene expression. In two follow-up studies I further delved into two additional, complementary aspects of how miRNAs and gene expression oscillations interact. First, I addressed whether a core clock phenotype in the hepatocyte-specific Dicer knockout could have been masked due to the stable entrainment of the liver clock by the animals' master clock in the brain. I thus started a series of ambitious experiments (involving the in vivo recording of liver rhythms in live animals) to bring the stable entrainment of the liver clock out of equilibrium using specific feeding protocols. My first results suggest that under conditions when animals are challenged by food restriction to daytime, miRNAs are important for the kinetics of adapting to unusual mealtime in peripheral tissue. In a second line of research, I have more carefully investigated which miRNAs are responsible for post- transcriptional mRNA rhythms using small RNA sequencing around-the-clock. The analyses are ongoing and will be continued after my graduation. Overall, my work uncovered important and novel roles of miRNA activity in shaping hepatic circadian gene expression; moreover, the datasets collect in the published studies can serve as a valuable resource for further investigations into the physiological roles that miRNAs play in liver. -- L'alternance du jour et de la nuit dirige depuis longtemps la vie quotidienne des êtres humains et de la plupart des organismes sur terre. Ce cycle de 24 heures façonne beaucoup de changements comportementaux et physiologiques tels que la vigilance, la température corporelle et le sommeil. Les rythmes journaliers, appelés rythmes circadiens, sont dirigés par des horloges biologiques tournant dans presque chaque cellule du corps. Une structure dans le cerveau agit en tant qu'horloge maitresse pour synchroniser les horloges internes entre elles et en fonction des signaux de jour/nuit extérieurs. Dans les cellules "les gènes de l'horloge" sont activés et désactivés une fois par jour ce qui déclenche des cycles dans lesquels des protéines sont produites de manière circadienne. Ces rythmes protéiques sont spécialisés pour chaque tissu ou organe et peuvent les aider à réaliser leurs tâches quotidiennes. Les rythmes circadiens peuvent être générés d'autres manières n'impliquant pas directement les composants des gènes de l'horloge. Les ARN messagers (ARNm) sont des molécules intermédiaires dans la production de protéines à partir d'ADN. Dans le foie des souris jusqu'à 20% des molécules d'ARNm sont produites suivant des rythmes circadiens. Le foie réalise des tâches essentielles dans le contrôle du métabolisme incluant celui des hydrates de carbone, des graisses et du cholestérol. Un timing précis est important afin de traiter les substances nutritives correctement lors des repas il en résulte une variation des quantités de certains ARNm et protéines coïncidant avec les repas. Les microARNs constituent une autre classe de molécules ARN de très petite taille qui régulent l'efficacité de traduction des ARNm en protéines et la stabilité des ARNm. Lors de mon travail de thèse, j'ai exploré de manière approfondie l'influence de ces petits régulateurs sur les rythmes circadiens du foie de souris. Ces expériences qui impliquaient le "Knock-out" d'un gène essentiel à la production de microARNs montrent qu'au lieu de générer les rythmes des ARNm, les microARNs les ajustent pour répondre aux besoins spécifiques du foie comme assurer leur pic au bon moment de la journée. Le ciblage de microARNs spécifiques peut révéler de nouvelles stratégies pour rectifier ces rythmes lorsque par exemple les fonctions métaboliques ne fonctionnent plus normalement. -- The rising and setting of the sun have long driven the daily schedules of humans and most organisms on the earth. This 24-hr cycle shapes many behavioural and physiological changes, such as alertness, body temperature, and sleep. These daily rhythms, which are called circadian rhythms, are dictated by biological clocks that are ticking in almost every single cell of the body. A region in the brain acts as a master clock to synchronize the internal clocks with each other and with the outside light/dark cycles. In cells, "core clock genes" are turned on and off once per day, which triggers cycles that cause some proteins to be produced in a circadian manner. The protein rhythms are specialized to a particular tissue or organ, and may help them to carry out their designated daily tasks. However, circadian rhythms might also be produced by other ways that do not involve these core clock components. Messenger RNAs (mRNAs) are intermediate molecules in the production of proteins from DNA. In the mouse liver, up to 20% of mRNA molecules are produced in circadian cycles. The liver performs essential tasks that control metabolism-including that of carbohydrates, fats, and cholesterol. Precisely timing when certain mRNAs and proteins reach peaks and troughs in their activities to coincide with mealtimes is important for nutrients to be properly processed. Other RNA molecules called microRNAs, i.e. RNAs of very small size, regulate at which rate mRNA molecules are translated into proteins. In my thesis work, I have explored at the influence of these small regulators on circadian rhythms in the mouse liver in greater detail. These experiments, which involved "knocking out" a gene that is essential for the production of microRNAs, show that rather than generating the mRNA rhythms, the microRNAs appear to adjust them to meet the specific needs of the liver, such as ensuring that they peak at the right time-of-day. Targeting specific microRNA molecules may reveal new strategies to tweak these rhythms, which could help to improve conditions when metabolic functions go wrong.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une des meilleures techniques pour décontaminer l'environnement d'éléments toxiques (comme par exemple le dibenzofuan, DBF et le 4-chlorophenol, 4CP) déposés par l'homme, à bas coûts et sans le perturber considérablement, est sans doute la biorémédiation, et particulièrement la bioaugmentation. Malheureusement, si plusieurs microorganismes ont démontré leur efficacité à dégrader les composés toxiques en conditions de laboratoire, plusieurs tentatives afin de les utiliser dans l'environnement n'ont pas abouti. Ces échecs sont probablement le résultat des pauvres connaissances des réactions de ces mêmes microorganismes dans l'environnement. L'objectif de mon travail a été de mieux comprendre les réponses de ces bactéries au niveau de leurs gènes lorsqu'elles sont introduites ou prospèrent dans des conditions plus proches de la réalité, mais encore suffisamment contrôlées pour pouvoir élucider leur comportement. Le fait de résister à des conditions de sécheresse a été considéré en tant que facteur clé dans la survie des bactéries amenées à être utilisées pour la biorémédiation; cela implique une série de mécanismes utilisés par la cellule pour faire face au stress hydrique. Le chapitre II, par une approche métagénomique, compare les réactions de trois souches prometteuses pour la biorémédiation (Arthrobacter chlorophenolicus A6, Sphingomonas wittichii RW1 and Pseudomonas veronii 1YdBTEX2) vis-à-vis du stress hydrique simulé en conditions de laboratoire. L'objectif ici est de découvrir et de décrire les stratégies de résistance au stress, communes ou spécifiques, employées par les bactéries. Mes résultats montrent que les trois souches ont des sensibilités différentes au stress hydrique. Entre les traits communs trouvés, il y a une diminution de l'expression des gènes flagellaires ainsi qu'une augmentation de l'expression de solutes compatibles, mais qui sont souche-spécifiques. J'ai étudié plus en détail la réponse génomique de RW1 par rapport aux inoculations ainsi que sa croissance dans le sable contaminé et non-stérile (chapitre III), et je les ai comparé à des cultures en milieu liquide. Mes résultats indiquent que RW1 peut résister efficacement et peut croître dans des conditions presque sèches et peut également dégrader le contaminant (DBF, dans le cas présent) si les pré-cultures sont réalisées dans le même type de contaminant. Par contre, notre hypothèse du chapitre II se révèle fausse car le comportement de RW1 est très diffèrent de celui observé dans des conditions avec stress hydrique induit par l'addition de sel ou de PEG. Plus intéressant, les réponses de RW1 en milieu liquide sont très différentes de celles observées dans le sable, révélant ainsi que cette souche peut reconnaître le milieu dans lequel elle se trouve. Les mêmes expériences en sable contaminé, cette fois-ci avec 4CP, ont été réalisées pour A6 (chapitre IV) dans l'espoir de compléter la comparaison entre le stress hydrique et l'adaptation dans le sol. Malheureusement, il n'a pas été possible d'obtenir d'échantillons de bonne qualité pour les hybridations des microarrays afin d'étudier la réponse transcriptionnelle dans les différentes phases de croissance dans le sable (contaminé ou non). Toutefois, j'ai appris qu'Arthrobacter ne peut pas croitre dans les sols hautement contaminés si les conditions du sol sont très sèches, elles ont en effet besoin de suffisamment d'eau pour dégrader des quantités importantes de 4CP. Ces observations dirigent l'attention sur le fait que les études sur l'efficacité de l'inoculation de bactéries doivent être testées dans des conditions le plus proche possible de l'environnement ciblé, tout comme les concentrations optimales pour l'inoculum. Finalement, nous avons étudié le comportement de A6 dans la phytosphère avec deux dégrés d'humidité (chapitre V). A6 ne montre pas de réaction particulière face aux changements d'humidité, et à nouveau, ces réponses ne peuvent être liées aux changements d'expression des gènes observées dans les conditions de stress hydrique simulées. Cette étude a permis d'identifier la présence de composés phénoliques dans les feuilles qui peuvent potentiellement améliorer les propriétés de dégradation ou qui permettent d'effectuer de façon plus rapide la réaction de dégradation des contaminants dans un processus de phytoremédiation par A. chlorophenolicus.