998 resultados para coût-efficacité
Resumo:
Avaliou-se a viabilidade da exploração do morangueiro, no Paraná, em duas áreas, 0,3 ha (área média cultivada pela agricultura familiar) e 1 ha, por um ano. Elaborou-se uma planilha de fluxo de caixa a partir da qual se calcularam: Período de Recuperação do Capital (PRC), Retorno sobre Investimento (RI), Valor Presente Líquido (VPL) e Taxa Interna de Retorno (TIR). Todos para Custo Operacional Efetivo (COE), Custo Operacional Total (COT) e Custo Total de Produção (CTP). Para uma situação considerada normal, os indicadores de rentabilidade calculados foram (Tipo de custo: VPL área-padrão (TIR área- padrão) / VPL área efetiva (TIR área efetiva)) COE: US$ 17.856,55 (42%) / US$ 4.795,85 (39%); COT: US$ 5.182,40 (11%) / - US$ 1.691,97 (-13%); CPT: US$ 4.846,26 (10%) / -US$ 1.792,80 (-14%). Fez-se a análise de cenários para os fatores produtividade, preço de venda e mão de obra, analisando o VPL e a TIR. Verificou-se que o tamanho da área influenciou na viabilidade econômica, mostrando a importância de se determinar anualmente a área mínima viável para a agricultura familiar. Os resultados indicaram que a cultura é viável em curto prazo, quando considerado o COE como parâmetro de análise, mas pode não se sustentar em prazos maiores quando se consideram o COT, o CTP e a variação de alguns fatores de produção. Pela análise de cenários definidos pelos fatores de produção analisados, o VPL e a TIR alteram-se para níveis que oferecem risco à exploração.
Resumo:
La chute chez les personnes âgées est considérée comme un problème de santé publique en raison de sa fréquence, de ses conséquences ainsi que de l'efficacité de certain programmes de prévention. La chute est pourtant très souvent non signalée par les personnes ou par les professionnels. Je postule que la chute est un événement traumatisant ; j'examine d'une part son impact sur les trajectoires de personnes à partir de 50 ans et d'autre part l'adaptation à cet événement. Mobilisant différents types de données existantes, ce travail met en évidence les nombreux impacts de la chute au-delà de la santé, et notamment sur les dimensions sociales et sur la qualité de vie ; en comparaison à d'autres événements de santé, la chute présente un effet sur plusieurs indicateurs qui s'exprime tant à court qu'à long terme. J'identifie des facteurs de vulnérabilité à la chute : le moment de survenue de l'événement est un critère déterminant, l'adaptation étant plus difficile quand la chute survient chez des moins de 65 ans ; la gravité de l'événement entrave également la probabilité de s'y adapter. Par contre, les ressources institutionnelles sont sous-utilisées par les personnes concernées et les effets d'un programme généraliste de prévention des chutes fondé sur de l'activité physique et de l'éducation pour la santé sont modestes et ne se maintiennent pas au-delà de l'intervention. Au final, cette thèse apporte une contribution originale à l'étude psychosociale de la chute envisagée au moyen du modèle de la vulnérabilité : ses conclusions permettent d'ajuster des interventions qui devraient prioritairement viser à renforcer les ressources et stratégies individuelles et ensuite à gérer les conséquences identitaires et émotionnelles liées à la chute.
Resumo:
Les lymphocytes T CD4+ sont connus pour leur potentiel d'acquisition de fragments membraneux de cellules présentatrices d'antigène (CPA) dans un processus nommé trogocytose. Ce phénomène est observé lors de l'interaction entre le lymphocyte T CD4+ antigène-spécifique et la CPA lors de la présentation de l'antigène en question, et dépend donc de la spécificité du lymphocyte T CD4+. L'identification des lymphocytes T CD4+ sujets à la trogocytose en co-culture avec des CPA chargées d'un antigène connu permet d'enrichir des lymphocytes T antigène-spécifiques sans connaître leur spécificité exacte ou leur profil de production de cytokines. Dans cette étude, nous avons donc cherché à évaluer l'utilité de cette méthode dans l'identification de la spécificité des lymphocytes T effecteurs et régulateurs lors de l'inflammation auto-immune avec des spécificités souvent inconnues. La trogocytose a démontré son efficacité dans la détection de lymphocytes T réactifs à la protéine basique de myéline in vitro ainsi qu'ex vivo après immunisation. Cependant, le potentiel de la trogocytose à identifier des lymphocytes T régulateurs antigène-spécifiques est limité par le fait que les lymphocytes T régulateurs Foxp3+ montrent un taux élevé de manière constitutive de trogocytose comparé aux lymphocytes T Foxp3-, Un taux localement élevé de trogocytose lors d'un état inflammatoire (observé au niveau des lymphocytes T effecteurs et régulateurs isolés du système nerveux central enflammé) empêche l'utilisation de la trogocytose dans l'évaluation de la réactivité antigénique de cellules extraites d'un site inflammatoire. Nos résultats montrent la possibilité d'enrichir des lymphocytes T conventionnels antigène- réactifs en périphérie par détection au moyen de la trogocytose. Nous avons aussi montré les limitations de cette méthode dans sa capacité d'identifier des lymphocytes T effecteurs et régulateurs antigène- réactifs extraits de sites inflammatoires. Le potentiel de trogocytose élevé dans les sites d'inflammation soulève la question de la signification biologique de ce phénomène dans l'inflammation, dans la suppression médiée par les lymphocytes T régulateurs et dans le maintien de la tolérance immunologique dans des états de santé variables.
Resumo:
Cette thèse comprend trois essais qui abordent l'information le processus d'ap-prentissage ainsi que le risque dans les marchés finances. Elle se concentre d'abord sur les implications à l'équilibre de l'hétérogénéité des agents à travers un processus d'apprentissage comprtemental et de mise à jour de l'information. De plus, elle examine les effets du partage des risques dans un reseau entreprise-fournisseur. Le premier chapitre étudie les effets du biais de disponibili sur l'évaluation des actifs. Ce biais décrit le fait que les agents surestiment l'importance de l'information acquise via l'expérience personnelle. L'hétérogénéité restante des différentes perceptions individuelles amène à une volonté d'échanges. Conformé¬ment aux données empiriques, les jeunes agents échangent plus mais en même temps souffrent d'une performance inférieure. Le deuxième chapitre se penche sur l'impact qu'ont les différences de modelisation entre les agents sur leurs percevons individuelles du processus de prix, dans le contexte des projections de modèles. Les agents sujets à un biais de projection pensent être représentatifs et interprètent les opinions des autres agents comme du bruit. Les agents, avec des modèles plus persistants, perçoivent que les prix réagissent de façon excessive lors des périodes de turbulence. Le troisième chapitre analyse l'impact du partage des risques dans la relation entreprise-fournisseur sur la décision optimale de financement de l'entreprise. Il étudie l'impact sur l'optimisation de la structure du capital ainsi que sur le coût du capital. Les résultats indiquent en particulier qu'un fournisseur avec un effet de levier faible est utile pour le financement d'un nouveau projet d'investissement. Pour des projets très rentables et des fournisseurs à faible effet de levier, le coût des capitaux propres de l'entreprise peut diminuer.
Resumo:
Atherosclerosis is a chronic cardiovascular disease that involves the thicken¬ing of the artery walls as well as the formation of plaques (lesions) causing the narrowing of the lumens, in vessels such as the aorta, the coronary and the carotid arteries. Magnetic resonance imaging (MRI) is a promising modality for the assessment of atherosclerosis, as it is a non-invasive and patient-friendly procedure that does not use ionizing radiation. MRI offers high soft tissue con¬trast already without the need of intravenous contrast media; while modifica¬tion of the MR pulse sequences allows for further adjustment of the contrast for specific diagnostic needs. As such, MRI can create angiographic images of the vessel lumens to assess stenoses at the late stage of the disease, as well as blood flow-suppressed images for the early investigation of the vessel wall and the characterization of the atherosclerotic plaques. However, despite the great technical progress that occurred over the past two decades, MRI is intrinsically a low sensitive technique and some limitations still exist in terms of accuracy and performance. A major challenge for coronary artery imaging is respiratory motion. State- of-the-art diaphragmatic navigators rely on an indirect measure of motion, per¬form a ID correction, and have long and unpredictable scan time. In response, self-navigation (SM) strategies have recently been introduced that offer 100% scan efficiency and increased ease of use. SN detects respiratory motion di¬rectly from the image data obtained at the level of the heart, and retrospectively corrects the same data before final image reconstruction. Thus, SN holds po-tential for multi-dimensional motion compensation. To this regard, this thesis presents novel SN methods that estimate 2D and 3D motion parameters from aliased sub-images that are obtained from the same raw data composing the final image. Combination of all corrected sub-images produces a final image with reduced motion artifacts for the visualization of the coronaries. The first study (section 2.2, 2D Self-Navigation with Compressed Sensing) consists of a method for 2D translational motion compensation. Here, the use of com- pressed sensing (CS) reconstruction is proposed and investigated to support motion detection by reducing aliasing artifacts. In healthy human subjects, CS demonstrated an improvement in motion detection accuracy with simula¬tions on in vivo data, while improved coronary artery visualization was demon¬strated on in vivo free-breathing acquisitions. However, the motion of the heart induced by respiration has been shown to occur in three dimensions and to be more complex than a simple translation. Therefore, the second study (section 2.3,3D Self-Navigation) consists of a method for 3D affine motion correction rather than 2D only. Here, different techniques were adopted to reduce background signal contribution in respiratory motion tracking, as this can be adversely affected by the static tissue that surrounds the heart. The proposed method demonstrated to improve conspicuity and vi¬sualization of coronary arteries in healthy and cardiovascular disease patient cohorts in comparison to a conventional ID SN method. In the third study (section 2.4, 3D Self-Navigation with Compressed Sensing), the same tracking methods were used to obtain sub-images sorted according to the respiratory position. Then, instead of motion correction, a compressed sensing reconstruction was performed on all sorted sub-image data. This process ex¬ploits the consistency of the sorted data to reduce aliasing artifacts such that the sub-image corresponding to the end-expiratory phase can directly be used to visualize the coronaries. In a healthy volunteer cohort, this strategy improved conspicuity and visualization of the coronary arteries when compared to a con¬ventional ID SN method. For the visualization of the vessel wall and atherosclerotic plaques, the state- of-the-art dual inversion recovery (DIR) technique is able to suppress the signal coming from flowing blood and provide positive wall-lumen contrast. How¬ever, optimal contrast may be difficult to obtain and is subject to RR variability. Furthermore, DIR imaging is time-inefficient and multislice acquisitions may lead to prolonged scanning times. In response and as a fourth study of this thesis (chapter 3, Vessel Wall MRI of the Carotid Arteries), a phase-sensitive DIR method has been implemented and tested in the carotid arteries of a healthy volunteer cohort. By exploiting the phase information of images acquired after DIR, the proposed phase-sensitive method enhances wall-lumen contrast while widens the window of opportunity for image acquisition. As a result, a 3-fold increase in volumetric coverage is obtained at no extra cost in scanning time, while image quality is improved. In conclusion, this thesis presented novel methods to address some of the main challenges for MRI of atherosclerosis: the suppression of motion and flow artifacts for improved visualization of vessel lumens, walls and plaques. Such methods showed to significantly improve image quality in human healthy sub¬jects, as well as scan efficiency and ease-of-use of MRI. Extensive validation is now warranted in patient populations to ascertain their diagnostic perfor¬mance. Eventually, these methods may bring the use of atherosclerosis MRI closer to the clinical practice. Résumé L'athérosclérose est une maladie cardiovasculaire chronique qui implique le épaississement de la paroi des artères, ainsi que la formation de plaques (lé¬sions) provoquant le rétrécissement des lumières, dans des vaisseaux tels que l'aorte, les coronaires et les artères carotides. L'imagerie par résonance magné¬tique (IRM) est une modalité prometteuse pour l'évaluation de l'athérosclérose, car il s'agit d'une procédure non-invasive et conviviale pour les patients, qui n'utilise pas des rayonnements ionisants. L'IRM offre un contraste des tissus mous très élevé sans avoir besoin de médias de contraste intraveineux, tan¬dis que la modification des séquences d'impulsions de RM permet en outre le réglage du contraste pour des besoins diagnostiques spécifiques. À ce titre, l'IRM peut créer des images angiographiques des lumières des vaisseaux pour évaluer les sténoses à la fin du stade de la maladie, ainsi que des images avec suppression du flux sanguin pour une première enquête des parois des vais¬seaux et une caractérisation des plaques d'athérosclérose. Cependant, malgré les grands progrès techniques qui ont eu lieu au cours des deux dernières dé¬cennies, l'IRM est une technique peu sensible et certaines limitations existent encore en termes de précision et de performance. Un des principaux défis pour l'imagerie de l'artère coronaire est le mou¬vement respiratoire. Les navigateurs diaphragmatiques de pointe comptent sur une mesure indirecte de mouvement, effectuent une correction 1D, et ont un temps d'acquisition long et imprévisible. En réponse, les stratégies d'auto- navigation (self-navigation: SN) ont été introduites récemment et offrent 100% d'efficacité d'acquisition et une meilleure facilité d'utilisation. Les SN détectent le mouvement respiratoire directement à partir des données brutes de l'image obtenue au niveau du coeur, et rétrospectivement corrigent ces mêmes données avant la reconstruction finale de l'image. Ainsi, les SN détiennent un poten¬tiel pour une compensation multidimensionnelle du mouvement. A cet égard, cette thèse présente de nouvelles méthodes SN qui estiment les paramètres de mouvement 2D et 3D à partir de sous-images qui sont obtenues à partir des mêmes données brutes qui composent l'image finale. La combinaison de toutes les sous-images corrigées produit une image finale pour la visualisation des coronaires ou les artefacts du mouvement sont réduits. La première étude (section 2.2,2D Self-Navigation with Compressed Sensing) traite d'une méthode pour une compensation 2D de mouvement de translation. Ici, on étudie l'utilisation de la reconstruction d'acquisition comprimée (compressed sensing: CS) pour soutenir la détection de mouvement en réduisant les artefacts de sous-échantillonnage. Chez des sujets humains sains, CS a démontré une amélioration de la précision de la détection de mouvement avec des simula¬tions sur des données in vivo, tandis que la visualisation de l'artère coronaire sur des acquisitions de respiration libre in vivo a aussi été améliorée. Pourtant, le mouvement du coeur induite par la respiration se produit en trois dimensions et il est plus complexe qu'un simple déplacement. Par conséquent, la deuxième étude (section 2.3, 3D Self-Navigation) traite d'une méthode de cor¬rection du mouvement 3D plutôt que 2D uniquement. Ici, différentes tech¬niques ont été adoptées pour réduire la contribution du signal du fond dans le suivi de mouvement respiratoire, qui peut être influencé négativement par le tissu statique qui entoure le coeur. La méthode proposée a démontré une amélioration, par rapport à la procédure classique SN de correction 1D, de la visualisation des artères coronaires dans le groupe de sujets sains et des pa¬tients avec maladies cardio-vasculaires. Dans la troisième étude (section 2.4,3D Self-Navigation with Compressed Sensing), les mêmes méthodes de suivi ont été utilisées pour obtenir des sous-images triées selon la position respiratoire. Au lieu de la correction du mouvement, une reconstruction de CS a été réalisée sur toutes les sous-images triées. Cette procédure exploite la cohérence des données pour réduire les artefacts de sous- échantillonnage de telle sorte que la sous-image correspondant à la phase de fin d'expiration peut directement être utilisée pour visualiser les coronaires. Dans un échantillon de volontaires en bonne santé, cette stratégie a amélioré la netteté et la visualisation des artères coronaires par rapport à une méthode classique SN ID. Pour la visualisation des parois des vaisseaux et de plaques d'athérosclérose, la technique de pointe avec double récupération d'inversion (DIR) est capa¬ble de supprimer le signal provenant du sang et de fournir un contraste posi¬tif entre la paroi et la lumière. Pourtant, il est difficile d'obtenir un contraste optimal car cela est soumis à la variabilité du rythme cardiaque. Par ailleurs, l'imagerie DIR est inefficace du point de vue du temps et les acquisitions "mul- tislice" peuvent conduire à des temps de scan prolongés. En réponse à ce prob¬lème et comme quatrième étude de cette thèse (chapitre 3, Vessel Wall MRI of the Carotid Arteries), une méthode de DIR phase-sensitive a été implémenté et testé
Resumo:
The present PhD dissertation consists of three papers, organized in chapters, in the field of behavioral economics. This discipline studies economic behavior of individuals subject to limitations, such as bounded self-interest and bounded willpower. The behavior studied in the present thesis ranges from the complex decision to register as an organ donor, decision¬making in the presence of uncertainty and the decision to give money to a charitable organization. The first chapter aims at testing the effectiveness of an active-decision (AD) mechanism on the decision to become an organ donor in Switzerland, using field experiments. We found that stimulating participants' reflection on the topic of organ donation had a negative effect on the decision to become an organ donor. Moreover, a non-binding commitment nudge reduces putting off the decision, but does not lead to donation rates higher than in the control group. The results suggest that AD may be far more limited than previously thought and raise doubts about the efficacy of engaging potential donors to reflect on the topic of organ donation. Beyond carrying for others, behavioral economics also recognizes that individuals do not evaluate outcomes in absolute terms but rather by comparing them to some reference levels, called reference points. Above the reference points, economic outcomes are perceived as gains, while below these levels the same outcomes are felt as losses. The last two chapters analyze the importance of reference points in the evaluation of economic outcomes. Using a laboratory experiment where subjects played two consecutive lotteries, Chapter 2 studies the speed of adjustment of the reference point. We find that varying the probability of winning the first lottery has no effect on subjects' risk behavior regarding the second lottery. This result indicates a very fast adjustment of the reference point to the latest information. Chapter 3 investigates whether reference points are relevant for charitable preferences. Using actual donation decisions of participants in a laboratory experiment, the results suggest that reference points are not crucial for shaping charitable giving. -- Cette thèse de doctorat consiste en trois articles, organisés en chapitres, dans le domaine de l'économie comportementale. Cette discipline étudie le comportement d'agents économiques sujets à des limitations, telles qu'un égoïsme limité et une volonté limitée. Le comportement étudié dans cette thèse va de la décision complexe de devenir donneur d'organes, la prise de décision en présence d'incertitude à la décision de donner de l'argent à une oeuvre caritative. Le premier chapitre vise à tester l'efficacité d'un mécanisme de « décision active » (active decision, AD) sur la décision de devenir donneur d'organes en Suisse, et ce en recourant à deux expériences hors-laboratoire. Les résultats montrent que stimuler la réflexion des participants sur le don d'organes a un effet négatif sur la décision de devenir donneur. De plus, un mécanisme qui encourage les participants à prendre une décision sur le champ réduit la tendance à procrastiner, mais ne mène pas à un taux de donneurs plus élevé par rapport à un groupe de contrôle. Les résultats suggèrent que le mécanisme AD est bien plus limité que ce qui a été supposé jusqu'à maintenant. De plus, ils suscitent le doute quant à l'efficacité de stimuler la réflexion de potentiels donneurs sur le sujet du don d'organes. En plus de se soucier des autres, l'économie comportementale admet également que les individus n'évaluent pas les résultats de façon absolue, mais en comparant ceux-ci à des niveaux de références, souvent appelés points de référence. Au-dessus de ces points de référence, les résultats sont perçus en tant que gains, tandis qu'en-dessous ces mêmes résultats sont considérés comme des pertes. Les deux derniers chapitres analysent l'importance des points de référence dans diverses situations. A l'aide d'une expérience en laboratoire dans laquelle les participants participent à deux loteries consécutives, le chapitre 2 étudie la vitesse d'ajustement du point de référence. Le résultat montre que varier la probabilité de gagner la première loterie n'a aucun effet sur le comportement en matière de risques concernant la deuxième loterie. Cela indique un ajustement très rapide du point de référence. Le chapitre 3 vise à déterminer si les points de référence ont un rôle majeur concernant les préférences caritatives. Les données relatives aux décisions de don des participants d'une expérience en laboratoire montrent que les points de référence n'influencent pas significativement le don caritatif.
Resumo:
L'imagerie par résonance magnétique (IRM) peut fournir aux cardiologues des informations diagnostiques importantes sur l'état de la maladie de l'artère coronarienne dans les patients. Le défi majeur pour l'IRM cardiaque est de gérer toutes les sources de mouvement qui peuvent affecter la qualité des images en réduisant l'information diagnostique. Cette thèse a donc comme but de développer des nouvelles techniques d'acquisitions des images IRM, en changeant les techniques de compensation du mouvement, pour en augmenter l'efficacité, la flexibilité, la robustesse et pour obtenir plus d'information sur le tissu et plus d'information temporelle. Les techniques proposées favorisent donc l'avancement de l'imagerie des coronaires dans une direction plus maniable et multi-usage qui peut facilement être transférée dans l'environnement clinique. La première partie de la thèse s'est concentrée sur l'étude du mouvement des artères coronariennes sur des patients en utilisant la techniques d'imagerie standard (rayons x), pour mesurer la précision avec laquelle les artères coronariennes retournent dans la même position battement après battement (repositionnement des coronaires). Nous avons découvert qu'il y a des intervalles dans le cycle cardiaque, tôt dans la systole et à moitié de la diastole, où le repositionnement des coronaires est au minimum. En réponse nous avons développé une nouvelle séquence d'acquisition (T2-post) capable d'acquérir les données aussi tôt dans la systole. Cette séquence a été testée sur des volontaires sains et on a pu constater que la qualité de visualisation des artère coronariennes est égale à celle obtenue avec les techniques standard. De plus, le rapport signal sur bruit fourni par la séquence d'acquisition proposée est supérieur à celui obtenu avec les techniques d'imagerie standard. La deuxième partie de la thèse a exploré un paradigme d'acquisition des images cardiaques complètement nouveau pour l'imagerie du coeur entier. La technique proposée dans ce travail acquiert les données sans arrêt (free-running) au lieu d'être synchronisée avec le mouvement cardiaque. De cette façon, l'efficacité de la séquence d'acquisition est augmentée de manière significative et les images produites représentent le coeur entier dans toutes les phases cardiaques (quatre dimensions, 4D). Par ailleurs, l'auto-navigation de la respiration permet d'effectuer cette acquisition en respiration libre. Cette technologie rend possible de visualiser et évaluer l'anatomie du coeur et de ses vaisseaux ainsi que la fonction cardiaque en quatre dimensions et avec une très haute résolution spatiale et temporelle, sans la nécessité d'injecter un moyen de contraste. Le pas essentiel qui a permis le développement de cette technique est l'utilisation d'une trajectoire d'acquisition radiale 3D basée sur l'angle d'or. Avec cette trajectoire, il est possible d'acquérir continûment les données d'espace k, puis de réordonner les données et choisir les paramètres temporel des images 4D a posteriori. L'acquisition 4D a été aussi couplée avec un algorithme de reconstructions itératif (compressed sensing) qui permet d'augmenter la résolution temporelle tout en augmentant la qualité des images. Grâce aux images 4D, il est possible maintenant de visualiser les artères coronariennes entières dans chaque phase du cycle cardiaque et, avec les mêmes données, de visualiser et mesurer la fonction cardiaque. La qualité des artères coronariennes dans les images 4D est la même que dans les images obtenues avec une acquisition 3D standard, acquise en diastole Par ailleurs, les valeurs de fonction cardiaque mesurées au moyen des images 4D concorde avec les valeurs obtenues avec les images 2D standard. Finalement, dans la dernière partie de la thèse une technique d'acquisition a temps d'écho ultra-court (UTE) a été développée pour la visualisation in vivo des calcifications des artères coronariennes. Des études récentes ont démontré que les acquisitions UTE permettent de visualiser les calcifications dans des plaques athérosclérotiques ex vivo. Cepandent le mouvement du coeur a entravé jusqu'à maintenant l'utilisation des techniques UTE in vivo. Pour résoudre ce problème nous avons développé une séquence d'acquisition UTE avec trajectoire radiale 3D et l'avons testée sur des volontaires. La technique proposée utilise une auto-navigation 3D pour corriger le mouvement respiratoire et est synchronisée avec l'ECG. Trois échos sont acquis pour extraire le signal de la calcification avec des composants au T2 très court tout en permettant de séparer le signal de la graisse depuis le signal de l'eau. Les résultats sont encore préliminaires mais on peut affirmer que la technique développé peut potentiellement montrer les calcifications des artères coronariennes in vivo. En conclusion, ce travail de thèse présente trois nouvelles techniques pour l'IRM du coeur entier capables d'améliorer la visualisation et la caractérisation de la maladie athérosclérotique des coronaires. Ces techniques fournissent des informations anatomiques et fonctionnelles en quatre dimensions et des informations sur la composition du tissu auparavant indisponibles. CORONARY artery magnetic resonance imaging (MRI) has the potential to provide the cardiologist with relevant diagnostic information relative to coronary artery disease of patients. The major challenge of cardiac MRI, though, is dealing with all sources of motions that can corrupt the images affecting the diagnostic information provided. The current thesis, thus, focused on the development of new MRI techniques that change the standard approach to cardiac motion compensation in order to increase the efficiency of cardioavscular MRI, to provide more flexibility and robustness, new temporal information and new tissue information. The proposed approaches help in advancing coronary magnetic resonance angiography (MRA) in the direction of an easy-to-use and multipurpose tool that can be translated to the clinical environment. The first part of the thesis focused on the study of coronary artery motion through gold standard imaging techniques (x-ray angiography) in patients, in order to measure the precision with which the coronary arteries assume the same position beat after beat (coronary artery repositioning). We learned that intervals with minimal coronary artery repositioning occur in peak systole and in mid diastole and we responded with a new pulse sequence (T2~post) that is able to provide peak-systolic imaging. Such a sequence was tested in healthy volunteers and, from the image quality comparison, we learned that the proposed approach provides coronary artery visualization and contrast-to-noise ratio (CNR) comparable with the standard acquisition approach, but with increased signal-to-noise ratio (SNR). The second part of the thesis explored a completely new paradigm for whole- heart cardiovascular MRI. The proposed techniques acquires the data continuously (free-running), instead of being triggered, thus increasing the efficiency of the acquisition and providing four dimensional images of the whole heart, while respiratory self navigation allows for the scan to be performed in free breathing. This enabling technology allows for anatomical and functional evaluation in four dimensions, with high spatial and temporal resolution and without the need for contrast agent injection. The enabling step is the use of a golden-angle based 3D radial trajectory, which allows for a continuous sampling of the k-space and a retrospective selection of the timing parameters of the reconstructed dataset. The free-running 4D acquisition was then combined with a compressed sensing reconstruction algorithm that further increases the temporal resolution of the 4D dataset, while at the same time increasing the overall image quality by removing undersampling artifacts. The obtained 4D images provide visualization of the whole coronary artery tree in each phases of the cardiac cycle and, at the same time, allow for the assessment of the cardiac function with a single free- breathing scan. The quality of the coronary arteries provided by the frames of the free-running 4D acquisition is in line with the one obtained with the standard ECG-triggered one, and the cardiac function evaluation matched the one measured with gold-standard stack of 2D cine approaches. Finally, the last part of the thesis focused on the development of ultrashort echo time (UTE) acquisition scheme for in vivo detection of calcification in the coronary arteries. Recent studies showed that UTE imaging allows for the coronary artery plaque calcification ex vivo, since it is able to detect the short T2 components of the calcification. The heart motion, though, prevented this technique from being applied in vivo. An ECG-triggered self-navigated 3D radial triple- echo UTE acquisition has then been developed and tested in healthy volunteers. The proposed sequence combines a 3D self-navigation approach with a 3D radial UTE acquisition enabling data collection during free breathing. Three echoes are simultaneously acquired to extract the short T2 components of the calcification while a water and fat separation technique allows for proper visualization of the coronary arteries. Even though the results are still preliminary, the proposed sequence showed great potential for the in vivo visualization of coronary artery calcification. In conclusion, the thesis presents three novel MRI approaches aimed at improved characterization and assessment of atherosclerotic coronary artery disease. These approaches provide new anatomical and functional information in four dimensions, and support tissue characterization for coronary artery plaques.
Resumo:
Avec plus de 100000 transplantations d'organes solides (TOS) par année dans le monde, la transplantation d'organes reste actuellement l'un des meilleurs traitements disponibles pour de nombreuses maladies en phase terminale. Bien que les médicaments immunosuppresseurs couramment utilisés soient efficaces dans le contrôle de la réponse immune engendrant le rejet aigu d'une greffe, la survie du greffon à long terme ainsi que la présence d'effets secondaires indésirables restent un enjeu considérable en clinique. C'est pourquoi il est nécessaire de trouver de nouvelles approches thérapeutiques innovantes permettant de contrôler la réponse immunitaire et ainsi d'améliorer les résultats à long terme. L'utilisation des lymphocytes T régulateurs (Treg), suppresseurs naturels de la réponse inflammatoire, a fait l'objet de nombreuses études ces dix dernières années, et pourrait être considérée comme un moyen intéressant d'améliorer la tolérance immunologique de la greffe. Cependant, l'un des obstacles de l'utilisation des Treg comme agent thérapeutique est leur nombre insuffisant non seulement en conditions normales, mais en particulier lors d'une forte réponse immune avec expansion de cellules immunitaires alloréactives. En raison des limitations techniques connues pour l'induction des Treg ex-vivo ou in vitro, nous avons dédié la première partie du travail de thèse à la détermination de l'efficacité de l'induction des Treg in vivo grâce à l'utilisation d'un complexe protéique IL-2/JES6-1 (IL2c). Nous avons montré que l'expansion des Treg par IL2c permettait d'augmenter la survie du greffon sur un modèle murin de transplantation de peau avec mismatch entre le donneur et le receveur pour le complexe majeur d'histocompatibilité (CMH). De plus, nous avons vu qu'en combinant IL2c à une inhibition à court terme de la voie de co-stimulation CD40L-CD40 (anti-CD154/MRl, administré au moment de la transplantation) pour empêcher l'activation des lymphocytes T, il est possible d'induire une tolérance robuste à long terme. Finalement, nos résultats soulignent l'importance de cibler une voie de co-stimulation bien particulière. En effet, l'utilisation d'IL2c combinée au blocage de la co-stimulation CD28-B7.1/2 (CTLA-4 Ig) n'induit qu'une faible prolongation de la survie de la greffe et n'induit pas de tolérance. L'application chez l'humain des traitements induisant la tolérance dans des modèles expérimentaux murins ou de primates n'a malheureusement pas montré de résultats probants en recherche clinique ; une des principales raisons étant la présence de lymphocytes B et T mémoires provenant du systeme d immunité acquise. C est pourquoi nous avons testé si la combinaison d'IL2c et MR1 améliorait la survie de la greffe dans des souris pré¬sensibilisées. Nous avons trouvé qu'en présence de lymphocytes B et T mémoires alloréactifs, l'utilisation d'IL2c et MR1 permettait une amélioration de la survie de la greffe de peau des souris immunocompétentes mais comparé aux souris receveuses naïves, aucune tolérance n'a pu être induite. Toutefois, l'ajout d'un traitement anti-LFA-1 (permettant de bloquer la circulation des lymphocytes T activées) a permis d'améliorer de manière significative la survie de la greffe. Cependant, le rejet chronique, dû à la présence de lymphocytes B activés/mémoires et la production d'anticorps donneur-spécifiques, n'a pas pu être évité. Cibler l'activation des lymphocytes T est la stratégie immunothérapeutique prépondérente après une TOS. C'est pourquoi dans la deuxième partie de cette thèse nous nous sommes intéressés au système de signalisation d'un récepteur des lymphocytes T qui dépend de la paracaspase Malti en tant que nouvelle stratégie immunosuppressive pour le contrôle des lymphocytes T alloréactifs. Nous avons montré que bien que l'inhibition de la signalisation du lymphocyte T en aval de Malti induise une tolérance envers un greffon de peau avec incompatibilités antigéniques mineures, cela ne permet cependant qu'une régulation partielle de l'alloréponse contre des antigènes du CMH. Nous nous sommes aussi intéressés spécifiquement à l'activité protéolytique de Malti. L'inhibition constitutive de l'activité protéolytique de Malti chez les souris Malti-ki s'est révélée délétère pour l'induction de la tolérance car elle diminue la fonction des Treg et augmente l'alloréactivité des cellules Thl. Cependant, lors de l'utilisation d'un inhibiteur peptidique de l'activité protéase de Malti in vitro, il a été possible d'observer une atténuation de l'alloéactivité des lymphocytes T ainsi qu'un maintien de la population des Treg existants. Ces résultats nous laissent penser que des études plus poussées sur le rôle de la signalisation médiée par Malti seraient à envisager dans le domaine de la transplantation. En résumé, les résultats obtenus durant cette thèse nous ont permis d'élucider certains mécanismes immunologiques propres à de nouvelles stratégies thérapeutiques potentielles dont le but est d'induire une tolérance lors de TOS. De plus, ces résultats nous ont permis de souligner l'importance d'utiliser des modèles davantage physiologiques contenant, notamment en tenant compte des lymphocytes B et T mémoires alloréactifs. -- Organ transplantation remains the best available treatment for many forms of end-stage organ diseases, with over 100,000 solid organ transplantations (SOT) occurring worldwide eveiy year. Although the available immunosuppressive (IS) drugs are efficient in controlling acute immune activation and graft rejection, the off-target side effects as well as long-term graft and patient survival remain a challenge in the clinic. Hence, innovative therapeutic approaches are needed to improve long-term outcome across immunological barriers. Based on extensive experimental data obtained over the last decade, it is tempting to consider immunotherapy using Treg; the natural suppressors of overt inflammatory responses, in promoting transplantation tolerance. The first hurdle for the therapeutic use of Treg is their insufficient numbers in non- manipulated individuals, in particular when facing strong immune activation and expanding alloreactive effector cells. Because of the limitations associated with current protocols aiming at ex-vivo expansion or in vitro induction of Treg, the aim of the first part of this thesis was to determine the efficacy of direct in vivo expansion of Treg using the IL-2/JES6- 1 immune complex (IL2c). We found that whilst IL2c mediated Treg expansion alone allowed the prolonged graft survival of fìlli MHC-mismatched skin grafts, its combination with short-term CD40L-CD40 co-stimulation blockade (anti-CD 154/MR1) to inhibit T cell activation administered at the time of transplantation was able to achieve long-term robust tolerance. This study also highlighted the importance of combining Treg based therapies with the appropriate co-stimulation blockade as a combination of IL2c and CD28-B7.1/2 co- stimulation blockade (CTLA-4 Ig) only resulted in slight prolongation of graft survival but not tolerance. The translation of tolerance induction therapies modelled in rodents into non-human primates or into clinical trials has seldom been successful. One main reason being the presence of pre-existing memory T- and B-cells due to acquired immunity in humans versus laboratory animals. Hence, we tested whether IL2c+MRl could promote graft survival in pre-sensitized mice. We found that in the presence of alloreactive memory T- and B-cells, IL2c+MRl combination therapy could prolong MHC-mismatched skin graft survival in immunocompetent mice but tolerance was lost compared to the naïve recipients. The addition of anti-LF A-1 treatment, which prevents the trafficking of memory T cells worked synergistically to significantly further enhance graft survival. However, late rejection mediated by activated/memory B cells and persistent donor-specific alloantibodies still occurred. Immunotherapeutic strategies targeting the activation of T cells are the cornerstone in the current immunosuppressive management after SOT. Therefore, in the next part of this thesis we investigated the paracaspase Malti-dependent T-cell receptor signalling as a novel immunosuppressive strategy to control alloreactive T cells in transplantation. We observed that although the inhibition of Malti downstream T signalling lead to tolerance of a minor H- mismatch skin grafts, it was however not sufficient to regulate alloresponses against MHC mismatches and only prolonged graft survival. Furthermore, we investigated the potential of more selectively targeting the protease activity of Malti. Constitutive inhibition of Malti protease activity in Malti-ki mice was detrimental to tolerance induction as it diminished Treg function and increased Thl alloreactivity. However, when using a small peptide inhibitor of Malti proteolytic activity in vitro, we observed an attenuation of alloreactive T cells and sparing of the pre-existing Treg pool. This indicates that further investigation of the role of Malti signalling in the field of transplantation is required. Collectively, the findings of this thesis provide immunological mechanisms underlying novel therapeutic strategies for the promotion of tolerance in SOT. Moreover, we highlight the importance of testing tolerance induction therapies in more physiological models with pre-existing alloreactive memory T and B cells.
Resumo:
Our contribution aims to explore some intersections between forensic science and criminology through the notion of time. The two disciplines analyse the vestiges of illicit activities in order to reconstruct and understand the past, and occasionally to prevent future harms. While forensic science study the material and digital traces as signs of criminal activities and repetitions, criminology contributes to the acquisition of knowledge through its analysis of crime, its authors and victims, as well as social (re)actions to harmful behaviours. Exploratory, our contribution proposes a conceptual delimitation of the notion of time considering its importance in the study of criminality and harms. Through examples, we propose a "crimino-forensic" analysis of three types of actions of social control - prevention, investigation and intelligence - through their respective temporality (before, near or during and after the criminal activity or harm). The temporal issues of the different methodologies developed to appreciate the efficiency of these actions are also addressed to highlight the connections between forensic science and criminology. This attempt to classify the relations between different times and actions of social control are discussed through the multiple benefits and challenges carried out by the formalisation of fusing those two sciences. Notre contribution vise à explorer quelques intersections entre la science forensique (ou criminalistique) et la criminologie au travers de la notion de temps. En effet, les deux disciplines ont en commun qu'elles analysent les vestiges du phénomène criminel pour tenter de reconstruire et comprendre le passé et parfois prévenir de futurs incidents. Alors que la science forensique étudie les traces matérielles et numériques comme signe d'activités et de répétitions criminelles, la criminologie contribue à l'avancée des connaissances en ce domaine par son analyse des comportements contraires aux normes, de leurs auteurs et de leurs victimes, ainsi que des (ré)actions sociales à ces comportements. A but exploratoire, notre contribution propose une délimitation conceptuelle de la notion de temps en regard de l'importance que revêtent ses différentes manifestations dans l'étude de la criminalité. A l'appui d'exemples, nous proposons une analyse « crimino-forensique » de trois types d'action de contrôle social - la prévention, l'investigation et le renseignement - en fonction de leur temporalité respective (avant, proche voire pendant et après l'activité criminelle). Les enjeux temporels entourant les différentes stratégies méthodologiques développées pour apprécier l'efficacité de ces actions sont aussi abordés pour mettre en évidence des pistes d'intégration entre la science forensique et la criminologie. Cet essai de classification des relations entre les temps et ces trois actions de contrôle social est discuté sous l'angle des bénéfices, multiples, mais aussi des défis, que pose la formalisation des liens entre ces deux disciplines des sciences criminelles.
Resumo:
En 2015, l'Association CIAO a démarré un processus de réflexion en profondeur sur son offre et son identité de manière générale, avec l'objectif de pouvoir être reconnue comme un service d'utilité publique. L'évaluation vise ainsi à situer le rôle du site ciao.ch au sein du dispositif de santé publique, et plus particulièrement des outils de prévention-santé destinés aux adolescents. La notoriété et l'effet du site sur son public-cible et pour les professionnels travaillant au contact des adolescents sont également évalués. Les résultats de cette évaluation permettront à l'équipe de CIAO de compléter les indices qu'elle possède déjà dans les aspects évalués. Les recommandations finales conduiront à une éventuelle redéfinition de certains aspects du site, de son public et de ses vecteurs de promotion, dans le but de correspondre au mieux aux besoins et aux modes de vie de ses bénéficiaires, et de garantir son efficacité.
Resumo:
Notre consommation en eau souterraine, en particulier comme eau potable ou pour l'irrigation, a considérablement augmenté au cours des années. De nombreux problèmes font alors leur apparition, allant de la prospection de nouvelles ressources à la remédiation des aquifères pollués. Indépendamment du problème hydrogéologique considéré, le principal défi reste la caractérisation des propriétés du sous-sol. Une approche stochastique est alors nécessaire afin de représenter cette incertitude en considérant de multiples scénarios géologiques et en générant un grand nombre de réalisations géostatistiques. Nous rencontrons alors la principale limitation de ces approches qui est le coût de calcul dû à la simulation des processus d'écoulements complexes pour chacune de ces réalisations. Dans la première partie de la thèse, ce problème est investigué dans le contexte de propagation de l'incertitude, oú un ensemble de réalisations est identifié comme représentant les propriétés du sous-sol. Afin de propager cette incertitude à la quantité d'intérêt tout en limitant le coût de calcul, les méthodes actuelles font appel à des modèles d'écoulement approximés. Cela permet l'identification d'un sous-ensemble de réalisations représentant la variabilité de l'ensemble initial. Le modèle complexe d'écoulement est alors évalué uniquement pour ce sousensemble, et, sur la base de ces réponses complexes, l'inférence est faite. Notre objectif est d'améliorer la performance de cette approche en utilisant toute l'information à disposition. Pour cela, le sous-ensemble de réponses approximées et exactes est utilisé afin de construire un modèle d'erreur, qui sert ensuite à corriger le reste des réponses approximées et prédire la réponse du modèle complexe. Cette méthode permet de maximiser l'utilisation de l'information à disposition sans augmentation perceptible du temps de calcul. La propagation de l'incertitude est alors plus précise et plus robuste. La stratégie explorée dans le premier chapitre consiste à apprendre d'un sous-ensemble de réalisations la relation entre les modèles d'écoulement approximé et complexe. Dans la seconde partie de la thèse, cette méthodologie est formalisée mathématiquement en introduisant un modèle de régression entre les réponses fonctionnelles. Comme ce problème est mal posé, il est nécessaire d'en réduire la dimensionnalité. Dans cette optique, l'innovation du travail présenté provient de l'utilisation de l'analyse en composantes principales fonctionnelles (ACPF), qui non seulement effectue la réduction de dimensionnalités tout en maximisant l'information retenue, mais permet aussi de diagnostiquer la qualité du modèle d'erreur dans cet espace fonctionnel. La méthodologie proposée est appliquée à un problème de pollution par une phase liquide nonaqueuse et les résultats obtenus montrent que le modèle d'erreur permet une forte réduction du temps de calcul tout en estimant correctement l'incertitude. De plus, pour chaque réponse approximée, une prédiction de la réponse complexe est fournie par le modèle d'erreur. Le concept de modèle d'erreur fonctionnel est donc pertinent pour la propagation de l'incertitude, mais aussi pour les problèmes d'inférence bayésienne. Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont les algorithmes les plus communément utilisés afin de générer des réalisations géostatistiques en accord avec les observations. Cependant, ces méthodes souffrent d'un taux d'acceptation très bas pour les problèmes de grande dimensionnalité, résultant en un grand nombre de simulations d'écoulement gaspillées. Une approche en deux temps, le "MCMC en deux étapes", a été introduite afin d'éviter les simulations du modèle complexe inutiles par une évaluation préliminaire de la réalisation. Dans la troisième partie de la thèse, le modèle d'écoulement approximé couplé à un modèle d'erreur sert d'évaluation préliminaire pour le "MCMC en deux étapes". Nous démontrons une augmentation du taux d'acceptation par un facteur de 1.5 à 3 en comparaison avec une implémentation classique de MCMC. Une question reste sans réponse : comment choisir la taille de l'ensemble d'entrainement et comment identifier les réalisations permettant d'optimiser la construction du modèle d'erreur. Cela requiert une stratégie itérative afin que, à chaque nouvelle simulation d'écoulement, le modèle d'erreur soit amélioré en incorporant les nouvelles informations. Ceci est développé dans la quatrième partie de la thèse, oú cette méthodologie est appliquée à un problème d'intrusion saline dans un aquifère côtier. -- Our consumption of groundwater, in particular as drinking water and for irrigation, has considerably increased over the years and groundwater is becoming an increasingly scarce and endangered resource. Nofadays, we are facing many problems ranging from water prospection to sustainable management and remediation of polluted aquifers. Independently of the hydrogeological problem, the main challenge remains dealing with the incomplete knofledge of the underground properties. Stochastic approaches have been developed to represent this uncertainty by considering multiple geological scenarios and generating a large number of realizations. The main limitation of this approach is the computational cost associated with performing complex of simulations in each realization. In the first part of the thesis, we explore this issue in the context of uncertainty propagation, where an ensemble of geostatistical realizations is identified as representative of the subsurface uncertainty. To propagate this lack of knofledge to the quantity of interest (e.g., the concentration of pollutant in extracted water), it is necessary to evaluate the of response of each realization. Due to computational constraints, state-of-the-art methods make use of approximate of simulation, to identify a subset of realizations that represents the variability of the ensemble. The complex and computationally heavy of model is then run for this subset based on which inference is made. Our objective is to increase the performance of this approach by using all of the available information and not solely the subset of exact responses. Two error models are proposed to correct the approximate responses follofing a machine learning approach. For the subset identified by a classical approach (here the distance kernel method) both the approximate and the exact responses are knofn. This information is used to construct an error model and correct the ensemble of approximate responses to predict the "expected" responses of the exact model. The proposed methodology makes use of all the available information without perceptible additional computational costs and leads to an increase in accuracy and robustness of the uncertainty propagation. The strategy explored in the first chapter consists in learning from a subset of realizations the relationship between proxy and exact curves. In the second part of this thesis, the strategy is formalized in a rigorous mathematical framework by defining a regression model between functions. As this problem is ill-posed, it is necessary to reduce its dimensionality. The novelty of the work comes from the use of functional principal component analysis (FPCA), which not only performs the dimensionality reduction while maximizing the retained information, but also allofs a diagnostic of the quality of the error model in the functional space. The proposed methodology is applied to a pollution problem by a non-aqueous phase-liquid. The error model allofs a strong reduction of the computational cost while providing a good estimate of the uncertainty. The individual correction of the proxy response by the error model leads to an excellent prediction of the exact response, opening the door to many applications. The concept of functional error model is useful not only in the context of uncertainty propagation, but also, and maybe even more so, to perform Bayesian inference. Monte Carlo Markov Chain (MCMC) algorithms are the most common choice to ensure that the generated realizations are sampled in accordance with the observations. Hofever, this approach suffers from lof acceptance rate in high dimensional problems, resulting in a large number of wasted of simulations. This led to the introduction of two-stage MCMC, where the computational cost is decreased by avoiding unnecessary simulation of the exact of thanks to a preliminary evaluation of the proposal. In the third part of the thesis, a proxy is coupled to an error model to provide an approximate response for the two-stage MCMC set-up. We demonstrate an increase in acceptance rate by a factor three with respect to one-stage MCMC results. An open question remains: hof do we choose the size of the learning set and identify the realizations to optimize the construction of the error model. This requires devising an iterative strategy to construct the error model, such that, as new of simulations are performed, the error model is iteratively improved by incorporating the new information. This is discussed in the fourth part of the thesis, in which we apply this methodology to a problem of saline intrusion in a coastal aquifer.
Resumo:
A pocos kilómetros al este de Olot, entre la Costa de Pujou y el Puig de Sant Jordi de Sa Cot, el llano está cubierto en gran parte por hayedos frondosos. Ellos han merecido al paraje el nombre de Fageda de Jordá, al cual han dado celebridad ilustres poetas y pintores que encontraron allí, en condiciones de acceso excepcionalmente favorables, sin tener que realizar penosas ascensiones previas, toda la belleza de los grandes bosques de haya y la paz tranquila que reina en su interior, donde la luz tiene aquel tono roerá com d'aigua endinst de que nos habla MARAGALL.
Resumo:
Cette thèse met en lumière les relations réciproques entre les deux artefacts‐clés de la culture russe et mondiale du XXe siècle : la théorie du carnaval et de la ménippée de Mikhaïl Bakhtine et le dernier roman de Mikhaïl Boulgakov. Les chercheurs n'ont pas tardé à remarquer leur étonnante synthonie après leur sortie de l'oubli qui a eu lieu presque en même temps et qui a été marquée par la publication des ouvrages de Bakhtine Problèmes de la poétique de Dostoïevski (1963), L'oeuvre de François Rabelais et la culture populaire au Moyen Âge et sous la Renaissance (1965) et par la parution du roman de Boulgakov Le Maître et Marguerite (1966-1967). C'est déjà dans la postface de la première édition du roman que Le Maître et Marguerite reçoit le nom de «ménippée de Bakhtine». Un tel rapprochement entre la théorie de Bakhtine et le roman de Boulgakov s'explique par leur intérêt simultané pour différentes manifestations de la poétique du carnaval qui s'appuie sur des traditions portant l'empreinte des conceptions du temps cyclique et de l'éternel retour par le biais de la mort, propres aux rituels agraires de l'époque archaïque et aux fêtes du Nouvel An de l'Antiquité. A partir du début du XXe siècle et jusqu'aux années 40, la notion de carnavalesque en Russie est un ensemble d'idées unique, un concept doté d'un caractère d'universalité culturelle de son temps: le carnavalesque attire l'attention non seulement de Bakhtine et de Boulgakov, mais aussi de presque tous les modernistes russes et de certains philologues de l'époque. Dans notre travail, l'étude de la ressemblance des approches du problème du carnaval chez Boulgakov et chez Bakhtine s'organise selon deux axes de recherche. Le premier est lié à la théorie des genres moderne et à son développement dans la philosophie de Bakhtine. C'est dans ce contexte que nous examinons la notion antique de la satire ménippée (ou de la ménippée), considérée par Bakhtine en tant que genre littéraire qui reflète le mieux la poétique du carnaval. C'est également ce contexte qui nous permet d'analyser l'évolution de la théorie du carnaval et de la ménippée chez Bakhtine depuis ses travaux des années 30 jusqu'à la parution du « quatrième chapitre célèbre » de la deuxième édition de son ouvrage consacré à Dostoïevski. Le même contexte sert à délimiter l'emploi de la théorie du carnaval et de la ménippée dans la critique littéraire et à déterminer l'efficacité de cet outil théorique que nous utilisons lors de l'analyse du roman Le Maître et Marguerite. Le second axe de notre recherche est lié à l'étude des traditions du carnaval, à l'examen de leurs sources mythologiques et de leurs sources relatives aux mystères. Ces sources sont considérées telles qu'elles se présentent dans les manières de concevoir le carnaval propres à Bakhtine et à Boulgakov que nous avons nommées, respectivement, le carnaval de Bakhtine et le carnaval de Boulgakov. La reconstruction du carnaval de Bakhtine a permis de mettre en évidence plusieurs approches du thème du carnaval présentes dans ses ouvrages. La distinction de ces approches est d'autant plus importante que son oubli peut causer de fausses interprétations des idées de Bakhtine exprimées dans L'oeuvre de François Rabelais et mener à des critiques injustes de son auteur. Nous avons également tenu compte des théories avec lesquelles dialogue la philosophie du carnaval de Bakhtine : nous l'avons examinée en relation avec des études de la fête, du carnaval et du sacrifice caractéristiques du paysage scientifique des premières décennies du XXe siècle. Nous avons également comparée la philosophie du carnaval aux théories des philosophes européens contemporains de Bakhtine qui se sont intéressés à la même problématique, mais qu'on n'a pas l'habitude de mentionner à ce propos. En ce qui concerne l'étude du roman Le Maître et Marguerite et l'analyse du carnaval de Boulgakov, nous avons tâché d'unir deux approches. D'une part, nous avons mis au jour les sources de l'auteur ; d'autre part, nous avons examiné cette oeuvre dans une perspective dont le but est d'aider à comprendre la spécificité du carnavalesque chez Boulgakov en s'appuyant sur des travaux d'éminents spécialistes du folklore, de la mytho-archéologie, de la mytho-critique et de la sémiotique moderne. Notre recherche a permis de mettre en évidence les manifestations caractéristiques de la poétique du carnaval dans Le Maître et Marguerite, auparavant négligées par la critique. En outre, nous avons prêté une attention particulière à la façon dont Boulgakov utilise des éléments et modèles mythologiques « pré-carnavalesques » qui n'ont pas été étudiés de manière suffisante dans l'oeuvre de Bakhtine. Cela nous a permis non seulement de voir sous un autre jour les scènes-clés du roman, mais aussi d'avoir la connaissance plus approfondie du carnaval de Bakhtine à travers le carnaval de Boulgakov.
Resumo:
Les membranes de dialyse à haut flux et à faible flux pourraient être liées à différents profils hemodynamiques pendant les séances de dialyse. Cette étude visait à comparer le profil hémodynamique des certains filtres de dialyse polysulfone couramment utilisés en Suisse. Nous avons réalisé une étude ouverte, cross-over, avec 25 pazients en hémodialyse On a comparés entre eux 4 filtres de polysulfone de la surface de 1 8 m2 A (Revaclear HF, Gambro), B (Helixone HF, Fresenius), C (Xevonta HF, BBraun) et D (Helixone LF Fresenius). Le profil hémodynamique a été mesuré en utilisant une technique non invasive et au patient a été demandé de fournir une opinion sur la tolérance à la seance de dialyse. La même membrane était utilisée pour 3 séances de suites Chaque semaine la membrane de dialyse était modifiée conformément à la séquence de randomisation. Pour chaque patient on a recueillie les données de 12 séances de dialyse. L'étude a été réalisé sur trois mois à compter de novembre 2012. Les analyses ont encore une fois montré la supériorité des filtres à haut débit comparés aux filtres à faible débit, et ne tendance à la supériorité du filtre Helixone (haut debit) comparé aux deux autres membranes. Les filtres à faible débit par rapport a ceux a haut debit sont associés ä une pression systolique et diastolique plus élevées a des résistances périphériques plus hautes et à un débit cardiaque plus faible L incidence d'épisodes d'hypotension en dialyse était la suivante: Revaclear HF (A) 70 Helixone HF (B) 87 Xevonta HF 73 (C), Helixone LF (D) 75. Le nombre d'épisodes d hypotension associée au filtre B était supérieure, de manière significative. La membrane à faible flux était associée à une pression artérielle supérieure à celles des membranes de haut flux. La membrane à haut flux Helixone garantie la meilleure efficacité de dialyse. Malheureusement, la même membrane est associée à une augmentation de l'incidence des épisodes d'hypotension, probablement due à un déséquilibré hé à l'efficacité de la dialyse. Malgré ces résultats, la tolérance subjective pour les différents filtres était comparable.
Resumo:
La transfusion de concentrés plaquettaires, dès 1958, a permis d'augmenter l'espérance et la qualité de vie des patients dans le domaine de l'onco-hématologie, notamment en réduisant les risques hémorragiques induits par les chimiothérapies intensives. Après le traumatisme de l'affaire du sang contaminé dans les années 1980-1990, la médecine transfusionnelle a adopté des exigences de sécurité et de qualité très strictes et régulées dans plusieurs pays par les instances politiques. Cependant même les mesures de qualité les plus strictes n'ont permis d'atteindre le risque « zéro », notamment en ce qui concerne les contaminations bactériennes. De plus, la prise de conscience de l'existence de nouveaux pathogènes (West Nile Virus, Chikungunya, Prions) a stimulé le développement de 3 techniques d'inactivation des pathogènes pouvant s'appliquer au plasma et aux concentrés plaquettaires : la technique INTERCEPT utilisant l'amotosalen/UVA, la technique MIRASOL avec la riboflavine/UV et la technique THERAFLEX avec les UVC. La Suisse a fait office de pionnière en étant le premier pays au monde à adopter de manière généralisée l'inactivation des pathogènes par la technique INTERCEPT pour les concentrés plaquettaires dès 2011 après sa validation par Swissmedic en 2009 et son implémentation réussie dans plusieurs centres de transfusion pilotes. Coïncidence? Le décès tragique d'un patient pédiatrique en 2009 suite à une contamination bactérienne par une transfusion de concentré plaquettaire a précédé cette décision. Les cliniciens ont besoin de disposer de concentrés plaquettaires sûrs d'un point de vue microbiologique mais également sur le plan hémostatique, d'où la nécessité de disposer de preuves solides sur l'efficacité thérapeutique de ces nouveaux produits. Ceci a fait l'objet de la revue publiée dans Blood Reviews « The clinical and biological impact of new pathogen inactivation technologies on platelets concentrates » dont l'originalité est de couvrir l'étude de l'effet des processus d'inactivation des pathogènes sur la fonction plaquettaire sous toutes ses facettes allant de la protéomique aux études d'hémovigilance. Ce travail montre l'efficacité de ces méthodes et leur sécurité et souligne que l'observation de taux de recirculation moindre peut être compensée par une augmentation du statut d'activation des plaquettes. Le deuxième article publié comme co-auteur dans le journal Blood Transfusion « In vitro evaluation of pathogen-inactivated buffy coat-derived platelet concentrates during storage: The psoralen-based photochemical treatment step-by-step » se pose la question de la modification des propriétés fonctionnelles des plaquettes dans une étude à deux bras (par comparaison entre plaquettes traitées et non traitées). En plus de deux tests utilisés en pratique clinique (agrégation plaquettaire et cytométrie de flux) un test expérimental d'adhésion plaquettaire au fibrinogène en condition statique a été développé en collaboration avec le Prof Angelillo-Scherrer dans le cadre du laboratoire de recherche et développement du SRTS-VD. Les résultats obtenus démontrent la conservation du métabolisme plaquettaire et des changements mineurs dans la capacité d'agrégation mais une augmentation de la capacité d'adhésion au fibrinogène des plaquettes traitées probablement via une augmentation de la conversion de l'intégrine ailb(B3 dans sa forme activée. Les techniques d'inactivation des pathogènes appliqués aux concentrés plaquettaires représentent un important progrès dans le domaine de la médecine transfusionnelle. Leur impact au niveau moléculaire reste cependant encore en partie inconnu et fait l'objet d'études. Le défi actuel consiste à réussir à les adopter aux concentrés érythrocytaires, ce qui révolutionnerait la médecine transfusionnelle.