438 resultados para Caméra-Linéaire


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lorsque le cinéaste Julian Schnabel propose, dix ans après la sortie du livre "Le scaphandre et le papillon" de Jean-Dominique Bauby (1997), une "adaptation" de cette autobiographie, il prend pour sujet sa création même, en plaçant au premier plan les éléments qui, dans le péritexte, thématisaient les conditions de l'écriture. Bauby a en effet écrit cette autobiographie alors qu'il souffrait de locked-in syndrome, étant entièrement paralysé à l'exception de son oeil gauche. C'est avec l'oeil qu'il écrivait, dictant chaque lettre d'un battement de cils tandis qu'une assistante récitait à voix haute un code alphabétique. L'acte d'écriture devenait ainsi une performance audiovisuelle, saisissable cinématographiquement. Or, cet article montre comment Schnabel complexifie ce dispositif en faisant "plonger" le spectateur dans l'univers intérieur de Bauby à l'aide de procédés filmiques (caméra subjective, voix over à la première personne, flashbacks, visions) qui permettent de transposer toute la poésie et la force du texte. Narrant au "je" la vie, la pensée et les sens qui vibrent derrière les battements d'"aile" de cet oeil-papillon, cette autobiographie traduit de fait un univers visionnaire que Bauby lui-même appelle son "cinéma personnel". Schnabel actualise cette métaphore avec son film qui repousse les limites de la focalisation interne et met en abyme les pouvoirs du cinéma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Problématique¦L'évaluation fonctionnelle du tubule proximal du rein est intéressante pour la compréhension de la physiopathologie des anomalies du transport du sodium à ce niveau du néphron. Ces anomalies participent au développement de l'hypertension artérielle (HTA) et de la sensibilité au sel. Environ 60% à 80% du sodium est réabsorbé proximalement dans le néphron. Chez l'animal, la fonction du tube proximal peut être estimée directement par microponction. Une telle approche directe n'étant pas possible chez l'homme, seul des approches indirectes permettent de recueillir des informations sur la physiologie de ce segment du néphron, comme par exemple par la mesure de la clairance du lithium (endogène ou exogène) ou de l'acide urique. La fraction d'excrétion du lithium (FELi) et la fraction d'excrétion de l'acide urique (FEAU) permettent d'estimer la réabsorption proximale de sodium chez l'homme. Plusieurs études expérimentales et cliniques ont montré l'existence d'une relation linéaire entre la FELi et la fraction excrétée du sodium (FENa) chez l'animal et l'homme.¦Objectif¦Décrire la distribution de la FELi et de la FEAU et analyser les associations de ces deux variables avec l'âge, le sexe, la consommation d'alcool, le tabagisme, la pression artérielle et l'IMC dans l'étude de population Hercules.¦Méthodes¦Sélection au hasard d'un sous-groupe de participants de l'étude CoLaus (N=6188). Nombre de participants à l'étude Hercules: 437, dont 229 femmes et 208 hommes. Les participants ont effectué une récolte d'urine sur 24 heures afin de déterminer la fonction rénale et les FELi et FEAU. Le TFG a été mesuré à l'aide de la clairance de la créatinine. Le test des rangs signés de Wilcoxon pour données appariées ( Wilcoxon matched-pairs signed rank test) et le test de comparaison des médianes ont été utilisés pour la comparaison entre groupes. Le coefficient de corrélation de Spearman a été utilisé pour évaluer la relation entre les variables continues. Les box-plots ont été utilisés pour la description de la distribution du lithium et de l'acide urique selon l'âge, le sexe et la période de la journée. Le logiciel Stata 11.0 a été utilisé pour les analyses statistiques.¦Résultats¦La prévalence de l'HTA dans la population de l'étude Hercules était 33%, la prévalence du diabète était 8%, la prévalence de l'obésité était 15.3%, la prévalence du tabagisme était 23%. La FELi reste stable avec l'âge et est similaire dans les deux sexes. Chez les hommes, la FELi est plus grande la nuit que le jour, c'est-à-dire qu'ils résorbent plus de sodium proximalement le jour que la nuit. Un IMC plus grand est associé à une FELi plus basse dans les deux sexes. Il y a une corrélation négative entre la FEAU et l'IMC (significative) et la consommation d'alcool.¦Conclusion¦Les résultats obtenus avec les données de l'étude Hercules sont similaires à ceux qu'on retrouve dans la littérature sur la FELi et la FEAU , ce qui rassure sur la qualité des données. La FELi varie peu avec l'âge et le sexe, contrairement à la FEAU, qui varie fortement avec l'âge et le sexe. L'HTA, le diabète, l'obésité, le tabagisme et la consommation d'alcool sont associées à une FELi et FEAU plus basses. Les sujets qui présentent ces caractéristiques réabsorbent donc plus de sodium au niveau proximal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary The mechanisms regulating the protective immune T-cell responses generated against the persistent Epstein-Barr virus (EBV) and Cytomegaloviru_s (CNIV) remain poorly understood. We analyzed the dynamics of cellular differentiation and T-cell receptor (TCR) clonotype selection of EBV- and CMV-specific T-cells in healthy adults and melanoma patients. While these responses could be subdivided into four T lymphocyte populations, théir proportions varied between EBV and CMV specific responses. Phenotypic and TCR clonotypic analyses supported a linear model of differentiation from the early-differentiated (EM/CD28pos) subset to the late-differentiatdc (EMRA/CD28neg) subset. In-depth clonal composition analyses revealed TCR repertoires, which were highly restricted for CMV- and relatively diverse for EBV-specific cells. Virtually all virus-specific clonotypes identified in the EMRA/CD28neg subset were also found within the pool of less differentiated "memory" cells. However, striking differences in the patterns of dominance were observed among these subsets, as some clonotypes were selected with differentiation, while others were not. Latedifferentiated CMV-specific clonotypes were mostly characterized by TCRs with lower dependency on CD8 co-receptor interaction. Yet all clonotypes displayed similar functional avidities, suggesting a compensatory role of CD8 in the clonotypes of lower TCR avidity. Importantly, clonotype selection and composition of each virus-specific subset upon differentiation was highly preserved over time, with the presence of the same dominant clonotypes at specific differentiation stages within a period of four years. This work was extended to the study of EBV-specific CD8 T-cell responses in melanoma patients undergoing transient lymphodepletion, followed by adoptive cell transfer (ACT) and immune reconstitution for thè treatment of their tumors. Following treatment regimen, we first observed an increase in the proportion of virus-specific T-cells in 3 out of 5 patients, accompanied by a more differentiated phenotype (EMRA/CD28neg), compared to specific cells of healthy individuals. Yet, similarly to healthy donors, clonotype selection and composition of virus-specific T-cells varied along the pathway of cellular differentiation, with some clonotypes being selected with differentiation, while others were not. Intriguingly, no novel clonotypes emerged following transient immuno-suppression and homeostatic proliferation, finding which was subsequently explained by the absence of EBV reactivation. The distribution of each clonotype within early- and late-differentiated T-cell subsets in 4 out 5 patients was highly stable over time, with those clonotypes initially found before the start of treatment that were again present at specific differentiation stages after transient lymphodepletion and ACT. These findings uncover novel features of the highly sophisticated control of steady state protective T-cell immune responses against persistent herpesviruses in healthy adults. Furthermore they reveal the striking stability of these responses in terms of clonotype selection and composition with T-cell differentiation even in situations where the immune system has been. challenged. Résumé : Les mécanismes qui régulent les réponses immunitaires de type protectrices, générées contre les virus chroniquement persistants tels que l'Epstein-Barr (EBV) ou le Cytomegalo (CMV) restent largement inconnus. Nous avons analysé la différenciation des lymphocytes T spécifiques pour ces virus, ainsi que la composition des clonotypes T (par leur récepteur T) chez les donneurs sains. Les réponses immunes peuvent être classifiées en quatre souspopulations majeures de lymphocytes T, cependant, leur proportion varie entre les réponses spécifiques contre EBV ou CMV. Ces analyses soutiennent le modèle linéaire de différenciation, à partir de la population non différenciée (EM/CD28pos) vers la population plus différenciée (ENIIZA/CD28neg). De plus, nos données sur la composition clonale de ces cellules T spécifiques ont révélé des répertoires TCR restreints, pour la réponse anti-CMV, et relativement diversifiés contre EBV. Tous les clonotypes spécifiques de ces virus identifiés dans la sous-population différenciée EMRA/CD28neg, ont également été retrouvés dans la population de cellules "mémoires". Toutefois, de fortes différences ont été observées dans les schémas de domination de ces sous-populations, en effet, certains clonotypes étaient sélectionnés avec la différenciation, alors que d'autres ne l'étaient pas. Nous avons également démontré que ces clonotypes différenciés et spécifiques pour le CMV sont caractérisés par des TCRs à faible dépendance en regard de la coopération du corécepteur CD8. Néanmoins, tous les clonotypes affichent une avidité fonctionnelle similaire, suggérant un rôle compensatoire du CD8, dans le cas des clonotypes avec une faible avidité du TCR En définitive, la composition et la sélection des clonotypes spécifiques pour chaque virus et pour chaque sous-population suit un schéma de différenciation hautement conservé au cours du temps, avec la présence de ces mêmes clonotypes au même stade de différenciation sur une période de quatre ans. Ce travail a été étendu à l'étude des réponses T CD8+ spécifiques pour le virus EBV chez les patients atteints de mélanome et recevant dans le cadre du traitement de leurs tumeurs une lymphodéplétion transitoire, suivie d'un transfert adoptif de cellules et d'une reconstitution immunitaire. Au cours de cette thérapie, nous avons en premier lieu observé pour 3 des 5 patients une augmentation de la proportion de cellules T spécifiques pour le virus, accompagné d'un phénotype plus différencié (EMRA/CD28neg), et ceci comparativement à des cellules spécifiques d'individus sains. Pourtant, comme nous l'avons observé chez les donneurs sains, la sélection et la composition des clonotypes T spécifiques varient tout au long de la différenciation cellulaire, avec certains clonotypes sélectionnés et d'autres qui ne le sont pas. Étonnamment, aucun nouveau clonotype n'a émergé après l'immuno-suppression transitoire et la prolifération homéostatique. Cette observation trouve son explication par une absence de réactivation du virus EBV chez ces patients, et ce malgré leur traitement. De plus, la distribution de chaque clonotype parmi ces sous-populations non-différenciées et différenciées reste stable au cours du traitement. Ainsi, les mêmes clonotypes initialement identifiés avant le début du traitement sont présents aux mêmes stades de différenciation après la lymphodéplétion et la prolifération homéostatique. Ces résultats ont permis d'identifier de nouveaux mécanismes impliqués dans la régulation hautement «sophistiquée » des réponses immunitaires T contre les virus persistants EBV et CMV chez les donneurs sains. En particulier, ils révèlent la grande stabilité de ces réponses en termes de sélection et de composition des clonotypes avec la différenciation cellulaire, et ce dans les situations chroniques, ainsi que dans les situations dans lesquelles le système immunitaire a été profondément perturbé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME : Valganciclovir (Valcyte®) is an orally administered ester prodrug of the standard anticytomegalovirus (CMV) drug ganciclovir. This drug enabled an important reduction of the burden of CMV morbidity and mortality in solid organ transplant recipients. Prevention of CMV infection and treatment of CMV disease requires drug administration during many weeks. Oral drug administration is therefore convenient. Valganciclovir has been developed to overcome the poor oral availability of ganciclovir, which limits its concentration exposure after oral administration and thus its efficacy. This prodrug crosses efficiently the intestinal barrier, is then hydrolyzed into ganciclovir, providing exposure similar to intravenous ganciclovir. Valganciclovir is now preferred for the prophylaxis and treatment of CMV infection in solid organ transplant recipients. Nevertheless, adequate dosage adjustment is necessary to optimize its use, avoiding either insufficient or exaggerate exposure related to differences in its pharmacokinetic profile between patients. The main goal of this thesis was to better describe the pharmacokinetic and pharmacodynamic profile of valganciclovir in solid organ transplant recipients, to assess their reproducibility and their predictability, and thus to evaluate the current recommendations for valganciclovir dosage adjustment and the potential contribution of routine therapeutic drug monitoring (TDM) to patients' management. A total of 437 ganciclovir plasma concentration data from 65 transplant patients (41 kidney, 12 lung, 10 heart and 2 liver recipients, 58 under oral valganciclovir prophylaxis, 8 under oral valganciclovir treatment and 2 under intravenous ganciclovir) were measured using a validated chromatographic method (HPLC) developed for this study. The results were analyzed by non-linear mixed effect modeling (NONMEM). A two-compartment model with first-order absorption appropriately described the data. Systemic clearance was markedly influenced by GFR, with further differences between graft types and sex (CL/GFR = 1.7 in kidney, 0.9 in heart and 1.2 in lung and liver recipients) with interpatient variability (CV%) of 26% and interoccasion variability of 12%. Body weight and sex influenced central volume of distribution (V1 = 0.34 l/kg in males and 0.27 l/kg in females) with an interpatient variability of 20%. Residual intrapatient variability was 21 %. No significant drug interaction influenced GCV disposition. VGC prophylactic efficacy and tolerability were good, without detectable dependence on GCV profile. In conclusion, this analysis highlights the importance of thorough adjustment of VGC dosage to renal function and body weight. Considering the good predictability and reproducibility of GCV profile after oral VGC in solid organ transplant recipients, routine TDM does not appear to be clinically indicated. However, GCV plasma measurement may still be helpful in specific clinical situations such as documentation of appropriate exposure in patients with potentially compromised absorption, or lack of response to CMV disease treatment, or under renal replacement therapy. RESUME : Le valganciclovir (Valcyte®) est un promédicament oral du ganciclovir qui est un anti-infectieux de référence contre les infections à cytomegalovirus (CMV). Cet antiviral a permis de réduire les effets délétères de cette infection jusqu'ici responsable d'une importante morbidité et mortalité chez les transplantés d'organe. La prévention et le traitement de l'infection à CMV sont donc nécessaires mais requièrent l'administration d'un agent antiviral sur une longue période. Un médicament administré par voie orale représente donc un avantage évident. Le valganciclovir a été développé dans le but d'améliorer la faible absorption orale du ganciclovir, et donc son efficacité. Cet ester valylique du ganciclovir traverse plus facilement la barrière gastro-intestinale, puis est hydrolysé en ganciclovir dans la circulation sanguine, produisant une exposition comparable à celle d'une perfusion intraveineuse de ganciclovir. De ce fait, le valganciclovir est devenu largement utilisé pour la prophylaxie mais aussi le traitement de l'infection à CMV. Néanmoins une utilisation optimale de ce nouveau médicament nécessite de bonnes connaissances sur son profil pharmacocinétique afin d'établir un schéma de dose adapté pour éviter tant une surexposition qu'une sous-exposition résultant des différences d'élimination entre les patients. Le but de cette thèse a été d'étudier le profil pharmacocinétique et pharmacodynamique du valganciclovir chez les transplantés d'organe ainsi que sa reproductibilité et sa prédictibilité. Il s'agissait d'apprécier de manière critique le schéma actuellement recommandé pour l'adaptation des doses de valganciclovir, mais aussi la contribution éventuelle d'un suivi des concentrations sanguines en routine. Un total de 437 taux sanguins de ganciclovir ont été mesurés, provenant de 65 patients transplantés d'organe (41 rénaux, 12 pulmonaires, 10 cardiaques et 2 hépatiques, 58 sous une prophylaxie orale de valganciclovir, 8 sous un traitement de valganciclovir et 2 sous un traitement intraveineux). Une méthode de chromatographie liquide à haute performance a été développée et validée pour cette étude. Les résultats ont été ensuite analysés par modélisation non linéaire à effets mixtes (NONMEM). Un modèle à deux compartiments avec absorption de premier ordre a permis de décrire les données. La clairance systémique était principalement influencée par le débit de filtration glomérulaire (GFR), avec une différence entre les types de greffe et les sexes (CL/GFR = 1.7 chez les greffés rénaux, 0.9 pour les greffés cardiaques et 1.2 pour le groupe des greffés pulmonaires et hépatiques) avec un variabilité inter-individuelle de 26% (CV%) et une variabilité inter-occasion de 12%. Le poids corporel ainsi que le sexe avaient une influence sur le volume central de distribution (V1 = 0.34 l/kg chez les hommes et 0.27 l/kg chez les femmes) avec une variabilité inter-individuelle de 20%. La variabilité intra-individuelle résiduelle était de 21 %. Aucune interaction médicamenteuse n'a montré d'influence sur le profil du ganciclovir. La prophylaxie avec le valganciclovir s'est révélée efficace et bien tolérée. En conclusion, cette analyse souligne l'importance d'une adaptation de la dose du valganciclovir à la fonction rénale et au poids du patient. Au vu de la bonne reproductibilité et prédictibilité du profil pharmacocinétique du ganciclovir chez les patients transplantés recevant du valganciclovir, un suivi des concentrations sanguines en routine ne semble pas cliniquement indiqué. Néanmoins, la mesure des taux plasmatiques de ganciclovir peut être utile dans certaines situations particulières, comme la vérification d'une exposition appropriée chez des patients susceptibles d'absorption insuffisante, ou ne répondant pas au traitement d'une infection à CMV ou encore sous épuration extra-rénale. RESUME LARGE PUBLIC : Le valganciclovir est un précurseur capable de libérer du ganciclovir, récemment développé pour améliorer la faible absorption orale de ce dernier. Une fois le valganciclovir absorbé, le ganciclovir libéré dans la circulation sanguine devient efficace contre les infections à cytomégalovirus. Ce virus largement répandu est responsable de maladies insidieuses et parfois graves chez les personnes présentant une baisse des défenses immunitaires, comme les greffés d'organe recevant un traitement anti-rejet. Le ganciclovir est administré pendant plusieurs mois consécutifs soit pour prévenir une infection après la transplantation, soit pour traiter une infection déclarée. La facilité d'administration du valganciclovir par voie orale représente un avantage sur une administration du ganciclovir par perfusion, qui nécessite une hospitalisation. Toutefois, la voie orale peut être une source supplémentaire de variabilité chez les patients, avec un impact potentiel sur l'efficacité ou la toxicité du médicament. Le but de cette étude a été - de décrire le devenir de ce médicament dans le corps humain (dont l'étude relève de la discipline de la pharmacocinétique) - de définir les facteurs cliniques pouvant expliquer les différences de concentration sanguine observées entre les patients sous une posologie donnée - d'explorer les relations entre les concentrations du médicament dans le sang et son efficacité ou la survenue d'effets indésirables (dont l'étude relève de la discipline de la pharmacodynamie). Cette étude a nécessité le développement et la validation, d'une méthode d'analyse pour mesurer la concentration sanguine du ganciclovir, puis son application à 437 échantillons provenant de 65 patients transplantés d'organe solide (41 rénaux, 12 pulmonaires, 10 cardiaques et 2 hépatiques) recevant du valganciclovir. Les résultats des mesures effectuées ont été analysés à l'aide d'un outil mathématique afin d'élaborer un modèle du devenir du médicament dans le sang chez chaque patient et à chaque occasion. Cette étude a permis d'évaluer chez des patients recevant le valganciclovir, la vitesse à laquelle l'organisme absorbe, distribue, puis élimine le médicament. La vitesse d'élimination dépendait étroitement de la fonction rénale, du type de greffe et du sexe alors que la distribution dépendait du poids et du sexe du patient. La variabilité non expliquée par ces facteurs cliniques était modérée et vraisemblablement sans conséquence clinique évidente soit sur l'efficacité ou la tolérance, qui se révèlent très satisfaisantes chez les patients de l'étude. Les observations n'ont pas révélé de relation entre les concentrations de médicament et l'efficacité thérapeutique ou la survenue d'effets indésirables, confirmant que les doses relativement faibles utilisées dans notre collectif de patients suffisaient à produire une exposition reproductible à des concentrations adéquates. En conclusion, le profil (et par conséquent l'absorption) du valganciclovir chez les patients transplantés semble bien prédictible après une adaptation de la dose à la fonction rénale et au poids du patient. Un contrôle systématique des concentrations sanguines n'est probablement pas indiqué en routine, mais cette mesure peut présenter un intérêt dans certaines conditions particulières.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Selon Ray Harryhausen, maître des effets spéciaux cinématographiques, « Gustave Doré aurait été un grand chef opérateur [...] il regardait les choses avec le point de vue de la caméra ». L'oeuvre de Doré a marqué de manière indélébile l'imaginaire filmique depuis ses origines. Et le cinéma, en retour, a « gravé » Doré dans l'imaginaire du XXe siècle. Peu de films sur la Bible, depuis la Vie et Passion de Jésus Christ produit par Pathé en 1902, qui ne se réfèrent à ses illustrations, ni d'adaptation cinématographique de Dante ou encore de Don Quichotte qui ne l'aient pris comme modèle, de Georg Wilhelm Pabst et Orson Welles à Terry Gilliam. Il n'est pas de films sur la vie londonienne et victorienne qui n'empruntent leurs décors aux visions de Londres, un pèlerinage, qu'il s'agisse de David Lean, de Roman Polanski ou de Tim Burton. Nombre de scènes oniriques, fantastiques, fantasmagoriques ont puisé dans l'oeuvre graphique de Doré, depuis le Voyage dans la lune de Georges Méliès en 1902. Si dans le domaine du dessin animé ou de l'animation, la dette de Walt Disney envers Doré est immense, ses forêts « primitives », notamment celles d'Atala, ont aussi servi aux différentes versions de King Kong, de l'original de 1933 au film de 2005 de Peter Jackson qui s'était déjà appuyé sur l'oeuvre de Doré dans Le Seigneur des anneaux. Ce chapitre vise à saisir l'étendue et la signification de cette imprégnation de l'imaginaire de Doré dans la culture de masse, de la dette explicite de Jean Cocteau envers les illustrations des Contes de Perrault dans La Belle et la bête (1945) aux réminiscences doréennes du personnage de Chewbacca dans la Guerre des Etoiles ou de la saga d'Harry Potter.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME Les fibres textiles sont des produits de masse utilisés dans la fabrication de nombreux objets de notre quotidien. Le transfert de fibres lors d'une action délictueuse est dès lors extrêmement courant. Du fait de leur omniprésence dans notre environnement, il est capital que l'expert forensique évalue la valeur de l'indice fibres. L'interprétation de l'indice fibres passe par la connaissance d'un certain nombre de paramètres, comme la rareté des fibres, la probabilité de leur présence par hasard sur un certain support, ainsi que les mécanismes de transfert et de persistance des fibres. Les lacunes les plus importantes concernent les mécanismes de transfert des fibres. A ce jour, les nombreux auteurs qui se sont penchés sur le transfert de fibres ne sont pas parvenus à créer un modèle permettant de prédire le nombre de fibres que l'on s'attend à retrouver dans des circonstances de contact données, en fonction des différents paramètres caractérisant ce contact et les textiles mis en jeu. Le but principal de cette recherche est de démontrer que la création d'un modèle prédictif du nombre de fibres transférées lors d'un contact donné est possible. Dans le cadre de ce travail, le cas particulier du transfert de fibres d'un tricot en laine ou en acrylique d'un conducteur vers le dossier du siège de son véhicule a été étudié. Plusieurs caractéristiques des textiles mis en jeu lors de ces expériences ont été mesurées. Des outils statistiques (régression linéaire multiple) ont ensuite été utilisés sur ces données afin d'évaluer l'influence des caractéristiques des textiles donneurs sur le nombre de fibres transférées et d'élaborer un modèle permettant de prédire le nombre de fibres qui vont être transférées à l'aide des caractéristiques influençant significativement le transfert. Afin de faciliter la recherche et le comptage des fibres transférées lors des expériences de transfert, un appareil de recherche automatique des fibres (liber finder) a été utilisé dans le cadre de cette recherche. Les tests d'évaluation de l'efficacité de cet appareil pour la recherche de fibres montrent que la recherche automatique est globalement aussi efficace qu'une recherche visuelle pour les fibres fortement colorées. Par contre la recherche automatique perd de son efficacité pour les fibres très pâles ou très foncées. Une des caractéristiques des textiles donneurs à étudier est la longueur des fibres. Afin de pouvoir évaluer ce paramètre, une séquence d'algorithmes de traitement d'image a été implémentée. Cet outil permet la mesure de la longueur d'une fibre à partir de son image numérique à haute résolution (2'540 dpi). Les tests effectués montrent que les mesures ainsi obtenues présentent une erreur de l'ordre du dixième de millimètre, ce qui est largement suffisant pour son utilisation dans le cadre de cette recherche. Les résultats obtenus suite au traitement statistique des résultats des expériences de transfert ont permis d'aboutir à une modélisation du phénomène du transfert. Deux paramètres sont retenus dans le modèle: l'état de la surface du tissu donneur et la longueur des fibres composant le tissu donneur. L'état de la surface du tissu est un paramètre tenant compte de la quantité de fibres qui se sont détachées de la structure du tissu ou qui sont encore faiblement rattachées à celle-ci. En effet, ces fibres sont les premières à se transférer lors d'un contact, et plus la quantité de ces fibres par unité de surface est importante, plus le nombre de fibres transférées sera élevé. La longueur des fibres du tissu donneur est également un paramètre important : plus les fibres sont longues, mieux elles sont retenues dans la structure du tissu et moins elles se transféreront. SUMMARY Fibres are mass products used to produce numerous objects encountered everyday. The transfer of fibres during a criminal action is then very common. Because fibres are omnipresent in our environment, the forensic expert has to evaluate the value of the fibre evidence. To interpret fibre evidence, the expert has to know some parameters as frequency of fibres,' probability of finding extraneous fibres by chance on a given support, and transfer and persistence mechanisms. Fibre transfer is one of the most complex parameter. Many authors studied fibre transfer mechanisms but no model has been created to predict the number of fibres transferred expected in a given type of contact according to parameters as characteristics of the contact and characteristics of textiles. The main purpose of this research is to demonstrate that it is possible to create a model to predict the number of fibres transferred during a contact. In this work, the particular case of the transfer of fibres from a knitted textile in wool or in acrylic of a driver to the back of a carseat has been studied. Several characteristics of the textiles used for the experiments were measured. The data obtained were then treated with statistical tools (multiple linear regression) to evaluate the influence of the donor textile characteristics on the number of úbers transferred, and to create a model to predict this number of fibres transferred by an equation containing the characteristics having a significant influence on the transfer. To make easier the searching and the counting of fibres, an apparatus of automatic search. of fibers (fiber finder) was used. The tests realised to evaluate the efficiency of the fiber finder shows that the results obtained are generally as efficient as for visual search for well-coloured fibres. However, the efficiency of automatic search decreases for pales and dark fibres. One characteristic of the donor textile studied was the length of the fibres. To measure this parameter, a sequence of image processing algorithms was implemented. This tool allows to measure the length of a fibre from it high-resolution (2'540 dpi) numerical image. The tests done shows that the error of the measures obtained are about some tenths of millimetres. This precision is sufficient for this research. The statistical methods applied on the transfer experiment data allow to create a model of the transfer phenomenon. Two parameters are included in the model: the shedding capacity of the donor textile surface and the length of donor textile fibres. The shedding capacity of the donor textile surface is a parameter estimating the quantity of fibres that are not or slightly attached to the structure of the textile. These fibres are easily transferred during a contact, and the more this quantity of fibres is high, the more the number of fibres transferred during the contact is important. The length of fibres is also an important parameter: the more the fibres are long, the more they are attached in the structure of the textile and the less they are transferred during the contact.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[Table des matières] 1. Introduction: que vais-je apprendre? - quelques définitions - recommandations pour une activité physique favorable à la santé - comment mesure-t-on l'activité physique? - déterminants de l'activité physique. - 2. Épidémiologie de la sédentarité: prévalence de la sédentarité - coûts imputables à la sédentarité. - 3. Bénéfices pour la santé: un effet dose-réponse non linéaire - estimation des bénéfices de l'activité physique. - 4. Rôle du médecin de premier recours. - 5. Prise en charge: description générale d'un modèle de prise en charge - comment s'y prendre dans les détails - appréciation des risques liés à l'activité physique. - 6. Exemples d'outils: brochure pour les patients - podomètre: 10000 pas quotidiens pour sa santé! - 7. Autres ressources à disposition: site internet: www.paprica.ch. - Glossaire [Introduction (extrait)] Ce manuel décrit la perspective et le rôle du médecin de premier recours dans la promotion d'une activité physique bénéfique pour la santé. Il s'inscrit, avec la brochure d'accompagnement destinée aux patients, dans un concept global de promotion de l'activité physique au cabinet médical. Développé pour être le plus concis possible, ce manuel fait la synthèse des connaissances et des savoir-faire utiles à la pratique du conseil en activité physique au cabinet médical.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME : Cette étude est une analyse métrique et stylistique de La Pulcella d'Orléans de Vincenzo Monti - traduction-réécriture de l'homonyme poème de Voltaire, La Pucelle d'Orléans - commencée à Milan en 1798 et terminée à Chambéry, en Savoie, en 1799. Le texte italien a été considéré comme une version autonome par rapport au texte français, étant donné le particulier choix de réduire la composante philosophique et idéologique d'origine, et de mettre en relation le modèle avec une littérature italienne spécifique, principalement par l'adoption d'une grille strophique fortement marquée. La Pulcella est traduite en octaves, un mètre chevaleresque qui possède au moins depuis trois siècles sa propre "grammaire" ainsi qu'une formidable tradition de référence. De plus, avec sa traduction, l'auteur a voulu mettre l'accent sur les aspects de l'histoire les plus amusantes et provocatrices de Jeanne d'Arc - déjà narrée par Voltaire avec un ton ironique et irrévérencieux - dans le but d'une grande expérimentation au niveau de la langue, de la métrique et de la syntaxe. La traduction de la Pucelle est en effet liée à une dimension hédonistique et livresque: elle n'est pas un prétexte pour connaitre une oeuvre étrangère, ni un texte conçu pour être publiée; il s'agit plutôt d'un exercice personnel, un divertissement privé, demeuré dans le tiroir de l'auteur. Alors que pour Voltaire le but principal du poème est la polémique idéologique du fond, exprimée par un registre fort satirique, pour Monti la réécriture est un jeu stylistique, une complaisance littéraire, qui repose autant sur les composantes désacralisantes et provocatrices que sur les éléments poétiques et idylliques. Le modèle français est donc retravaillé, en premier lieu, au niveau du ton: d'un côté la traduction réduit l'horizon idéologique et la perspective historique des événements; de l'autre elle accroît les aspects les plus hédonistiques et ludiques de Voltaire, par la mise en évidence de l'élément comique, plus coloré et ouvert. En raison de la dimension intime de cette traduction, de nos jours la tradition de la Pulcella italienne se fonde sur trois témoins manuscrits seulement, dont un retrouvé en 1984 et qui a rouvert le débat philologique. Pour ma thèse j'ai utilisé l'édition critique qu'on possède à présent, imprimée en 1982 sous la direction de M. Mari et G. Barbarisi, qui se fonde seulement sur deux témoins du texte; de toute façon mon travail a essayé de considérer aussi en compte le nouvel autographe découvert. Ce travail de thèse sur la Pulcella est organisé en plusieurs chapitres qui reflètent la structure de l'analyse, basée sur les différents niveaux d'élaboration du texte. Au début il y a une introduction générale, où j'ai encadré les deux versions, la française et l'italienne, dans l'histoire littéraire, tout en donnant des indications sur la question philologique relative au texte de Monti. Ensuite, les chapitres analysent quatre aspects différents de la traduction: d'abord, les hendécasyllabes du poème: c'est à dire le rythme des vers, la prosodie et la distribution des différents modules rythmiques par rapport aux positions de l'octave. La Pucelle de Voltaire est en effet écrite en décasyllabes, un vers traditionnellement assez rigide à cause de son rythme coupé par la césure; dans la traduction le vers français est rendu par la plus célèbre mesure de la tradition littéraire italienne, l'endécasyllabe, un vers qui correspond au décasyllabe seulement pour le nombre de syllabes, mais qui présente une majeure liberté rythmique pour la disposition des accents. Le deuxième chapitre considère le mètre de l'octave, en mettant l'accent sur l'organisation syntaxique interne des strophes et sur les liens entre elles ; il résulte que les strophes sont traitées de manière différente par rapport à Voltaire. En effet, au contraire des octaves de Monti, la narration française se développe dans chaque chant en une succession ininterrompue de vers, sans solutions de continuité, en délinéant donc des structures textuelles très unitaires et linéaires. Le troisième chapitre analyse les enjambements de la Pulcella dans le but de dévoiler les liaisons syntactiques entre les verses et les octaves, liaisons presque toujours absentes en Voltaire. Pour finir, j'ai étudié le vocabulaire du poème, en observant de près les mots les plus expressives quant à leur côté comique et parodique. En effet, Monti semble exaspérer le texte français en utilisant un vocabulaire très varié, qui embrasse tous les registres de la langue italienne: de la dimension la plus basse, triviale, populaire, jusqu'au niveau (moins exploité par Voltaire) lyrique et littéraire, en vue d'effets de pastiche comique et burlesque. D'après cette analyse stylistique de la traduction, surgit un aspect très intéressant et unique de la réécriture de Monti, qui concerne l'utilisation soit de l'endécasyllabe, soit de l'octave, soit du vocabulaire du texte. Il s'agit d'un jeu constant sur la voix - ou bien sur une variation continue des différents plans intonatives - et sur la parole, qui devient plus expressive, plus dense. En effet, la lecture du texte suppose une variation mélodique incessante entre la voix de l'auteur (sous forme de la narration et du commentaire) et la voix de personnages, qu'on entend dans les nombreux dialogues; mais aussi une variation de ton entre la dimension lexical littéraire et les registres les plus baissés de la langue populaire. Du point de vue de la syntaxe, par rapport au modèle français (qui est assez monotone et linéaire, basé sur un ordre syntactique normal, sur le rythme régulier du decasyllabe et sur un langage plutôt ordinaire), Monti varie et ennoblit le ton du discours à travers des mouvements syntaxiques raffinés, des constructions de la période plus ou moins réguliers et l'introduction de propositions à cheval des vers. Le discours italien est en effet compliquée par des interruptions continues (qui ne se réalisent pas dans des lieux canoniques, mais plutôt dans la première partie du vers ou en proximité de la pointe) qui marquent des changements de vitesse dans le texte (dialogues, narration, commentaires): ils se vérifient, en somme, des accélérations et des décélérations continues du récit ainsi qu'un jeu sur les ouvertures et fermetures de chaque verse. Tout se fait à travers une recherche d'expressivité qui, en travaillant sur la combinaison et le choc des différents niveaux, déstabilise la parole et rend l'écriture imprévisible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : La radiothérapie par modulation d'intensité (IMRT) est une technique de traitement qui utilise des faisceaux dont la fluence de rayonnement est modulée. L'IMRT, largement utilisée dans les pays industrialisés, permet d'atteindre une meilleure homogénéité de la dose à l'intérieur du volume cible et de réduire la dose aux organes à risque. Une méthode usuelle pour réaliser pratiquement la modulation des faisceaux est de sommer de petits faisceaux (segments) qui ont la même incidence. Cette technique est appelée IMRT step-and-shoot. Dans le contexte clinique, il est nécessaire de vérifier les plans de traitement des patients avant la première irradiation. Cette question n'est toujours pas résolue de manière satisfaisante. En effet, un calcul indépendant des unités moniteur (représentatif de la pondération des chaque segment) ne peut pas être réalisé pour les traitements IMRT step-and-shoot, car les poids des segments ne sont pas connus à priori, mais calculés au moment de la planification inverse. Par ailleurs, la vérification des plans de traitement par comparaison avec des mesures prend du temps et ne restitue pas la géométrie exacte du traitement. Dans ce travail, une méthode indépendante de calcul des plans de traitement IMRT step-and-shoot est décrite. Cette méthode est basée sur le code Monte Carlo EGSnrc/BEAMnrc, dont la modélisation de la tête de l'accélérateur linéaire a été validée dans une large gamme de situations. Les segments d'un plan de traitement IMRT sont simulés individuellement dans la géométrie exacte du traitement. Ensuite, les distributions de dose sont converties en dose absorbée dans l'eau par unité moniteur. La dose totale du traitement dans chaque élément de volume du patient (voxel) peut être exprimée comme une équation matricielle linéaire des unités moniteur et de la dose par unité moniteur de chacun des faisceaux. La résolution de cette équation est effectuée par l'inversion d'une matrice à l'aide de l'algorithme dit Non-Negative Least Square fit (NNLS). L'ensemble des voxels contenus dans le volume patient ne pouvant être utilisés dans le calcul pour des raisons de limitations informatiques, plusieurs possibilités de sélection ont été testées. Le meilleur choix consiste à utiliser les voxels contenus dans le Volume Cible de Planification (PTV). La méthode proposée dans ce travail a été testée avec huit cas cliniques représentatifs des traitements habituels de radiothérapie. Les unités moniteur obtenues conduisent à des distributions de dose globale cliniquement équivalentes à celles issues du logiciel de planification des traitements. Ainsi, cette méthode indépendante de calcul des unités moniteur pour l'IMRT step-andshootest validée pour une utilisation clinique. Par analogie, il serait possible d'envisager d'appliquer une méthode similaire pour d'autres modalités de traitement comme par exemple la tomothérapie. Abstract : Intensity Modulated RadioTherapy (IMRT) is a treatment technique that uses modulated beam fluence. IMRT is now widespread in more advanced countries, due to its improvement of dose conformation around target volume, and its ability to lower doses to organs at risk in complex clinical cases. One way to carry out beam modulation is to sum smaller beams (beamlets) with the same incidence. This technique is called step-and-shoot IMRT. In a clinical context, it is necessary to verify treatment plans before the first irradiation. IMRT Plan verification is still an issue for this technique. Independent monitor unit calculation (representative of the weight of each beamlet) can indeed not be performed for IMRT step-and-shoot, because beamlet weights are not known a priori, but calculated by inverse planning. Besides, treatment plan verification by comparison with measured data is time consuming and performed in a simple geometry, usually in a cubic water phantom with all machine angles set to zero. In this work, an independent method for monitor unit calculation for step-and-shoot IMRT is described. This method is based on the Monte Carlo code EGSnrc/BEAMnrc. The Monte Carlo model of the head of the linear accelerator is validated by comparison of simulated and measured dose distributions in a large range of situations. The beamlets of an IMRT treatment plan are calculated individually by Monte Carlo, in the exact geometry of the treatment. Then, the dose distributions of the beamlets are converted in absorbed dose to water per monitor unit. The dose of the whole treatment in each volume element (voxel) can be expressed through a linear matrix equation of the monitor units and dose per monitor unit of every beamlets. This equation is solved by a Non-Negative Least Sqvare fif algorithm (NNLS). However, not every voxels inside the patient volume can be used in order to solve this equation, because of computer limitations. Several ways of voxel selection have been tested and the best choice consists in using voxels inside the Planning Target Volume (PTV). The method presented in this work was tested with eight clinical cases, which were representative of usual radiotherapy treatments. The monitor units obtained lead to clinically equivalent global dose distributions. Thus, this independent monitor unit calculation method for step-and-shoot IMRT is validated and can therefore be used in a clinical routine. It would be possible to consider applying a similar method for other treatment modalities, such as for instance tomotherapy or volumetric modulated arc therapy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si on raconte volontiers que les Muses sont des divinités féminines d'origine grecque, en lien avec l'art et à l'inspiration, on est toutefois bien démuni lorsqu'il s'agit d'en présenter une image claire. Liées qu'elles sont aux mystères de la création, elles ne s'inscrivent que difficilement dans notre vision pragmatique et utilitaire du monde, - et par suite dans les concepts, catégories et autres réflexes inhérents à notre raison moderne. N'étant pas des figures historiques factuelles et univoques, mais des déesses et personnages mythiques, par définition multiples et ambigus, elles sont impossibles à déterminer en bonne et due forme en leur complexe réalité. Comment faire alors pour ne pas se fourvoyer en se mettant à l'écoute des Muses telles qu'elles apparaissent à l'aube de notre tradition, dans les textes de la Grèce archaïque (8è-5è s. av. J.-C.) ? Il faut d'abord constituer un corpus cohérent : à l'exception des tragédies et comédies ainsi que des écrits aujourd'hui classés en philosophie, l'étude prend en considération tous les passages explicitement ou implicitement musicaux de cette époque - un ensemble de 250 extraits de 22 auteurs et 2 corpus de textes pour un total de 279 occurrences musicales. Il s'agit ensuite de faire un pari : gager que loin d'être de simples fictions ou enjolivures, les Muses ont une existence, importance et partant influence bien réelle pour les Grecs ; que chacune de leurs mentions ou évocations exprime une expérience sincère, dénuée de faux-semblant et forte d'une certaine cohérence logique. Il convient enfin d'employer - par-delà les diverses écoles et chapelles - tous les moyens d'investigation à disposition pour creuser et déployer en toute patience et toute rigueur chacun des passages qui concerne, directement ou indirectement, les divinités ; non sans à la fois tout mettre en oeuvre pour ne pas y plaquer nos vues et par suite éviter tout anachronisme. Au vu des divergences que présentent les textes - en fonction de l'époque, des genres poétiques, sans doute également de la sensibilité des auteurs et de la nature de leur auditoire -, on a tôt fait de remarquer que loin de former une vérité unique, les multiples indications musicales constituent bien plutôt une somme de vérités successives, tantôt individuelles, propres à tel ou tel chanteur ou chanteur-poète, tantôt communes à quelques-uns, parfois semblables chez tous. Dépendantes à la fois de la tradition et de l'expérience individuelle, elles présentent somme toute une instructive multiplicité de constantes et de variantes. L'enjeu de chacun des six mouvements du travail - qui concernent respectivement les chants d'Homère, d'Hésiode, des Hymnes homériques, les fragments lyriques, ainsi que les vers de Pindare et de Bacchylide - est de repérer, dévoiler et valoriser les continuités et divergences à l'oeuvre. Les résultats ont été synthétisés dans autant de reprises, à chaque fois centrées sur les questions rectrices de l'origine, de la nature, des rôles et de l'influence des Muses, dans le but de dégager l'image la plus nette possible des divinités et de gagner une vue d'ensemble inédite offrant un nouvel éclairage du phénomène musical à ses origines. S'il ne fallait retenir que trois gains, ce seraient ceux-ci: 1. Bien que mêlant quantité de ressemblances et de dissemblances a priori fantaisistes, la pléthore d'attributs et d'épithètes musicaux s'inscrit dans une étonnante logique - appelée musicale -, qui déborde par maints côtés notre vision rationnelle-morale du monde. 2. Si les rapports qu'entretiennent les chanteurs et chanteurs-poètes avec les Muses sont multiples et s'inscrivent dans un mouvement non linéaire, ils se situent cependant entre deux relations extrêmes, allant de la « fusion » (Homère) à la « confusion » (Bacchylide). 3. Se faisant jour pour célébrer et rappeler les hauts-faits divins ou/et humains du monde, la tâche des Muses s'avère finalement de l'ordre de l'éducation : par l'intermédiaire des chanteurs(-poètes), elles ouvrent les hommes à l'équilibre et à l'harmonie de toute chose au sein du monde.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif de ce travail est le développement d'une méthode de caractérisation objective de la qualité d'image s'appliquant à des systèmes de mammographie analogique, utilisant un couple écran-film comme détecteur, et numérique, basé sur une technologie semi-conductrice, ceci en vue de la comparaison de leurs performances. La méthode développée tient compte de la gamme dynamique du détecteur, de la détectabilité de structures de haut contraste, simulant des microcalcifications, et de structures de bas contraste, simulant des opacités (nodules tumoraux). La méthode prend également en considération le processus de visualisation de l'image, ainsi que la réponse de l'observateur. Pour réaliser ceci, un objet-test ayant des propriétés proches de celles d'un sein comprimé, composé de différents matériaux équivalents aux tissus, allant du glandulaire à l'adipeux, et comprenant des zones permettant la simulation de structures de haut et bas contraste, ainsi que la mesure de la résolution et celle du bruit, a été développé et testé. L'intégration du processus de visualisation a été réalisée en utilisant une caméra CCD mesurant directement les paramètres de qualité d'image, à partir de l'image de l'objet-test, dans une grandeur physique commune au système numérique et analogique, à savoir la luminance arrivant sur l'oeil de l'observateur. L'utilisation d'une grandeur synthétique intégrant dans un même temps, le contraste, le bruit et la résolution rend possible une comparaison objective entre les deux systèmes de mammographie. Un modèle mathématique, simulant la réponse d'un observateur et intégrant les paramètres de base de qualité d'image, a été utilisé pour calculer la détectabilité de structures de haut et bas contraste en fonction du type de tissu sur lequel celles-ci se trouvent. Les résultats obtenus montrent qu'à dose égale la détectabilité des structures est significativement plus élevée avec le système de mammographie numérique qu'avec le système analogique. Ceci est principalement lié au fait que le bruit du système numérique est plus faible que celui du système analogique. Les résultats montrent également que la méthodologie, visant à comparer des systèmes d'imagerie numérique et analogique en utilisant un objet-test à large gamme dynamique ainsi qu'une caméra, peut être appliquée à d'autres modalités radiologiques, ainsi qu'à une démarche d'optimisation des conditions de lecture des images.<br/><br/>The goal of this work was to develop a method to objectively compare the performance of a digital and a screen-film mammography system in terms of image quality and patient dose. We propose a method that takes into account the dynamic range of the image detector and the detection of high contrast (for microcalcifications) and low contrast (for masses or tumoral nodules) structures. The method also addresses the problems of image visualization and the observer response. A test object, designed to represent a compressed breast, was constructed from various tissue equivalent materials ranging from purely adipose to purely glandular composition. Different areas within the test object permitted the evaluation of low and high contrast detection, spatial resolution, and image noise. All the images (digital and conventional) were captured using a CCD camera to include the visualization process in the image quality assessment. In this way the luminance reaching the viewer?s eyes can be controlled for both kinds of images. A global quantity describing image contrast, spatial resolution and noise, and expressed in terms of luminance at the camera, can then be used to compare the two technologies objectively. The quantity used was a mathematical model observer that calculates the detectability of high and low contrast structures as a function of the background tissue. Our results show that for a given patient dose, the detection of high and low contrast structures is significantly better for the digital system than for the conventional screen-film system studied. This is mainly because the image noise is lower for the digital system than for the screen-film detector. The method of using a test object with a large dynamic range combined with a camera to compare conventional and digital imaging modalities can be applied to other radiological imaging techniques. In particular it could be used to optimize the process of radiographic film reading.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La biologie de la conservation est communément associée à la protection de petites populations menacées d?extinction. Pourtant, il peut également être nécessaire de soumettre à gestion des populations surabondantes ou susceptibles d?une trop grande expansion, dans le but de prévenir les effets néfastes de la surpopulation. Du fait des différences tant quantitatives que qualitatives entre protection des petites populations et contrôle des grandes, il est nécessaire de disposer de modèles et de méthodes distinctes. L?objectif de ce travail a été de développer des modèles prédictifs de la dynamique des grandes populations, ainsi que des logiciels permettant de calculer les paramètres de ces modèles et de tester des scénarios de gestion. Le cas du Bouquetin des Alpes (Capra ibex ibex) - en forte expansion en Suisse depuis sa réintroduction au début du XXème siècle - servit d?exemple. Cette tâche fut accomplie en trois étapes : En premier lieu, un modèle de dynamique locale, spécifique au Bouquetin, fut développé : le modèle sous-jacent - structuré en classes d?âge et de sexe - est basé sur une matrice de Leslie à laquelle ont été ajoutées la densité-dépendance, la stochasticité environnementale et la chasse de régulation. Ce modèle fut implémenté dans un logiciel d?aide à la gestion - nommé SIM-Ibex - permettant la maintenance de données de recensements, l?estimation automatisée des paramètres, ainsi que l?ajustement et la simulation de stratégies de régulation. Mais la dynamique d?une population est influencée non seulement par des facteurs démographiques, mais aussi par la dispersion et la colonisation de nouveaux espaces. Il est donc nécessaire de pouvoir modéliser tant la qualité de l?habitat que les obstacles à la dispersion. Une collection de logiciels - nommée Biomapper - fut donc développée. Son module central est basé sur l?Analyse Factorielle de la Niche Ecologique (ENFA) dont le principe est de calculer des facteurs de marginalité et de spécialisation de la niche écologique à partir de prédicteurs environnementaux et de données d?observation de l?espèce. Tous les modules de Biomapper sont liés aux Systèmes d?Information Géographiques (SIG) ; ils couvrent toutes les opérations d?importation des données, préparation des prédicteurs, ENFA et calcul de la carte de qualité d?habitat, validation et traitement des résultats ; un module permet également de cartographier les barrières et les corridors de dispersion. Le domaine d?application de l?ENFA fut exploré par le biais d?une distribution d?espèce virtuelle. La comparaison à une méthode couramment utilisée pour construire des cartes de qualité d?habitat, le Modèle Linéaire Généralisé (GLM), montra qu?elle était particulièrement adaptée pour les espèces cryptiques ou en cours d?expansion. Les informations sur la démographie et le paysage furent finalement fusionnées en un modèle global. Une approche basée sur un automate cellulaire fut choisie, tant pour satisfaire aux contraintes du réalisme de la modélisation du paysage qu?à celles imposées par les grandes populations : la zone d?étude est modélisée par un pavage de cellules hexagonales, chacune caractérisée par des propriétés - une capacité de soutien et six taux d?imperméabilité quantifiant les échanges entre cellules adjacentes - et une variable, la densité de la population. Cette dernière varie en fonction de la reproduction et de la survie locale, ainsi que de la dispersion, sous l?influence de la densité-dépendance et de la stochasticité. Un logiciel - nommé HexaSpace - fut développé pour accomplir deux fonctions : 1° Calibrer l?automate sur la base de modèles de dynamique (par ex. calculés par SIM-Ibex) et d?une carte de qualité d?habitat (par ex. calculée par Biomapper). 2° Faire tourner des simulations. Il permet d?étudier l?expansion d?une espèce envahisseuse dans un paysage complexe composé de zones de qualité diverses et comportant des obstacles à la dispersion. Ce modèle fut appliqué à l?histoire de la réintroduction du Bouquetin dans les Alpes bernoises (Suisse). SIM-Ibex est actuellement utilisé par les gestionnaires de la faune et par les inspecteurs du gouvernement pour préparer et contrôler les plans de tir. Biomapper a été appliqué à plusieurs espèces (tant végétales qu?animales) à travers le Monde. De même, même si HexaSpace fut initialement conçu pour des espèces animales terrestres, il pourrait aisément être étndu à la propagation de plantes ou à la dispersion d?animaux volants. Ces logiciels étant conçus pour, à partir de données brutes, construire un modèle réaliste complexe, et du fait qu?ils sont dotés d?une interface d?utilisation intuitive, ils sont susceptibles de nombreuses applications en biologie de la conservation. En outre, ces approches peuvent également s?appliquer à des questions théoriques dans les domaines de l?écologie des populations et du paysage.<br/><br/>Conservation biology is commonly associated to small and endangered population protection. Nevertheless, large or potentially large populations may also need human management to prevent negative effects of overpopulation. As there are both qualitative and quantitative differences between small population protection and large population controlling, distinct methods and models are needed. The aim of this work was to develop theoretical models to predict large population dynamics, as well as computer tools to assess the parameters of these models and to test management scenarios. The alpine Ibex (Capra ibex ibex) - which experienced a spectacular increase since its reintroduction in Switzerland at the beginning of the 20th century - was used as paradigm species. This task was achieved in three steps: A local population dynamics model was first developed specifically for Ibex: the underlying age- and sex-structured model is based on a Leslie matrix approach with addition of density-dependence, environmental stochasticity and culling. This model was implemented into a management-support software - named SIM-Ibex - allowing census data maintenance, parameter automated assessment and culling strategies tuning and simulating. However population dynamics is driven not only by demographic factors, but also by dispersal and colonisation of new areas. Habitat suitability and obstacles modelling had therefore to be addressed. Thus, a software package - named Biomapper - was developed. Its central module is based on the Ecological Niche Factor Analysis (ENFA) whose principle is to compute niche marginality and specialisation factors from a set of environmental predictors and species presence data. All Biomapper modules are linked to Geographic Information Systems (GIS); they cover all operations of data importation, predictor preparation, ENFA and habitat suitability map computation, results validation and further processing; a module also allows mapping of dispersal barriers and corridors. ENFA application domain was then explored by means of a simulated species distribution. It was compared to a common habitat suitability assessing method, the Generalised Linear Model (GLM), and was proven better suited for spreading or cryptic species. Demography and landscape informations were finally merged into a global model. To cope with landscape realism and technical constraints of large population modelling, a cellular automaton approach was chosen: the study area is modelled by a lattice of hexagonal cells, each one characterised by a few fixed properties - a carrying capacity and six impermeability rates quantifying exchanges between adjacent cells - and one variable, population density. The later varies according to local reproduction/survival and dispersal dynamics, modified by density-dependence and stochasticity. A software - named HexaSpace - was developed, which achieves two functions: 1° Calibrating the automaton on the base of local population dynamics models (e.g., computed by SIM-Ibex) and a habitat suitability map (e.g. computed by Biomapper). 2° Running simulations. It allows studying the spreading of an invading species across a complex landscape made of variously suitable areas and dispersal barriers. This model was applied to the history of Ibex reintroduction in Bernese Alps (Switzerland). SIM-Ibex is now used by governmental wildlife managers to prepare and verify culling plans. Biomapper has been applied to several species (both plants and animals) all around the World. In the same way, whilst HexaSpace was originally designed for terrestrial animal species, it could be easily extended to model plant propagation or flying animals dispersal. As these softwares were designed to proceed from low-level data to build a complex realistic model and as they benefit from an intuitive user-interface, they may have many conservation applications. Moreover, theoretical questions in the fields of population and landscape ecology might also be addressed by these approaches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La collaboration CLIC (Compact LInear Collider, collisionneur linéaire compact) étudie la possibilité de réaliser un collisionneur électron-positon linéaire à haute énergie (3 TeV dans le centre de masse) et haute luminosité (1034 cm-2s-1), pour la recherche en physique des particules. Le projet CLIC se fonde sur l'utilisation de cavités accélératrices à haute fréquence (30 GHz). La puissance nécessaire à ces cavités est fournie par un faisceau d'électrons de basse énergie et de haute intensité, appelé faisceau de puissance, circulant parallèlement à l'accélérateur linéaire principal (procédé appelé « Accélération à Double Faisceau »). Dans ce schéma, un des principaux défis est la réalisation du faisceau de puissance, qui est d'abord généré dans un complexe accélérateur à basse fréquence, puis transformé pour obtenir une structure temporelle à haute fréquence nécessaire à l'alimentation des cavités accélératrices de l'accélérateur linéaire principal. La structure temporelle à haute fréquence des paquets d'électrons est obtenue par le procédé de multiplication de fréquence, dont la manipulation principale consiste à faire circuler le faisceau d'électrons dans un anneau isochrone en utilisant des déflecteurs radio-fréquence (déflecteurs RF) pour injecter et combiner les paquets d'électrons. Cependant, ce type de manipulation n'a jamais été réalisé auparavant et la première phase de la troisième installation de test pour CLIC (CLIC Test Facility 3 ou CTF3) a pour but la démonstration à faible charge du procédé de multiplication de fréquence par injection RF dans un anneau isochrone. Cette expérience, qui a été réalisée avec succès au CERN au cours de l'année 2002 en utilisant une version modifiée du pré-injecteur du grand collisionneur électron-positon LEP (Large Electron Positron), est le sujet central de ce rapport. L'expérience de combinaison des paquets d'électrons consiste à accélérer cinq impulsions dont les paquets d'électrons sont espacés de 10 cm, puis à les combiner dans un anneau isochrone pour obtenir une seule impulsion dont les paquets d'électrons sont espacés de 2 cm, multipliant ainsi la fréquence des paquets d'électrons, ainsi que la charge par impulsion, par cinq. Cette combinaison est réalisée au moyen de structures RF résonnantes sur un mode déflecteur, qui créent dans l'anneau une déformation locale et dépendante du temps de l'orbite du faisceau. Ce mécanisme impose plusieurs contraintes de dynamique de faisceau comme l'isochronicité, ainsi que des tolérances spécifiques sur les paquets d'électrons, qui sont définies dans ce rapport. Les études pour la conception de la Phase Préliminaire du CTF3 sont détaillées, en particulier le nouveau procédé d'injection avec les déflecteurs RF. Les tests de haute puissance réalisés sur ces cavités déflectrices avant leur installation dans l'anneau sont également décrits. L'activité de mise en fonctionnement de l'expérience est présentée en comparant les mesures faites avec le faisceau aux simulations et calculs théoriques. Finalement, les expériences de multiplication de fréquence des paquets d'électrons sont décrites et analysées. On montre qu'une très bonne efficacité de combinaison est possible après optimisation des paramètres de l'injection et des déflecteurs RF. En plus de l'expérience acquise sur l'utilisation de ces déflecteurs, des conclusions importantes pour les futures activités CTF3 et CLIC sont tirées de cette première démonstration de la multiplication de fréquence des paquets d'électrons par injection RF dans un anneau isochrone.<br/><br/>The Compact LInear Collider (CLIC) collaboration studies the possibility of building a multi-TeV (3 TeV centre-of-mass), high-luminosity (1034 cm-2s-1) electron-positron collider for particle physics. The CLIC scheme is based on high-frequency (30 GHz) linear accelerators powered by a low-energy, high-intensity drive beam running parallel to the main linear accelerators (Two-Beam Acceleration concept). One of the main challenges to realize this scheme is to generate the drive beam in a low-frequency accelerator and to achieve the required high-frequency bunch structure needed for the final acceleration. In order to provide bunch frequency multiplication, the main manipulation consists in sending the beam through an isochronous combiner ring using radio-frequency (RF) deflectors to inject and combine electron bunches. However, such a scheme has never been used before, and the first stage of the CLIC Test Facility 3 (CTF3) project aims at a low-charge demonstration of the bunch frequency multiplication by RF injection into an isochronous ring. This proof-of-principle experiment, which was successfully performed at CERN in 2002 using a modified version of the LEP (Large Electron Positron) pre-injector complex, is the central subject of this report. The bunch combination experiment consists in accelerating in a linear accelerator five pulses in which the electron bunches are spaced by 10 cm, and combining them in an isochronous ring to obtain one pulse in which the electron bunches are spaced by 2 cm, thus achieving a bunch frequency multiplication of a factor five, and increasing the charge per pulse by a factor five. The combination is done by means of RF deflecting cavities that create a time-dependent bump inside the ring, thus allowing the interleaving of the bunches of the five pulses. This process imposes several beam dynamics constraints, such as isochronicity, and specific tolerances on the electron bunches that are defined in this report. The design studies of the CTF3 Preliminary Phase are detailed, with emphasis on the novel injection process using RF deflectors. The high power tests performed on the RF deflectors prior to their installation in the ring are also reported. The commissioning activity is presented by comparing beam measurements to model simulations and theoretical expectations. Eventually, the bunch frequency multiplication experiments are described and analysed. It is shown that the process of bunch frequency multiplication is feasible with a very good efficiency after a careful optimisation of the injection and RF deflector parameters. In addition to the experience acquired in the operation of these RF deflectors, important conclusions for future CTF3 and CLIC activities are drawn from this first demonstration of the bunch frequency multiplication by RF injection into an isochronous ring.<br/><br/>La collaboration CLIC (Compact LInear Collider, collisionneur linéaire compact) étudie la possibilité de réaliser un collisionneur électron-positon linéaire à haute énergie (3 TeV) pour la recherche en physique des particules. Le projet CLIC se fonde sur l'utilisation de cavités accélératrices à haute fréquence (30 GHz). La puissance nécessaire à ces cavités est fournie par un faisceau d'électrons de basse énergie et de haut courant, appelé faisceau de puissance, circulant parallèlement à l'accélérateur linéaire principal (procédé appelé « Accélération à Double Faisceau »). Dans ce schéma, un des principaux défis est la réalisation du faisceau de puissance, qui est d'abord généré dans un complexe accélérateur à basse fréquence, puis transformé pour obtenir une structure temporelle à haute fréquence nécessaire à l'alimentation des cavités accélératrices de l'accélérateur linéaire principal. La structure temporelle à haute fréquence des paquets d'électrons est obtenue par le procédé de multiplication de fréquence, dont la manipulation principale consiste à faire circuler le faisceau d'électrons dans un anneau isochrone en utilisant des déflecteurs radio-fréquence (déflecteurs RF) pour injecter et combiner les paquets d'électrons. Cependant, ce type de manipulation n'a jamais été réalisé auparavant et la première phase de la troisième installation de test pour CLIC (CLIC Test Facility 3 ou CTF3) a pour but la démonstration à faible charge du procédé de multiplication de fréquence par injection RF dans un anneau isochrone. L'expérience consiste à accélérer cinq impulsions, puis à les combiner dans un anneau isochrone pour obtenir une seule impulsion dans laquelle la fréquence des paquets d'électrons et le courant sont multipliés par cinq. Cette combinaison est réalisée au moyen de structures déflectrices RF qui créent dans l'anneau une déformation locale et dépendante du temps de la trajectoire du faisceau. Les résultats de cette expérience, qui a été réalisée avec succès au CERN au cours de l?année 2002 en utilisant une version modifiée du pré-injecteur du grand collisionneur électron-positon LEP (Large Electron Positon), sont présentés en détail.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract Imatinib (Glivec~ has transformed the treatment and prognosis of chronic myeloid leukaemia (CML) and of gastrointestinal stromal tumor (GIST). However, the treatment must be taken indefinitely and is not devoid of inconvenience and toxicity. Moreover, resistance or escape from disease control occurs. Considering the large interindividual differences in the function of the enzymatic and transport systems involved in imatinib disposition, exposure to this drug can be expected to vary widely among patients. Among those known systems is a cytochrome P450 (CYI'3A4) that metabolizes imatinib, the multidrug transporter P-glycoprotein (P-gp; product of the MDR1 gene) that expels imatinib out of cells, and al-acid glycoprotein (AGP), a circulating protein binding imatinib in the plasma. The aim of this observational study was to explore the influence of these covariates on imatinib pharmacokinetics (PK), to assess the interindividual variability of the PK parameters of the drug, and to evaluate whether imatinib use would benefit from a therapeutic drug monitoring (TDM) program. A total of 321 plasma concentrations were measured in 59 patients receiving imatinib, using a validated chromatographic method developed for this study (HPLC-LTV). The results were analyzed by non-linear mixed effect modeling (NONMEM). A one-compartment pharmacokinetic model with first-order absorption appropriately described the data, and a large interindividual variability was observed. The MDK> polymorphism 3435C>T and the CYP3A4 activity appeared to modulate the disposition of imatinib, albeit not significantly. A hyperbolic relationship between plasma AGP levels and oral clearance, as well as volume of distribution, was observed. A mechanistic approach was built up, postulating that only the unbound imatinib concentration was able to undergo first-order elimination. This approach allowed determining an average free clearance (CL,~ of 13101/h and a volume of distribution (Vd) of 301 1. By comparison, the total clearance determined was 141/h (i.e. 233 ml/min). Free clearance was affected by body weight and pathology diagnosis. The estimated variability of imatinib disposition (17% for CLu and 66% for Vd) decreased globally about one half with the model incorporating the AGP impact. Moreover, some associations were observed between PK parameters of the free imatinib concentration and its efficacy and toxicity. Finally, the functional influence of P-gp activity has been demonstrated in vitro in cell cultures. These elements are arguments to further investigate the possible usefulness of a TDM program for imatinib. It may help in individualizing the dosing regimen before overt disease progression or development of treatment toxicity, thus improving both the long-term therapeutic effectiveness and tolerability of this drug. Résumé L'imatinib (Glivec ®) a révolutionné le traitement et le pronostic de la leucémie myéloïde chronique (LMC) et des tumeurs stromales d'origine digestive (GIST). Il s'agit toutefois d'un traitement non dénué d'inconvénients et de toxicité, et qui doit être pris indéfiniment. Par ailleurs, une résistance, ou des échappements au traitement, sont également rencontrés. Le devenir de ce médicament dans l'organisme dépend de systèmes enzymatiques et de transport connus pour présenter de grandes différences interindividuelles, et l'on peut s'attendre à ce que l'exposition à ce médicament varie largement d'un patient à l'autre. Parmi ces systèmes, on note un cytochrome P450 (le CYP3A4) métabolisant l'imatinib, la P-glycoprotéine (P-gp ;codée par le gène MDR1), un transporteur d'efflux expulsant le médicament hors des cellules, et l'atglycoprotéine acide (AAG), une protéine circulante sur laquelle se fixe l'imatinib dans le plasma. L'objectif de la présente étude clinique a été de déterminer l'influence de ces covariats sur la pharmacocinétique (PK) de l'imatinib, d'établir la variabilité interindividuelle des paramètres PK du médicament, et d'évaluer dans quelle mesure l'imatinib pouvait bénéficier d'un programme de suivi thérapeutique (TDM). En utilisant une méthode chromatographique développée et validée à cet effet (HPLC-UV), un total de 321 concentrations plasmatiques a été dosé chez 59 patients recevant de l'imatinib. Les résultats ont été analysés par modélisation non linéaire à effets mixtes (NONMEM). Un modèle pharmacocinétique à un compartiment avec absorption de premier ordre a permis de décrire les données, et une grande variabilité interindividuelle a été observée. Le polymorphisme du gène MDK1 3435C>T et l'activité du CYP3A4 ont montré une influence, toutefois non significative, sur le devenir de l'imatinib. Une relation hyperbolique entre les taux plasmatiques d'AAG et la clairance, comme le volume de distribution, a été observée. Une approche mécanistique a donc été élaborée, postulant que seule la concentration libre subissait une élimination du premier ordre. Cette approche a permis de déterminer une clairance libre moyenne (CLlibre) de 13101/h et un volume de distribution (Vd) de 301 l. Par comparaison, la clairance totale était de 141/h (c.à.d. 233 ml/min). La CLlibre est affectée par le poids corporel et le type de pathologie. La variabilité interindividuelle estimée pour le devenir de l'imatinib (17% sur CLlibre et 66% sur Vd) diminuait globalement de moitié avec le modèle incorporant l'impact de l'AAG. De plus, une certaine association entre les paramètres PK de la concentration d'imatinib libre et l'efficacité et la toxicité a été observée. Finalement, l'influence fonctionnelle de l'activité de la P-gp a été démontrée in nitro dans des cultures cellulaires. Ces divers éléments constituent des arguments pour étudier davantage l'utilité potentielle d'un programme de TDM appliqué à l'imatinib. Un tel suivi pourrait aider à l'individualisation des régimes posologiques avant la progression manifeste de la maladie ou l'apparition de toxicité, améliorant tant l'efficacité que la tolérabilité de ce médicament. Résumé large public L'imatinib (un médicament commercialisé sous le nom de Glivec ®) a révolutionné le traitement et le pronostic de deux types de cancers, l'un d'origine sanguine (leucémie) et l'autre d'origine digestive. Il s'agit toutefois d'un traitement non dénué d'inconvénients et de toxicité, et qui doit être pris indéfiniment. De plus, des résistances ou des échappements au traitement sont également rencontrés. Le devenir de ce médicament dans le corps humain (dont l'étude relève de la discipline appelée pharmacocinétique) dépend de systèmes connus pour présenter de grandes différences entre les individus, et l'on peut s'attendre à ce que l'exposition à ce médicament varie largement d'un patient à l'autre. Parmi ces systèmes, l'un est responsable de la dégradation du médicament dans le foie (métabolisme), l'autre de l'expulsion du médicament hors des cellules cibles, alors que le dernier consiste en une protéine (dénommée AAG) qui transporte l'imatinib dans le sang. L'objectif de notre étude a été de déterminer l'influence de ces différents systèmes sur le comportement pharmacocinétique de l'imatinib chez les patients, et d'étudier dans quelle mesure le devenir de ce médicament dans l'organisme variait d'un patient à l'autre. Enfin, cette étude avait pour but d'évaluer à quel point la surveillance des concentrations d'imatinib présentes dans le sang pourrait améliorer le traitement des patients cancéreux. Une telle surveillance permet en fait de connaître l'exposition effective de l'organisme au médicament (concept abrégé par le terme anglais TDM, pour Therapeutic Drag Monitoring. Ce projet de recherche a d'abord nécessité la mise au point d'une méthode d'analyse pour la mesure des quantités (ou concentrations) d'imatinib présentes dans le sang. Cela nous a permis d'effectuer régulièrement des mesures chez 59 patients. Il nous a ainsi été possible de décrire le devenir du médicament dans le corps à l'aide de modèles mathématiques. Nous avons notamment pu déterminer chez ces patients la vitesse à laquelle l'imatinib est éliminé du sang et l'étendue de sa distribution dans l'organisme. Nous avons également observé chez les patients que les concentrations sanguines d'imatinib étaient très variables d'un individu à l'autre pour une même dose de médicament ingérée. Nous avons pu aussi mettre en évidence que les concentrations de la protéine AAG, sur laquelle l'imatinib se lie dans le sang, avait une grande influence sur la vitesse à laquelle le médicament est éliminé de l'organisme. Ensuite, en tenant compte des concentrations sanguines d'imatinib et de cette protéine, nous avons également pu calculer les quantités de médicament non liées à cette protéine (= libres), qui sont seules susceptibles d'avoir une activité anticancéreuse. Enfin, il a été possible d'établir qu'il existait une certaine relation entre ces concentrations, l'effet thérapeutique et la toxicité du traitement. Tous ces éléments constituent des arguments pour approfondir encore l'étude de l'utilité d'un programme de TDM appliqué à l'imatinib. Comme chaque patient est différent, un tel suivi pourrait aider à l'ajustement des doses du médicament avant la progression manifeste de la maladie ou l'apparition de toxicité, améliorant ainsi tant son efficacité que son innocuité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte & Objectifs: La vancomycine (VCM) est un antibiotique utilisé pour le traitement de certaines infections sévères. C'est un candidat idéal pour le suivi thérapeutique (TDM) car il possède une forte variabilité inter-individuelle, une marge thérapeutique étroite et une relation concentration-efficacité et -toxicité établie. L'objectif de ce travail est de quantifier la variabilité inter-individuelle des concentrations et les facteurs qui l'influencent, et d'évaluer l'adéquation des posologies pour viser les cibles thérapeutiques. Méthodes: Les données ont été récoltées dans le cadre du TDM réalisé en routine au Centre Hospitalier Universitaire Vaudois. Les données pharmacocinétiques ont été analysées par régression linéaire à effet mixte (NONMEM®). Les variables d'intérêt étaient: le sexe, l'âge, le poids, la clairance à la créatinine (CLCRT) et les co-médications. Des simulations ont été réalisées à partir du modèle final afin de déterminer le pourcentage de patients en-dehors des intervalles de concentrations cibles (10-20 mg/L), et toxiques (>30 mg/L) avant et après adaptation posologique de VCM selon la fonction rénale. Résultats: 705 concentrations de VCM ont été mesurées chez 191 patients. Un modèle monocompartimental incluant une variabilité inter-individuelle sur la clairance (CL) et le volume de distribution (Vd) décrit au mieux les données. La CLCRT et la co-administration de diurétiques influencent significativement la CL, et le Vd augmente proportionnellement avec le poids. Ces covariables expliquent 50% et 27% de la variabilité, respectivement. Les simulations ont montré que pour les stades de maladie rénale 3 et 4 le pourcentage de patients en-dehors des cibles est de 51% et 45% et diminue respectivement à 40% et 37% après adaptation posologique. De plus, 15% et 8% des patients avec insuffisance rénale de stade 3 et 4 présentent des concentrations >30 mg/L, seuil qui s'abaisse environs à 5% après adaptation posologique. Discussion: L'importante variabilité des concentrations de VCM est en grande partie expliquée par la CLCRT, la co-administration de diurétiques et le poids. L'administration des posologies recommandées pour les patients avec une maladie rénale de stades 3 et 4 pourrait exposer un nombre significatif de patients à des concentrations en dehors des cibles thérapeutiques, mais paraît corrigées par une adaptation posologique basée sur le TDM.