37 resultados para Logiciel
Resumo:
RESUME Les améliorations méthodologiques des dernières décennies ont permis une meilleure compréhension de la motilité gastro-intestinale. Il manque toutefois une méthode qui permette de suivre la progression du chyme le long du tube gastro-intestinal. Pour permettre l'étude de la motilité de tout le tractus digestif humain, une nouvelle technique, peu invasive, a été élaborée au Département de Physiologie, en collaboration avec l'EPFL. Appelée "Magnet Tracking", la technique est basée sur la détection du champ magnétique généré par des matériaux ferromagnétiques avalés. A cet usage, une pilule magnétique, une matrice de capteurs et un logiciel ont été développés. L'objet de ce travail est de démontrer la faisabilité d'un examen de la motilité gastro-intestinale chez l'Homme par cette méthode. L'aimant est un cylindre (ø 6x7 mm, 0.2 cm3) protégé par une gaine de silicone. Le système de mesure est constitué d'une matrice de 4x4 capteurs et d'un ordinateur portable. Les capteurs fonctionnent sur l'effet Hall. Grâce à l'interface informatique, l'évolution de la position de l'aimant est suivie en temps réel à travers tout le tractus digestif. Sa position est exprimée en fonction du temps ou reproduite en 3-D sous forme d'une trajectoire. Différents programmes ont été crées pour analyser la dynamique des mouvements de l'aimant et caractériser la motilité digestive. Dix jeunes volontaires en bonne santé ont participé à l'étude. L'aimant a été avalé après une nuit de jeûne et son séjour intra digestif suivi pendant 2 jours consécutifs. Le temps moyen de mesure était de 34 heures. Chaque sujet a été examiné une fois sauf un qui a répété sept fois l'expérience. Les sujets restaient en décubitus dorsal, tranquilles et pouvaient interrompre la mesure s'ils le désiraient. Ils sont restés à jeûne le premier jour. L'évacuation de l'aimant a été contrôlée chez tous les sujets. Tous les sujets ont bien supporté l'examen. Le marqueur a pu être détecté de l'oesophage au rectum. La trajectoire ainsi constituée représente une conformation de l'anatomie digestive : une bonne superposition de celle-ci à l'anatomie est obtenue à partir des images de radiologie conventionnelle (CT-scan, lavement à la gastrografine). Les mouvements de l'aimant ont été caractérisés selon leur périodicité, leur amplitude ou leur vitesse pour chaque segment du tractus digestif. Ces informations physiologiques sont bien corrélées à celles obtenues par des méthodes établies d'étude de la motilité gastro-intestinale. Ce travail démontre la faisabilité d'un examen de la motilité gastro-intestinal chez l'Homme par la méthode de Magnet Tracking. La technique fournit les données anatomiques et permet d'analyser en temps réel la dynamique des mouvements du tube digestif. Cette méthode peu invasive ouvre d'intéressantes perspectives pour l'étude de motilité dans des conditions physiologiques et pathologiques. Des expériences visant à valider cette approche en tant que méthode clinique sont en voie de réalisation dans plusieurs centres en Suisse et à l'étranger. SUMMARY Methodological improvements realised over the last decades have permitted a better understanding of gastrointestinal motility. Nevertheless, a method allowing a continuous following of lumina' contents is still lacking. In order to study the human digestive tract motility, a new minimally invasive technique was developed at the Department of Physiology in collaboration with Swiss Federal Institute of Technology. The method is based on the detection of magnetic field generated by swallowed ferromagnetic materials. The aim of our work was to demonstrate the feasibility of this new approach to study the human gastrointestinal motility. The magnet used was a cylinder (ø6x7mm, 0.2 cm3) coated with silicon. The magnet tracking system consisted of a 4x4 matrix of sensors based on the Hall effect Signals from the sensors were digitised and sent to a laptop computer for processing and storage. Specific software was conceived to analyse in real time the progression of the magnet through the gastrointestinal tube. Ten young and healthy volunteers were enrolled in the study. After a fasting period of 12 hours, they swallowed the magnet. The pill was then tracked for two consecutive days for 34 hours on average. Each subject was studied once except one who was studied seven times. Every subject laid on his back for the entire experiment but could interrupt it at anytime. Evacuation of the magnet was controlled in all subjects. The examination was well tolerated. The pill could be followed from the esophagus to the rectum. The trajectory of the magnet represented a "mould" of the anatomy of the digestive tube: a good superimposition with radiological anatomy (gastrografin contrast and CT) was obtained. Movements of the magnet were characterized by periodicity, velocity, and amplitude of displacements for every segment of the digestive tract. The physiological information corresponded well to data from current methods of studying gastrointestinal motility. This work demonstrates the feasibility of the new approach in studies of human gastrointestinal motility. The technique allows to correlate in real time the dynamics of digestive movements with the anatomical data. This minimally invasive method is ready for studies of human gastrointestinal motility under physiological as well as pathological conditions. Studies aiming at validation of this new approach as a clinically relevant tool are being realised in several centres in Switzerland and abroad. Abstract: A new minimally invasive technique allowing for anatomical mapping and motility studies along the entire human digestive system is presented. The technique is based on continuous tracking of a small magnet progressing through the digestive tract. The coordinates of the magnet are calculated from signals recorded by 16 magnetic field sensors located over the abdomen. The magnet position, orientation and trajectory are displayed in real time. Ten young healthy volunteers were followed during 34 h. The technique was well tolerated and no complication was encountered, The information obtained was 3-D con-figuration of the digestive tract and dynamics of the magnet displacement (velocity, transit time, length estimation, rhythms). In the same individual, repea-ted examination gave very reproducible results. The anatomical and physiological information obtained corresponded well to data from current methods and imaging. This simple, minimally invasive technique permits examination of the entire digestive tract and is suitable for both research and clinical studies. In combination with other methods, it may represent a useful tool for studies of Cl motility with respect to normal and pathological conditions.
Resumo:
Dans une étude précédente, nous avons démontré qu'un soutieninformatique rappelant les Recommandations de Pratiques Cliniques(RPC) améliore la gestion de la douleur aiguë aux urgences à moyenterme (JEUR 2009;22:A88). Par contre, son acceptation par lessoignants et son impact sur leurs connaissances des RPC sontinconnus. But de l'étude: mesurer l'impact du logiciel en termesd'acceptation et connaissance des RPC par l'équipe soignante.Méthode: analyse de 2 questionnaires remplis par les médecins etinfirmiers: le 1er administré en pré-, post-déploiement et 6 mois plustard (phases P1, P2 et P3) qui a évalué: a) l'appréciation subjective desconnaissances des RPC par échelle de Lickert à 5 niveaux; b) lesconnaissances objectives des RPC à l'aide de 7 questions théoriques(score max. 7 points); le 2ème administré en P2 et P3, l'utilité perçue dulogiciel (échelle à 4 niveaux). Analyses statistiques par test de chi2outest exact de Fisher; p bilatéral <0.05 significatif. Résultats: la proportiondes soignants estimant avoir une bonne connaissance des RPC apassé de 48% (45/94) en P1, à 73% (83/114) puis 84% (104/124) en P2et P3, respectivement (p <0.0001). Score des connaissances: cftableau. Entre P2 et P3, l'appréciation globale de l'utilité du logiciel s'estaméliorée: la proportion des avis favorables a passé de 59% (47/79) à82% (96/117) (p = 0.001). Conclusion: ce logiciel a été bien accepté et apermis une amélioration significative des connaissances des RPC parles soignants.
Resumo:
TEXTABLE est un nouvel outil open source de programmation visuelle pour l'analyse de données textuelles. Les implications de la conception de ce logiciel du point de vue de l'interopérabilité et de la flexibilité sont abordées, ainsi que la question que son adéquation pour un usage pédagogique. Une brève introduction aux principes de la programmation visuelle pour l'analyse de données textuelles est également proposée.
Resumo:
L'article présente les étapes de la mise en place d'une veille bibliographique (ou veille scientifique) thématique effectuée conjointement depuis 2005 par 4 institutions francophones du domaine de la santé au travail : l'INRS (France), l'IRSST (Québec), l'IST (Suisse) et l'UCL (Belgique).La thématique suivie est celle de la surveillance biologique de l'exposition aux produits chimiques en milieu de travail. Les données recueillies et mises en forme par les documentalistes servent aux chercheurs spécialistes du sujet non seulement pour suivre les nouveautés du domaine, mais aussi pour documenter des cours et mettre à jour des guides de surveillance biologique. Les différentes étapes de l'approche méthodologique du projet sont décrites : le choix des bases de données à interroger et la mise au point de la stratégie de recherche, la mise en place d'une procédure de partage des tâches pour toutes les étapes du processus de veille qui se répètent à chaque mise à jour (interrogation, création de bases de données avec le logiciel Reference Manager, mise en forme et indexation des références, création et mise à disposition des partenaires des bases de données consolidées au fil du temps avec tous les articles analysés), les moyens administratifs, humains et techniques d'échange de fichiers et les essais pour élargir la veille à la surveillance de pages Web sélectionnées.Un bilan chiffré des six années de la veille est également donné.L'information récoltée et analysée durant les deux dernières années par les partenaires du projet fera l'objet d'un second article axé sur les principales tendances de la thématique choisie.
Resumo:
A mobile ad hoc network (MANET) is a decentralized and infrastructure-less network. This thesis aims to provide support at the system-level for developers of applications or protocols in such networks. To do this, we propose contributions in both the algorithmic realm and in the practical realm. In the algorithmic realm, we contribute to the field by proposing different context-aware broadcast and multicast algorithms in MANETs, namely six-shot broadcast, six-shot multicast, PLAN-B and ageneric algorithmic approach to optimize the power consumption of existing algorithms. For each algorithm we propose, we compare it to existing algorithms that are either probabilistic or context-aware, and then we evaluate their performance based on simulations. We demonstrate that in some cases, context-aware information, such as location or signal-strength, can improve the effciency. In the practical realm, we propose a testbed framework, namely ManetLab, to implement and to deploy MANET-specific protocols, and to evaluate their performance. This testbed framework aims to increase the accuracy of performance evaluation compared to simulations, while keeping the ease of use offered by the simulators to reproduce a performance evaluation. By evaluating the performance of different probabilistic algorithms with ManetLab, we observe that both simulations and testbeds should be used in a complementary way. In addition to the above original contributions, we also provide two surveys about system-level support for ad hoc communications in order to establish a state of the art. The first is about existing broadcast algorithms and the second is about existing middleware solutions and the way they deal with privacy and especially with location privacy. - Un réseau mobile ad hoc (MANET) est un réseau avec une architecture décentralisée et sans infrastructure. Cette thèse vise à fournir un support adéquat, au niveau système, aux développeurs d'applications ou de protocoles dans de tels réseaux. Dans ce but, nous proposons des contributions à la fois dans le domaine de l'algorithmique et dans celui de la pratique. Nous contribuons au domaine algorithmique en proposant différents algorithmes de diffusion dans les MANETs, algorithmes qui sont sensibles au contexte, à savoir six-shot broadcast,six-shot multicast, PLAN-B ainsi qu'une approche générique permettant d'optimiser la consommation d'énergie de ces algorithmes. Pour chaque algorithme que nous proposons, nous le comparons à des algorithmes existants qui sont soit probabilistes, soit sensibles au contexte, puis nous évaluons leurs performances sur la base de simulations. Nous montrons que, dans certains cas, des informations liées au contexte, telles que la localisation ou l'intensité du signal, peuvent améliorer l'efficience de ces algorithmes. Sur le plan pratique, nous proposons une plateforme logicielle pour la création de bancs d'essai, intitulé ManetLab, permettant d'implémenter, et de déployer des protocoles spécifiques aux MANETs, de sorte à évaluer leur performance. Cet outil logiciel vise à accroître la précision desévaluations de performance comparativement à celles fournies par des simulations, tout en conservant la facilité d'utilisation offerte par les simulateurs pour reproduire uneévaluation de performance. En évaluant les performances de différents algorithmes probabilistes avec ManetLab, nous observons que simulateurs et bancs d'essai doivent être utilisés de manière complémentaire. En plus de ces contributions principales, nous fournissons également deux états de l'art au sujet du support nécessaire pour les communications ad hoc. Le premier porte sur les algorithmes de diffusion existants et le second sur les solutions de type middleware existantes et la façon dont elles traitent de la confidentialité, en particulier celle de la localisation.
Resumo:
Introduction: Suite à la canicule de 2003, l'importance pour la santé publique des vagues de chaleur avait été mise en évidence. Cependant, les aspects se rapportant aux médicaments avaient été peu abordés, avant d'être davantage considérés mi-2004, notamment dans le «Plan canicule» français. La Pharmacie de l'ICHV s'est donc efforcée, au printemps 2004, de définir ses propres lignes d'action pour adapter son organisation et ses services. Objectifs: Définir au niveau des services pharmaceutiques, en particulier cliniques, des recommandations pratiques et proposer des moyens de mise en oeuvre. Méthode: Une recherche de littérature a été effectuée et a permis d'identifier les variables à prendre en compte. Basée sur celles-ci, une analyse ponctuelle (sur une journée) a été conduite à l'aide du dossier patient informatisé Phoenix® pour estimer la fréquence d'utilisation des médicaments à problème auprès d'une population considérée comme étant à risque (patients > 70 ans d'un service de chirurgie). Dans le domaine logistique, une recherche similaire a été conduite et des analyses à l'aide du logiciel Opale® ont été réalisées. Résultats: Compte tenu de la littérature, différentes variables en relation avec la pharmacothérapie sont à considérer: * Médicaments à risque (altérant la fonction rénale ou empêchant la perte calorique) ou à surveiller (dont la déshydratation influence la pharmacocinétique ou ceux aggravant les effets de la chaleur); * Patients à risque (> 70 ans ou déments); * Situations à risque (chirurgie élective, sortie d'hôpital). L'analyse en chirurgie a montré que 75% des patients étaient traités par des médicaments à risque et que 100% des patients recevaient des médicaments à surveiller. Au plan logistique, notre recherche a permis de définir un certain nombre de produits sensibles. Discussion-conclusion: Malgré les limites de cette analyse ponctuelle, mais compte tenu de la fréquence d'utilisation des médicaments à problème, le pharmacien doit, lors de canicules, pouvoir directement ou indirectement conseiller le prescripteur, p. ex., en: * relevant dans les dossiers, les patients, les situations et les médicaments à risque ou à surveiller et en formulant des propositions de prise en charge; * suivant systématiquement les fonctions rénales de ces patients; * proposant d'instaurer une alarme dans les dossiers informatisés pour aider à déceler les situations à risque. Au niveau de la pharmacie centrale et des pharmacies d'étage, la gestion de stock des produits sensibles requière diverses améliorations. La canicule constitue une problématique complexe et le pharmacien d'hôpital se doit d'y prêter attention dans ses activités. La pharmacie de l'ICHV, sur la base de ces éléments, va préparer un plan d'action à activer dans des conditions à convenir avec la direction et les hôpitaux.
Resumo:
This study aimed to investigate the impact of a communication skills training (CST) in oncology on clinicians' linguistic strategies. A verbal communication analysis software (Logiciel d'Analyse de la Communication Verbale) was used to compare simulated patients interviews with oncology clinicians who participated in CST (N = 57) (pre/post with a 6-month interval) with a control group of oncology clinicians who did not (N = 56) (T1/T2 with a 6-month interval). A significant improvement of linguistic strategies related to biomedical, psychological and social issues was observed. Analysis of linguistic aspects of videotaped interviews might become in the future a part of individualised feedback in CST and utilised as a marker for an evaluation of training.
Resumo:
La planification scanographique (3D) a démontré son utilité pour une reconstruction anatomique plus précise de la hanche (longueur du fémur, centre de rotation, offset, antéversion et rétroversion). Des études ont montré que lors de la planification 2D 50% seulement correspondaient à l'implant définitif du fémur alors que dans une autre étude ce taux s'élevait à 94% pour une planification 3D. Les erreurs étaient liées à l'agrandissement des radiographies. L'erreur sur la taille de la tige est liée à l'estimation inadéquate de la morphologie osseuse ainsi qu'à la densité osseuse. L'erreur de l'antéversion, augmentée par l'inclinaison du bassin, a pu être éliminée par la planification 3D et l'offset restauré dans 98%. Cette étude est basée sur une nouvelle technique de planification scanographique en trois dimensions pour une meilleure précision de la reconstruction de la hanche. Le but de cette étude est de comparer l'anatomie post-opératoire à celle préopératoire en comparant les tailles d'implant prévu lors de la planification 3D à celle réellement utilisée lors de l'opération afin de déterminer l'exactitude de la restauration anatomique avec étude des différents paramètres (centre de rotation, densité osseuse, L'offset fémoral, rotations des implants, longueur du membre) à l'aide du Logiciel HIP-PLAN (Symbios) avec évaluation de la reproductibilité de notre planification 3D dans une série prospective de 50 patients subissant une prothèse totale de hanche non cimentée primaire par voie antérieure. La planification pré-opératoire a été comparée à un CTscan postopératoire par fusion d'images. CONCLUSION ET PRESPECTIVE Les résultats obtenus sont les suivants : La taille de l'implant a été prédit correctement dans 100% des tiges, 94% des cupules et 88% des têtes (longueur). La différence entre le prévu et la longueur de la jambe postopératoire était de 0,3+2,3 mm. Les valeurs de décalage global, antéversion fémorale, inclinaison et antéversion de la cupule étaient 1,4 mm ± 3,1, 0,6 ± 3,3 0 -0,4 0 ± 5 et 6,9 ° ± 11,4, respectivement. Cette planification permet de prévoir la taille de l'implant précis. Position de la tige et de l'inclinaison de la cupule sont exactement reproductible. La planification scanographique préopératoire 3D permet une évaluation précise de l'anatomie individuelle des patients subissant une prothèse totale de hanche. La prédiction de la taille de l'implant est fiable et la précision du positionnement de la tige est excellente. Toutefois, aucun avantage n'est observée en termes d'orientation de la cupule par rapport aux études impliquant une planification 2D ou la navigation. De plus amples recherches comparant les différentes techniques de planification pré-opératoire à la navigation sont nécessaire.
Resumo:
Problématique¦L'évaluation fonctionnelle du tubule proximal du rein est intéressante pour la compréhension de la physiopathologie des anomalies du transport du sodium à ce niveau du néphron. Ces anomalies participent au développement de l'hypertension artérielle (HTA) et de la sensibilité au sel. Environ 60% à 80% du sodium est réabsorbé proximalement dans le néphron. Chez l'animal, la fonction du tube proximal peut être estimée directement par microponction. Une telle approche directe n'étant pas possible chez l'homme, seul des approches indirectes permettent de recueillir des informations sur la physiologie de ce segment du néphron, comme par exemple par la mesure de la clairance du lithium (endogène ou exogène) ou de l'acide urique. La fraction d'excrétion du lithium (FELi) et la fraction d'excrétion de l'acide urique (FEAU) permettent d'estimer la réabsorption proximale de sodium chez l'homme. Plusieurs études expérimentales et cliniques ont montré l'existence d'une relation linéaire entre la FELi et la fraction excrétée du sodium (FENa) chez l'animal et l'homme.¦Objectif¦Décrire la distribution de la FELi et de la FEAU et analyser les associations de ces deux variables avec l'âge, le sexe, la consommation d'alcool, le tabagisme, la pression artérielle et l'IMC dans l'étude de population Hercules.¦Méthodes¦Sélection au hasard d'un sous-groupe de participants de l'étude CoLaus (N=6188). Nombre de participants à l'étude Hercules: 437, dont 229 femmes et 208 hommes. Les participants ont effectué une récolte d'urine sur 24 heures afin de déterminer la fonction rénale et les FELi et FEAU. Le TFG a été mesuré à l'aide de la clairance de la créatinine. Le test des rangs signés de Wilcoxon pour données appariées ( Wilcoxon matched-pairs signed rank test) et le test de comparaison des médianes ont été utilisés pour la comparaison entre groupes. Le coefficient de corrélation de Spearman a été utilisé pour évaluer la relation entre les variables continues. Les box-plots ont été utilisés pour la description de la distribution du lithium et de l'acide urique selon l'âge, le sexe et la période de la journée. Le logiciel Stata 11.0 a été utilisé pour les analyses statistiques.¦Résultats¦La prévalence de l'HTA dans la population de l'étude Hercules était 33%, la prévalence du diabète était 8%, la prévalence de l'obésité était 15.3%, la prévalence du tabagisme était 23%. La FELi reste stable avec l'âge et est similaire dans les deux sexes. Chez les hommes, la FELi est plus grande la nuit que le jour, c'est-à-dire qu'ils résorbent plus de sodium proximalement le jour que la nuit. Un IMC plus grand est associé à une FELi plus basse dans les deux sexes. Il y a une corrélation négative entre la FEAU et l'IMC (significative) et la consommation d'alcool.¦Conclusion¦Les résultats obtenus avec les données de l'étude Hercules sont similaires à ceux qu'on retrouve dans la littérature sur la FELi et la FEAU , ce qui rassure sur la qualité des données. La FELi varie peu avec l'âge et le sexe, contrairement à la FEAU, qui varie fortement avec l'âge et le sexe. L'HTA, le diabète, l'obésité, le tabagisme et la consommation d'alcool sont associées à une FELi et FEAU plus basses. Les sujets qui présentent ces caractéristiques réabsorbent donc plus de sodium au niveau proximal.
Resumo:
Résumé La thématique de cette thèse peut être résumée par le célèbre paradoxe de biologie évolutive sur le maintien du polymorphisme face à la sélection et par l'équation du changement de fréquence gamétique au cours du temps dû, à la sélection. La fréquence d'un gamète xi à la génération (t + 1) est: !!!Equation tronquée!!! Cette équation est utilisée pour générer des données utlisée tout au long de ce travail pour 2, 3 et 4 locus dialléliques. Le potentiel de l'avantage de l'hétérozygote pour le maintien du polymorphisme est le sujet de la première partie. La définition commune de l'avantage de l'hétérozygote n'etant applicable qu'a un locus ayant 2 allèles, cet avantage est redéfini pour un système multilocus sur les bases de précédentes études. En utilisant 5 définitions différentes de l'avantage de l'hétérozygote, je montre que cet avantage ne peut être un mécanisme général dans le maintien du polymorphisme sous sélection. L'étude de l'influence de locus non-détectés sur les processus évolutifs, seconde partie de cette thèse, est motivée par les travaux moléculaires ayant pour but de découvrir le nombre de locus codant pour un trait. La plupart de ces études sous-estiment le nombre de locus. Je montre que des locus non-détectés augmentent la probabilité d'observer du polymorphisme sous sélection. De plus, les conclusions sur les facteurs de maintien du polymorphisme peuvent être trompeuses si tous les locus ne sont pas détectés. Dans la troisième partie, je m'intéresse à la valeur attendue de variance additive après un goulot d'étranglement pour des traits sélectionés. Une études précédente montre que le niveau de variance additive après goulot d'étranglement augmente avec le nombre de loci. Je montre que le niveau de variance additive après un goulot d'étranglement augmente (comparé à des traits neutres), mais indépendamment du nombre de loci. Par contre, le taux de recombinaison a une forte influence, entre autre en regénérant les gamètes disparus suite au goulot d'étranglement. La dernière partie de ce travail de thèse décrit un programme pour le logiciel de statistique R. Ce programme permet d'itérer l'équation ci-dessus en variant les paramètres de sélection, recombinaison et de taille de populations pour 2, 3 et 4 locus dialléliques. Cette thèse montre qu'utiliser un système multilocus permet d'obtenir des résultats non-conformes à ceux issus de systèmes rnonolocus (la référence en génétique des populations). Ce programme ouvre donc d'intéressantes perspectives en génétique des populations. Abstract The subject of this PhD thesis can be summarized by one famous paradox of evolu-tionary biology: the maintenance of polymorphism in the face of selection, and one classical equation of theoretical population genetics: the changes in gametic frequencies due to selection and recombination. The frequency of gamete xi at generation (t + 1) is given by: !!! Truncated equation!!! This equation is used to generate data on selection at two, three, and four diallelic loci for the different parts of this work. The first part focuses on the potential of heterozygote advantage to maintain genetic polymorphism. Results of previous studies are used to (re)define heterozygote advantage for multilocus systems, since the classical definition is for one diallelic locus. I use 5 different definitions of heterozygote advantage. And for these five definitions, I show that heterozygote advantage is not a general mechanism for the maintenance of polymorphism. The study of the influence of undetected loci on evolutionary processes (second part of this work) is motivated by molecular works which aim at discovering the loci coding for a trait. For most of these works, some coding loci remains undetected. I show that undetected loci increases the probability of maintaining polymorphism under selection. In addition, conclusions about the factor that maintain polymorphism can be misleading if not all loci are considered. This is, therefore, only when all loci are detected that exact conclusions on the level of maintained polymorphism or on the factor(s) that maintain(s) polymorphism could be drawn. In the third part, the focus is on the expected release of additive genetic variance after bottleneck for selected traits. A previous study shows that the expected release of additive variance increases with an increase in the number of loci. I show that the expected release of additive variance after bottleneck increases for selected traits (compared with neutral), but this increase is not a function of the number of loci, but function of the recombination rate. Finally, the last part of this PhD thesis is a description of a package for the statistical software R that implements the Equation given above. It allows to generate data for different scenario regarding selection, recombination, and population size. This package opens perspectives for the theoretical population genetics that mainly focuses on one locus, while this work shows that increasing the number of loci leads not necessarily to straightforward results.
Resumo:
3 Summary 3. 1 English The pharmaceutical industry has been facing several challenges during the last years, and the optimization of their drug discovery pipeline is believed to be the only viable solution. High-throughput techniques do participate actively to this optimization, especially when complemented by computational approaches aiming at rationalizing the enormous amount of information that they can produce. In siiico techniques, such as virtual screening or rational drug design, are now routinely used to guide drug discovery. Both heavily rely on the prediction of the molecular interaction (docking) occurring between drug-like molecules and a therapeutically relevant target. Several softwares are available to this end, but despite the very promising picture drawn in most benchmarks, they still hold several hidden weaknesses. As pointed out in several recent reviews, the docking problem is far from being solved, and there is now a need for methods able to identify binding modes with a high accuracy, which is essential to reliably compute the binding free energy of the ligand. This quantity is directly linked to its affinity and can be related to its biological activity. Accurate docking algorithms are thus critical for both the discovery and the rational optimization of new drugs. In this thesis, a new docking software aiming at this goal is presented, EADock. It uses a hybrid evolutionary algorithm with two fitness functions, in combination with a sophisticated management of the diversity. EADock is interfaced with .the CHARMM package for energy calculations and coordinate handling. A validation was carried out on 37 crystallized protein-ligand complexes featuring 11 different proteins. The search space was defined as a sphere of 15 R around the center of mass of the ligand position in the crystal structure, and conversely to other benchmarks, our algorithms was fed with optimized ligand positions up to 10 A root mean square deviation 2MSD) from the crystal structure. This validation illustrates the efficiency of our sampling heuristic, as correct binding modes, defined by a RMSD to the crystal structure lower than 2 A, were identified and ranked first for 68% of the complexes. The success rate increases to 78% when considering the five best-ranked clusters, and 92% when all clusters present in the last generation are taken into account. Most failures in this benchmark could be explained by the presence of crystal contacts in the experimental structure. EADock has been used to understand molecular interactions involved in the regulation of the Na,K ATPase, and in the activation of the nuclear hormone peroxisome proliferatoractivated receptors a (PPARa). It also helped to understand the action of common pollutants (phthalates) on PPARy, and the impact of biotransformations of the anticancer drug Imatinib (Gleevec®) on its binding mode to the Bcr-Abl tyrosine kinase. Finally, a fragment-based rational drug design approach using EADock was developed, and led to the successful design of new peptidic ligands for the a5ß1 integrin, and for the human PPARa. In both cases, the designed peptides presented activities comparable to that of well-established ligands such as the anticancer drug Cilengitide and Wy14,643, respectively. 3.2 French Les récentes difficultés de l'industrie pharmaceutique ne semblent pouvoir se résoudre que par l'optimisation de leur processus de développement de médicaments. Cette dernière implique de plus en plus. de techniques dites "haut-débit", particulièrement efficaces lorsqu'elles sont couplées aux outils informatiques permettant de gérer la masse de données produite. Désormais, les approches in silico telles que le criblage virtuel ou la conception rationnelle de nouvelles molécules sont utilisées couramment. Toutes deux reposent sur la capacité à prédire les détails de l'interaction moléculaire entre une molécule ressemblant à un principe actif (PA) et une protéine cible ayant un intérêt thérapeutique. Les comparatifs de logiciels s'attaquant à cette prédiction sont flatteurs, mais plusieurs problèmes subsistent. La littérature récente tend à remettre en cause leur fiabilité, affirmant l'émergence .d'un besoin pour des approches plus précises du mode d'interaction. Cette précision est essentielle au calcul de l'énergie libre de liaison, qui est directement liée à l'affinité du PA potentiel pour la protéine cible, et indirectement liée à son activité biologique. Une prédiction précise est d'une importance toute particulière pour la découverte et l'optimisation de nouvelles molécules actives. Cette thèse présente un nouveau logiciel, EADock, mettant en avant une telle précision. Cet algorithme évolutionnaire hybride utilise deux pressions de sélections, combinées à une gestion de la diversité sophistiquée. EADock repose sur CHARMM pour les calculs d'énergie et la gestion des coordonnées atomiques. Sa validation a été effectuée sur 37 complexes protéine-ligand cristallisés, incluant 11 protéines différentes. L'espace de recherche a été étendu à une sphère de 151 de rayon autour du centre de masse du ligand cristallisé, et contrairement aux comparatifs habituels, l'algorithme est parti de solutions optimisées présentant un RMSD jusqu'à 10 R par rapport à la structure cristalline. Cette validation a permis de mettre en évidence l'efficacité de notre heuristique de recherche car des modes d'interactions présentant un RMSD inférieur à 2 R par rapport à la structure cristalline ont été classés premier pour 68% des complexes. Lorsque les cinq meilleures solutions sont prises en compte, le taux de succès grimpe à 78%, et 92% lorsque la totalité de la dernière génération est prise en compte. La plupart des erreurs de prédiction sont imputables à la présence de contacts cristallins. Depuis, EADock a été utilisé pour comprendre les mécanismes moléculaires impliqués dans la régulation de la Na,K ATPase et dans l'activation du peroxisome proliferatoractivated receptor a (PPARa). Il a également permis de décrire l'interaction de polluants couramment rencontrés sur PPARy, ainsi que l'influence de la métabolisation de l'Imatinib (PA anticancéreux) sur la fixation à la kinase Bcr-Abl. Une approche basée sur la prédiction des interactions de fragments moléculaires avec protéine cible est également proposée. Elle a permis la découverte de nouveaux ligands peptidiques de PPARa et de l'intégrine a5ß1. Dans les deux cas, l'activité de ces nouveaux peptides est comparable à celles de ligands bien établis, comme le Wy14,643 pour le premier, et le Cilengitide (PA anticancéreux) pour la seconde.
Resumo:
Résumé sous forme de thèses 1. La présente thèse de doctorat traite de la problématique des licences obligatoires en droit communautaire de la concurrence. Plus précisément, il s'agit d'examiner si et sous quelles conditions le refus de licencier un droit de propriété intellectuelle par une entreprise peut constituer un abus d'une position dominante selon l'article 82 du Traité CE. L'étude fait notamment référence aux marchés de haute technologie et ici à la décision Microsoft, qui a été publiée par la Commission européenne en mars 2004 et qui porte, dans sa deuxième partie, sur la possibilité de rendre interopérables différents composants, via des informations appelées interfaces. 2. La question d'une licence obligatoire ne se pose que si l'information recherchée est protégée par un droit de propriété intellectuelle et si cette information ne peut être obtenue par d'autres moyens. C'est pourquoi la première partie de l'étude examine deux sujets importants concernant l'interopérabilité: d'une part la méthode de décompilation permet-elle d'obtenir des interfaces de logiciel, d'autre part, les interfaces sont-elles protégées par le droit d'auteur. 3. En ce qui concerne la décompilation des programmes d'ordinateur, l'étude démontre que cette méthode ne permet pas de rendre interopérables différents programmes d'ordinateur de manière efficace. Le droit européen a légalisé cette méthode, après des débats publics très vifs, par l'article 6 de la directive concernant la protection juridique des programmes d'ordinateur (91/250/CEE). Il semble néanmoins que la lutte pour un tel droit de décompilation a été vaine :Tout d'abord, l'article 6 est rédigé d'une façon très complexe et autorise une décompilation seulement selon des conditions très restrictives. En plus, la décompilation en elle-même est un travail très complexe qui peut durer des années et qui ne garantit pas de trouver les informations recherchées. 4. En outre, une réglementation de décompilation n'existe jusqu'à présent que dans le domaine du droit d'auteur, tandis qu'une règlementation pour la protection juridique des brevets fait défaut. La question concernant la protection juridique des brevets pour les inventions mises en rouvre par ordinateur restera aussi dans le futur sans réponse, étant donné que le Parlement européen a rejeté une telle proposition de directive en juillet 2005. Ceci est regrettable, parce que la proposition de directive prévoyait explicitement un droit de décompilation. La Commission européenne projette, cependant, de réexaminer les dispositions de décompilation relatives au droit d'auteur. Dans ce contexte, il devrait notamment être examiné si les dispositions de décompilation de l'article 6 de la directive des programmes d'ordinateur sont satisfaisantes afin de garantir une (certaine) interopérabilité. 5. Un réexamen de la directive concernant la protection juridique des programmes d'ordinateur pourrait aussi servir à clarifier l'existence et l'étendue de la protection d'interfaces. L'article 1, paragraphe 2, 2ième phrase se réfère dans ce contexte uniquement à un principe reconnu en droit international du droit d'auteur, dénommé «dichotomie d'idée/d'expression» : seul l'expression individuelle est protégée, mais pas l'idée en tant que telle. La rédaction de l'article devrait ainsi préciser qu'une spécification d'une interface constitue toujours une idée, qui ne peut pas être protégée, alors que l'implémentation de l'interface dans un programme d'ordinateur représente son expression et devrait ainsi bénéficier d'une protection selon le droit d'auteur. Or, dans la plupart des cas, la spécification d'une interface est suffisante pour rendre interopérables différents programmes d'ordinateur. 6. La Commission dans sa décision Microsoft a pourtant supposé que les interfaces recherchées par les concurrents de Microsoft pouvaient être protégées par des droits de propriété intellectuelle. En effet, le seul moyen à disposition pour ceux qui veulent rendre interopérables leur programme d'ordinateur et avec celui d'une entreprise dominante est le recours à l'article 82 CE. Ici, la question qui se pose est celle de savoir si le refus de fournir des interfaces constitue un abus d'une position dominante et donc mène à l'octroi d'une licence obligatoire. 7. Dans le contexte des licences obligatoires selon l'article 82 CE, il est courant d'invoquer la relation de conflit entre la propriété intellectuelle et le droit de la concurrence. Or, l'étude démontre que ces deux institutions de droit poursuivent le même but, à savoir l'encouragement au bien-être des consommateurs en stimulant l'innovation. Les objectifs convergent notamment si on définit la concurrence plutôt en tant que concept dynamique. Par conséquent, des restrictions temporaires à la concurrence peuvent être acceptées, si ceci mène à la création de la concurrence à long terme. Pourtant, des conflits potentiels persistent, étant donné qu'on ne peut pas argumenter que chaque restriction à la concurrence effectuée par le titulaire d'un droit de propriété intellectuelle mène à l'incitation de l'innovation à long terme. 8. En réfutant ce dernier argument, l'étude démontre que les droits de propriété intellectuelle ne peuvent pas être généralement exemptés de l'application du droit de la concurrence. Notamment, selon l'état actuel de la jurisprudence, il ne peut être soutenu qu'il existe un noyau dur spécifique du droit de la propriété intellectuelle, qui ne devrait pas être affecté par le droit de la concurrence. L'ordonnance d'une licence obligatoire peut être justifiée sur la base de l'article 82 CE, dans la mesure où la balance d'intérêts démontre un effet positif au bien-être des consommateurs résultant d'une telle licence. En même temps, les droits individuels du propriétaire d'un droit de propriété intellectuelle sont à respecter, surtout la liberté contractuelle et la protection de la propriété. 9. Le droit de la liberté contractuelle et le droit de la propriété sont atteints, si le propriétaire d'un droit, de nature matérielle ou immatérielle, n'a exercé son droit de propriété que pour lui-même, exclusivement, sans jamais avoir démontré la volonté de s'acquitter de ses droits. C'est donc surtout pour protéger ces deux principes de droit que la présente étude fait une distinction majeure entre le refus de contracter et la rupture d'une relation contractuelle. 10. Le premier cas est traité de manière détaillée sous le chapitre de la doctrine des facilités essentielles (EFD). Selon la position prise ici, cette constellation est caractérisée par l'obligation du propriétaire de contracter et ainsi d'établir des relations d'affaires avec ses concurrents. Or, un principe selon lequel les entreprises en position dominante sont obligées d'encourager la concurrence, n'existe pas en droit communautaire. Il est toutefois nécessaire de pouvoir imposer une telle obligation, notamment dans les cas où la concurrence sur un marché ne peut être mise en oeuvre à long terme par un autre moyen et où cette ouverture du marché n'entraîne pas d'obstacles à l'innovation. 11. La constellation particulière des facilités essentielles exige néanmoins un contrôle plus prudent que dans les cas constituant une rupture de relation d'affaires. Cette exigence a été respectée sur base des conditions que l'arrêt Bronner a établit concernant l'essentialité d'une facilité. Même si l'établissement en question remplit toutes les conditions afin d'être qualifié d'essentiel, l'ordonnance d'un accès obligé doit encore passer l'examen d'une balance d'intérêts. Celle-ci mène encore plus rarement à l'octroi d'une licence dans les cas où la facilité est protégée par un droit de propriété intellectuelle. Des exceptions à cette règle existent si le droit de la propriété intellectuelle n'a pas été obtenu par des moyens basés sur le mérite ou si la fonction d'incitation à l'innovation est en doute. 12. L'affaire IMS Health présente un tel cas exceptionnel. La structure recherchée par les concurrents de IMS remplissait, au moment de l'examen de l'affaire par la Commission européenne, tous les critères d'un standard de facto. En outre, au moment du développement de la structure, celle-ci ne bénéficiait pas d'une protection de droit immatérielle. Une telle protection ne lui a été accordée que depuis la transposition de la directive concernant la protection juridique des bases de données en droit d'auteur allemand. Par conséquent, IMS ne pouvait avoir entrepris des investissements dans la construction de la structure, afin de profiter ultérieurement de la protection du droit d'auteur. Ceci affaiblit la présomption selon laquelle l'utilisation exclusive du droit aurait dû être préservée afin de ne pas faire obstacle à l'innovation. 13. Le cas européen de Microsoft se distingue de cette constellation. Les conditions qui ont mené à la décision de la Commission européenne quant à l'attribution d'interopérabilité et ainsi à une licence obligatoire d'interfaces, ont été présenté de manière détaillée dans cette étude. Elles fournissent les meilleures preuves que les «circonstances exceptionnelles », qui ont été déterminantes dans l'affaire Magill de la Cour de justice, à savoir «l'empêchement de la création d'un nouveau produit », le «manque de justification objective » et «l'empêchement de toute concurrence sur un marché en aval distinct », ne peuvent constituer une énumération exhaustive pour l'ordonnance d'une licence obligatoire. 14. En effet, dans l'affaire Microsoft, l'intersection progressive d'interopérabilité entre les systèmes d'exploitation étrangers à Microsoft et des systèmes d'exploitation de Microsoft n'a pas empêché la création de nouveaux produits. Le marché en question, celui des systèmes d'exploitation pour serveur de groupe de travail, avait été créé par l'entreprise Novell. Par conséquent, quand Microsoft a accédé à ce marché, d'autres entreprises en situation d'offre s'y trouvaient déjà avec leurs produits. Il s'en suit que, en 'exigeant de Microsoft des interfaces correspondantes, il s'agissait d'assurer l'interopérabilité avec les produits de Microsoft, et surtout avec l'omniprésent système d'exploitation pour ordinateur PC, afin de maintenir des produits déjà existants sur le marché, et notamment des produits «pionniers »qui avaient pris le risque d'exploiter le marché des systèmes d'exploitation pour serveur de groupe de travail. 15. Une autre circonstance exceptionnelle que celle d'un nouveau produit empêché donne l'impulsion à la thèse qu'une intersection progressive aux interfaces de Microsoft constitue un abus d'une position dominante selon l'article 82 CE : celle du transfert du pouvoir de marché. L'intégration verticale d'une entreprise en position dominante sur un marché qui n'a jusqu'à ce jour été que fourni par celle-ci, et qui rompt des relations contractuelles avec des entreprises agissant sur ce marché, afin d'évincer de la concurrence, constitue un cas de type connu de l'abus, reconnue pour la première fois dans l'arrêt Commercial Solvents de la CJCE: L'entreprise en position dominante utilise son pouvoir sur un marché initial et stratégiquement important et se sert ainsi des avantages, qui ne peuvent être conciliés avec le concept de concurrence par le mérite. 16. Il doit être de même si le bien en question bénéficie d'un droit immatériel, et qu'il s'agit ainsi d'un arrêt d'une licence. En effet, les fonctions, en principe supposées, d'incitation et de mérite, perdent de leur importance si le bien en question a déjà fait objet d'une licence: Il ne peut pas alors être argumenté que le propriétaire d'un droit immatériel doit l'utiliser exclusivement lui-même, afin de profiter des fruits de son mérite. Cet argument particulier de la prise en compte de l'effet d'incitation et de mérite perd d'autant plus de sa pertinence, si l'entreprise en cause ne fournit pas sur le marché dérivé une innovation, mais ne sert juste qu'à vendre un produit déjà préexistant. 17. Dans le domaine de licence de propriété intellectuelle obligatoire selon l'article 82 CE, les juridictions européennes n'ont jusqu'à présent uniquement eu à décider sur des constellations de cas, dans lesquelles le droit n'avait pas été l'objet d'une licence antérieure. Avec le cas Microsoft, le Tribunal de Première Instance a maintenant la possibilité de décider d'une distinction importante à faire en droit de la concurrence entre, d'une part, les cas dans lesquels un droit de propriété intellectuelle n'a pas encore été l'objet d'une licence et de l'autre, ceux dans lesquels il s'agit d'une rupture de licence.
Resumo:
RAPPORT DE SYNTHESE : Les deux articles présentés dans ce mémoire de thèse sont le résultat de recherches effectuées au sein du Groupe de Recherche sur la Santé des Adolescents, affilié à l'Unité Multidisciplinaire de Santé des Adolescents du Centre Hospitalier Universitaire Vaudois. Les études qui constituent les présents articles ont pour thème commun la santé des adolescents atteints d'affections chroniques, à savoir d'une maladie chronique et/ou d'un handicap physique. Les données qui ont servi à ces deux études sant issues de l'enquête SMASH02 (Swiss Multicenter Adolescent Survey on Health 2002), une étude transversale multicentrique, menée en 2002 dans les écoles post-obligatoires de la majorité des cantons suisses par l'intermédiaire de questionnaires anonymes. 7548 adolescents de 16 à 20 ans ont été recrutés dans cette enquête, qui porte sur de nombreux aspects de la santé et des modes de vie des adolescents. Les analyses des données ont été effectuées à l'aide du logiciel de statistiques STATA 9 et avec l'aide d'un statisticien de l'université de Lausanne. Le premier article, intitulé "Sport Practice Among Adolescents Witte Chrome Health Conditions", est publié en juin 2009 dans la revue Archives of Pediatrics and Adolescent Medicine. Cette étude compare le niveau d'activité sportive entre les adolescents atteints d'affections chroniques et leurs pairs. L'hypothèse de recherche postule que les adolescents malades chroniques et/ou en situation de handicap pratiquent significativement moins de sport que les autres. Il ressort des analyses statistiques que cette hypothèse n'est vérifiée que si l'on considère les adolescents de sexe masculin. En effet, l'étude montre également que les filles de 16 à 20 ans en général pratiquent significativement moins de sport que leurs pairs masculins. Et le fait d'être atteint d'une affection chronique semble ne pas représenter chez elles un facteur,de risque supplémentaire de diminution de la pratique sportive. Dans ce même article, nous traitons également des éléments perçus par les adolescents comme des barrières à la pratique sportive. Il s'avère que les adolescents atteints d'affections chroniques ne perçoivent pas leur maladie ou leur situation de handicap comme la principale raison de leur faible activité sportive. Ils évoquent plus fréquemment un manque de temps libre ou une préférence pour d'autres activités, soit les mêmes barrières que celles évoquées par leurs pairs. Les conclusions de cette étude doivent rappeler aux professionnels de la santé l'importance d'encourager la pratique sportive chez leurs jeunes patients, particulièrement ceux atteints d'affections chroniques ainsi que les adolescentes en général. Dans le second article, intitulé "Are Adolescents With Chronic Conditions Particularly at Risk of Bullying?", il est question de violence entre adolescents. Plus précisément, nous étudions la prévalence de bullying chez les adolescents atteints d'affections chroniques et leurs pairs. Le terme de bullying, volontairement emprunté à l'Anglais, représente un phénomène complexe, que l'on peut approximer en Français comme une victimisation par les pairs en milieu scolaire. Il résulte de cette étude que le fait d'être atteint d'une affection chronique semble être un facteur de risque significatif de bullying chez les adolescents de 16 à 20 ans. Cette conclusion amène à considérer le problème du bullying dans l'intégration des élèves malades chroniques et en situation de handicap dans le système scolaire principal, notamment par la mise en place de mesures de prévention. Cet article est publié en ligne par la revue Archives of Disease in Childhood en mars 2009.
Resumo:
Résumé : La radiothérapie par modulation d'intensité (IMRT) est une technique de traitement qui utilise des faisceaux dont la fluence de rayonnement est modulée. L'IMRT, largement utilisée dans les pays industrialisés, permet d'atteindre une meilleure homogénéité de la dose à l'intérieur du volume cible et de réduire la dose aux organes à risque. Une méthode usuelle pour réaliser pratiquement la modulation des faisceaux est de sommer de petits faisceaux (segments) qui ont la même incidence. Cette technique est appelée IMRT step-and-shoot. Dans le contexte clinique, il est nécessaire de vérifier les plans de traitement des patients avant la première irradiation. Cette question n'est toujours pas résolue de manière satisfaisante. En effet, un calcul indépendant des unités moniteur (représentatif de la pondération des chaque segment) ne peut pas être réalisé pour les traitements IMRT step-and-shoot, car les poids des segments ne sont pas connus à priori, mais calculés au moment de la planification inverse. Par ailleurs, la vérification des plans de traitement par comparaison avec des mesures prend du temps et ne restitue pas la géométrie exacte du traitement. Dans ce travail, une méthode indépendante de calcul des plans de traitement IMRT step-and-shoot est décrite. Cette méthode est basée sur le code Monte Carlo EGSnrc/BEAMnrc, dont la modélisation de la tête de l'accélérateur linéaire a été validée dans une large gamme de situations. Les segments d'un plan de traitement IMRT sont simulés individuellement dans la géométrie exacte du traitement. Ensuite, les distributions de dose sont converties en dose absorbée dans l'eau par unité moniteur. La dose totale du traitement dans chaque élément de volume du patient (voxel) peut être exprimée comme une équation matricielle linéaire des unités moniteur et de la dose par unité moniteur de chacun des faisceaux. La résolution de cette équation est effectuée par l'inversion d'une matrice à l'aide de l'algorithme dit Non-Negative Least Square fit (NNLS). L'ensemble des voxels contenus dans le volume patient ne pouvant être utilisés dans le calcul pour des raisons de limitations informatiques, plusieurs possibilités de sélection ont été testées. Le meilleur choix consiste à utiliser les voxels contenus dans le Volume Cible de Planification (PTV). La méthode proposée dans ce travail a été testée avec huit cas cliniques représentatifs des traitements habituels de radiothérapie. Les unités moniteur obtenues conduisent à des distributions de dose globale cliniquement équivalentes à celles issues du logiciel de planification des traitements. Ainsi, cette méthode indépendante de calcul des unités moniteur pour l'IMRT step-andshootest validée pour une utilisation clinique. Par analogie, il serait possible d'envisager d'appliquer une méthode similaire pour d'autres modalités de traitement comme par exemple la tomothérapie. Abstract : Intensity Modulated RadioTherapy (IMRT) is a treatment technique that uses modulated beam fluence. IMRT is now widespread in more advanced countries, due to its improvement of dose conformation around target volume, and its ability to lower doses to organs at risk in complex clinical cases. One way to carry out beam modulation is to sum smaller beams (beamlets) with the same incidence. This technique is called step-and-shoot IMRT. In a clinical context, it is necessary to verify treatment plans before the first irradiation. IMRT Plan verification is still an issue for this technique. Independent monitor unit calculation (representative of the weight of each beamlet) can indeed not be performed for IMRT step-and-shoot, because beamlet weights are not known a priori, but calculated by inverse planning. Besides, treatment plan verification by comparison with measured data is time consuming and performed in a simple geometry, usually in a cubic water phantom with all machine angles set to zero. In this work, an independent method for monitor unit calculation for step-and-shoot IMRT is described. This method is based on the Monte Carlo code EGSnrc/BEAMnrc. The Monte Carlo model of the head of the linear accelerator is validated by comparison of simulated and measured dose distributions in a large range of situations. The beamlets of an IMRT treatment plan are calculated individually by Monte Carlo, in the exact geometry of the treatment. Then, the dose distributions of the beamlets are converted in absorbed dose to water per monitor unit. The dose of the whole treatment in each volume element (voxel) can be expressed through a linear matrix equation of the monitor units and dose per monitor unit of every beamlets. This equation is solved by a Non-Negative Least Sqvare fif algorithm (NNLS). However, not every voxels inside the patient volume can be used in order to solve this equation, because of computer limitations. Several ways of voxel selection have been tested and the best choice consists in using voxels inside the Planning Target Volume (PTV). The method presented in this work was tested with eight clinical cases, which were representative of usual radiotherapy treatments. The monitor units obtained lead to clinically equivalent global dose distributions. Thus, this independent monitor unit calculation method for step-and-shoot IMRT is validated and can therefore be used in a clinical routine. It would be possible to consider applying a similar method for other treatment modalities, such as for instance tomotherapy or volumetric modulated arc therapy.
Resumo:
RÉSUMÉ Le Grand tétras est un galliforme de montagne apparenté au faisan et au tétras lyre. Il est distribué de manière continue à travers la toundra et les montagnes de moyenne altitude en Europe de l'ouest. Toutefois, les populations d'Europe de l'ouest ont subi un déclin constant au cours des derniers siècles. Les causes de ce déclin sont probablement liées à l'activité humaine, telle .que l'élevage ou le tourisme, qui ont engendré une modification et une fragmentation de l'habitat de l'espèce. Malheureusement, les populations soumises à de forts déclins démographiques peuvent subir des effets génétiques (augmentation de la consanguinité et perte de diversité génétique) pouvant diminuer leur potentiel de reproduction et conduire irrémédiablement à l'extinction. Cette thèse présente les analyses conduites dans le but d'estimer l'impact du déclin démographique des populations de Grand tétras sur l'étendue et la distribution de leur variabilité génétique dans le Jura et dans les Pyrénées. Du fait de la législation locale protégeant les tétraonidés en général, mais également en raison de la biologie très cryptique du Grand tétras, l'ensemble des analyses de cette étude a été réalisé à partir de matériel génétique extrait des fientes (ou échantillonnage génétique non invasif). Dans la première partie de l'étude, je détaille les protocoles d'extraction. d'ADN et d'amplification par PCR modifiés à partir des protocoles classiques utilisant des échantillons conventionnels, riches en ADN. L'utilisation d'ADN fécal impose des contraintes dues à la mauvaise qualité et à la faible quantité du matériel génétique à disposition dans les fientes. Ces contraintes ont pu être partiellement contournées en réalisant des répétitions multiples du génotypage afin d'obtenir un degré de fiabilité suffisante. J'ai également analysé les causes de la dégradation de l'ADN dans les excréments. Parmi les causes les plus communes, telles que l'activité bactérienne, l'hydrolyse spontanée et la dégradation enzymatique par les DNases libres, c'est ce dernier facteur qui apparaît comme étant la cause majeure et la plus rapide responsable de la dégradation de la qualité des échantillons. La rapidité de l'action enzymatique suggère que les plans d'échantillonnages de excréments sur le terrain pourraient être optimisés en les réalisant dans des conditions climatiques froides et sèches, favorisant ainsi l'inhibition des DNases. La seconde partie de la thèse est une étude par simulation visant à déterminer la capacité du logiciel Structure à identifier les structures génétiques complexes et hiérarchiques fréquemment rencontrées dans les populations naturelles, et ce en utilisant différents types de marqueurs génétiques. Les troisième et quatrième parties de cette thèse décrivent le statut génétique des populations résiduelles du Jura et des Pyrénées à partir de l'analyse de 11 loci microsatellites. Nous n'avons pas pu mettre en évidence dans les deux populations des effets liés à la consanguinité ou à la réduction de la diversité génétique. De plus, la différenciation génétique entre les patches d'habitats favorables reste modérée et corrélée à la distance géographique, ce qui suggère que la dispersion d'individus entre les patches a été importante au moins pendant ces dernières générations. La comparaison des paramètres de la diversité génétique avec ceux d'autres populations de Grand tétras, ou d'autres espèces proches, indique que la population du Jura a retenu une proportion importante de sa diversité originelle. Ces résultats suggèrent que le déclin récent des populations a jusqu'ici eu un impact modéré sur les facteurs génétiques et que ces populations semblent avoir conservé le potentiel génétique nécessaire à leur survie à long terme. Finalement, en cinquième partie, l'analyse de l'apparentement entre les mâles qui participent à la parade sur les places de chant (leks) indique que ces derniers sont distribués en agrégats de manière non aléatoire, préférentiellement entre individus apparentés. De plus, la corrélation entre les distances génétique et géographique entre les leks est en accord avec les motifs d'isolement par la distance mis en évidence à d'autres niveaux hiérarchiques (entre patches d'habitat et populations), ainsi qu'avec les études menées sur d'autres espèces ayant choisi ce même système de reproduction. En conclusion, cette première étude basée uniquement sur de l'ADN nucléaire aviaire extrait à partir de fèces a fourni des informations nouvelles qui n'auraient pas pu être obtenues par une méthode d'observation sur le terrain ou d'échantillonnage génétique classique. Aucun oiseau n'a été dérangé ou capturé, et les résultats sont comparables à d'autres études concernant des espèces proches. Néanmoins, la taille de ces populations approche des niveaux au-dessous desquels la survie à long terme est fortement incertaine. La persistance de la diversité génétique pour les prochaines générations reste en conséquence liée à la survie des adultes et à une reprise du succès de la reproduction. ABSTRACT Capercaillie (Tetrao urogallus) is a large grouse that is continuously distributed across the tundra and the mid-high mountains of Western Europe. However, the populations in Western Europe have been showing a constant decline during the last decades. The causes for this decline are possibly related to human activities, such as cattle breeding and tourism that have both led to habitat modification and fragmentation. Unfortunately, populations that have undergone drastic demographic bottlenecks often go through genetic processes of inbreeding and loss of diversity that decrease their fitness and eventually lead to extinction. This thesis presents the investigations conducted to estimate the impact of the demographic decline of capercaillie populations on the extent and distribution of their genetic variability in the Jura and in the Pyrenees mountains. Because grouse are protected by wildlife legislation, and also because of the cryptic behaviour of capercaillie, all DNA material used in this study was extracted from faeces (non-invasive genetic sampling). In the first part of my thesis, I detail the protocols of DNA extraction and PCR amplification adapted from classical methods using conventional DNA-rich samples. The use of faecal DNA imposes specific constraints due to the low quantity and the highly degraded genetic material available. These constraints are partially overcome by performing multiple genotyping repetitions to obtain sufficient reliability. I also investigate the causes of DNA degradation in faeces. Among the main degraders, namely bacterial activity, spontaneous hydrolysis, and free-¬DNase activities, the latter was pointed out as the most important according to our experiments. These enzymes degrade DNA very rapidly, and, as a consequence, faeces sampling schemes must be planned preferably in cold and dry weather conditions, allowing for enzyme activity inhibition. The second part of the thesis is a simulation study aiming to assess the capacity of the software Structure to detect population structure in hierarchical models relevant to situations encountered in wild populations, using several genetic markers. The methods implemented in Structure appear efficient in detecting the highest hierarchical structure. The third and fourth parts of the thesis describe the population genetics status of the remaining Jura and Pyrenees populations using 11 microsatellite loci. In either of these populations, no inbreeding nor reduced genetic diversity was detected. Furthermore, the genetic differentiation between patches defined by habitat suitability remains moderate and correlated with geographical distance, suggesting that significant dispersion between patches was at work at least until the last generations. The comparison of diversity indicators with other species or other populations of capercaillie indicate that population in the Jura has retained a large part of its original genetic diversity. These results suggest that the recent decline has had so forth a moderate impact on genetic factors and that these populations might have retained the potential for long term survival, if the decline is stopped. Finally, in the fifth part, the analysis of relatedness between males participating in the reproduction parade, or lek, indicate that capercaillie males, like has been shown for some other grouse species, gather on leks among individuals that are more related than the average of the population. This pattern appears to be due to both population structure and kin-association. As a conclusion, this first study relying exclusively on nuclear DNA extracted from faeces has provided novel information that was not available through field observation or classical genetic sampling. No bird has been captured or disturbed, and the results are consistent with other studies of closely related species. However, the size of these populations is approaching thresholds below which long-term survival is unlikely. The persistence of genetic diversity for the forthcoming generations remains therefore bond to adult survival and to the increase of reproduction success.