251 resultados para Algorithmes Parallèles
Resumo:
La présente thèse décrit des travaux de recherches effectués sur des systèmes tutoriels intelligents (STI) et plus précisément sur les tuteurs par traçage de modèle (MTT). Les travaux de recherche présentés ici s’intéressent à la conception de MTT pour des domaines dans lesquels les étudiants peuvent résoudre la tâche qui leur est assignée de plusieurs façons. Ces domaines comportent parfois des algorithmes avec retour sur trace lorsque l’étudiant ne sait pas forcément quelles sont les alternatives qui feront progresser correctement l’état de la tâche.Cette thèse présente dans un premier temps un système de représentation de connaissances pour les algorithmes avec retour sur trace qui rend les connaissances de cet algorithme exploitables par des agents logiciels. Elle présente dans un second temps un ensemble de processus qui exploitent ces connaissances dans le cadre de MTT pour assurer automatiquement le suivi de l’étudiant et ainsi que la production d’interventions pédagogiques. En premier, ces interventions consistent à fournir à l'étudiant de l’aide pour la prochaine étape qui explique quelles sont les possibilités dont dispose l'étudiant et comment déterminer laquelle est la meilleure. En deuxième, elles fournissent à l'étudiant des rétroactions stratégiques qui lui confirment que son action est valide tout en l’informant de l’existence d’une meilleure alternative le cas échéant. Enfin, elles fournissent à l'étudiant des rétroactions négatives qui lui apprennent dans quelles situations les actions invalides qu’il vient d’effectuer s’appliquent.Une expérimentation a été réalisée avec des étudiants de biologie de l’Université de Sherbrooke pour évaluer les effets de ces interventions sur les choix des étudiants au cours de la résolution de la tâche. Les résultats de cette expérience montrent que les étudiants bénéficiant de ces interventions effectuent plus souvent des choix optimaux, et démontrent ainsi une plus grande maîtrise du domaine.
Resumo:
Les gènes, qui servent à encoder les fonctions biologiques des êtres vivants, forment l'unité moléculaire de base de l'hérédité. Afin d'expliquer la diversité des espèces que l'on peut observer aujourd'hui, il est essentiel de comprendre comment les gènes évoluent. Pour ce faire, on doit recréer le passé en inférant leur phylogénie, c'est-à-dire un arbre de gènes qui représente les liens de parenté des régions codantes des vivants. Les méthodes classiques d'inférence phylogénétique ont été élaborées principalement pour construire des arbres d'espèces et ne se basent que sur les séquences d'ADN. Les gènes sont toutefois riches en information, et on commence à peine à voir apparaître des méthodes de reconstruction qui utilisent leurs propriétés spécifiques. Notamment, l'histoire d'une famille de gènes en terme de duplications et de pertes, obtenue par la réconciliation d'un arbre de gènes avec un arbre d'espèces, peut nous permettre de détecter des faiblesses au sein d'un arbre et de l'améliorer. Dans cette thèse, la réconciliation est appliquée à la construction et la correction d'arbres de gènes sous trois angles différents: 1) Nous abordons la problématique de résoudre un arbre de gènes non-binaire. En particulier, nous présentons un algorithme en temps linéaire qui résout une polytomie en se basant sur la réconciliation. 2) Nous proposons une nouvelle approche de correction d'arbres de gènes par les relations d'orthologie et paralogie. Des algorithmes en temps polynomial sont présentés pour les problèmes suivants: corriger un arbre de gènes afin qu'il contienne un ensemble d'orthologues donné, et valider un ensemble de relations partielles d'orthologie et paralogie. 3) Nous montrons comment la réconciliation peut servir à "combiner'' plusieurs arbres de gènes. Plus précisément, nous étudions le problème de choisir un superarbre de gènes selon son coût de réconciliation.
Resumo:
Méthodologie: Simulation; Analyse discriminante linéaire et logistique; Arbres de classification; Réseaux de neurones en base radiale
Resumo:
A brincadeira, expressão maior das culturas lúdicas da infância e do saber popular infantil que colora o folclore das crianças e que entre elas constitui prática singular, tem marcos temporais indeléveis que lhe (de)marcaram um tempo e que a memória guardou para sempre. A linearidade que, durante quase todo o tempo antes da chegada da TV, a brincadeira transportou, a revolução das suas práticas que a partir daí se operou e acentuou com a chegada das novas tecnologias da comunicação e informação à vida das crianças e a consequente transformação radical do seu habitus lúdico (da rua para casa e daqui para o quarto) balizam eras distintas de tempos sociais paralelas às que ditaram, consequentemente, a transformação que as artes de e para brincar foram, historicamente, sofrendo. Ao resgatar a brincadeira pela voz das crianças, muitas das vezes expressa pela voz dos adultos que hoje são, faz-se o registo, que neste artigo se guarda, de um pedaço da herança cultural lúdica que foi passando entre as quatro gerações que estudamos qualitativamente a partir de entrevistas grupais feitas em contexto familiar, que serviram de base para o que a seguir fica relatado. A brincadeira e a parafernália que a acompanha fazem parte da história de vida de todos nós e, por isso, a cada um cabe velar para que nunca pereça.
Resumo:
Esta tese descreve o desenvolvimento do hardware e do software de um sistema com a capacidade de reconhecer o número de passos que uma pessoa efectua durante uma actividade física. O sistema consiste num acelerómetro controlado por um microcontrolador, que comunica com um dispositivo móvel através de Bluetooth. De modo a realizar o sistema foi necessário analisar uma vasta bibliografia, para conhecer o estado da arte desta tecnologia, entender o princípio de funcionamento do protocolo Bluetooth e os conceitos biomecânicos por detrás da marcha humana. A proposta deste trabalho apresentava como elemento diferenciador do estado da arte o uso de um acelerómetro em conjunto com sensores de pressão. Com a conjugação destes sensores pretendia-se aumentar a precisão de um equipamento que normalmente não é reconhecido por essa característica. Contudo, a indisponibilidade dos sensores de pressão levou a que o sistema só fosse constituído pelo acelerómetro. Embora, o sistema foi projectado considerando que os sensores de pressão serão incluídos num futuro desenvolvimento. Neste trabalho foram desenvolvidos dois algoritmos para detectar os passos que uma pessoa executa, com pé onde é colocado o sensor, quando caminha ou corre. Num dos testes realizados o algoritmo da “aceleração composta” detectou 84% dos passos, enquanto o algoritmo da “aceleração simples”detectou 99%. A plataforma para a interface gráfica pretendia-se que fosse um telemóvel, contudo não foi possível obter um telemóvel que suporta-se o perfil SPP (Serial Port Profile), necessário para a comunicação com o módulo Bluetooth usado. A solução passou por usar como plataforma um computador portátil com Bluetooth, para o qual foi desenvolvido a aplicação “Pedómetro ISEP” em Visual Basic. O “Pedómetro ISEP” apresenta várias funcionalidades, entre elas destaca-se o cálculo da distância percorrida, da velocidade, e das calorias consumidas, bem como, o registo desses valores em tabelas e da possibilidade de desenhar os gráficos representativos do progresso do utilizador.
Resumo:
Earthworks tasks are often regarded in transportation projects as some of the most demanding processes. In fact, sequential tasks such as excavation, transportation, spreading and compaction are strongly based on heavy mechanical equipment and repetitive processes, thus becoming as economically demanding as they are time-consuming. Moreover, actual construction requirements originate higher demands for productivity and safety in earthwork constructions. Given the percentual weight of costs and duration of earthworks in infrastructure construction, the optimal usage of every resource in these tasks is paramount. Considering the characteristics of an earthwork construction, it can be looked at as a production line based on resources (mechanical equipment) and dependency relations between sequential tasks, hence being susceptible to optimization. Up to the present, the steady development of Information Technology areas, such as databases, artificial intelligence and operations research, has resulted in the emergence of several technologies with potential application bearing that purpose in mind. Among these, modern optimization methods (also known as metaheuristics), such as evolutionary computation, have the potential to find high quality optimal solutions with a reasonable use of computational resources. In this context, this work describes an optimization algorithm for earthworks equipment allocation based on a modern optimization approach, which takes advantage of the concept that an earthwork construction can be regarded as a production line.
Resumo:
Considérations méthodologiques Nous avons limité aux précisions indispensables à la compréhension de notre propos les considérations sur la gigantomachie en général. Nous renvoyons aux études signalées plus haut (supra, p. 7, n. 2), principalement pour ce qui concerne les géants avant leur transformation en anguipèdes à partir de l'époque hellénistique. Notre recherche de parallèles reposera sur quelques oeuvres d'art encore existantes : les sculptures décorant les plus importantes d'entre elles feront dès lors figure d'archétype, même si, bien sûr, rien ne permet d'exclure qu'il en ait existé de plus significatives. Parmi les nombreux monuments aujourd'hui disparus, respectivement parmi ceux qui seraient encore à découvrir, il s'en trouvait sans doute qui auraient été susceptibles de servir de modèle pour les sculptures ornant le fanum de Lousonna, duquel bien peu de restes nous sont parvenus. A l'exception de quelques renvois ponctuels, notre démarche s'est appuyée exclusivement sur du matériel et des informations déjà publiés. Pour la reconstitution des bas-reliefs de Lousonna, nous nous sommes inspiré généralement de sculptures hellénistiques et romaines dont l'ornementation présentait des similitudes avec les fragments à notre disposition ; la plupart des parallèles sont mentionnés dans le Lexicon Iconographicum Mythologiae Classicae. L'examen des volumes du Corpus Signorum Imperii Romani et de quelques autres recueils nous a permis de faire des propositions pour les cas restés en suspens. A une exception près, l'échantillonnage aéré formé à partir d'ensembles sculptés qui devaient avoir les mêmes caractéristiques que le matériel que nous tenterons d'identifier : ils comportaient des monstres anguipèdes avec les jambes se terminant par la tête du serpent, remontant au plus tard à la fin de la période romaine et produits dans un atelier gréco-romain. Afin de recréer avec le plus de vraisemblance possible l'environnement du fanum de Lousonna, nous avons recherché des édifices de caractéristiques semblables dans les catalogues de temples gallo-romains dressés par P. D. HORNE et A. C. KING (1980), respectivement I. FAUDUET et P. ARCELIN (1993). Tant l'absence presque complète de restes architecturaux susceptibles d'être rapportés à l'édifice religieux que la nature somme toute modeste du vicus lémanique nous ont fait opter pour une variante minimaliste, se limitant finalement à la structure supportant la gigantomachie devant un temple sans aucune décoration. Pour tenter de préciser les modalités de la transmission du thème des géants, nous envisagerons trois cheminements possibles : la tradition orale, la transmission littéraire et, enfin, la représentation iconographique, qu'il s'agisse de monuments, d'objets mobiliers ou même des quelques rares illustrations de textes antiques. Sauf indication contraire, les textes anciens sont cités dans les traductions des Belles-Lettres, des Sources chrétiennes ou de la Loeb Classical Library dont la liste figure à la page 161. La version française des textes dont aucune traduction n'était disponible est généralement due à François Mottas (traduction F.M.). Nous ne reportons les dates de naissance des auteurs ou des artistes mentionnés que lorsqu'elles sont utiles à la compréhension de notre exposé. En plus du rôle qu'ont pu jouer les oeuvres d'art disparues au cours des deux derniers millénaires, divers facteurs ont dû assurer la constitution et la mise au point d'un imaginaire de plus en plus élaboré des gigantomachies. La mémoire a certes sa part dans l'inspiration des artistes qui réalisèrent les sculptures de la cité lémanique; mais si un mythe ou le récit d'un événement peuvent s'être transmis de bouche à oreille au cours des siècles, certaines ressemblances dans l'attitude des personnages sont trop frappantes, même en tenant compte de ces gestes qu'il n'existe qu'une seule façon de représenter: il n'est dès lors pas possible d'imaginer que la transmission des détails des scènes se serait pratiquée uniquement par voie orale. Si le voyage touristique; tel que nous l'entendons de nos jours, n'a pas existé, les personnes susceptibles d'avoir ramené des informations de leurs déplacements à travers l'Empire sont plus nombreuses qu'on ne le croirait au premier abord. Fonctionnaires allant prendre leur charge ou en mission dans une contrée voisine; soldats, parmi lesquels des mercenaires gaulois; pèlerins ayant visité de grands sanctuaires, comme celui d'Esculape à Pergame, emplacement de la gigantomachie la plus impressionnante, ou d'autres lieux de culte; jeunes fortunés ayant étudié à Athènes; commerçants accompagnés par des muletiers ou des portefaix acheminant leurs marchandises; membres de corporations ou artisans exerçant des métiers itinérants; esclaves, dont l'exportation devait représenter une source de revenus intéressante pour les commerçants romains; en dernier lieu, sans parler des artistes eux-mêmes, ces arpenteurs-géomètres chargés de toutes sortes de relevés qui accompagnaient les empereurs lors de leurs déplacements (infra, p. 36). Il faudra cependant rester prudent quant à l'affirmation d'une connaissance visuelle directe que les sculpteurs de Lousonna auraient eue des réalisations antiques avec lesquelles nous mettrons la gigantomachie en parallèle. Même si elle n'a toujours pas pu être prouvée, la circulation de cahiers de modèles semble bel et bien assurée: dans un atelier, les maîtres ont forcément passé leurs croquis à leurs successeurs et ceci s'est peut-être répété pour plusieurs générations d'artisans. Sans parler des monnaies, d'autres moyens de transmission peuvent encore être mentionnés : éventuelles éditions illustrées de textes antiques, motifs gravés sur des gemmes ou représentés sur des récipients décorés... Une observation s'impose ici : la plupart des monuments que nous utiliserons pour notre reconstitution existaient encore lors de l'érection de notre gigantomachie. Une fois les bas-reliefs de Lousonna reconstitués, restait donc à combler l'absence de toute étude sur la survie de la gigantomachie à travers les âges et à préciser l'emploi qui en serait fait à la Renaissance. Divers recueils d'ouvrages consacrés à la mythologie et remontant à cette période nous ont permis de décrire les modalités de la reprise du récit de la guerre des géants; en l'absence de toute synthèse sur ceux-ci dans la peinture de la Renaissance, c'est en partant de l'examen des nombreux travaux consacrés au Palazzo del Te à Mantoue que nous avons pu établir un lien entre les représentations de géants peintes durant la première moitié du 16ème siècle, au cours duquel la gigantomachie était redevenue un sujet d'actualité. Le monument de la bourgade lémanique comporte encore neuf personnages et constitue, avec celui d'Yzeures-sur-Creuse, l'exemplaire le plus complet découvert dans la partie occidentale de l'Empire romain : il méritait bien d'être à l'origine d'une telle démarche.
Resumo:
RESUME Durant les dernières années, les méthodes électriques ont souvent été utilisées pour l'investigation des structures de subsurface. L'imagerie électrique (Electrical Resistivity Tomography, ERT) est une technique de prospection non-invasive et spatialement intégrée. La méthode ERT a subi des améliorations significatives avec le développement de nouveaux algorithmes d'inversion et le perfectionnement des techniques d'acquisition. La technologie multicanale et les ordinateurs de dernière génération permettent la collecte et le traitement de données en quelques heures. Les domaines d'application sont nombreux et divers: géologie et hydrogéologie, génie civil et géotechnique, archéologie et études environnementales. En particulier, les méthodes électriques sont souvent employées dans l'étude hydrologique de la zone vadose. Le but de ce travail est le développement d'un système de monitorage 3D automatique, non- invasif, fiable, peu coûteux, basé sur une technique multicanale et approprié pour suivre les variations de résistivité électrique dans le sous-sol lors d'événements pluvieux. En raison des limitations techniques et afin d'éviter toute perturbation physique dans la subsurface, ce dispositif de mesure emploie une installation non-conventionnelle, où toutes les électrodes de courant sont placées au bord de la zone d'étude. Le dispositif le plus approprié pour suivre les variations verticales et latérales de la résistivité électrique à partir d'une installation permanente a été choisi à l'aide de modélisations numériques. Les résultats démontrent que le dispositif pôle-dipôle offre une meilleure résolution que le dispositif pôle-pôle et plus apte à détecter les variations latérales et verticales de la résistivité électrique, et cela malgré la configuration non-conventionnelle des électrodes. Pour tester l'efficacité du système proposé, des données de terrain ont été collectées sur un site d'étude expérimental. La technique de monitorage utilisée permet de suivre le processus d'infiltration 3D pendant des événements pluvieux. Une bonne corrélation est observée entre les résultats de modélisation numérique et les données de terrain, confirmant par ailleurs que le dispositif pôle-dipôle offre une meilleure résolution que le dispositif pôle-pôle. La nouvelle technique de monitorage 3D de résistivité électrique permet de caractériser les zones d'écoulement préférentiel et de caractériser le rôle de la lithologie et de la pédologie de manière quantitative dans les processus hydrologiques responsables d'écoulement de crue. ABSTRACT During the last years, electrical methods were often used for the investigation of subsurface structures. Electrical resistivity tomography (ERT) has been reported to be a useful non-invasive and spatially integrative prospecting technique. The ERT method provides significant improvements, with the developments of new inversion algorithms, and the increasing efficiency of data collection techniques. Multichannel technology and powerful computers allow collecting and processing resistivity data within few hours. Application domains are numerous and varied: geology and hydrogeology, civil engineering and geotechnics, archaeology and environmental studies. In particular, electrical methods are commonly used in hydrological studies of the vadose zone. The aim of this study was to develop a multichannel, automatic, non-invasive, reliable and inexpensive 3D monitoring system designed to follow electrical resistivity variations in soil during rainfall. Because of technical limitations and in order to not disturb the subsurface, the proposed measurement device uses a non-conventional electrode set-up, where all the current electrodes are located near the edges of the survey grid. Using numerical modelling, the most appropriate arrays were selected to detect vertical and lateral variations of the electrical resistivity in the framework of a permanent surveying installation system. The results show that a pole-dipole array has a better resolution than a pole-pole array and can successfully follow vertical and lateral resistivity variations despite the non-conventional electrode configuration used. Field data are then collected at a test site to assess the efficiency of the proposed monitoring technique. The system allows following the 3D infiltration processes during a rainfall event. A good correlation between the results of numerical modelling and field data results can be observed since the field pole-dipole data give a better resolution image than the pole-pole data. The new device and technique makes it possible to better characterize the zones of preferential flow and to quantify the role of lithology and pedology in flood- generating hydrological processes.
Resumo:
AbstractBreast cancer is one of the most common cancers affecting one in eight women during their lives. Survival rates have increased steadily thanks to early diagnosis with mammography screening and more efficient treatment strategies. Post-operative radiation therapy is a standard of care in the management of breast cancer and has been shown to reduce efficiently both local recurrence rate and breast cancer mortality. Radiation therapy is however associated with some late effects for long-term survivors. Radiation-induced secondary cancer is a relatively rare but severe late effect of radiation therapy. Currently, radiotherapy plans are essentially optimized to maximize tumor control and minimize late deterministic effects (tissue reactions) that are mainly associated with high doses (» 1 Gy). With improved cure rates and new radiation therapy technologies, it is also important to evaluate and minimize secondary cancer risks for different treatment techniques. This is a particularly challenging task due to the large uncertainties in the dose-response relationship.In contrast with late deterministic effects, secondary cancers may be associated with much lower doses and therefore out-of-field doses (also called peripheral doses) that are typically inferior to 1 Gy need to be determined accurately. Out-of-field doses result from patient scatter and head scatter from the treatment unit. These doses are particularly challenging to compute and we characterized it by Monte Carlo (MC) calculation. A detailed MC model of the Siemens Primus linear accelerator has been thoroughly validated with measurements. We investigated the accuracy of such a model for retrospective dosimetry in epidemiological studies on secondary cancers. Considering that patients in such large studies could be treated on a variety of machines, we assessed the uncertainty in reconstructed peripheral dose due to the variability of peripheral dose among various linac geometries. For large open fields (> 10x10 cm2), the uncertainty would be less than 50%, but for small fields and wedged fields the uncertainty in reconstructed dose could rise up to a factor of 10. It was concluded that such a model could be used for conventional treatments using large open fields only.The MC model of the Siemens Primus linac was then used to compare out-of-field doses for different treatment techniques in a female whole-body CT-based phantom. Current techniques such as conformai wedged-based radiotherapy and hybrid IMRT were investigated and compared to older two-dimensional radiotherapy techniques. MC doses were also compared to those of a commercial Treatment Planning System (TPS). While the TPS is routinely used to determine the dose to the contralateral breast and the ipsilateral lung which are mostly out of the treatment fields, we have shown that these doses may be highly inaccurate depending on the treatment technique investigated. MC shows that hybrid IMRT is dosimetrically similar to three-dimensional wedge-based radiotherapy within the field, but offers substantially reduced doses to out-of-field healthy organs.Finally, many different approaches to risk estimations extracted from the literature were applied to the calculated MC dose distribution. Absolute risks varied substantially as did the ratio of risk between two treatment techniques, reflecting the large uncertainties involved with current risk models. Despite all these uncertainties, the hybrid IMRT investigated resulted in systematically lower cancer risks than any of the other treatment techniques. More epidemiological studies with accurate dosimetry are required in the future to construct robust risk models. In the meantime, any treatment strategy that reduces out-of-field doses to healthy organs should be investigated. Electron radiotherapy might offer interesting possibilities with this regard.RésuméLe cancer du sein affecte une femme sur huit au cours de sa vie. Grâce au dépistage précoce et à des thérapies de plus en plus efficaces, le taux de guérison a augmenté au cours du temps. La radiothérapie postopératoire joue un rôle important dans le traitement du cancer du sein en réduisant le taux de récidive et la mortalité. Malheureusement, la radiothérapie peut aussi induire des toxicités tardives chez les patients guéris. En particulier, les cancers secondaires radio-induits sont une complication rare mais sévère de la radiothérapie. En routine clinique, les plans de radiothérapie sont essentiellement optimisées pour un contrôle local le plus élevé possible tout en minimisant les réactions tissulaires tardives qui sont essentiellement associées avec des hautes doses (» 1 Gy). Toutefois, avec l'introduction de différentes nouvelles techniques et avec l'augmentation des taux de survie, il devient impératif d'évaluer et de minimiser les risques de cancer secondaire pour différentes techniques de traitement. Une telle évaluation du risque est une tâche ardue étant donné les nombreuses incertitudes liées à la relation dose-risque.Contrairement aux effets tissulaires, les cancers secondaires peuvent aussi être induits par des basses doses dans des organes qui se trouvent hors des champs d'irradiation. Ces organes reçoivent des doses périphériques typiquement inférieures à 1 Gy qui résultent du diffusé du patient et du diffusé de l'accélérateur. Ces doses sont difficiles à calculer précisément, mais les algorithmes Monte Carlo (MC) permettent de les estimer avec une bonne précision. Un modèle MC détaillé de l'accélérateur Primus de Siemens a été élaboré et validé avec des mesures. La précision de ce modèle a également été déterminée pour la reconstruction de dose en épidémiologie. Si on considère que les patients inclus dans de larges cohortes sont traités sur une variété de machines, l'incertitude dans la reconstruction de dose périphérique a été étudiée en fonction de la variabilité de la dose périphérique pour différents types d'accélérateurs. Pour de grands champs (> 10x10 cm ), l'incertitude est inférieure à 50%, mais pour de petits champs et des champs filtrés, l'incertitude de la dose peut monter jusqu'à un facteur 10. En conclusion, un tel modèle ne peut être utilisé que pour les traitements conventionnels utilisant des grands champs.Le modèle MC de l'accélérateur Primus a été utilisé ensuite pour déterminer la dose périphérique pour différentes techniques dans un fantôme corps entier basé sur des coupes CT d'une patiente. Les techniques actuelles utilisant des champs filtrés ou encore l'IMRT hybride ont été étudiées et comparées par rapport aux techniques plus anciennes. Les doses calculées par MC ont été comparées à celles obtenues d'un logiciel de planification commercial (TPS). Alors que le TPS est utilisé en routine pour déterminer la dose au sein contralatéral et au poumon ipsilatéral qui sont principalement hors des faisceaux, nous avons montré que ces doses peuvent être plus ou moins précises selon la technTque étudiée. Les calculs MC montrent que la technique IMRT est dosimétriquement équivalente à celle basée sur des champs filtrés à l'intérieur des champs de traitement, mais offre une réduction importante de la dose aux organes périphériques.Finalement différents modèles de risque ont été étudiés sur la base des distributions de dose calculées par MC. Les risques absolus et le rapport des risques entre deux techniques de traitement varient grandement, ce qui reflète les grandes incertitudes liées aux différents modèles de risque. Malgré ces incertitudes, on a pu montrer que la technique IMRT offrait une réduction du risque systématique par rapport aux autres techniques. En attendant des données épidémiologiques supplémentaires sur la relation dose-risque, toute technique offrant une réduction des doses périphériques aux organes sains mérite d'être étudiée. La radiothérapie avec des électrons offre à ce titre des possibilités intéressantes.
Resumo:
Problématique: Pourquoi la mise en scène complexe du Timée-Critias avec ses contextes spatio-temporels emboîtés et ses narrations enchâssées? Quelle est la fonction (pragmatique et argumentative) du discours cosmogonique et anthropogonique de Timée intercalé entre le résumé du récit de l'Atlantide dans le prologue du Timée et la narration même de ce récit dans le Critias! Quel est le rapport entre les discours des deux protagonistes et celui de Socrate sur la cité idéale dans la République? Voilà les principales questions auxquelles cette thèse essaie de répondre. Grâce à une approche discursive et sémio-narrative, elle cherche à montrer la fonction pragmatique et la cohérence narrative et sémantique du double dialogue tout en tenant compte des visions du monde divergentes et même contradictoires des deux protagonistes. Elle essaie de comprendre comment les deux, l'un d'origine italique, l'autre Athénien, dans un contexte énonciatif donné et sur la base de leurs conceptions culturelles et «scientifiques» - sur l'homme et sur le monde - et de leurs idées «philosophiques» - sur l'être, le devenir et la connaissance - produisent des discours de signification différente mais traitant tous deux de la genèse, que ce soit celle du monde, de l'homme et des cités. Elle propose en outre de lire le Timée-Critias à la fois comme une continuation et une réécriture de la République: non seulement les trois dialogues ont le même sujet (la meilleure cité), mais ils se caractérisent par des parallèles dans la situation dramatique et énonciative et dans la manière dont se développe la narration. Plan: Les deux premiers chapitres examinent comment les performances discursives de Timée et de Critias se mettent en place dans le prologue, en prêtant une attention particulière aux aspects dramatiques et énonciatifs, mais aussi poétiques et narratifs (énonciateurs/narrateurs et leurs destinataires, fonction et genre des discours résumés et annoncés). Les troisième et quatrième chapitres, consacrés respectivement au long discours de Timée et à celui de Critias dans le dialogue homonyme, comparent d'abord les deux discours aux Hymnes homériques, à la Théogonie d'Hésiode et à la poésie généalogique afin de mieux saisir la fonction pragmatique et la composition de l'ensemble du Timée-Critias-, puis, à partir des principes ontologiques et épistémologiques explicités dans les proèmes, ils se proposent de dégager, en suivant de près la narration, les conceptions cosmologiques, anthropologiques et épistémologiques des deux protagonistes et de voir comment elles déterminent la production et l'énonciation de leurs discours. Enfin, le dernier chapitre reprend certains éléments essentiels étudiés précédemment en élargissant la perspective à la République et à son rapport intertextuel avec le Timée- Critias: il met en regard les contextes énonciatifs et dramatiques et la problématique des deux oeuvres (le rôle des personnages, la question de la réalisation de la meilleure cité), le discours de Timée et les livres six et sept (la khóra et Yagathón, le statut du discours vraisemblable et l'analogie de la ligne), ainsi que le Critias et les livres huit et dix (la dégénérescence de l'Atlantide et de la meilleure cité, la poésie «mimétique» de Critias et celle des poètes critiquée par Socrate).
Resumo:
Summary: Global warming has led to an average earth surface temperature increase of about 0.7 °C in the 20th century, according to the 2007 IPCC report. In Switzerland, the temperature increase in the same period was even higher: 1.3 °C in the Northern Alps anal 1.7 °C in the Southern Alps. The impacts of this warming on ecosystems aspecially on climatically sensitive systems like the treeline ecotone -are already visible today. Alpine treeline species show increased growth rates, more establishment of young trees in forest gaps is observed in many locations and treelines are migrating upwards. With the forecasted warming, this globally visible phenomenon is expected to continue. This PhD thesis aimed to develop a set of methods and models to investigate current and future climatic treeline positions and treeline shifts in the Swiss Alps in a spatial context. The focus was therefore on: 1) the quantification of current treeline dynamics and its potential causes, 2) the evaluation and improvement of temperaturebased treeline indicators and 3) the spatial analysis and projection of past, current and future climatic treeline positions and their respective elevational shifts. The methods used involved a combination of field temperature measurements, statistical modeling and spatial modeling in a geographical information system. To determine treeline shifts and assign the respective drivers, neighborhood relationships between forest patches were analyzed using moving window algorithms. Time series regression modeling was used in the development of an air-to-soil temperature transfer model to calculate thermal treeline indicators. The indicators were then applied spatially to delineate the climatic treeline, based on interpolated temperature data. Observation of recent forest dynamics in the Swiss treeline ecotone showed that changes were mainly due to forest in-growth, but also partly to upward attitudinal shifts. The recent reduction in agricultural land-use was found to be the dominant driver of these changes. Climate-driven changes were identified only at the uppermost limits of the treeline ecotone. Seasonal mean temperature indicators were found to be the best for predicting climatic treelines. Applying dynamic seasonal delimitations and the air-to-soil temperature transfer model improved the indicators' applicability for spatial modeling. Reproducing the climatic treelines of the past 45 years revealed regionally different attitudinal shifts, the largest being located near the highest mountain mass. Modeling climatic treelines based on two IPCC climate warming scenarios predicted major shifts in treeline altitude. However, the currently-observed treeline is not expected to reach this limit easily, due to lagged reaction, possible climate feedback effects and other limiting factors. Résumé: Selon le rapport 2007 de l'IPCC, le réchauffement global a induit une augmentation de la température terrestre de 0.7 °C en moyenne au cours du 20e siècle. En Suisse, l'augmentation durant la même période a été plus importante: 1.3 °C dans les Alpes du nord et 1.7 °C dans les Alpes du sud. Les impacts de ce réchauffement sur les écosystèmes - en particuliers les systèmes sensibles comme l'écotone de la limite des arbres - sont déjà visibles aujourd'hui. Les espèces de la limite alpine des forêts ont des taux de croissance plus forts, on observe en de nombreux endroits un accroissement du nombre de jeunes arbres s'établissant dans les trouées et la limite des arbres migre vers le haut. Compte tenu du réchauffement prévu, on s'attend à ce que ce phénomène, visible globalement, persiste. Cette thèse de doctorat visait à développer un jeu de méthodes et de modèles pour étudier dans un contexte spatial la position présente et future de la limite climatique des arbres, ainsi que ses déplacements, au sein des Alpes suisses. L'étude s'est donc focalisée sur: 1) la quantification de la dynamique actuelle de la limite des arbres et ses causes potentielles, 2) l'évaluation et l'amélioration des indicateurs, basés sur la température, pour la limite des arbres et 3) l'analyse spatiale et la projection de la position climatique passée, présente et future de la limite des arbres et des déplacements altitudinaux de cette position. Les méthodes utilisées sont une combinaison de mesures de température sur le terrain, de modélisation statistique et de la modélisation spatiale à l'aide d'un système d'information géographique. Les relations de voisinage entre parcelles de forêt ont été analysées à l'aide d'algorithmes utilisant des fenêtres mobiles, afin de mesurer les déplacements de la limite des arbres et déterminer leurs causes. Un modèle de transfert de température air-sol, basé sur les modèles de régression sur séries temporelles, a été développé pour calculer des indicateurs thermiques de la limite des arbres. Les indicateurs ont ensuite été appliqués spatialement pour délimiter la limite climatique des arbres, sur la base de données de températures interpolées. L'observation de la dynamique forestière récente dans l'écotone de la limite des arbres en Suisse a montré que les changements étaient principalement dus à la fermeture des trouées, mais aussi en partie à des déplacements vers des altitudes plus élevées. Il a été montré que la récente déprise agricole était la cause principale de ces changements. Des changements dus au climat n'ont été identifiés qu'aux limites supérieures de l'écotone de la limite des arbres. Les indicateurs de température moyenne saisonnière se sont avérés le mieux convenir pour prédire la limite climatique des arbres. L'application de limites dynamiques saisonnières et du modèle de transfert de température air-sol a amélioré l'applicabilité des indicateurs pour la modélisation spatiale. La reproduction des limites climatiques des arbres durant ces 45 dernières années a mis en évidence des changements d'altitude différents selon les régions, les plus importants étant situés près du plus haut massif montagneux. La modélisation des limites climatiques des arbres d'après deux scénarios de réchauffement climatique de l'IPCC a prédit des changements majeurs de l'altitude de la limite des arbres. Toutefois, l'on ne s'attend pas à ce que la limite des arbres actuellement observée atteigne cette limite facilement, en raison du délai de réaction, d'effets rétroactifs du climat et d'autres facteurs limitants.
Resumo:
ABSTRACT Malaria is a major worldwide public health problem, with transmission occurring throughout Africa, Asia, Oceania and Latin America. Over two billion people live in malarious areas of the world and it is estimated that 300-500 million cases and 1.5-2.7 million deaths occur annually. The increase in multi-drug resistant parasites and insecticide-resistant vectors has made the development of malaria vaccine a public health priority. The published genome offers tremendous opportunity for the identification of new antigens that can befast-tracked for vaccine development. We identified potential protein antigens present on the surface of asexual malaria blood stages through bioinformatics and published transcriptome and proteorné analysis. Amongst the proteins identified, we selected those that contain predicted a-helical coiled-coil regions, which are generally short and structurally stable as isolated fragments. Peptides were synthesized and used to immunize mice. Most peptides tested were immunogenic as demonstrated in ELISA assays, and induced antibodies of varying titres. In immunofluorescence assays, anti-sera from immunized mice reacted with native proteins expressed at different intraerythrocytic developmental stages of the parasite's cycle. In parallel in vitro ADCI functional studies, human antibodies affinity purified on some of these peptides inhibited parasite growth in association with monocytes in magnitudes similar to that seen in semiimmune African adults. Siudies using human immune sera taken from different malaria endemic regions, demonstrated that majority of peptides were recognized at high prevalence. 73 peptides were next tested in longitudinal studies in two cohorts separated in space and time in coastal Kenya. In these longitudinal analyses, antibody responses to peptides were sequentially examined in two cohorts of children at risk of clinical malaria in order to characterize the level of peptide recognition by age, and the role of anti-peptide antibodies in protection from clinical malaria. Ten peptides were associated ?with a significantly reduced odds ratio for an episode of clinical malaria in the first cohort of children and two of these peptides (LR146 and ÁS202.11) were associated with a significantly reduced odds ratio in both cohorts. This study has identified proteins PFB0145c and MAL6P1.37 among others as likely targets of protective antibodies. Our findings support further studies to systematically assess immunogenicity of peptides of interest in order to establish clear criteria for optimal design of potential vaccine constructs to be tested in clinical trials. RESUME La malaria est un problème de santé publique mondial principalement en Afrique, en Asie, en Océanie et en Amérique latine. Plus de 2 milliards de personnes vivent dans des régions endémiques et le nombre de cas par année est estimé entre 300 et 500 millions. 1.5 à 2.7 millions de décès surviennent annuellement dans ces zones. L'augmentation de la résistance aux médicaments et aux insecticides fait du développement d'un vaccin une priorité. Le séquençage complet du génome du parasite offre l'opportunité d'identifier de nouveaux antigènes qui peuvent rapidement mener au développement d'un vaccin. Des protéines antigéniques potentielles présentes à la surface des globules rouges infectés ont été identifiées par bioinformatique et par l'analyse du protéome et du transcriptome. Nous avons sélectionné, parmi ces protéines, celles contenant des motifs dits "a helical coiled-coil" qui sont généralement courts et structurellement stables. Ces régions ont été obtenues par synthèse peptidique et utilisées pour immuniser des souris. La plupart des peptides testés sont immunogéniques et induisent un titre variable d'anticorps déterminé par ELISA. Les résultats de tests d'immunofluorescence indiquent que les sera produits chez la souris reconnaissent les protéines natives exprimées aux différents stades de développement du parasite. En parallèle, des études d'ADCI in vitro montrent qué des anticorps humains purifiés à partir de ces peptides associés à des monocytes inhibent la croissance du parasite aussi bien que celle observée chez des adultes africains protégés. Des études d'antigénicité utilisant des sera de personnes protégées de différents âges vivant dans des régions endémiques montrent que la majorité des peptides sont reconnus avec une haute prévalence. 73 peptides ont été testés dans une étude longitudinale avec 2 cohortes de la côte du Kenya. Ces 2 groupes viennent de zones bien distinctes et les prélèvements n'ont pas été effectués pendant la même période. Dans cette étude, la réponse anticorps contre les peptides synthétiques a été testée dans les 2 cohortes d'enfants à risque de développer un épisode de malaria afin de caractériser le niveau de reconnaissance des peptides en fonction de l'âge et de déterminer le rôle des anticorps anti-peptides dans la protection contre la malaria. Parmi ces peptides, 10 sont associés à une réduction significative des risques de développer un épisode de malaria dans la première cohorte alors qu'un seul (LR146 et AS202.11) l'est dans les 2 cohortes. Cette étude a identifié, parmi d'autres, les protéines PFB0145c et MAL6P1.37 comme pouvant être la cible d'anticorps. Ces résultats sont en faveur de futures études qui évalueraient systématiquement l'immunogénicité des peptides d'intérêt dans le but d'établir des critères de sélection clairs pour le développement d'un vaccin. Résumé pour un large public La malaria est un problème de santé publique mondial principalement en Afrique, en Asie, en Océanie et en Amérique latine. Plus de 2 milliards de personnes vivent dans des régions endémiques et le nombre de cas par année est estimé entre 300 et 500 millions. 1.5 à 2.7 millions de décès surviennent annuellement dans ces zones. La résistance aux médicaments et aux insecticides augmente de plus en plus d'où la nécessité de développer un vaccin. Le séquençage complet du génome (ensemble des gènes) de P. falciparum a conduit au développement de nouvelles .études à large échelle dans le domaine des protéines du parasite (protéome) ; dans l'utilisation d'algorithmes, de techniques informatiques et statistiques pour l'analyse de données biologiques (bioinformatique) et dans les technologies de transcription et de profiles d'expression (transcriptome). Nous avons identifié, en utilisant les outils ci-dessus, des nouvelles protéines antigéniques qui sont présentes au stade sanguin de la malaria. Nous avons sélectionné, parmi ces protéines, celles contenant un motif dit "a-helical coiled-coil" qui sont des domaines impliqués dans un large éventail de fonctions biologiques. Des peptides représentant ces régions structurellement stables ont été synthétisés et utilisés pour immuniser des souris. La plupart des peptides testés sont immunogéniques et induisent un titre variable d'anticorps déterminé par ELISA. Les résultats de tests d'immunofluorescence indiquent que plusieurs sera de souris immunisées avec ces peptides reconnaissent les protéines natives exprimées à la surface des globules rouges infectés. En parallèle, des études d'ADCI in vitro montrent que des anticorps humains purifiés à partir de ces peptides en présence de monocytes inhibent la croissance du parasite de manière similaire à celle observée chez des adultes africains protégés. Des études d'antigénicité utilisant des sera de personnes immunes de différents âges (adultes et enfants) vivant dans des régions endémiques montrent que la majorité des peptides sont reconnus avec une haute prévalence. 73 peptides ont été testés dans des études épidémiologiques dans 2 villages côtiers du Kenya Ces 2 groupes vivent dans des zones bien distinctes et les prélèvements n'ont pas été effectués pendant la même période. Dans ces études, la réponse anticorps dirigée contre les peptides synthétiques a été testée en utilisant 467 échantillons sanguins d'enfants à risque de développer un épisode de malaria afin de caractériser le niveau de reconnaissance des peptides en fonction de l'âge et de déterminer le rôle des anticorps anti-peptides dans la protection contre la malaria cérébrale. Parmi ces peptides, 10 sont associés à une protection contre un épisode de malaria dans le premier village alors qu'un seul l'est dans les 2 villages. Ces résultats sont en faveur de futures études qui évalueraient systématiquement l'immunogénicité des peptides intéressants dans le but d'établir des critères de sélection clairs pour le développement d'un vaccin.
Resumo:
Abstract : In the subject of fingerprints, the rise of computers tools made it possible to create powerful automated search algorithms. These algorithms allow, inter alia, to compare a fingermark to a fingerprint database and therefore to establish a link between the mark and a known source. With the growth of the capacities of these systems and of data storage, as well as increasing collaboration between police services on the international level, the size of these databases increases. The current challenge for the field of fingerprint identification consists of the growth of these databases, which makes it possible to find impressions that are very similar but coming from distinct fingers. However and simultaneously, this data and these systems allow a description of the variability between different impressions from a same finger and between impressions from different fingers. This statistical description of the withinand between-finger variabilities computed on the basis of minutiae and their relative positions can then be utilized in a statistical approach to interpretation. The computation of a likelihood ratio, employing simultaneously the comparison between the mark and the print of the case, the within-variability of the suspects' finger and the between-variability of the mark with respect to a database, can then be based on representative data. Thus, these data allow an evaluation which may be more detailed than that obtained by the application of rules established long before the advent of these large databases or by the specialists experience. The goal of the present thesis is to evaluate likelihood ratios, computed based on the scores of an automated fingerprint identification system when the source of the tested and compared marks is known. These ratios must support the hypothesis which it is known to be true. Moreover, they should support this hypothesis more and more strongly with the addition of information in the form of additional minutiae. For the modeling of within- and between-variability, the necessary data were defined, and acquired for one finger of a first donor, and two fingers of a second donor. The database used for between-variability includes approximately 600000 inked prints. The minimal number of observations necessary for a robust estimation was determined for the two distributions used. Factors which influence these distributions were also analyzed: the number of minutiae included in the configuration and the configuration as such for both distributions, as well as the finger number and the general pattern for between-variability, and the orientation of the minutiae for within-variability. In the present study, the only factor for which no influence has been shown is the orientation of minutiae The results show that the likelihood ratios resulting from the use of the scores of an AFIS can be used for evaluation. Relatively low rates of likelihood ratios supporting the hypothesis known to be false have been obtained. The maximum rate of likelihood ratios supporting the hypothesis that the two impressions were left by the same finger when the impressions came from different fingers obtained is of 5.2 %, for a configuration of 6 minutiae. When a 7th then an 8th minutia are added, this rate lowers to 3.2 %, then to 0.8 %. In parallel, for these same configurations, the likelihood ratios obtained are on average of the order of 100,1000, and 10000 for 6,7 and 8 minutiae when the two impressions come from the same finger. These likelihood ratios can therefore be an important aid for decision making. Both positive evolutions linked to the addition of minutiae (a drop in the rates of likelihood ratios which can lead to an erroneous decision and an increase in the value of the likelihood ratio) were observed in a systematic way within the framework of the study. Approximations based on 3 scores for within-variability and on 10 scores for between-variability were found, and showed satisfactory results. Résumé : Dans le domaine des empreintes digitales, l'essor des outils informatisés a permis de créer de puissants algorithmes de recherche automatique. Ces algorithmes permettent, entre autres, de comparer une trace à une banque de données d'empreintes digitales de source connue. Ainsi, le lien entre la trace et l'une de ces sources peut être établi. Avec la croissance des capacités de ces systèmes, des potentiels de stockage de données, ainsi qu'avec une collaboration accrue au niveau international entre les services de police, la taille des banques de données augmente. Le défi actuel pour le domaine de l'identification par empreintes digitales consiste en la croissance de ces banques de données, qui peut permettre de trouver des impressions très similaires mais provenant de doigts distincts. Toutefois et simultanément, ces données et ces systèmes permettent une description des variabilités entre différentes appositions d'un même doigt, et entre les appositions de différents doigts, basées sur des larges quantités de données. Cette description statistique de l'intra- et de l'intervariabilité calculée à partir des minuties et de leurs positions relatives va s'insérer dans une approche d'interprétation probabiliste. Le calcul d'un rapport de vraisemblance, qui fait intervenir simultanément la comparaison entre la trace et l'empreinte du cas, ainsi que l'intravariabilité du doigt du suspect et l'intervariabilité de la trace par rapport à une banque de données, peut alors se baser sur des jeux de données représentatifs. Ainsi, ces données permettent d'aboutir à une évaluation beaucoup plus fine que celle obtenue par l'application de règles établies bien avant l'avènement de ces grandes banques ou par la seule expérience du spécialiste. L'objectif de la présente thèse est d'évaluer des rapports de vraisemblance calcul és à partir des scores d'un système automatique lorsqu'on connaît la source des traces testées et comparées. Ces rapports doivent soutenir l'hypothèse dont il est connu qu'elle est vraie. De plus, ils devraient soutenir de plus en plus fortement cette hypothèse avec l'ajout d'information sous la forme de minuties additionnelles. Pour la modélisation de l'intra- et l'intervariabilité, les données nécessaires ont été définies, et acquises pour un doigt d'un premier donneur, et deux doigts d'un second donneur. La banque de données utilisée pour l'intervariabilité inclut environ 600000 empreintes encrées. Le nombre minimal d'observations nécessaire pour une estimation robuste a été déterminé pour les deux distributions utilisées. Des facteurs qui influencent ces distributions ont, par la suite, été analysés: le nombre de minuties inclus dans la configuration et la configuration en tant que telle pour les deux distributions, ainsi que le numéro du doigt et le dessin général pour l'intervariabilité, et la orientation des minuties pour l'intravariabilité. Parmi tous ces facteurs, l'orientation des minuties est le seul dont une influence n'a pas été démontrée dans la présente étude. Les résultats montrent que les rapports de vraisemblance issus de l'utilisation des scores de l'AFIS peuvent être utilisés à des fins évaluatifs. Des taux de rapports de vraisemblance relativement bas soutiennent l'hypothèse que l'on sait fausse. Le taux maximal de rapports de vraisemblance soutenant l'hypothèse que les deux impressions aient été laissées par le même doigt alors qu'en réalité les impressions viennent de doigts différents obtenu est de 5.2%, pour une configuration de 6 minuties. Lorsqu'une 7ème puis une 8ème minutie sont ajoutées, ce taux baisse d'abord à 3.2%, puis à 0.8%. Parallèlement, pour ces mêmes configurations, les rapports de vraisemblance sont en moyenne de l'ordre de 100, 1000, et 10000 pour 6, 7 et 8 minuties lorsque les deux impressions proviennent du même doigt. Ces rapports de vraisemblance peuvent donc apporter un soutien important à la prise de décision. Les deux évolutions positives liées à l'ajout de minuties (baisse des taux qui peuvent amener à une décision erronée et augmentation de la valeur du rapport de vraisemblance) ont été observées de façon systématique dans le cadre de l'étude. Des approximations basées sur 3 scores pour l'intravariabilité et sur 10 scores pour l'intervariabilité ont été trouvées, et ont montré des résultats satisfaisants.
Resumo:
Dans le domaine de l'analyse et la détection de produits pharmaceutiques contrefaits, différentes techniques analytiques ont été appliquées afin de discriminer les produits authentiques des contrefaçons. Parmi celles-ci, les spectroscopies proche infrarouge (NIR) et Raman ont fourni des résultats prometteurs. L'objectif de cette étude était de développer une méthodologie, basée sur l'établissement de liens chimiques entre les saisies de produits contrefaits, permettant de fournir des informations utiles pour les acteurs impliqués dans la lutte à la prolifération de ces produits. Une banque de données de spectres NIR et Raman a été créée et différents algorithmes de classification non-supervisée (i.e., analyse en composantes principales (ACP) et analyse factorielle discriminante (AFD) - elus ter onolysis) ont été utilisées afin d'identifier les différents groupes de produits présents. Ces classes ont été comparées aux profils chimiques mis en évidence par la spectroscopie infrarouge à transformée de Fourier (FT-IR) et par la chromatographie gazeuse couplée à la spectrométrie de masse (GC -MS). La stratégie de classification proposée, fondée sur les classes identifiées par spectroscopie NIR et Raman, utilise un algorithme de classification basé sur des mesures de distance et des courbes Receiver Operating Characteristics (ROC). Le modèle est capable de comparer le spectre d'une nouvelle contrefaçon à ceux des saisies précédemment analysées afin de déterminer si le nouveau spécimen appartient à l'une des classes existantes, permettant ainsi de le lier à d'autres saisies dans la base de données.
Resumo:
Cadre de l'étude La part des dépenses de santé dans les budgets des pays occidentaux est importante et tend à croître depuis plusieurs décennies. Une des conséquences, notamment pour la Suisse, est une augmentation régulière des primes d'assurance maladie, dont l'impopularité incite les responsables politiques à trouver des stratégies de frein à la croissance des coûts de la santé. Les médicaments, qui contribuent notablement à l'augmentation de ces coûts, constituent l'une des cibles classiques d'interventions visant à une réduction des dépenses de santé. Le niveau de coûts des médicaments représente plus de 20% des dépenses de soins du domaine ambulatoire à la charge de l'assurance obligatoire des soins (AOS), soit une dépense annuelle de plus de 4 milliards de francs. Différentes mesures peuvent être utilisées par le gouvernement pour contenir cette facture à charge de la collectivité : baisse du prix des médicaments, limitation du nombre de produits remboursés par l'assurance de base et incitations à la concurrence sur les prix en autorisant les importations parallèles. Depuis que de plus en plus de brevets pour des médicaments sont arrivés à échéance, un autre angle d'attaque s'est concrétisé avec l'incitation à la prescription de médicaments génériques. Les génériques sont définis comme des produits thérapeutiques chimiquement identiques à des composés déjà utilisés, appelés médicaments originaux. En principe, une économie substantielle devrait pouvoir être réalisée sur les coûts totaux des médicaments si tous les génériques disponibles sur le marché étaient systématiquement prescrits par les professionnels et acceptés par les patients. Les résultats publiés par les caisses maladie et les offices fédéraux sont des estimations globales et les montants publiés par l'industrie pharmaceutique concernent l'ensemble du marché, incluant les médicaments utilisés dans les séjours hospitaliers, sont par ailleurs exprimés en prix de fabrique. De plus, aucune étude n'a tenu compte de la substituabilité des produits d'un point de vue pharmaceutique. L'objectif général de la thèse est d'évaluer aussi précisément que possible l'économie pouvant être encore réalisée dans le secteur ambulatoire en substituant aux médicaments originaux les produits génériques présents sur le marché et de caractériser plusieurs facteurs qui influencent la substitution générique. Pour cette étude, nous avons pu disposer de l'ensemble des factures pharmaceutiques de la caisse maladie CSS, pour tous ses assurés des cantons d'Argovie, du Tessin et de Vaud, soit plus de 169'000 assurés représentant les trois régions linguistiques de la Suisse. Les 1'341'197 prescriptions médicales qui ont été analysées concernent l'année 2003. C'est un moment critique dans l'histoire des génériques en Suisse, approprié pour établir un premier bilan après l'entrée en vigueur de la première mesure relative au droit de substituer octroyé en 2001 aux pharmaciens et, pour identifier idéalement les principaux déterminants de la substitution par les praticiens avant l'introduction de la quote-part différenciée en 2006. La présence d'un même principe actif n'est pas une condition suffisante pour permettre une substitution et pour ce travail des critères tenant compte des caractéristiques pharmaceutiques des produits ont été établis et appliqués pour valider la substituabilité des originaux par les génériques disponibles sur le marché. Ces critères concernent notamment le mode d'administration, le dosage et le nombre de doses dans l'emballage. L'étude a été réalisée selon deux approches, d'abord par une analyse descriptive sur l'ensemble de la population source pour estimer le marché des génériques et ensuite par une analyse statistique (régression logit multivariée) sur 173'212 prescriptions agrégées, qui concernent spécifiquement soit un générique soit un original substituable, pour caractériser les facteurs déterminants de la substitution générique. Résultats Dans l'ensemble de la population source, les génériques et les originaux substituables représentent 17,4% du marché en termes de coûts facturés, avec 3,4% de génériques et 14,0% d'originaux substituables ce qui correspond à un taux de substitution de 19,5%. En termes de dépenses, les substitutions génériques réalisées représentent une économie de 1,3% du total du marché étudié alors qu'il reste un potentiel notable d'économie par la substitution de 4,6%. Les taux de substitution sont très variables selon les cantons : 10,1% au Tessin, 29,0% pour le canton de Vaud et 35,8% pour Argovie. L'analyse univariée des 173'212 prescriptions de génériques ou d'originaux substituables, montre des taux de substitution plus élevés chez les patients jeunes et lorsqu'il y a d'importantes différences de prix entre les originaux et les génériques. Des taux de substitution peu élevés sont observés chez les patients les plus âgés et pour ceux qui ont des traitements médicamenteux complexes. Les patients ayant plus de 10 médicaments différents durant la même année, présentent une probabilité relative de substituer inférieure (-24%) par rapport aux patients ayant 6 à 10 médicaments différents dans l'année. Cependant, l'analyse multivariée montre que l'effet négatif sur le taux de substitution de l'âge combiné à la complexité des traitements n'excède pas 3%. Bien que le niveau de franchises et la participation financière à la quote-part soient liées à une augmentation de la prescription de génériques, leurs effets sont modérés pour les patients avec des franchises supérieures à 300 francs (effet marginal de 1%) et pour les patients qui n'ont pas atteint le plafond de participation (effet marginal de 2%). La différence de taux substitution entre les médecins hospitaliers et les spécialistes est diminuée de façon notable (effet marginal de -13%) et elle est cependant moins marquée avec les médecins généralistes (effet marginal de -3%). Les facteurs associés au marché ont une influence notable sur la substitution générique et des effets positifs sont observés avec l'augmentation de la taille du marché, du nombre de génériques pour un même original substituable et de l'économie relative entre l'original et le générique. Par contre, la diversification des formes galéniques et des tailles d'emballages au niveau de l'offre des médicaments originaux a des effets fortement négatifs sur la substitution générique (-7%). Le canton de domicile a aussi un impact notable sur la substitution et le canton du Tessin présente un taux plus bas (-26%) que le canton d'Argovie. Conclusion et perspectives Ce travail a montré qu'il y a encore un important potentiel d'économies à réaliser par la substitution générique, calculé à plus de 4% des dépenses pharmaceutiques prises en charge par l'AOS en ambulatoires. Une extrapolation à l'ensemble du marché suisse, qui doit être faite avec prudence, fait apparaître un potentiel d'économies de 127 millions pour les médicaments délivrés par les pharmacies en 2003. L'étude a mis en évidence un certain nombre de déterminants qui freinent la substitution générique, notamment la prescription par un médecin hospitalier. Sur ce point la prescription en DCI (dénomination commune internationale) pourrait favoriser la dispensation de génériques moins chers. Un taux de substitution plus faible est observé chez les patients âgés avec des traitements complexes. Ce constat peut être mis en relation avec la crainte d'avoir un traitement moins efficace ou moins bien supporté et les risques de confusion lors du passage d'un original substituable à un générique ou d'un générique à un autre générique. Sur ces éléments, l'indication claire et précise du nom de la substance, aussi bien sur les emballages des originaux substituables que sur ceux des génériques, pourrait rassurer les patients et diminuer les risques d'erreurs dans la prise des médicaments. Certaines précautions à prendre lors de la prescription de génériques sont reconnues, notamment pour les médicaments à faible marge thérapeutique, et des informations sur la bioéquivalence, régulièrement mises à jour et à disposition des professionnels, pourraient augmenter la confiance dans l'utilisation des génériques. Les industries pharmaceutiques préservent par différentes tactiques leurs parts de marché et notamment avec succès en introduisant de nouvelles formes galéniques juste avant l'expiration des brevets. Des directives complémentaires sur la fixation des prix pour le remboursement, en particulier l'introduction d'un prix de référence quelle que soit la forme galénique, pourraient diminuer l'effet de barrage des médicaments originaux. Les incitations économiques, telles que la franchise et les participations sont efficaces si l'on considère l'impact sur les taux de substitution. Leur effet global reste toutefois modeste et il serait nécessaire de mesurer concrètement l'impact de l'introduction en 2006 de la quote-part différenciée. Les différences de prix entre les originaux et les génériques exigées à 50% pour les gros marchés, c'est-à-dire de plus de 16 millions, devraient aussi avoir un impact qu'il serait opportun de mesurer.