341 resultados para Approche à base de graphe


Relevância:

80.00% 80.00%

Publicador:

Relevância:

80.00% 80.00%

Publicador:

Resumo:

3 Summary 3. 1 English The pharmaceutical industry has been facing several challenges during the last years, and the optimization of their drug discovery pipeline is believed to be the only viable solution. High-throughput techniques do participate actively to this optimization, especially when complemented by computational approaches aiming at rationalizing the enormous amount of information that they can produce. In siiico techniques, such as virtual screening or rational drug design, are now routinely used to guide drug discovery. Both heavily rely on the prediction of the molecular interaction (docking) occurring between drug-like molecules and a therapeutically relevant target. Several softwares are available to this end, but despite the very promising picture drawn in most benchmarks, they still hold several hidden weaknesses. As pointed out in several recent reviews, the docking problem is far from being solved, and there is now a need for methods able to identify binding modes with a high accuracy, which is essential to reliably compute the binding free energy of the ligand. This quantity is directly linked to its affinity and can be related to its biological activity. Accurate docking algorithms are thus critical for both the discovery and the rational optimization of new drugs. In this thesis, a new docking software aiming at this goal is presented, EADock. It uses a hybrid evolutionary algorithm with two fitness functions, in combination with a sophisticated management of the diversity. EADock is interfaced with .the CHARMM package for energy calculations and coordinate handling. A validation was carried out on 37 crystallized protein-ligand complexes featuring 11 different proteins. The search space was defined as a sphere of 15 R around the center of mass of the ligand position in the crystal structure, and conversely to other benchmarks, our algorithms was fed with optimized ligand positions up to 10 A root mean square deviation 2MSD) from the crystal structure. This validation illustrates the efficiency of our sampling heuristic, as correct binding modes, defined by a RMSD to the crystal structure lower than 2 A, were identified and ranked first for 68% of the complexes. The success rate increases to 78% when considering the five best-ranked clusters, and 92% when all clusters present in the last generation are taken into account. Most failures in this benchmark could be explained by the presence of crystal contacts in the experimental structure. EADock has been used to understand molecular interactions involved in the regulation of the Na,K ATPase, and in the activation of the nuclear hormone peroxisome proliferatoractivated receptors a (PPARa). It also helped to understand the action of common pollutants (phthalates) on PPARy, and the impact of biotransformations of the anticancer drug Imatinib (Gleevec®) on its binding mode to the Bcr-Abl tyrosine kinase. Finally, a fragment-based rational drug design approach using EADock was developed, and led to the successful design of new peptidic ligands for the a5ß1 integrin, and for the human PPARa. In both cases, the designed peptides presented activities comparable to that of well-established ligands such as the anticancer drug Cilengitide and Wy14,643, respectively. 3.2 French Les récentes difficultés de l'industrie pharmaceutique ne semblent pouvoir se résoudre que par l'optimisation de leur processus de développement de médicaments. Cette dernière implique de plus en plus. de techniques dites "haut-débit", particulièrement efficaces lorsqu'elles sont couplées aux outils informatiques permettant de gérer la masse de données produite. Désormais, les approches in silico telles que le criblage virtuel ou la conception rationnelle de nouvelles molécules sont utilisées couramment. Toutes deux reposent sur la capacité à prédire les détails de l'interaction moléculaire entre une molécule ressemblant à un principe actif (PA) et une protéine cible ayant un intérêt thérapeutique. Les comparatifs de logiciels s'attaquant à cette prédiction sont flatteurs, mais plusieurs problèmes subsistent. La littérature récente tend à remettre en cause leur fiabilité, affirmant l'émergence .d'un besoin pour des approches plus précises du mode d'interaction. Cette précision est essentielle au calcul de l'énergie libre de liaison, qui est directement liée à l'affinité du PA potentiel pour la protéine cible, et indirectement liée à son activité biologique. Une prédiction précise est d'une importance toute particulière pour la découverte et l'optimisation de nouvelles molécules actives. Cette thèse présente un nouveau logiciel, EADock, mettant en avant une telle précision. Cet algorithme évolutionnaire hybride utilise deux pressions de sélections, combinées à une gestion de la diversité sophistiquée. EADock repose sur CHARMM pour les calculs d'énergie et la gestion des coordonnées atomiques. Sa validation a été effectuée sur 37 complexes protéine-ligand cristallisés, incluant 11 protéines différentes. L'espace de recherche a été étendu à une sphère de 151 de rayon autour du centre de masse du ligand cristallisé, et contrairement aux comparatifs habituels, l'algorithme est parti de solutions optimisées présentant un RMSD jusqu'à 10 R par rapport à la structure cristalline. Cette validation a permis de mettre en évidence l'efficacité de notre heuristique de recherche car des modes d'interactions présentant un RMSD inférieur à 2 R par rapport à la structure cristalline ont été classés premier pour 68% des complexes. Lorsque les cinq meilleures solutions sont prises en compte, le taux de succès grimpe à 78%, et 92% lorsque la totalité de la dernière génération est prise en compte. La plupart des erreurs de prédiction sont imputables à la présence de contacts cristallins. Depuis, EADock a été utilisé pour comprendre les mécanismes moléculaires impliqués dans la régulation de la Na,K ATPase et dans l'activation du peroxisome proliferatoractivated receptor a (PPARa). Il a également permis de décrire l'interaction de polluants couramment rencontrés sur PPARy, ainsi que l'influence de la métabolisation de l'Imatinib (PA anticancéreux) sur la fixation à la kinase Bcr-Abl. Une approche basée sur la prédiction des interactions de fragments moléculaires avec protéine cible est également proposée. Elle a permis la découverte de nouveaux ligands peptidiques de PPARa et de l'intégrine a5ß1. Dans les deux cas, l'activité de ces nouveaux peptides est comparable à celles de ligands bien établis, comme le Wy14,643 pour le premier, et le Cilengitide (PA anticancéreux) pour la seconde.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La biologie de la conservation est communément associée à la protection de petites populations menacées d?extinction. Pourtant, il peut également être nécessaire de soumettre à gestion des populations surabondantes ou susceptibles d?une trop grande expansion, dans le but de prévenir les effets néfastes de la surpopulation. Du fait des différences tant quantitatives que qualitatives entre protection des petites populations et contrôle des grandes, il est nécessaire de disposer de modèles et de méthodes distinctes. L?objectif de ce travail a été de développer des modèles prédictifs de la dynamique des grandes populations, ainsi que des logiciels permettant de calculer les paramètres de ces modèles et de tester des scénarios de gestion. Le cas du Bouquetin des Alpes (Capra ibex ibex) - en forte expansion en Suisse depuis sa réintroduction au début du XXème siècle - servit d?exemple. Cette tâche fut accomplie en trois étapes : En premier lieu, un modèle de dynamique locale, spécifique au Bouquetin, fut développé : le modèle sous-jacent - structuré en classes d?âge et de sexe - est basé sur une matrice de Leslie à laquelle ont été ajoutées la densité-dépendance, la stochasticité environnementale et la chasse de régulation. Ce modèle fut implémenté dans un logiciel d?aide à la gestion - nommé SIM-Ibex - permettant la maintenance de données de recensements, l?estimation automatisée des paramètres, ainsi que l?ajustement et la simulation de stratégies de régulation. Mais la dynamique d?une population est influencée non seulement par des facteurs démographiques, mais aussi par la dispersion et la colonisation de nouveaux espaces. Il est donc nécessaire de pouvoir modéliser tant la qualité de l?habitat que les obstacles à la dispersion. Une collection de logiciels - nommée Biomapper - fut donc développée. Son module central est basé sur l?Analyse Factorielle de la Niche Ecologique (ENFA) dont le principe est de calculer des facteurs de marginalité et de spécialisation de la niche écologique à partir de prédicteurs environnementaux et de données d?observation de l?espèce. Tous les modules de Biomapper sont liés aux Systèmes d?Information Géographiques (SIG) ; ils couvrent toutes les opérations d?importation des données, préparation des prédicteurs, ENFA et calcul de la carte de qualité d?habitat, validation et traitement des résultats ; un module permet également de cartographier les barrières et les corridors de dispersion. Le domaine d?application de l?ENFA fut exploré par le biais d?une distribution d?espèce virtuelle. La comparaison à une méthode couramment utilisée pour construire des cartes de qualité d?habitat, le Modèle Linéaire Généralisé (GLM), montra qu?elle était particulièrement adaptée pour les espèces cryptiques ou en cours d?expansion. Les informations sur la démographie et le paysage furent finalement fusionnées en un modèle global. Une approche basée sur un automate cellulaire fut choisie, tant pour satisfaire aux contraintes du réalisme de la modélisation du paysage qu?à celles imposées par les grandes populations : la zone d?étude est modélisée par un pavage de cellules hexagonales, chacune caractérisée par des propriétés - une capacité de soutien et six taux d?imperméabilité quantifiant les échanges entre cellules adjacentes - et une variable, la densité de la population. Cette dernière varie en fonction de la reproduction et de la survie locale, ainsi que de la dispersion, sous l?influence de la densité-dépendance et de la stochasticité. Un logiciel - nommé HexaSpace - fut développé pour accomplir deux fonctions : 1° Calibrer l?automate sur la base de modèles de dynamique (par ex. calculés par SIM-Ibex) et d?une carte de qualité d?habitat (par ex. calculée par Biomapper). 2° Faire tourner des simulations. Il permet d?étudier l?expansion d?une espèce envahisseuse dans un paysage complexe composé de zones de qualité diverses et comportant des obstacles à la dispersion. Ce modèle fut appliqué à l?histoire de la réintroduction du Bouquetin dans les Alpes bernoises (Suisse). SIM-Ibex est actuellement utilisé par les gestionnaires de la faune et par les inspecteurs du gouvernement pour préparer et contrôler les plans de tir. Biomapper a été appliqué à plusieurs espèces (tant végétales qu?animales) à travers le Monde. De même, même si HexaSpace fut initialement conçu pour des espèces animales terrestres, il pourrait aisément être étndu à la propagation de plantes ou à la dispersion d?animaux volants. Ces logiciels étant conçus pour, à partir de données brutes, construire un modèle réaliste complexe, et du fait qu?ils sont dotés d?une interface d?utilisation intuitive, ils sont susceptibles de nombreuses applications en biologie de la conservation. En outre, ces approches peuvent également s?appliquer à des questions théoriques dans les domaines de l?écologie des populations et du paysage.<br/><br/>Conservation biology is commonly associated to small and endangered population protection. Nevertheless, large or potentially large populations may also need human management to prevent negative effects of overpopulation. As there are both qualitative and quantitative differences between small population protection and large population controlling, distinct methods and models are needed. The aim of this work was to develop theoretical models to predict large population dynamics, as well as computer tools to assess the parameters of these models and to test management scenarios. The alpine Ibex (Capra ibex ibex) - which experienced a spectacular increase since its reintroduction in Switzerland at the beginning of the 20th century - was used as paradigm species. This task was achieved in three steps: A local population dynamics model was first developed specifically for Ibex: the underlying age- and sex-structured model is based on a Leslie matrix approach with addition of density-dependence, environmental stochasticity and culling. This model was implemented into a management-support software - named SIM-Ibex - allowing census data maintenance, parameter automated assessment and culling strategies tuning and simulating. However population dynamics is driven not only by demographic factors, but also by dispersal and colonisation of new areas. Habitat suitability and obstacles modelling had therefore to be addressed. Thus, a software package - named Biomapper - was developed. Its central module is based on the Ecological Niche Factor Analysis (ENFA) whose principle is to compute niche marginality and specialisation factors from a set of environmental predictors and species presence data. All Biomapper modules are linked to Geographic Information Systems (GIS); they cover all operations of data importation, predictor preparation, ENFA and habitat suitability map computation, results validation and further processing; a module also allows mapping of dispersal barriers and corridors. ENFA application domain was then explored by means of a simulated species distribution. It was compared to a common habitat suitability assessing method, the Generalised Linear Model (GLM), and was proven better suited for spreading or cryptic species. Demography and landscape informations were finally merged into a global model. To cope with landscape realism and technical constraints of large population modelling, a cellular automaton approach was chosen: the study area is modelled by a lattice of hexagonal cells, each one characterised by a few fixed properties - a carrying capacity and six impermeability rates quantifying exchanges between adjacent cells - and one variable, population density. The later varies according to local reproduction/survival and dispersal dynamics, modified by density-dependence and stochasticity. A software - named HexaSpace - was developed, which achieves two functions: 1° Calibrating the automaton on the base of local population dynamics models (e.g., computed by SIM-Ibex) and a habitat suitability map (e.g. computed by Biomapper). 2° Running simulations. It allows studying the spreading of an invading species across a complex landscape made of variously suitable areas and dispersal barriers. This model was applied to the history of Ibex reintroduction in Bernese Alps (Switzerland). SIM-Ibex is now used by governmental wildlife managers to prepare and verify culling plans. Biomapper has been applied to several species (both plants and animals) all around the World. In the same way, whilst HexaSpace was originally designed for terrestrial animal species, it could be easily extended to model plant propagation or flying animals dispersal. As these softwares were designed to proceed from low-level data to build a complex realistic model and as they benefit from an intuitive user-interface, they may have many conservation applications. Moreover, theoretical questions in the fields of population and landscape ecology might also be addressed by these approaches.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La tomodensitométrie (TDM) est une technique d'imagerie pour laquelle l'intérêt n'a cessé de croitre depuis son apparition au début des années 70. De nos jours, l'utilisation de cette technique est devenue incontournable, grâce entre autres à sa capacité à produire des images diagnostiques de haute qualité. Toutefois, et en dépit d'un bénéfice indiscutable sur la prise en charge des patients, l'augmentation importante du nombre d'examens TDM pratiqués soulève des questions sur l'effet potentiellement dangereux des rayonnements ionisants sur la population. Parmi ces effets néfastes, l'induction de cancers liés à l'exposition aux rayonnements ionisants reste l'un des risques majeurs. Afin que le rapport bénéfice-risques reste favorable au patient il est donc nécessaire de s'assurer que la dose délivrée permette de formuler le bon diagnostic tout en évitant d'avoir recours à des images dont la qualité est inutilement élevée. Ce processus d'optimisation, qui est une préoccupation importante pour les patients adultes, doit même devenir une priorité lorsque l'on examine des enfants ou des adolescents, en particulier lors d'études de suivi requérant plusieurs examens tout au long de leur vie. Enfants et jeunes adultes sont en effet beaucoup plus sensibles aux radiations du fait de leur métabolisme plus rapide que celui des adultes. De plus, les probabilités des évènements auxquels ils s'exposent sont également plus grandes du fait de leur plus longue espérance de vie. L'introduction des algorithmes de reconstruction itératifs, conçus pour réduire l'exposition des patients, est certainement l'une des plus grandes avancées en TDM, mais elle s'accompagne de certaines difficultés en ce qui concerne l'évaluation de la qualité des images produites. Le but de ce travail est de mettre en place une stratégie pour investiguer le potentiel des algorithmes itératifs vis-à-vis de la réduction de dose sans pour autant compromettre la qualité du diagnostic. La difficulté de cette tâche réside principalement dans le fait de disposer d'une méthode visant à évaluer la qualité d'image de façon pertinente d'un point de vue clinique. La première étape a consisté à caractériser la qualité d'image lors d'examen musculo-squelettique. Ce travail a été réalisé en étroite collaboration avec des radiologues pour s'assurer un choix pertinent de critères de qualité d'image. Une attention particulière a été portée au bruit et à la résolution des images reconstruites à l'aide d'algorithmes itératifs. L'analyse de ces paramètres a permis aux radiologues d'adapter leurs protocoles grâce à une possible estimation de la perte de qualité d'image liée à la réduction de dose. Notre travail nous a également permis d'investiguer la diminution de la détectabilité à bas contraste associée à une diminution de la dose ; difficulté majeure lorsque l'on pratique un examen dans la région abdominale. Sachant que des alternatives à la façon standard de caractériser la qualité d'image (métriques de l'espace Fourier) devaient être utilisées, nous nous sommes appuyés sur l'utilisation de modèles d'observateurs mathématiques. Nos paramètres expérimentaux ont ensuite permis de déterminer le type de modèle à utiliser. Les modèles idéaux ont été utilisés pour caractériser la qualité d'image lorsque des paramètres purement physiques concernant la détectabilité du signal devaient être estimés alors que les modèles anthropomorphes ont été utilisés dans des contextes cliniques où les résultats devaient être comparés à ceux d'observateurs humain, tirant profit des propriétés de ce type de modèles. Cette étude a confirmé que l'utilisation de modèles d'observateurs permettait d'évaluer la qualité d'image en utilisant une approche basée sur la tâche à effectuer, permettant ainsi d'établir un lien entre les physiciens médicaux et les radiologues. Nous avons également montré que les reconstructions itératives ont le potentiel de réduire la dose sans altérer la qualité du diagnostic. Parmi les différentes reconstructions itératives, celles de type « model-based » sont celles qui offrent le plus grand potentiel d'optimisation, puisque les images produites grâce à cette modalité conduisent à un diagnostic exact même lors d'acquisitions à très basse dose. Ce travail a également permis de clarifier le rôle du physicien médical en TDM: Les métriques standards restent utiles pour évaluer la conformité d'un appareil aux requis légaux, mais l'utilisation de modèles d'observateurs est inévitable pour optimiser les protocoles d'imagerie. -- Computed tomography (CT) is an imaging technique in which interest has been quickly growing since it began to be used in the 1970s. Today, it has become an extensively used modality because of its ability to produce accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase in the number of CT examinations performed has raised concerns about the potential negative effects of ionising radiation on the population. Among those negative effects, one of the major risks remaining is the development of cancers associated with exposure to diagnostic X-ray procedures. In order to ensure that the benefits-risk ratio still remains in favour of the patient, it is necessary to make sure that the delivered dose leads to the proper diagnosis without producing unnecessarily high-quality images. This optimisation scheme is already an important concern for adult patients, but it must become an even greater priority when examinations are performed on children or young adults, in particular with follow-up studies which require several CT procedures over the patient's life. Indeed, children and young adults are more sensitive to radiation due to their faster metabolism. In addition, harmful consequences have a higher probability to occur because of a younger patient's longer life expectancy. The recent introduction of iterative reconstruction algorithms, which were designed to substantially reduce dose, is certainly a major achievement in CT evolution, but it has also created difficulties in the quality assessment of the images produced using those algorithms. The goal of the present work was to propose a strategy to investigate the potential of iterative reconstructions to reduce dose without compromising the ability to answer the diagnostic questions. The major difficulty entails disposing a clinically relevant way to estimate image quality. To ensure the choice of pertinent image quality criteria this work was continuously performed in close collaboration with radiologists. The work began by tackling the way to characterise image quality when dealing with musculo-skeletal examinations. We focused, in particular, on image noise and spatial resolution behaviours when iterative image reconstruction was used. The analyses of the physical parameters allowed radiologists to adapt their image acquisition and reconstruction protocols while knowing what loss of image quality to expect. This work also dealt with the loss of low-contrast detectability associated with dose reduction, something which is a major concern when dealing with patient dose reduction in abdominal investigations. Knowing that alternative ways had to be used to assess image quality rather than classical Fourier-space metrics, we focused on the use of mathematical model observers. Our experimental parameters determined the type of model to use. Ideal model observers were applied to characterise image quality when purely objective results about the signal detectability were researched, whereas anthropomorphic model observers were used in a more clinical context, when the results had to be compared with the eye of a radiologist thus taking advantage of their incorporation of human visual system elements. This work confirmed that the use of model observers makes it possible to assess image quality using a task-based approach, which, in turn, establishes a bridge between medical physicists and radiologists. It also demonstrated that statistical iterative reconstructions have the potential to reduce the delivered dose without impairing the quality of the diagnosis. Among the different types of iterative reconstructions, model-based ones offer the greatest potential, since images produced using this modality can still lead to an accurate diagnosis even when acquired at very low dose. This work has clarified the role of medical physicists when dealing with CT imaging. The use of the standard metrics used in the field of CT imaging remains quite important when dealing with the assessment of unit compliance to legal requirements, but the use of a model observer is the way to go when dealing with the optimisation of the imaging protocols.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé La mondialisation des marchés, les mutations du contexte économique et enfin l'impact des nouvelles technologies de l'information ont obligé les entreprises à revoir la façon dont elles gèrent leurs capitaux intellectuel (gestion des connaissances) et humain (gestion des compétences). II est communément admis aujourd'hui que ceux-ci jouent un rôle particulièrement stratégique dans l'organisation. L'entreprise désireuse de se lancer dans une politique gestion de ces capitaux devra faire face à différents problèmes. En effet, afin de gérer ces connaissances et ces compétences, un long processus de capitalisation doit être réalisé. Celui-ci doit passer par différentes étapes comme l'identification, l'extraction et la représentation des connaissances et des compétences. Pour cela, il existe différentes méthodes de gestion des connaissances et des compétences comme MASK, CommonKADS, KOD... Malheureusement, ces différentes méthodes sont très lourdes à mettre en oeuvre, et se cantonnent à certains types de connaissances et sont, par conséquent, plus limitées dans les fonctionnalités qu'elles peuvent offrir. Enfin, la gestion des compétences et la gestion des connaissances sont deux domaines dissociés alors qu'il serait intéressant d'unifier ces deux approches en une seule. En effet, les compétences sont très proches des connaissances comme le souligne la définition de la compétence qui suit : « un ensemble de connaissances en action dans un contexte donné ». Par conséquent, nous avons choisi d'appuyer notre proposition sur le concept de compétence. En effet, la compétence est parmi les connaissances de l'entreprise l'une des plus cruciales, en particulier pour éviter la perte de savoir-faire ou pour pouvoir prévenir les besoins futurs de l'entreprise, car derrière les compétences des collaborateurs, se trouve l'efficacité de l'organisation. De plus, il est possible de décrire grâce à la compétence de nombreux autres concepts de l'organisation, comme les métiers, les missions, les projets, les formations... Malheureusement, il n'existe pas réellement de consensus sur la définition de la compétence. D'ailleurs, les différentes définitions existantes, même si elles sont pleinement satisfaisantes pour les experts, ne permettent pas de réaliser un système opérationnel. Dans notre approche; nous abordons la gestion des compétences à l'aide d'une méthode de gestion des connaissances. En effet, de par leur nature même, connaissance et compétence sont intimement liées et donc une telle méthode est parfaitement adaptée à la gestion des compétences. Afin de pouvoir exploiter ces connaissances et ces compétences nous avons dû, dans un premier temps, définir les concepts organisationnels de façon claire et computationnelle. Sur cette base, nous proposons une méthodologie de construction des différents référentiels d'entreprise (référentiel de compétences, des missions, des métiers...). Pour modéliser ces différents référentiels, nous avons choisi l'ontologie, car elle permet d'obtenir des définitions cohérentes et consensuelles aux concepts tout en supportant les diversités langagières. Ensuite, nous cartographions les connaissances de l'entreprise (formations, missions, métiers...) sur ces différentes ontologies afin de pouvoir les exploiter et les diffuser. Notre approche de la gestion des connaissances et de la gestion des compétences a permis la réalisation d'un outil offrant de nombreuses fonctionnalités comme la gestion des aires de mobilités, l'analyse stratégique, les annuaires ou encore la gestion des CV. Abstract The globalization of markets, the easing of economical regulation and finally the impact of new information and communication technologies have obliged firms to re-examine the way they manage their knowledge capital (knowledge management) and their human capital (competence management). It is commonly admitted that knowledge plays a slightly strategical role in the organization. The firms who want to establish one politic of management of these capitals will have to face with different problems. To manage that knowledge, a long process of capitalization must be done. That one has different steps like identification, extraction and representation of knowledge and competences. There are some different methods of knowledge management like MASK, CommonKADS or KOD. Unfortunately, those methods are very difficult to implement and are using only some types of knowledge and are consequently more limited in the functionalities they can offer. Knowledge management and competence management are two different domain where it could be interesting to unify those to one. Indeed, competence is very close than knowledge as underline this definition: "a set of knowledge in action in a specified context". We choose in our approach to rely on the concept of competence. Indeed, the competence is one of crucial knowledge in the company, particularly to avoid the loss of know-how or to prevent future needs. Because behind collaborator's competence, we can find company efficiency. Unfortunately, there is no real consensus on the definition of the concept of competence. Moreover, existing different definitions don't permit to develop an operational system. Among other key concept, we can find jobs, mission, project, and training... Moreover, we approach different problems of the competence management under the angle of the knowledge management. Indeed, knowledge and competence are closely linked. Then, we propose a method to build different company repositories (competence, jobs, projects repositories). To model those different repositories we choose ontology because it permits to obtain coherent and consensual definitions of the concepts with support of linguistics diversities too. This building repositories method coupled with this knowledge and competence management approach permitted the realization of a tool offering functionalities like mobility management, strategical analysis, yellow pages or CV management.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le travail policier et l'enquête judiciaire nécessitent de prendre de nombreuses décisions : choisir quelle trace analyser, mettre sous surveillance ou en détention un suspect, sont autant de décisions qui sont prises quotidiennement par les acteurs du système judiciaire. Ces décisions font l'objet de pesées d'intérêts qui se fondent sur l'analyse de l'information accessible. C'est le rôle de l'analyse criminelle de mettre en perspective l'information colligée pour la rendre intelligible aux décideurs compétents. L'usage de représentations graphiques est notamment recommandé pour soutenir l'analyse et la communication de ces informations.Des techniques de visualisation relationnelle sont notamment exploitées dans les enquêtes judiciaires afin de faciliter le traitement d'affaires d'envergure. Les éléments pertinents de l'enquête sont représentés sous la forme de schémas décrivant les relations entre les événements et les entités d'intérêts (tel que des personnes, des objets et des traces). Les exploitations classiques de ces techniques qui s'apparentent à des graphes, sont par exemple : la représentation de réseaux criminels, de trafics de marchandises, de chronologies d'événements, ainsi que la visualisation de relations téléphoniques et financières. Dans ce contexte, la visualisation soutient un nombre importants d'objectifs, tels qu'analyser les traces et les informations collectées, évaluer a posteriori une investigation, aider à qualifier les infractions, faciliter l'appréhension d'un dossier, voire soutenir une argumentation lors du procès.La pratique intègre des outils logiciels simples qui produisent des graphiques élégants et souvent percutants. Leur utilisation semble néanmoins soulever des difficultés. Cette recherche tend à montrer qu'il existe des disparités étonnantes lors de l'exploitation de ces techniques. Des biais de raisonnement et de perception peuvent être induits, allant jusqu'à provoquer des décisions aux conséquences parfois désastreuses. Ce constat révèle la nécessité de consolider les méthodes pratiquées.Pour mettre en évidence ces difficultés, des évaluations ont été effectuées avec des praticiens et des étudiants. Elles ont permis d'établir une image empirique de l'étendue des variations de conception et d'interprétation des représentations, ainsi que de leurs impacts sur la prise de décision. La nature et la diversité des concepts à représenter, l'absence d'un consensus émergeant sur la manière de représenter les données, la diversité des solutions visuelles envisageables, les contraintes imposées par les outils exploités et l'absence d'une formalisation claire du langage, sont autant de causes supposées des difficultés.Au cours des vingt dernières années, plusieurs axes de développement ont été proposés pour traiter les difficultés observées, tels que l'amélioration des automatismes facilitant la conception d'une représentation, l'exploitation des techniques de réseaux sociaux, l'automatisation de l'identification et de l'extraction des entités dans du texte non-structuré et la définition de langages formels. Cette recherche propose une approche parallèle fondée sur une exploitation adaptée de structures de graphe et de propriétés visuelles pour optimiser la représentation en fonction des objectifs définis et de la nature des informations à représenter.Des solutions ont été recherchées selon plusieurs axes. Des recommandations générales, issues de diverses communautés de recherche liées à la visualisation, ont été recherchées afin de proposer une démarche générale de conception des schémas relationnels. Par ailleurs, le développement d'un catalogue de bonnes pratiques formalisées sous la forme de patterns de visualisation a été amorcé. Chaque pattern décrit une solution particulière pour un problème d'analyse récurrent, tel que l'analyse d'une série de cambriolages. Finalement, l'impact sur les outils de la méthodologie proposée est discuté en regard des limites qu'ils imposent. Un prototype de visualisation multidimensionnel a été élaboré.Cette recherche met en évidence les difficultés rencontrées lors de l'exploitation de représentations graphiques pour soutenir le processus de l'enquête judiciaire et propose des éléments de méthode et des innovations techniques utiles tant pour l'enseignement de la discipline que pour sa pratique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans le domaine de l'analyse et la détection de produits pharmaceutiques contrefaits, différentes techniques analytiques ont été appliquées afin de discriminer les produits authentiques des contrefaçons. Parmi celles-ci, les spectroscopies proche infrarouge (NIR) et Raman ont fourni des résultats prometteurs. L'objectif de cette étude était de développer une méthodologie, basée sur l'établissement de liens chimiques entre les saisies de produits contrefaits, permettant de fournir des informations utiles pour les acteurs impliqués dans la lutte à la prolifération de ces produits. Une banque de données de spectres NIR et Raman a été créée et différents algorithmes de classification non-supervisée (i.e., analyse en composantes principales (ACP) et analyse factorielle discriminante (AFD) - elus ter onolysis) ont été utilisées afin d'identifier les différents groupes de produits présents. Ces classes ont été comparées aux profils chimiques mis en évidence par la spectroscopie infrarouge à transformée de Fourier (FT-IR) et par la chromatographie gazeuse couplée à la spectrométrie de masse (GC -MS). La stratégie de classification proposée, fondée sur les classes identifiées par spectroscopie NIR et Raman, utilise un algorithme de classification basé sur des mesures de distance et des courbes Receiver Operating Characteristics (ROC). Le modèle est capable de comparer le spectre d'une nouvelle contrefaçon à ceux des saisies précédemment analysées afin de déterminer si le nouveau spécimen appartient à l'une des classes existantes, permettant ainsi de le lier à d'autres saisies dans la base de données.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette étude basée sur le dépouillement des IGUR propose une approche socioculturelle des poètes grecs ou hellénophones qui ont séjourné à Rome à l'époque impériale, du Ier siècle après J.-C. à la fin du IVe siècle. Le nombre des inscriptions mentionnant des noms de poètes est relativement élevé (15). La première partie examine l'origine de ces artistes, le choix et le statut de la langue employée dans les inscriptions, les problèmes d'identité qui sont posés. La seconde partie étudie la considération et les possibilités de carrière que les poètes de langue grecque ont pu trouver à Rome ; elle distingue différentes catégories professionnelles et analyse les principales fonctions de ces poètes ainsi que leurs rapports avec le pouvoir impérial. Based on peruse of IGUR, this study offers a socio-cultural approach of Greek or Greek-speaking poets that stayed in Rome during Imperial times, from the first century AD to the end of the fourth century. Inscriptions relating poets names are relatively numerous (15). In the first part, we will discuss the artists' origin, the choice and status of the language used in the inscriptions, the problems of identities they raised. In the second part, we will discuss what kind of esteem and career opportunities Greek speaking poets could meet in Rome ; we would distinguish the different professional categories of those poets and analyse their main functions as well as their relationships with Imperial power.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

RESUMÉ Objectifs de la recherche: Depuis quelques années, l'utilisation de l'écologie dans le marketing a connu un essor considérable, aussi bien dans le monde académique que dans la pratique. De nos jours, la notion de label suscite un vif intérêt auprès des entreprises désireuses de promouvoir des produits "verts". Le principe de l'écolabellisation consiste à fournir aux consommateurs, en plus du prix, un nouvel élément de comparaison des produits. Les écolabels sont considérés comme l'un des meilleurs outils pour informer le consommateur, d'une manière claire et compréhensible, de l'impact du produit sur l'environnement. Nous nous intéressons, dans le cadre de notre travail, à l'étude du comportement d'achat des produits écolabellisés. En dépit de leur popularité croissante, les études académiques portant sur les labels écologiques sont relativement rares et de nombreuses problématiques demeurent en suspens. L'étude du comportement d'achat - au sens large - mérite notamment d'être approfondie. Notre recherche a plusieurs volets. Premièrement, nous étudions l'impact des valeurs, de l'implication vis-à-vis de l'écologie, du scepticisme, de la compréhension du label et de la connaissance de l'écologie sur le comportement d'achat de produits écolabellisés. Ensuite, nous testons la cohérence entre comportements écologiques en introduisant un comportement post- achat (le triage des déchets ménagers). Théories sous-jacentes: Notre étude repose sur différents apports académiques relatifs au comportement du consommateur "vert" mais également sur des concepts issus de la psychologie et de la sociologie. Nous présentons d'abord la littérature portant sur la caractérisation du consommateur "vert" (Webster, 1975; Arbuthnot, 1977; Van Liere et Dunlap, 1981; Balderjahn, 1988; Antil, 1984; Grunert et Juhl, 1995; Roberts, 1996). Nous abordons ensuite les études portant sur les valeurs (Schwartz, 1992; 1994), l'implication (Zaichkowsy, 1994), le scepticisme (Gray-Lee, Scammon et Mayer, 1994; Mohr et al., 1998), la compréhension des écolabels (van Dam et Reuvekamp, 1995; Thogersen, 2000) et la connaissance de l'écologie (Maloney et al., 1973, 1975; Arbuthnot, 1977; Pickett et al., 1993). Ces variables nous semblent être les plus à même d'influencer le comportement d'achat de produits écolabellisés. Enfin, sur la base des travaux de Valette-Florence et Roehrich (1993), nous développons un modèle de causalité, centré sur la relation entre les valeurs, l'implication et le comportement. Hypothèses de recherche et opérationnalisation des variables: Nous développons 16 hypothèses de recherche dont 12 portent sur les rapports de causalité entre construits. Par ailleurs, pour mieux comprendre la personnalité du consommateur de produits écolabellisés, nous distinguons les variables reflétant un intérêt collectif (altruisme) de celles reflétant un intérêt individuel (égocentrisme). La mesure des différents construits reposent sur la liste de Schwartz (1992, 1994) pour les valeurs, l'échelle d'implication de Zaichkowsy (1994) pour la publicité, l'échelle développée par Mohs et al. (1998) pour mesurer le scepticisme et une liste de questions portant sur l'écologie (Diekmann, 1996) pour tester le niveau de connaissance. Les comportements d'achat et post-achat sont mesurés respectivement à l'aide de questions relatives à la fréquence d'achat de produits écolabellisés et du triage des déchets ménagers. Collecte des données: Le recueil des données s'effectue par sondage, en ayant recours à des questionnaires auto-administrés. L'échantillon comprend de 368 étudiants provenant de diverses facultés de sciences humaines de Suisse Romande. Analyse des données et interprétation des résultats: Notre étude porte sur le comportement d'achat de trois labels écologiques et sur le triage de 7 déchets ménagers. Les différentes analyses montrent que certaines valeurs ont un impact sur l'implication et que l'implication a une influence positive sur le comportement d'achat et post-achat. Par ailleurs, nous montrons que l'implication sert de variable médiatrice entre les valeurs et le comportement. De plus, la compréhension de l'écolabel influence de manière positive l'achat de produits écolabellisés, la connaissance de l'écologie a une influence positive sur le comportement post-achat et le scepticisme vis-à-vis de l'utilité du triage des déchets ménagers influence négativement le comportement de triage. Implications managériales: Les résultats obtenus suggèrent qu'outre la valeur "protection de l'environnement", d'autres valeurs comme "la stimulation" ou encore "l'accomplissement" influencent de manière significative l'implication vis-à-vis de l'écologie qui à son tour influence l'achat de produits écolabellisés. Le manager doit donc tenir compte du fait que le consommateur est impliqué dans l'écologie. Ensuite, la compréhension du label joue un rôle prépondérant dans l'achat. De plus, le consommateur ne semble pas être sceptique par rapport aux informations fournies par les écolabels et le niveau de connaissance de l'écologie n'affecte pas son comportement. Enfin, le consommateur semble agir de manière cohérente en achetant différents produits écolabellisés. Apports, limites et voies de recherche: Notre étude contribue à l'enrichissement de la recherche sur le comportement du consommateur dans un contexte écologique à plusieurs égards, notamment par l'étude de la relation entre les valeurs, l'implication et le comportement. Néanmoins, la portée de notre recherche est naturellement restreinte en raison du nombre limité de cas étudiés, soit 3 labels écologiques relativement peu connus de notre échantillon. Il serait utile de répéter l'étude en utilisant des labels plus populaires. Par ailleurs, nous avons eu recours à des échelles développées dans des contextes quelque peu différents. En particulier, une échelle d'implication devrait être développée spécifiquement pour le contexte écologique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

1) Etat des connaissances : Actuellement, les indications à la transplantation pulmonaire sont bien décrites et validées. Par contre, lors d'une retransplantation, les résultats restent encore discutés : la retransplantation pulmonaire reste la seule option thérapeutique dans certains cas de rejet du greffon, de syndrome de bronchiolite oblitérante avancée et aussi lors de graves affections respiratoires, principalement de sténose cicatricielle. Malgré cela, son utilité a été mise en doute en raison de la pénurie de donneurs d'organes et des rapports indiquant des résultats insatisfaisants. 2) But de l'étude : Ce travail est une étude d'évaluation méthodologique dans lequel on utilisera un questionnaire DELPHI auprès de 10 soignants engagés dans le programme Vaud-Genève de transplantation pulmonaire afin de déterminer les critères de sélection qui mèneraient à la pratique d'une retransplantation. 3) Objectifs : Ce projet a pour but d'élaborer un consensus local sur les critères et les contre-indications à une retransplantation pulmonaire, dans le cadre du programme Vaud-Genève et du système d'allocation d'organes en vigueur en Suisse. D'où la question : ''Quelles sont les indications potentielles à une retransplantation pulmonaire ?'' 4) Justification : Dans une situation de pénurie explicite de ressources (manque de donneurs), l'utilisation des greffons doit être basée à la fois sur des critères d'équité et d'efficacité médicale. En l'absence de données claires dans la littérature sur les indications à la retransplantation pulmonaire, la recherche d'une attitude pragmatique au sein du programme local est justifiée. 5) Méthode : Cette étude monocentrique multisite est une étude clinique ouverte où les personnes interrogées restent en insu: un questionnaire DELPHI sera envoyé à 10 soignants spécialisés dans le domaine de la transplantation pulmonaire issus du programme Vaud-Genève. La méthode Delphi a pour but de mettre en évidence des convergences d'opinions afin de trouver des consensus grâce à l'interrogation de différents experts par le biais de questionnaires successifs. L'objectif des études Delphi est d'apporter l'éclairage des experts sur des zones d'incertitude en vue d'une aide à la décision. 6) Sélection des sujets : Les ''sujets'' éligibles sont un groupe de 10 experts anonymes spécialisés dans le domaine de la retransplantation pulmonaire du canton de Vaud et de Genève. 6.1 Critères d'inclusion : Personnel médical et paramédical directement impliqué dans le cadre du programme de transplantation Vaud-Genève. 6.2 Critère d'exclusion : Toute personne qui est elle-même directement impliquée dans l'analyse de l'étude. 7) Déroulement de l'étude et investigations prévues: L'étude aura lieu au CHUV et au HUG pour une durée de 2 ans. Les investigations seront effectuées par le biais de questionnaires envoyés par courrier électronique et seront analysées au CHUV.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Problématique : En réaction à l'émergence de société plurielle, la communauté médicale a mis en place des outils de prise en charge de l'altérité. Cependant, la culture, issue notamment des origines, des croyances et des expériences est unique à chaque patient et lui sert à appréhender la maladie. Ce pourquoi, les outils de prise en compte de la culture, et de valorisation du patient, peuvent être potentiellement étendus à tous. Objectifs : Déterminer la place de la culture en médecine de famille, les enjeux qui en dépendent et la pertinence de l'utilisation des compétences transculturelles avec tous les patients. Perfectionner ces compétences dans le but de créer un modèle bio-psycho-socio-culturel améliorant la communication et la compréhension entre patients et thérapeutes. Méthodologie : Réalisation d'une revue de la littérature en déterminant comment la culture est intégrée à la médecine sous forme de savoir théorique. Réalisation d'une recherche qualitative de type exploratoire sur la base d'entretiens enregistrés auprès de 7 médecins de famille romands, pour montrer comment la notion de culture est intégrée en pratique. Comparaison entre médecine transculturelle et approche pratique de terrain. Résultats : La culture influe sur toutes les étapes de la consultation. La pratique des médecins est influencée par leur conception de la culture. La construction commune d'une représentation de la maladie, basée sur les conceptions du patient, améliore la collaboration thérapeutique. Les compétences cliniques transculturelles actuelles semblent être applicables à tous, mais nécessitent un léger développement en intégrant l'expérience pratique quotidienne de la médecine de famille. Conclusion : L'utilisation des compétences cliniques transculturelles (savoir, savoir-faire, savoir-être) avec tous les patients est réalisable et peut être affinée d'une quatrième compétence le savoir- percevoir : capacité d'être alerte et réceptif à toute subtilité culturelle qui ressurgit de l'interaction.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Problématique : En réaction à l'émergence de société plurielle, la communauté médicale a mis en place des outils de prise en charge de l'altérité. Cependant, la culture, issue notamment des origines, des croyances et des expériences est unique à chaque patient et lui sert à appréhender la maladie. Ce pourquoi, les outils de prise en compte de la culture, et de valorisation du patient, peuvent être potentiellement étendus à tous. Objectifs : Déterminer la place de la culture en médecine de famille, les enjeux qui en dépendent et la pertinence de l'utilisation des compétences transculturelles avec tous les patients. Perfectionner ces compétences dans le but de créer un modèle bio-psycho-socio-culturel améliorant la communication et la compréhension entre patients et thérapeutes. Méthodologie : Réalisation d'une revue de la littérature en déterminant comment la culture est intégrée à la médecine sous forme de savoir théorique. Réalisation d'une recherche qualitative de type exploratoire sur la base d'entretiens enregistrés auprès de 7 médecins de famille romands, pour montrer comment la notion de culture est intégrée en pratique. Comparaison entre médecine transculturelle et approche pratique de terrain. Résultats : La culture influe sur toutes les étapes de la consultation. La pratique des médecins est influencée par leur conception de la culture. La construction commune d'une représentation de la maladie, basée sur les conceptions du patient, améliore la collaboration thérapeutique. Les compétences cliniques transculturelles actuelles semblent être applicables à tous, mais nécessitent un léger développement en intégrant l'expérience pratique quotidienne de la médecine de famille. Conclusion : L'utilisation des compétences cliniques transculturelles (savoir, savoir-faire, savoir-être) avec tous les patients est réalisable et peut être affinée d'une quatrième compétence le savoir- percevoir : capacité d'être alerte et réceptif à toute subtilité culturelle qui ressurgit de l'interaction.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'Ouverture émotionnelle (OE) est une nouvelle approche théorique et pratique qui s'inscrit dans le domaine du vécu et du traitement des émotions. Le modèle de l'OE se base sur l'évaluation et l'analyse de cinq dimensions élémentaires ancrées dans les théories modernes des émotions (la représentation cognitive des états émotionnels, la perception des indicateurs émotionnels corporels internes et externes, l'expression et la communication des émotions et la régulation des émotions). Ces éléments permettent de caractériser l'affectivité des personnes et de réfléchir ainsi à une prise en charge la plus adaptée possible. Cet ouvrage se veut un véritable guide de la pratique de l'Ouverture émotionnelle tant pour les professionnels de la santé mentale (psychologues, psychothérapeutes...) que pour les étudiants en psychologie. Après une présentation des bases conceptuelles de l'OE et de ses aspects développementaux, les auteurs exposent de façon détaillée les résultats empiriques du modèle dans différents domaines de la psychologie clinique et de la psychologie de la santé (troubles de la personnalité, troubles de la dépendance, troubles anxieux, phobies, troubles somatoformes ou burnout, satisfaction dans le couple, bien-être individuel). Enfin ils fournissent des pistes et conseils pour l'application pratique du modèle de l'OE en intervention psychologique et en psychothérapie. En annexe, le lecteur trouvera l'ensemble des instruments (questionnaires et instruments d'auto-observation), sur lesquels repose le modèle de l'OE et qui sont inédits à ce jour.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction Actuellement, les projets européens concernant l'harmonisation des méthodes de profilage se concentrent principalement sur les drogues de type synthétique telles que les ecstasy et les dérivés de la phényléthylamine [Aalberg L. et al. 2005, Aalberg L. et al. 2005, SMT Project 2001, CHAMP Project 2003]. Néanmoins, d'après le rapport annuel 2005 de l'Agence Européenne des Drogues (EMCDDA), la cocaïne est devenue un élément majeur du paysage européen des stupéfiants. De même, les dernières statistiques de l'Office Fédéral de la Police Suisse montrent que les saisies de cocaïne ont quasiment doublé entre 2003 et 2004 pour atteindre des quantités jamais vues auparavant. Le 7ème programme cadre européen, pour la recherche et le développement technologique, propose d'ailleurs un sujet concernant «la détermination et le pistage des composés utilisés lors de la production de certaines substances ». La cocaïne est donc devenue un thème prioritaire en Europe et l'utilisation des méthodes de profilage est un moyen puissant pour établir des liens entre des saisies. Les méthodes de profilage de la cocaïne sont utilisées par quelques laboratoires mais il y a peu ou quasiment pas d'échange d'informations aussi bien concernant les données obtenues que les méthodes utilisées afin d'améliorer la lutte contre le trafic de stupéfiants. Aucune recherche relative à l'harmonisation des méthodes entre deux laboratoires n'a été réalisée à ce jour. Le projet Interreg IIIA avait pour objectif de fournir du renseignement forensique en matière de stupéfiants, plus précisément dans ce cas à la frontière franco-suisse. Le processus de profilage repose sur deux phases interconnectées. La première est consacrée au développement de la méthode analytique permettant l'extraction d'une signature chimique (alcaloïdes et autres composés d'origine, solvants, produits de coupage) ou physique (conditionnement) du produit illicite. La seconde se focalise sur l'intégration des résultats dans un but d'utilisation par les forces de police. Cette recherche s'est tout d'abord focalisée sur le profilage des alcaloïdes en optimisant et en validant la méthode analytique élaborée à l'IPS sur un même GC-FID [Guéniat O. 2004 et Esseiva P. 2004]. Ensuite, la méthode a été étendue à une comparaison de spécimens analysés sur deux appareils différents. Finalement, afin de tester les résultats obtenus par l'analyse des alcaloïdes, une méthode indépendante, la Statique Headspace couplée à un GC-FID, a été, utilisée pour le profilage des solvants. En effet, de nombreux solvants sont utilisés lors de la production de la cocaïne et il doit donc aussi, a priori, être possible d'établir des liens sur la base de cette analyse. Les informations fournies par ces deux méthodes ainsi que leur complémentarité ont été investiguées.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La résection par voie endoscopique transnasale de tumeurs envahissant la base du crâne antérieure a été récemment décrite. Cette chirurgie requiert une connaissance précise des repères anatomiques endoscopiques afin réduire le risque de complications vasculaires et neurologiques.¦Nous avons réalisé une étude anatomique endoscopique sur 6 têtes dont 3 injectées avec du silicone coloré. Les repères anatomiques pour les abords de 3 régions d'importance clinique ont été étudiés. Les repères pour l'abord de l'apex orbitaire sont le recessus carotidien latéral, l'empreinte du nerf optique, « l'optic strut » et le V2. Leurs rapports avec le canal optique, l'artère carotide interne et les fentes orbitaires supérieures et inférieures sont décrits. Les repères pour l'abord de l'apex pétreux sont le V2 et le nerf vidien qui permettent repérer la portion intrapétreuse de l'artère carotide interne. Les repères pour l'abord de la fosse ptérygomaxillaire sont le V2 et le foramen rotundum, l'artère et le trou sphénopalatins et l'artère maxillaire interne.¦Cette nouvelle approche permettant d'aborder des lésions médianes et paramédianes ouvre de nouvelles perspectives pour des équipes de neurochirurgiens et d'ORL. Ces voies d'abords s'appliquent aussi bien à des résections décompressives à but palliatif qu'à l'exérèse de tumeurs benignes et malignes, bien que les résultats à long terme doivent encore être validés pour cette dernière indication.