427 resultados para Erreurs conceptuelles
Resumo:
L'Ouverture émotionnelle (OE) est une nouvelle approche théorique et pratique qui s'inscrit dans le domaine du vécu et du traitement des émotions. Le modèle de l'OE se base sur l'évaluation et l'analyse de cinq dimensions élémentaires ancrées dans les théories modernes des émotions (la représentation cognitive des états émotionnels, la perception des indicateurs émotionnels corporels internes et externes, l'expression et la communication des émotions et la régulation des émotions). Ces éléments permettent de caractériser l'affectivité des personnes et de réfléchir ainsi à une prise en charge la plus adaptée possible. Cet ouvrage se veut un véritable guide de la pratique de l'Ouverture émotionnelle tant pour les professionnels de la santé mentale (psychologues, psychothérapeutes...) que pour les étudiants en psychologie. Après une présentation des bases conceptuelles de l'OE et de ses aspects développementaux, les auteurs exposent de façon détaillée les résultats empiriques du modèle dans différents domaines de la psychologie clinique et de la psychologie de la santé (troubles de la personnalité, troubles de la dépendance, troubles anxieux, phobies, troubles somatoformes ou burnout, satisfaction dans le couple, bien-être individuel). Enfin ils fournissent des pistes et conseils pour l'application pratique du modèle de l'OE en intervention psychologique et en psychothérapie. En annexe, le lecteur trouvera l'ensemble des instruments (questionnaires et instruments d'auto-observation), sur lesquels repose le modèle de l'OE et qui sont inédits à ce jour.
Resumo:
L'éthique évolutionniste (EE) est une branche de la philosophie morale à la fois fascinante et génératrice de craintes, qui considère les mécanismes darwiniens et les données évolutives sur la socialité animale et humaine comme pertinents pour une réflexion éthique. Ce courant de pensée est souvent mal compris ; beaucoup de lecteurs critiques l'associent au darwinisme social et au cortège d'horreurs qu'il a servi à justifier. Il vaut cependant la peine de résister à la tentation de réduire l'EE au darwinisme social et de chercher à analyser objectivement l'intérêt d'adopter une approche évolutionnaire en éthique. L'objet de cet article est de 'dédiaboliser' l'EE tout en explorant ses limites. Je commencerai par mentionner deux manières d'intégrer un raisonnement darwinien dans le domaine des sciences politiques et sociales: le darwinisme social et ce que l'on pourrait appeler le darwinisme pro-social. Je mettrai ensuite en évidence les erreurs fondamentales sur lesquelles repose le darwinisme social afin de montrer qu'il n'est pas possible aujourd'hui pour un éthicien évolutionniste de défendre les idées propres à ce courant (à moins de faire preuve de malhonnêteté intellectuelle). Au contraire, l'EE semble s'approcher davantage de l'état d'esprit du darwinisme pro-social sans pour autant s'y assimiler car elle restreint sa réflexion au niveau de l'éthique théorique. Dans un second temps, il s'agira de présenter en quoi consiste précisément l'EE, quels sont ses domaines de réflexion, et quelle est sa pertinence au niveau des différents domaines de l'éthique. Une focale particulière sera mise sur les questions de la genèse de la moralité et du passage délicat des faits aux normes.
Resumo:
Dans cette étude, on a comparé les productions de 17 enfants non-lecteurs, âgés de 9 à 11 ans, dans une tâche de lecture de mots et dans une tâche de lecture de nombres, de l'écrit vers l'oral. Les performances de deux groupes contrôle, appariés selon l'âge (n= 93) et le niveau de lecture de mots (n= 51), ont également été comparées avec celles des non-lecteurs. Contrairement aux groupes contrôle, les non-lecteurs ont montré d'aussi grandes difficultés quel que soit le code utilisé (mots versus nombres). En outre, le nombre d'erreurs commises pour un type de transcodage s'est avéré fortement lié avec celui de l'autre type, chez les lecteurs non confirmés (non-lecteurs et contrôle de même niveau). La discussion défend l'idée du développement d'une capacité générale de transcodage, allant vers une différenciation progressive des processus en fonction des divers codes.
Resumo:
Le terme complexe d'épistémologie médicale peut être explicité en définissant la médecine comme construite sur trois pôles fondamentaux et la relation qui lie ces trois pôles: le projet fondateur, l'objet du projet et les outils servant au projet. Ces trois pôles forment l'épistémologie médicale. Le projet est celui de soigner, ou encore de défendre contre la maladie: il s'agit d'agir sur le phénomène pathologique afin qu'il disparaisse. Or pour cela, il faut d'abord rendre ce phénomène visible. En d'autres termes, la construction du concept même de pathologie est indispensable au projet thérapeutique qui a besoin de faire apparaître son objet afin de pouvoir mieux le faire disparaître. L'objet dont on parle, c'est la maladie. Or, cet objet conceptuel doit être élaboré à l'aide d'outils conceptuels permettant de construire une représentation du modèle du pathologique. Ces outils sont toutes les théories conceptuelles de la maladie qui ont pu exister à travers les siècles et qui sont des application au domaine médical de différentes conceptualisations du monde, propres à chaque époque, telles que la philosophie ou la science par exemple. Le projet thérapeutique -‐ faire disparaître le phénomène pathologique - exige donc tout d'abord l'existence de son objet -‐ le concept de la maladie. Par la suite, il faut élaborer cet objet en un modèle de représentation de la maladie, modèle qui fournit un substrat sur lequel on peut alors appliquer des outils actifs qui, à leur tour, peuvent agir sur la maladie et tenter donc de faire disparaître le phénomène pathologique. Ces outils actifs, issus des outils conceptuels, sont en fait les techniques appliquées à la maladie. Nous distinguerons encore une troisième catégorie d'outils, faisant le lien entre les outils conceptuels et les outils actifs en rendant traductible par le corps le concept du phénomène pathologique: ce sont les outils sémiologiques. L'étude de l'épistémologie peut être définie comme l'étude de la production, de la construction et de la validation du savoir. Elle s'intéresse à comprendre comment est produite la connaissance scientifique. Or, cette production est construite de l'interaction entre les divers éléments qui définissent l'originalité des différents domaines de la science et que nous avons réunis dans les trois catégories du projet, de l'objet et des outils. Nous retrouvons ici les trois pôles fondateurs de la médecine, que nous avons définis plus haut en tant qu'objets d'étude de l'épistémologie médicale. Dans la première partie, théorique, de ce travail, qui est basée sur l'analyse de la littérature, nous nous intéresserons aux changements chronologiques de leur nature et de leurs relations dans le but de comprendre comment l'épistémologie médicale, en proposant une interprétation du phénomène pathologique, participe à la construction historique, culturelle et sociale de la maladie. La deuxième partie, pratique, est constituée de l'analyse d'interviews de médecins FMH et s'interroge sur la façon dont le médecin intègre, gère, interprète et applique l'héritage constamment en mouvement du savoir médical dans sa pratique de la médecine. En d'autres termes, comment du mélange d'un savoir médical historiquement transmis et du savoir acquis de son expérience, le médecin construit son propre socle épistémologique.
Resumo:
La planification scanographique (3D) a démontré son utilité pour une reconstruction anatomique plus précise de la hanche (longueur du fémur, centre de rotation, offset, antéversion et rétroversion). Des études ont montré que lors de la planification 2D 50% seulement correspondaient à l'implant définitif du fémur alors que dans une autre étude ce taux s'élevait à 94% pour une planification 3D. Les erreurs étaient liées à l'agrandissement des radiographies. L'erreur sur la taille de la tige est liée à l'estimation inadéquate de la morphologie osseuse ainsi qu'à la densité osseuse. L'erreur de l'antéversion, augmentée par l'inclinaison du bassin, a pu être éliminée par la planification 3D et l'offset restauré dans 98%. Cette étude est basée sur une nouvelle technique de planification scanographique en trois dimensions pour une meilleure précision de la reconstruction de la hanche. Le but de cette étude est de comparer l'anatomie post-opératoire à celle préopératoire en comparant les tailles d'implant prévu lors de la planification 3D à celle réellement utilisée lors de l'opération afin de déterminer l'exactitude de la restauration anatomique avec étude des différents paramètres (centre de rotation, densité osseuse, L'offset fémoral, rotations des implants, longueur du membre) à l'aide du Logiciel HIP-PLAN (Symbios) avec évaluation de la reproductibilité de notre planification 3D dans une série prospective de 50 patients subissant une prothèse totale de hanche non cimentée primaire par voie antérieure. La planification pré-opératoire a été comparée à un CTscan postopératoire par fusion d'images. CONCLUSION ET PRESPECTIVE Les résultats obtenus sont les suivants : La taille de l'implant a été prédit correctement dans 100% des tiges, 94% des cupules et 88% des têtes (longueur). La différence entre le prévu et la longueur de la jambe postopératoire était de 0,3+2,3 mm. Les valeurs de décalage global, antéversion fémorale, inclinaison et antéversion de la cupule étaient 1,4 mm ± 3,1, 0,6 ± 3,3 0 -0,4 0 ± 5 et 6,9 ° ± 11,4, respectivement. Cette planification permet de prévoir la taille de l'implant précis. Position de la tige et de l'inclinaison de la cupule sont exactement reproductible. La planification scanographique préopératoire 3D permet une évaluation précise de l'anatomie individuelle des patients subissant une prothèse totale de hanche. La prédiction de la taille de l'implant est fiable et la précision du positionnement de la tige est excellente. Toutefois, aucun avantage n'est observée en termes d'orientation de la cupule par rapport aux études impliquant une planification 2D ou la navigation. De plus amples recherches comparant les différentes techniques de planification pré-opératoire à la navigation sont nécessaire.
Resumo:
The interaction of tunneling with groundwater is a problem both from an environmental and an engineering point of view. In fact, tunnel drilling may cause a drawdown of piezometric levels and water inflows into tunnels that may cause problems during excavation of the tunnel. While the influence of tunneling on the regional groundwater systems may be adequately predicted in porous media using analytical solutions, such an approach is difficult to apply in fractured rocks. Numerical solutions are preferable and various conceptual approaches have been proposed to describe and model groundwater flow through fractured rock masses, ranging from equivalent continuum models to discrete fracture network simulation models. However, their application needs many preliminary investigations on the behavior of the groundwater system based on hydrochemical and structural data. To study large scale flow systems in fractured rocks of mountainous terrains, a comprehensive study was conducted in southern Switzerland, using as case studies two infrastructures actually under construction: (i) the Monte Ceneri base railway tunnel (Ticino), and the (ii) San Fedele highway tunnel (Roveredo, Graubiinden). The chosen approach in this study combines the temporal and spatial variation of geochemical and geophysical measurements. About 60 localities from both surface and underlying tunnels were temporarily and spatially monitored during more than one year. At first, the project was focused on the collection of hydrochemical and structural data. A number of springs, selected in the area surrounding the infrastructures, were monitored for discharge, electric conductivity, pH, and temperature. Water samples (springs, tunnel inflows and rains) were taken for isotopic analysis; in particular the stable isotope composition (δ2Η, δ180 values) can reflect the origin of the water, because of spatial (recharge altitude, topography, etc.) and temporal (seasonal) effects on precipitation which in turn strongly influence the isotopic composition of groundwater. Tunnel inflows in the accessible parts of the tunnels were also sampled and, if possible, monitored with time. Noble-gas concentrations and their isotope ratios were used in selected locations to better understand the origin and the circulation of the groundwater. In addition, electrical resistivity and VLF-type electromagnetic surveys were performed to identify water bearing fractures and/or weathered areas that could be intersected at depth during tunnel construction. The main goal of this work was to demonstrate that these hydrogeological data and geophysical methods, combined with structural and hydrogeological information, can be successfully used in order to develop hydrogeological conceptual models of the groundwater flow in regions to be exploited for tunnels. The main results of the project are: (i) to have successfully tested the application of electrical resistivity and VLF-electromagnetic surveys to asses water-bearing zones during tunnel drilling; (ii) to have verified the usefulness of noble gas, major ion and stable isotope compositions as proxies for the detection of faults and to understand the origin of the groundwater and its flow regimes (direct rain water infiltration or groundwater of long residence time); and (iii) to have convincingly tested the combined application of a geochemical and geophysical approach to assess and predict the vulnerability of springs to tunnel drilling. - L'interférence entre eaux souterraines et des tunnels pose des problèmes environnementaux et de génie civile. En fait, la construction d'un tunnel peut faire abaisser le niveau des nappes piézométriques et faire infiltrer de l'eau dans le tunnel et ainsi créer des problème pendant l'excavation. Alors que l'influence de la construction d'un tunnel sur la circulation régionale de l'eau souterraine dans des milieux poreux peut être prédite relativement facilement par des solution analytiques de modèles, ceci devient difficile dans des milieux fissurés. Dans ce cas-là, des solutions numériques sont préférables et plusieurs approches conceptuelles ont été proposées pour décrire et modéliser la circulation d'eau souterraine à travers les roches fissurées, en allant de modèles d'équivalence continue à des modèles de simulation de réseaux de fissures discrètes. Par contre, leur application demande des investigations importantes concernant le comportement du système d'eau souterraine basées sur des données hydrochimiques et structurales. Dans le but d'étudier des grands systèmes de circulation d'eau souterraine dans une région de montagnes, une étude complète a été fait en Suisse italienne, basée sur deux grandes infrastructures actuellement en construction: (i) Le tunnel ferroviaire de base du Monte Ceneri (Tessin) et (ii) le tunnel routière de San Fedele (Roveredo, Grisons). L'approche choisie dans cette étude est la combinaison de variations temporelles et spatiales des mesures géochimiques et géophysiques. Environs 60 localités situées à la surface ainsi que dans les tunnels soujacents ont été suiviès du point de vue temporel et spatial pendant plus de un an. Dans un premier temps le projet se focalisait sur la collecte de données hydrochimiques et structurales. Un certain nombre de sources, sélectionnées dans les environs des infrastructures étudiées ont été suivies pour le débit, la conductivité électrique, le pH et la température. De l'eau (sources, infiltration d'eau de tunnel et pluie) a été échantillonnés pour des analyses isotopiques; ce sont surtout les isotopes stables (δ2Η, δ180) qui peuvent indiquer l'origine d'une eaux, à cause de la dépendance d'effets spatiaux (altitude de recharge, topographie etc.) ainsi que temporels (saisonaux) sur les précipitations météoriques , qui de suite influencent ainsi la composition isotopique de l'eau souterraine. Les infiltrations d'eau dans les tunnels dans les parties accessibles ont également été échantillonnées et si possible suivies au cours du temps. La concentration de gaz nobles et leurs rapports isotopiques ont également été utilisées pour quelques localités pour mieux comprendre l'origine et la circulation de l'eau souterraine. En plus, des campagnes de mesures de la résistivité électrique et électromagnétique de type VLF ont été menées afin d'identifier des zone de fractures ou d'altération qui pourraient interférer avec les tunnels en profondeur pendant la construction. Le but principal de cette étude était de démontrer que ces données hydrogéologiques et géophysiques peuvent être utilisées avec succès pour développer des modèles hydrogéologiques conceptionels de tunnels. Les résultats principaux de ce travail sont : i) d'avoir testé avec succès l'application de méthodes de la tomographie électrique et des campagnes de mesures électromagnétiques de type VLF afin de trouver des zones riches en eau pendant l'excavation d'un tunnel ; ii) d'avoir prouvé l'utilité des gaz nobles, des analyses ioniques et d'isotopes stables pour déterminer l'origine de l'eau infiltrée (de la pluie par le haut ou ascendant de l'eau remontant des profondeurs) et leur flux et pour déterminer la position de failles ; et iii) d'avoir testé d'une manière convainquant l'application combinée de méthodes géochimiques et géophysiques pour juger et prédire la vulnérabilité de sources lors de la construction de tunnels. - L'interazione dei tunnel con il circuito idrico sotterraneo costituisce un problema sia dal punto di vista ambientale che ingegneristico. Lo scavo di un tunnel puô infatti causare abbassamenti dei livelli piezometrici, inoltre le venute d'acqua in galleria sono un notevole problema sia in fase costruttiva che di esercizio. Nel caso di acquiferi in materiale sciolto, l'influenza dello scavo di un tunnel sul circuito idrico sotterraneo, in genere, puô essere adeguatamente predetta attraverso l'applicazione di soluzioni analitiche; al contrario un approccio di questo tipo appare inadeguato nel caso di scavo in roccia. Per gli ammassi rocciosi fratturati sono piuttosto preferibili soluzioni numeriche e, a tal proposito, sono stati proposti diversi approcci concettuali; nella fattispecie l'ammasso roccioso puô essere modellato come un mezzo discreto ο continuo équivalente. Tuttavia, una corretta applicazione di qualsiasi modello numerico richiede necessariamente indagini preliminari sul comportamento del sistema idrico sotterraneo basate su dati idrogeochimici e geologico strutturali. Per approfondire il tema dell'idrogeologia in ammassi rocciosi fratturati tipici di ambienti montani, è stato condotto uno studio multidisciplinare nel sud della Svizzera sfruttando come casi studio due infrastrutture attualmente in costruzione: (i) il tunnel di base del Monte Ceneri (canton Ticino) e (ii) il tunnel autostradale di San Fedele (Roveredo, canton Grigioni). L'approccio di studio scelto ha cercato di integrare misure idrogeochimiche sulla qualité e quantité delle acque e indagini geofisiche. Nella fattispecie sono state campionate le acque in circa 60 punti spazialmente distribuiti sia in superficie che in sotterraneo; laddove possibile il monitoraggio si è temporalmente prolungato per più di un anno. In una prima fase, il progetto di ricerca si è concentrato sull'acquisizione dati. Diverse sorgenti, selezionate nelle aree di possibile influenza attorno allé infrastrutture esaminate, sono state monitorate per quel che concerne i parametri fisico-chimici: portata, conduttività elettrica, pH e temperatura. Campioni d'acqua sono stati prelevati mensilmente su sorgenti, venute d'acqua e precipitazioni, per analisi isotopiche; nella fattispecie, la composizione in isotopi stabili (δ2Η, δ180) tende a riflettere l'origine delle acque, in quanto, variazioni sia spaziali (altitudine di ricarica, topografia, etc.) che temporali (variazioni stagionali) della composizione isotopica delle precipitazioni influenzano anche le acque sotterranee. Laddove possibile, sono state campionate le venute d'acqua in galleria sia puntualmente che al variare del tempo. Le concentrazioni dei gas nobili disciolti nell'acqua e i loro rapporti isotopici sono stati altresi utilizzati in alcuni casi specifici per meglio spiegare l'origine delle acque e le tipologie di circuiti idrici sotterranei. Inoltre, diverse indagini geofisiche di resistività elettrica ed elettromagnetiche a bassissima frequenza (VLF) sono state condotte al fine di individuare le acque sotterranee circolanti attraverso fratture dell'ammasso roccioso. Principale obiettivo di questo lavoro è stato dimostrare come misure idrogeochimiche ed indagini geofisiche possano essere integrate alio scopo di sviluppare opportuni modelli idrogeologici concettuali utili per lo scavo di opere sotterranee. I principali risultati ottenuti al termine di questa ricerca sono stati: (i) aver testato con successo indagini geofisiche (ERT e VLF-EM) per l'individuazione di acque sotterranee circolanti attraverso fratture dell'ammasso roccioso e che possano essere causa di venute d'acqua in galleria durante lo scavo di tunnel; (ii) aver provato l'utilità di analisi su gas nobili, ioni maggiori e isotopi stabili per l'individuazione di faglie e per comprendere l'origine delle acque sotterranee (acque di recente infiltrazione ο provenienti da circolazioni profonde); (iii) aver testato in maniera convincente l'integrazione delle indagini geofisiche e di misure geochimiche per la valutazione della vulnérabilité delle sorgenti durante lo scavo di nuovi tunnel. - "La NLFA (Nouvelle Ligne Ferroviaire à travers les Alpes) axe du Saint-Gothard est le plus important projet de construction de Suisse. En bâtissant la nouvelle ligne du Saint-Gothard, la Suisse réalise un des plus grands projets de protection de l'environnement d'Europe". Cette phrase, qu'on lit comme présentation du projet Alptransit est particulièrement éloquente pour expliquer l'utilité des nouvelles lignes ferroviaires transeuropéens pour le développement durable. Toutefois, comme toutes grandes infrastructures, la construction de nouveaux tunnels ont des impacts inévitables sur l'environnement. En particulier, le possible drainage des eaux souterraines réalisées par le tunnel peut provoquer un abaissement du niveau des nappes piézométriques. De plus, l'écoulement de l'eau à l'intérieur du tunnel, conduit souvent à des problèmes d'ingénierie. Par exemple, d'importantes infiltrations d'eau dans le tunnel peuvent compliquer les phases d'excavation, provoquant un retard dans l'avancement et dans le pire des cas, peuvent mettre en danger la sécurité des travailleurs. Enfin, l'infiltration d'eau peut être un gros problème pendant le fonctionnement du tunnel. Du point de vue de la science, avoir accès à des infrastructures souterraines représente une occasion unique d'obtenir des informations géologiques en profondeur et pour échantillonner des eaux autrement inaccessibles. Dans ce travail, nous avons utilisé une approche pluridisciplinaire qui intègre des mesures d'étude hydrogéochimiques effectués sur les eaux de surface et des investigations géophysiques indirects, tels que la tomographic de résistivité électrique (TRE) et les mesures électromagnétiques de type VLF. L'étude complète a été fait en Suisse italienne, basée sur deux grandes infrastructures actuellement en construction, qui sont le tunnel ferroviaire de base du Monte Ceneri, une partie du susmentionné projet Alptransit, situé entièrement dans le canton Tessin, et le tunnel routière de San Fedele, situé a Roveredo dans le canton des Grisons. Le principal objectif était de montrer comment il était possible d'intégrer les deux approches, géophysiques et géochimiques, afin de répondre à la question de ce que pourraient être les effets possibles dû au drainage causés par les travaux souterrains. L'accès aux galeries ci-dessus a permis une validation adéquate des enquêtes menées confirmant, dans chaque cas, les hypothèses proposées. A cette fin, nous avons fait environ 50 profils géophysiques (28 imageries électrique bidimensionnels et 23 électromagnétiques) dans les zones de possible influence par le tunnel, dans le but d'identifier les fractures et les discontinuités dans lesquelles l'eau souterraine peut circuler. De plus, des eaux ont été échantillonnés dans 60 localités situées la surface ainsi que dans les tunnels subjacents, le suivi mensuelle a duré plus d'un an. Nous avons mesurés tous les principaux paramètres physiques et chimiques: débit, conductivité électrique, pH et température. De plus, des échantillons d'eaux ont été prélevés pour l'analyse mensuelle des isotopes stables de l'hydrogène et de l'oxygène (δ2Η, δ180). Avec ces analyses, ainsi que par la mesure des concentrations des gaz rares dissous dans les eaux et de leurs rapports isotopiques que nous avons effectués dans certains cas spécifiques, il était possible d'expliquer l'origine des différents eaux souterraines, les divers modes de recharge des nappes souterraines, la présence de possible phénomènes de mélange et, en général, de mieux expliquer les circulations d'eaux dans le sous-sol. Le travail, même en constituant qu'une réponse partielle à une question très complexe, a permis d'atteindre certains importants objectifs. D'abord, nous avons testé avec succès l'applicabilité des méthodes géophysiques indirectes (TRE et électromagnétiques de type VLF) pour prédire la présence d'eaux souterraines dans le sous-sol des massifs rocheux. De plus, nous avons démontré l'utilité de l'analyse des gaz rares, des isotopes stables et de l'analyses des ions majeurs pour la détection de failles et pour comprendre l'origine des eaux souterraines (eau de pluie par le haut ou eau remontant des profondeurs). En conclusion, avec cette recherche, on a montré que l'intégration des ces informations (géophysiques et géochimiques) permet le développement de modèles conceptuels appropriés, qui permettant d'expliquer comment l'eau souterraine circule. Ces modèles permettent de prévoir les infiltrations d'eau dans les tunnels et de prédire la vulnérabilité de sources et des autres ressources en eau lors de construction de tunnels.
Resumo:
Introduction: L'unité d'Assistance Pharmaceutique de la Pharmacie des HUG fonctionne comme centre d'information sur les médicaments et gère des informations mises à disposition sur le web. Celles-ci sont destinées prioritairement au personnel soignant des HUG et accessibles sur le site intranet/Internet (http://www.hcuge.ch/Pharmacie), mis en service en 1998. L'objectif de ce travail était d'évaluer la qualité de l'information du site intranet/Internet et d'y apporter les améliorations nécessaires. Méthode: Le site intranet/Internet de la pharmacie des HUG a été évalué en automne 2004 à l'aide de 2 outils : NetScoring : grille d'évaluation de la qualité de l'information de santé sur Internet (http://www.chu-rouen.fr/netscoring/). Elle comporte 49 critères répartis en 8 catégories. Chaque critère est noté sur une échelle de 5 occurrences puis pondéré selon son importance (multiplication par 3 si le critère est essentiel, par 2 s'il est important ou par 1 s'il est mineur). Analyse AMDEC : méthode permettant de séquencer un processus et d'en Analyser les Modes de Défaillance, leur Effet et leur Criticité (Qual Saf Health Care 2005 :14(2);93-98). Un score est attribué à chaque mode de défaillance identifié en terme de fréquence, de sévérité et de détectabilité. La multiplication des 3 scores fournit un résultat global de criticité (indice de criticité IC, max. 810), permettant de hiérarchiser les risques. Résultats: Etat des lieux NetScoring : La qualité globale du site intranet/Internet était bonne (202 pts/312). Les points forts concernaient la pertinence et l'utilité du site, la qualité du contenu, du moteur de recherche et du design, la rapidité de chargement du site, la sélection des liens externes proposés et le respect du secret médical. Les faiblesses résidaient dans l'absence de politique de mise à jour régulière, d'annotation systématique de l'état d'actualisation des documents, d'un comité éditorial et scientifique, de mots-clés en anglais et d'une liste permettant l'identification des auteurs. Analyse AMDEC : Quatre catégories (création du document, conversion, structure du site et publication du document) et 19 modes de défaillances ont été caractérisés. Trois modes de défaillance étaient associés à un IC important: erreurs lors de la création d'un document (IC 256), information inadéquate car pratique non validée ou recommandation non généralisable (IC 147) et absence de relecture après la conversion du document en format publiable (ex : PDF) (IC 144). Mesures correctives: Une procédure standard (SOP) a été élaborée pour la gestion du site intranet/Internet. Le format standard des informations (initiales de l'auteur, dates de création et de mise à jour, logo de la pharmacie), la validation et la politique de mise à jour des documents ainsi que la procédure d'archivage y sont clairement définis. Une fiche de suivi accompagnant chaque document a été créée pour la traçabilité de toutes les modifications effectuées et la fréquence de révision à respecter. Discussion et conclusion Cette étude a permis de déterminer et de quantifier les points critiques à améliorer sur le site intranet/Internet de la Pharmacie des HUG. Les mesures correctives entreprises doivent permettre d'améliorer les principales faiblesses et défaillances mises en évidence. La mise en place d'un comité éditorial et scientifique devra être évaluée à l'avenir. Le NetScoring et l'analyse AMDEC sont des outils utiles pour l'évaluation et l'amélioration continue de la qualité d'un site Internet, sous réserve d'une interprétation critique des résultats obtenus avant la mise en place de mesures correctives. Malgré une approche totalement différente, ces outils ont permis de mettre en évidence des lacunes similaires.
Resumo:
3 Summary 3. 1 English The pharmaceutical industry has been facing several challenges during the last years, and the optimization of their drug discovery pipeline is believed to be the only viable solution. High-throughput techniques do participate actively to this optimization, especially when complemented by computational approaches aiming at rationalizing the enormous amount of information that they can produce. In siiico techniques, such as virtual screening or rational drug design, are now routinely used to guide drug discovery. Both heavily rely on the prediction of the molecular interaction (docking) occurring between drug-like molecules and a therapeutically relevant target. Several softwares are available to this end, but despite the very promising picture drawn in most benchmarks, they still hold several hidden weaknesses. As pointed out in several recent reviews, the docking problem is far from being solved, and there is now a need for methods able to identify binding modes with a high accuracy, which is essential to reliably compute the binding free energy of the ligand. This quantity is directly linked to its affinity and can be related to its biological activity. Accurate docking algorithms are thus critical for both the discovery and the rational optimization of new drugs. In this thesis, a new docking software aiming at this goal is presented, EADock. It uses a hybrid evolutionary algorithm with two fitness functions, in combination with a sophisticated management of the diversity. EADock is interfaced with .the CHARMM package for energy calculations and coordinate handling. A validation was carried out on 37 crystallized protein-ligand complexes featuring 11 different proteins. The search space was defined as a sphere of 15 R around the center of mass of the ligand position in the crystal structure, and conversely to other benchmarks, our algorithms was fed with optimized ligand positions up to 10 A root mean square deviation 2MSD) from the crystal structure. This validation illustrates the efficiency of our sampling heuristic, as correct binding modes, defined by a RMSD to the crystal structure lower than 2 A, were identified and ranked first for 68% of the complexes. The success rate increases to 78% when considering the five best-ranked clusters, and 92% when all clusters present in the last generation are taken into account. Most failures in this benchmark could be explained by the presence of crystal contacts in the experimental structure. EADock has been used to understand molecular interactions involved in the regulation of the Na,K ATPase, and in the activation of the nuclear hormone peroxisome proliferatoractivated receptors a (PPARa). It also helped to understand the action of common pollutants (phthalates) on PPARy, and the impact of biotransformations of the anticancer drug Imatinib (Gleevec®) on its binding mode to the Bcr-Abl tyrosine kinase. Finally, a fragment-based rational drug design approach using EADock was developed, and led to the successful design of new peptidic ligands for the a5ß1 integrin, and for the human PPARa. In both cases, the designed peptides presented activities comparable to that of well-established ligands such as the anticancer drug Cilengitide and Wy14,643, respectively. 3.2 French Les récentes difficultés de l'industrie pharmaceutique ne semblent pouvoir se résoudre que par l'optimisation de leur processus de développement de médicaments. Cette dernière implique de plus en plus. de techniques dites "haut-débit", particulièrement efficaces lorsqu'elles sont couplées aux outils informatiques permettant de gérer la masse de données produite. Désormais, les approches in silico telles que le criblage virtuel ou la conception rationnelle de nouvelles molécules sont utilisées couramment. Toutes deux reposent sur la capacité à prédire les détails de l'interaction moléculaire entre une molécule ressemblant à un principe actif (PA) et une protéine cible ayant un intérêt thérapeutique. Les comparatifs de logiciels s'attaquant à cette prédiction sont flatteurs, mais plusieurs problèmes subsistent. La littérature récente tend à remettre en cause leur fiabilité, affirmant l'émergence .d'un besoin pour des approches plus précises du mode d'interaction. Cette précision est essentielle au calcul de l'énergie libre de liaison, qui est directement liée à l'affinité du PA potentiel pour la protéine cible, et indirectement liée à son activité biologique. Une prédiction précise est d'une importance toute particulière pour la découverte et l'optimisation de nouvelles molécules actives. Cette thèse présente un nouveau logiciel, EADock, mettant en avant une telle précision. Cet algorithme évolutionnaire hybride utilise deux pressions de sélections, combinées à une gestion de la diversité sophistiquée. EADock repose sur CHARMM pour les calculs d'énergie et la gestion des coordonnées atomiques. Sa validation a été effectuée sur 37 complexes protéine-ligand cristallisés, incluant 11 protéines différentes. L'espace de recherche a été étendu à une sphère de 151 de rayon autour du centre de masse du ligand cristallisé, et contrairement aux comparatifs habituels, l'algorithme est parti de solutions optimisées présentant un RMSD jusqu'à 10 R par rapport à la structure cristalline. Cette validation a permis de mettre en évidence l'efficacité de notre heuristique de recherche car des modes d'interactions présentant un RMSD inférieur à 2 R par rapport à la structure cristalline ont été classés premier pour 68% des complexes. Lorsque les cinq meilleures solutions sont prises en compte, le taux de succès grimpe à 78%, et 92% lorsque la totalité de la dernière génération est prise en compte. La plupart des erreurs de prédiction sont imputables à la présence de contacts cristallins. Depuis, EADock a été utilisé pour comprendre les mécanismes moléculaires impliqués dans la régulation de la Na,K ATPase et dans l'activation du peroxisome proliferatoractivated receptor a (PPARa). Il a également permis de décrire l'interaction de polluants couramment rencontrés sur PPARy, ainsi que l'influence de la métabolisation de l'Imatinib (PA anticancéreux) sur la fixation à la kinase Bcr-Abl. Une approche basée sur la prédiction des interactions de fragments moléculaires avec protéine cible est également proposée. Elle a permis la découverte de nouveaux ligands peptidiques de PPARa et de l'intégrine a5ß1. Dans les deux cas, l'activité de ces nouveaux peptides est comparable à celles de ligands bien établis, comme le Wy14,643 pour le premier, et le Cilengitide (PA anticancéreux) pour la seconde.
Resumo:
Se plaint des fausses informations dont les journaux se font l'écho et souhaite que "Le Ménestrel" rectifie les erreurs qu'il colporte au sujet de MM. Villaret et Maurel, de Gabrielle Krauss et des opéras "Françoise de Rimini" et "Henri VIII"
Resumo:
Introduction et objectif: Lors d'essais cliniques, le pharmacien est responsable de la préparation et de la dispensation des médicaments à évaluer. Un article récent a toutefois montré que les aspects pharmaceutiques liés au contrôle de la dose administrée in fine étaient souvent mal contrôlés. Il peut exister une différence entre la dose nominale fournie par le certificat d'analyse du fabricant et la dose réellement administrée au sujet, biais qui se reporte en cascade sur l'estimation des paramètres pharmacocinétiques (PK), comme la clairance ou le volume de distribution. Ce travail visait à évaluer les biais entachant la quantité de médicament réellement injectée (iv/sc) aux volontaires d'un essai clinique étudiant la PK et la relation dose-réponse d'un nouveau produit biotechnologique. Méthode: La dose de médicament administrée lors de l'essai clinique (D) a été calculée de la manière suivante: D = C * V - pertes. La concentration du produit (C; titre nominal du fabricant) a été vérifiée par immuno-essai. Le volume de médicament injecté (V) a été déterminé pour chaque injection par pesée (n=72), en utilisant la masse de la seringue avant et après injection et la densité du produit. Enfin, une analyse in vitro a permis d'évaluer les pertes liées à l'adsorption du produit dans les lignes de perfusion et de choisir le dispositif adéquat in vivo. Résultats: La concentration du médicament s'est révélée proche du titre nominal (96 ± 7%), et a été utilisée comme référence. Le volume injecté était quant à lui entaché d'un biais systématique par rapport à la valeur théorique correspondant à 0.03 mL pour la dose minimale (i.e. 75% du volume à injecter à cette dose). Une analyse complémentaire a montré que cela s'expliquait par une réaspiration partielle de la solution médica-menteuse avant le retrait de la seringue après injection sc, due à l'élasticité du piston. En iv, le biais était par contre provoqué par une réaspiration du soluté de perfusion co-administré. Enfin, la mesure des quantités de médicament récupérées après injection dans le dispositif de perfusion a démontré des pertes minimales par adsorption. Discussion-conclusion: Cette étude confirme l'existence de biais inversement corrélés au volume et à la concentration du médicament administré, pouvant provoquer des erreurs importantes sur les paramètres PK. Ce problème est négligé ou insuffisamment considéré dans les protocoles de Phase I et nécessiterait une planification rigoureuse. Les procédures opératoires devraient attirer l'attention sur ce point crucial.
Resumo:
Summary Acquisition of lineage-specific cell cycle duration is an important feature of metazoan development. In Caenorhabditis a/egans, differences in cell cycle duration are already apparent in two-cell stage embryos, when the larger anterior blastomere AB divides before the smaller posterior blastomere P1. This time difference is under the control of anterior-posterior (A-P) polarity cues set by the PAR proteins. The mechanism by which these cues regulate the cell cycle machinery differentially in AB and P1 are incompletely understood. Previous work established that retardation of P1 cell division is due in part to preferential activation of an ATL1/CHK-1 dependent checkpoint in P1 but how the remaining time difference is controlled was not known at the onset of my work. The principal line of work in this thesis established that differential timing relies also on a mechanism that promotes mitosis onset preferentially in AB. The polo-like kinase PLK-1, a positive regulator of mitotic entry, is distributed in an asymmetric manner in two-cell stage embryos, with more protein present in AB than in P1. We find that PLK-1 asymmetry is regulated by anterior-posterior (A-P) polarity cues through preferential protein retention in the embryo anterior. Importantly, mild inactivation of plk-1 by RNAi delays entry into mitosis in P1 but not in AB, in a manner that is independent of ATL-1/CHK-1. Together, these findings favor a model in which differential timing of mitotic entry in C. elegans embryos relies on two complementary mechanisms: ATL-1/CHK-1 dependent preferential retardation in P1 and PLK-1 dependent preferential promotion in AB, which together couple polarity cues and cell cycle progression during early development. Besides analyzing PLK-1 asymmetry and its role in differential timing of two-cells stage embryos, we also characterized t2190, a mutant that exhibits reduced differential timing between AB and P1. We found this mutant to be a new allele of par-1. Additionally, we analyzed the role of NMY-2 in regulating the asynchrony of two-cell stage embryos, which may be uncoupled from its role in A-P polarity establishment and carried out a preliminary analysis of the mechanism underlying CDC-25 asymmetry between AB and P,. Overall, our works bring new insights into the mechanism controlling cell cycle progression in early C. elegans embryos. As most of the players important in C. elegans are conserved in other organisms, analogous mechanisms may be utilized in polarized cells of other species. Résumé Au cours du développement, les processus de division cellulaire sont régulés dans l'espace et le temps afin d'aboutir à la formation d'un organisme fonctionnel. Chez les Métazoaires, l'un des mécanismes de contrôle s'effectue au niveau de la durée du cycle cellulaire, celle-ci étant specifiée selon la lignée cellulaire. L'embryon du nématode Caenorhabditis elegans apparaît comme un excellent modèle d'étude de la régulation temporelle du cycle cellulaire. En effet, suite à la première division du zygote, l'embryon est alors composé de deux cellules de taille et d'identité différentes, appelées blastomères AB et P1. Ces deux cellules vont ensuite se diviser de manière asynchrone, le grand blastomère antérieur AB se divisant plus rapidement que le petit blastomère postérieur P1. Cette asynchronie de division est sous le contrôle des protéines PAR qui sont impliquées dans l'établissement de l'axe antéro-postérieur de l'embryon. A ce jour, les mécanismes moléculaires gouvernant ce processus d'asynchronie ne sont que partiellement compris. Des études menées précédemment ont établit que le retard de division observé dans le petit blastomère postérieur P1 était dû, en partie, à l'activation préférentielle dans cette cellule de ATL-1/CHK-1, protéines contrôlant la réponse à des erreurs dans le processus de réplication de l'ADN. L'analyse des autres mécanismes responsables de la différence temporelle d'entrée en mitose des deux cellules a été entreprise au cours de cette thèse. Nous avons considéré la possibilité que l'asynchronie de division était du à l'entrée préférentielle en mitose du grand blastomère AB. Nous avons établi que la protéine kinase PLK-1 (polo-like kinase 1), impliquée dans la régulation positive de la mitose, était distribuée de manière asymétrique dans l'embryon deux cellules. PLK-1 est en effet enrichi dans le blastomère AB. Cette localisation asymétrique de PLK-1 est sous le contrôle des protéines PAR et semble établie via une rétention de PLK-1 dans la cellule AB. Par ailleurs, nous avons démontré que l'inactivation partielle de plk-7 par interférence à ARN (RNAi) conduit à un délai de l'entrée en mitose de la cellule P1 spécifiquement, indépendamment des protéines régulatrices ATL-1/CHK-1. En conclusion, nous proposons un modèle de régulation temporelle de l'entrée en mitose dans l'embryon deux cellules de C. elegans basé sur deux mécanismes complémentaires. Le premier implique l'activation préférentielle des protéines ATL-1/CHK-1, et conduit à un retard d'entrée en mitose spécifiquement dans la cellule P1. Le second est basé sur la localisation asymétrique de la protéine kinase PLK-1 dans la cellule AB et induit une entrée précoce en mitose de cette cellule. Par ailleurs, nous avons étudié un mutant appelé t2190 qui réduit la différence temporelle d'entrée en mitose entre les cellules AB et P1. Nous avons démontré que ce mutant correspondait à un nouvel allèle du Bene par-1. De plus, nous avons analysé le rôle de NMY-2, une protéine myosine qui agit comme moteur moléculaire sur les filaments d'active; dans la régulation de l'asynchronie de division des blastomères AB et P1, indépendamment de sa fonction dans l'établissement de l'axe antéro-postérieur. Par ailleurs, nous avons commencé l'étude du mécanisme moléculaire régulant la localisation asymétrique entre les cellules AB et P1 de la protéine phosphatase CDC25, qui est également un important régulateur de l'entrée en mitose. En conclusion, ce travail de thèse a permis une meilleure compréhension des mécanismes gouvernant la progression du cycle cellulaire dans l'embryon précoce de C. elegans. Etant donné que la plupart des protéines impliquées dans ces processus sont conservées chez d'autres organismes multicellulaires, il apparaît probable que les mécanismes moléculaires révélés dans cette étude soit aussi utilisés chez ceux-ci.
Resumo:
Se estudia la dinámica de erosión por escorrentía superficial en unas laderas montañosas de la cabecera de la Ribera Salada (cuenca del Sagre), distinguiendo tres usos de suelo: (1) sotobosque de quejigo, (2) terrazas agrícolas y (3) márgenes de matorral. Se analiza la aplicabilidad de los modelos Erosion2D y EUROSEM. En cuanto al diseño experimental, durante seis meses se controlaron episodios naturales mediante un pluviógrafo y quince parcelas con canales Gerlach. Se realizaron, asimismo, seis simulaciones de lluvia que permitieron estudiar episodios de alta intensidad. De manera complementaria se llevaron a cabo las mediciones topográficas, los muestreos y las experimentaciones necesarias para caracterizar hidrológicamente la zona y aplicar los modelos de erosión. Como principales conclusiones se pueden señalar las siguientes: a) las tasas de escorrentía y erosión registradas fueron muy bajas, y se constató la importancia de procesos diferentes al flujo hortoniano, lo cual condiciona el uso de estos modelos, b) el modelo E2D no permite estudiar episodios de baja magnitud como los registrados, y su aplicación se debería restringir a terrenos menos porosos, c) la aplicación directa del modelo EUROSEM origina errores importantes; se ha calibrado un parámetro para reducir el error en el cálculo de la escorrentía, y d) el estudio de la variabilidad de la humedad precedente del suelo resulta de gran importancia para la modelización de estos procesos.
Resumo:
Cette thèse de Doctorat s'intéresse à la gouvernance du sport et plus particulièrement à la gouvernance des fédérations sportives européennes. Elle part du triple constat du manque de réflexion académique sur Popérationnalisation du concept de gouvernance du sport en unités de mesure, de l'intérêt croissant de l'Union européenne, du Conseil de l'Europe et de la Confédération suisse pour la réforme des organisations sportives internationales, ainsi que du faible attrait académique pour l'analyse d'un ensemble de fédérations sportives européennes. Elle a pour objectif principal de décrire l'état de la gouvernance d'un ensemble de fédérations sportives européennes (27) opérant en Europe. Cet objectif se décline en quatre questions principales : 1) Quelles sont les définitions et les dimensions de la gouvernance et de la gouvernance du sport dans une approche prescriptive ? 2) Comment mesurer la gouvernance du sport en Europe ? 3) Comment la gouvernance du sport est-elle mise en oeuvre par les fédérations sportives européennes ? 4) Comment améliorer la gouvernance du sport en Europe ? En reconnaissant la nature hybride d'une organisation sportive et optant pour les approches prescriptives de la gouvernance, la revue de la littérature présente les enseignements de la corporate governance, de la gouvernance des organisations à but non lucratif, de la gouvernance démocratique et de la gouvernance du sport. Celle-ci révèle notamment l'existence d'une constellation de prescriptions, applicables à un ensemble généralement non défini d'organisations sportives en Europe. La gouvernance du sport est ensuite définie par : « Les mécanismes par lesquels une organisation sportive de nature hybride agissant dans un système complexe et un environnement composés de multiples parties prenantes, notamment publiques et privées, est induite à modifier son comportement, ses structures et modes organisationnels afin de satisfaire leurs attentes multiples et divergentes tout en cherchant à préserver son autonomie ». Elle est déconstruite en trois dimensions, six composantes, et 39 indicateurs mesurant de façon originale quantitativement et qualitativement la mise en oeuvre de la gouvernance du sport. En nous appuyant sur une analyse de contenu et une série d'entretiens directifs, les résultats basés sur 1525 unités d'analyse montrent une image encourageante des fédérations sportives européennes, notamment en termes de formalisation des procédures démocratiques, et de publication d'informations biographiques. Cette image tend cependant à s'assombrir lorsque les indicateurs mesurent la transparence budgétaire et comptable, la mise en place d'une politique de développement environnemental, ou l'imposition d'une limite de mandat pour les membres du Conseil d'Administration. Ces résultats conduisent à la formulation de plusieurs recommandations conceptuelles, méthodologiques et empiriques permettant finalement de contribuer à une « meilleure » gouvernance du sport en Europe qu'actuellement (2014).
Resumo:
La spectroscopie infrarouge (FTIR) est une technique de choix dans l'analyse des peintures en spray (traces ou bonbonnes de référence), grâce à son fort pouvoir discriminant, sa sensibilité, et ses nombreuses possibilités d'échantillonnage. La comparaison des spectres obtenus est aujourd'hui principalement faite visuellement, mais cette procédure présente des limitations telles que la subjectivité de la prise de décision car celle-ci dépend de l'expérience et de la formation suivie par l'expert. De ce fait, de faibles différences d'intensités relatives entre deux pics peuvent être perçues différemment par des experts, même au sein d'un même laboratoire. Lorsqu'il s'agit de justifier ces différences, certains les expliqueront par la méthode analytique utilisée, alors que d'autres estimeront plutôt qu'il s'agit d'une variabilité intrinsèque à la peinture et/ou à son vécu (par exemple homogénéité, sprayage, ou dégradation). Ce travail propose d'étudier statistiquement les différentes sources de variabilité observables dans les spectres infrarouges, de les identifier, de les comprendre et tenter de les minimiser. Le deuxième objectif principal est de proposer une procédure de comparaison des spectres qui soit davantage transparente et permette d'obtenir des réponses reproductibles indépendamment des experts interrogés. La première partie du travail traite de l'optimisation de la mesure infrarouge et des principaux paramètres analytiques. Les conditions nécessaires afin d'obtenir des spectres reproductibles et minimisant la variation au sein d'un même échantillon (intra-variabilité) sont présentées. Par la suite une procédure de correction des spectres est proposée au moyen de prétraitements et de sélections de variables, afin de minimiser les erreurs systématiques et aléatoires restantes, et de maximiser l'information chimique pertinente. La seconde partie présente une étude de marché effectuée sur 74 bonbonnes de peintures en spray représentatives du marché suisse. Les capacités de discrimination de la méthode FTIR au niveau de la marque et du modèle sont évaluées au moyen d'une procédure visuelle, et comparées à diverses procédures statistiques. Les limites inférieures de discrimination sont testées sur des peintures de marques et modèles identiques mais provenant de différents lots de production. Les résultats ont montré que la composition en pigments était particulièrement discriminante, à cause des étapes de corrections et d'ajustement de la couleur subies lors de la production. Les particularités associées aux peintures en spray présentes sous forme de traces (graffitis, gouttelettes) ont également été testées. Trois éléments sont mis en évidence et leur influence sur le spectre infrarouge résultant testée : 1) le temps minimum de secouage nécessaire afin d'obtenir une homogénéité suffisante de la peinture et, en conséquence, de la surface peinte, 2) la dégradation initiée par le rayonnement ultra- violet en extérieur, et 3) la contamination provenant du support lors du prélèvement. Finalement une étude de population a été réalisée sur 35 graffitis de la région lausannoise et les résultats comparés à l'étude de marché des bonbonnes en spray. La dernière partie de ce travail s'est concentrée sur l'étape de prise de décision lors de la comparaison de spectres deux-à-deux, en essayant premièrement de comprendre la pratique actuelle au sein des laboratoires au moyen d'un questionnaire, puis de proposer une méthode statistique de comparaison permettant d'améliorer l'objectivité et la transparence lors de la prise de décision. Une méthode de comparaison basée sur la corrélation entre les spectres est proposée, et ensuite combinée à une évaluation Bayesienne de l'élément de preuve au niveau de la source et au niveau de l'activité. Finalement des exemples pratiques sont présentés et la méthodologie est discutée afin de définir le rôle précis de l'expert et des statistiques dans la procédure globale d'analyse des peintures. -- Infrared spectroscopy (FTIR) is a technique of choice for analyzing spray paint speciments (i.e. traces) and reference samples (i.e. cans seized from suspects) due to its high discriminating power, sensitivity and sampling possibilities. The comparison of the spectra is currently carried out visually, but this procedure has limitations such as the subjectivity in the decision due to its dependency on the experience and training of the expert. This implies that small differences in the relative intensity of two peaks can be perceived differently by experts, even between analysts working in the same laboratory. When it comes to justifying these differences, some will explain them by the analytical technique, while others will estimate that the observed differences are mostly due to an intrinsic variability from the paint sample and/or its acquired characteristics (for example homogeneity, spraying, or degradation). This work proposes to statistically study the different sources of variability observed in infrared spectra, to identify them, understand them and try to minimize them. The second goal is to propose a procedure for spectra comparison that is more transparent, and allows obtaining reproducible answers being independent from the expert. The first part of the manuscript focuses on the optimization of infrared measurement and on the main analytical parameters. The necessary conditions to obtain reproducible spectra with a minimized variation within a sample (intra-variability) are presented. Following that a procedure of spectral correction is then proposed using pretreatments and variable selection methods, in order to minimize systematic and random errors, and increase simultaneously relevant chemical information. The second part presents a market study of 74 spray paints representative of the Swiss market. The discrimination capabilities of FTIR at the brand and model level are evaluated by means of visual and statistical procedures. The inferior limits of discrimination are tested on paints coming from the same brand and model, but from different production batches. The results showed that the pigment composition was particularly discriminatory, because of the corrections and adjustments made to the paint color during its manufacturing process. The features associated with spray paint traces (graffitis, droplets) were also tested. Three elements were identified and their influence on the resulting infrared spectra were tested: 1) the minimum shaking time necessary to obtain a sufficient homogeneity of the paint and subsequently of the painted surface, 2) the degradation initiated by ultraviolet radiation in an exterior environment, and 3) the contamination from the support when paint is recovered. Finally a population study was performed on 35 graffitis coming from the city of Lausanne and surroundings areas, and the results were compared to the previous market study of spray cans. The last part concentrated on the decision process during the pairwise comparison of spectra. First, an understanding of the actual practice among laboratories was initiated by submitting a questionnaire. Then, a proposition for a statistical method of comparison was advanced to improve the objectivity and transparency during the decision process. A method of comparison based on the correlation between spectra is proposed, followed by the integration into a Bayesian framework at both source and activity levels. Finally, some case examples are presented and the recommended methodology is discussed in order to define the role of the expert as well as the contribution of the tested statistical approach within a global analytical sequence for paint examinations.
Resumo:
L'Office fédéral de la santé publique (OFSP) a mandaté la Fédération romande des consommateurs (FRC) et l'Institut universitaire de médecine sociale et préventive (IUMSP) pour réaliser une cartographie du marché des préservatifs et analyser les données disponibles pour estimer le nombre de préservatifs écoulés sur le marché suisse en une année. Les données disponibles identifiées sont les suivantes : 1. Données Verein : l'Association pour le label de qualité des préservatifs possède des données sur le nombre de préservatifs testés chaque année pour l'obtention du label OK. Ces données constituent une estimation du nombre de préservatifs ayant suivi la procédure de certification du label OK. Ces dernières années, des entreprises auraient renoncé à leur collaboration avec l'association pour le label de qualité, ce qui réduit la fiabilité de cette méthode pour suivre l'évolution du marché des préservatifs en Suisse. 2. Données douanes : l'Administration fédérale des douanes établit une statistique du commerce extérieur et met à disposition une base de données qui donne accès aux données statistiques d'importation et d'exportation de préservatifs. Etant donné que cette statistique se base sur les données indiquées par les importateurs et les exportateurs, des erreurs de déclaration peuvent être commises. 3. Données IUMSP : entre 1986 et 2011, l'IUMSP a reçu des producteurs/importateurs des données de mises sur le marché de préservatifs. Ces données, fiables car provenant directement des producteurs/importateurs, ne sont malheureusement plus complètes depuis 2012, en raison d'une difficulté croissante à obtenir de telles informations. 4. Données Nielsen et IMS Health : Nielsen et IMS HEalth sont des entreprises privées qui recensent les données de vente des préservatifs en Suisse réalisées dans les commerces de détail, ainsi que dans les drogueries et pharmacies. Ces données constituent des données de vente réelles obtenues grâce à l'enregistrement des mouvements de la marchandise lors du passage en caisse dans les magasins. La couverture des points de vente est élevée (près de 80% pour les données Nielsen) et stable dans le temps.