983 resultados para Approche communicative
Resumo:
L'identification spécifique d'un échantillon biologique récolté sur le terrain n'est pas toujours possible par le biais de méthodes conventionnelles. Afin de remédier à cette situation, nous avons développé un protocole rapide, rigoureux et reproductible, constitué de quatre étapes principales: (i) extraction (isolement) de l'ADN à partir d'échantillons biologiques de provenance variée; (ii) amplification par PCR d'un segment spécifique d'ADN; (iii) détermination de la séquence nucléotidique du segment d'ADN amplifié; (iv) comparaison de la séquence obtenue avec une base de données (si nécessaire, analyse phylogénétique) et détermination de l'espèce la plus proche. Cette approche nous a permis d'identifier sans ambiguïté la totalité des échantillons analysés, représentés par des tissus d'origine variée (sang, biopsies d'organe ou de tissu) d'espèces de mammifères sauvages.
Resumo:
La trace matérielle est une information élémentaire sur une activité qui a lieu dans un environnement physique et social immédiat et qui relève principalement de la sécurité. Leur exploitation doit donc s'étendre au-delà du système judiciaire, vers le renseignement en général et l'étude de phénomènes. Des profils chimiques extraits à partir des saisies de stupéfiants, des montres contrefaites, des courriels non-sollicités, les restes d'incendies sont des exemples de traces qui résultent d'activités répétitives qu'il convient de mieux saisir. La science forensique et la criminologie se rencontrent alors pour étudier des problèmes de sécurité munis de nouveaux jeux d'information. La constitution de banques de données pertinentes est d'ailleurs une préoccupation majeure de la recherche en criminologie. Par des sondages toujours plus larges et des techniques modernes d'acquisition s'appuyant sur les technologies de l'information, la criminologie peut maintenant étendre les analyses comparatives et longitudinales de phénomènes liés à la délinquance des jeunes. Mais la validité et la pertinence de comparaisons doivent être discutées, notamment lorsque les analyses portent sur la violence envers les femmes dans des contextes différents.
Resumo:
Le "data mining", ou "fouille de données", est un ensemble de méthodes et de techniques attractif qui a connu une popularité fulgurante ces dernières années, spécialement dans le domaine du marketing. Le développement récent de l'analyse ou du renseignement criminel soulève des problèmatiques auxqwuelles il est tentant de d'appliquer ces méthodes et techniques. Le potentiel et la place du data mining dans le contexte de l'analyse criminelle doivent être mieux définis afin de piloter son application. Cette réflexion est menée dans le cadre du renseignement produit par des systèmes de détection et de suivi systématique de la criminalité répétitive, appelés processus de veille opérationnelle. Leur fonctionnement nécessite l'existence de patterns inscrits dans les données, et justifiés par les approches situationnelles en criminologie. Muni de ce bagage théorique, l'enjeu principal revient à explorer les possibilités de détecter ces patterns au travers des méthodes et techniques de data mining. Afin de répondre à cet objectif, une recherche est actuellement menée au Suisse à travers une approche interdisciplinaire combinant des connaissances forensiques, criminologiques et computationnelles.
Resumo:
Rrésumé: La première description dans une publication médicale des douleurs neuropathiques remonte à 1872, le Dr S.W. Mitchell les résumant ainsi [...]" la causalgie est la plus terrible des tortures qu'une lésion nerveuse puisse entraîner "[...]. Par définition, la douleur neuropathique est une douleur chronique faisant suite à une lésion ou dysfonction du système nerveux. Malgré les progrès faits dans la compréhension de ce syndrome, le détail des mécanismes impliqués nous échappe encore et son traitement reste insuffisant car moins de 50% des patients sont soulagés par les thérapies actuelles. Différents modèles expérimentaux ont été élaborés chez l'animal de laboratoire, en particulier des modèles de lésion de nerfs périphériques chez le rat, permettant des investigations tant moléculaires que fonctionnelles des mécanismes impliqués dans le développement de ces douleurs. En revanche, peu de modèles existent chez la souris, alors que cet animal, grâce à la transgénèse, est très fréquemment utilisé pour l'approche fonctionnelle ciblée sur un gène. Dans l'étude présentée ici, nous avons évalué chez la souris C57BL/6 l'adaptation d'un modèle neuropathique, proposé une nouvelle modalité de mesure de la sensibilité douloureuse adaptée à la souris et défini une méthode d'analyse performante des résultats. Ce modèle, dit de lésion avec épargne nerveuse (spared Werve injury, SNI), consiste en la lésion de deux des trois branches du nerf sciatique, soit les nerfs peronier commun et tibial. La troisième branche, le nerf sural est laissé intact et c'est dans le territoire cutané de ce dernier que la sensibilité douloureuse à des stimulations mécaniques est enregistrée. Des filaments calibrés de force croissante sont appliqués sur la surface de la patte impliquée et la fréquence relative de retrait de la patte a été modélisée mathématiquement et analysée par un modèle statistique intégrant tous les paramètres de l'expérience (mixed-effects model). Des variantes chirurgicales lésant séquentiellement les trois branches du nerf sciatique ainsi que la réponse en fonction du sexe de l'animal ont également été évaluées. La lésion SNI entraîne une hypersensibilité mécanique marquée comparativement aux souris avec chirurgie contrôle; cet effet est constant entre les animaux et persiste durant les quatre semaines de l'étude. De subtiles différences entre les variables, y compris une divergence de sensibilité mécanique entre les sexes, ont été démontrées. La nécessité de léser le nerf tibial pour le développement des symptômes a également été documentée par notre méthode d'évaluation et d'analyse. En conclusion, nous avons validé le modèle SNI chez la souris par l'apparition d'un symptôme reproductible et apparenté à l'allodynie mécanique décrite par les patients souffrant de douleurs neuropathiques. Nous avons développé des méthodes d'enregistrement et d'analyse de la sensibilité douloureuse sensibles qui permettent la mise en évidence de facteurs intrinsèques et extrinsèques de variation de la réponse. Le modèle SNI utilisé chez des souris génétiquement modifiées, de par sa précision et reproductibilité, pourra permettre la discrimination de facteurs génétiques et épigénétiques contribuant au développement et à la persistance de douleurs neuropathiques.
Resumo:
Cette thèse de doctorat traite de cinq traductions françaises des Tristes et des Pontiques d'Ovide parues depuis le second tiers du XXe siècle : celles d'Emile Ripert (1937), de Jacques André (1968-1977), de Dominique Poirel (1989), de Chantai Labre (1991) et de Marie Darrieussecq (2008).¦Les deux oeuvres latines, recueils de lettres élégiaques écrites à la première personne, semblent proposer une réflexion sur le statut du ego qui désigne leur protagoniste, poète romain exilé par Auguste. En effet, ce « je » peut se percevoir tantôt comme le reflet spontané de la personne du poète, dans la mesure où la visée d'Ovide est explicitement autobiographique, tantôt comme le produit d'une construction littéraire, inspiré d'oeuvres de fiction. Dans la critique des XXe et XXIe siècles, la question de savoir comment s'articule le rapport, dans les poèmes d'exil, entre l'oeuvre écrite et la réalité historique, entre le «je» textuel et le « je » de l'auteur, a donné Heu à des réponses très variées.¦Dans un premier temps, l'objectif de l'analyse est de montrer qu'un débat similaire se dessine dans les traductions de la même période, que chaque traducteur des Tristes et des Pontiques, à travers des choix lexicaux et stylistiques bien particuliers, par le biais de commentaires prenant place dans le paratexte de la traduction, fournit au lecteur une image différente du « je » ovidien.¦La seconde étape se concentre sur le processus d'appropriation qui sous-tend la traduction. Les caractéristiques du « je » ovidien, telles qu'elles transparaissent dans la traduction, sont mises en lien avec l'image d'auteur, la poétique ou l'approche interprétative qui ressortent de l'ensemble des productions du traducteur (traductions, oeuvres de commentaire, créations littéraires etc.).¦La troisième partie de l'analyse s'interroge sur la manière dont le traducteur envisage sa pratique et se représente lui-même, dans sa préface ou à travers sa poétique de la traduction, en tant que traducteur. En comparant l'image qu'il montre de lui-même avec celle que sa traduction renvoie de l'auteur du texte original, on observe des similitudes qui suggèrent la parenté de la traduction et de la création littéraire.
Resumo:
The thesis at hand is concerned with the spatio-temporal brain mechanisms of visual food perception as investigated by electrical neuroimaging. Due to the increasing prevalence of obesity and its associated challenges for public health care, there is a need to better understand behavioral and brain processes underlying food perception and food-based decision-making. The first study (Study A) of this thesis was concerned with the role of repeated exposure to visual food cues. In our everyday lives we constantly and repeatedly encounter food and these exposures influence our food choices and preferences. In Study A, we therefore applied electrical neuroimaging analyses of visual evoked potentials to investigate the spatio-temporal brain dynamics linked to the repeated viewing of high- and low-energy food cues (published manuscript: "The role of energetic value in dynamic brain response adaptation during repeated food image viewing" (Lietti et al., 2012)). In this study, we found that repetitions differentially affect behavioral and brain mechanisms when high-energy, as opposed to low-energy foods and non-food control objects, were viewed. The representation of high-energy food remained invariant between initial and repeated exposures indicating that the sight of high-energy dense food induces less behavioral and neural adaptation than the sight of low-energy food and non-food control objects. We discuss this finding in the context of the higher salience (due to greater motivation and higher reward or hedonic valuation) of energy- dense food that likely generates a more mnemonically stable representation. In turn, this more invariant representation of energy-dense food is supposed to (partially) explain why these foods are over-consumed despite of detrimental health consequences. In Study Β we investigated food responsiveness in patients who had undergone Roux-en-Y gastric bypass surgery to overcome excessive obesity. This type of gastric bypass surgery is not only known to alter food appreciation, but also the secretion patterns of adipokines and gut peptides. Study Β aimed at a comprehensive and interdisciplinary investigation of differences along the gut-brain axis in bypass-operated patients as opposed to weight-matched non-operated controls. On the one hand, the spatio-temporal brain dynamics to the visual perception of high- vs. low-energy foods under differing states of motivation towards food intake (i.e. pre- and post-prandial) were assessed and compared between groups. On the other hand, peripheral gut hormone measures were taken in pre- and post-prandial nutrition state and compared between groups. In order to evaluate alterations in the responsiveness along the gut-brain-axis related to gastric bypass surgery, correlations between both measures were compared between both participant groups. The results revealed that Roux-en- Y gastric bypass surgery alters the spatio-temporal brain dynamics to the perception of high- and low-energy food cues, as well as the responsiveness along the gut-brain-axis. The potential role of these response alterations is discussed in relation to previously observed changes in physiological factors and food intake behavior post-Roux-en-Y gastric bypass surgery. By doing so, we highlight potential behavioral, neural and endocrine (i.e. gut hormone) targets for the future development of intervention strategies for deviant eating behavior and obesity. Together, the studies showed that the visual representation of foods in the brain is plastic and that modulations in neural activity are already noted at early stages of visual processing. Different factors of influence such as a repeated exposure, Roux-en-Y gastric bypass surgery, motivation (nutrition state), as well as the energy density of the visually perceived food were identified. En raison de la prévalence croissante de l'obésité et du défi que cela représente en matière de santé publique, une meilleure compréhension des processus comportementaux et cérébraux liés à la nourriture sont nécessaires. En particulier, cette thèse se concentre sur l'investigation des mécanismes cérébraux spatio-temporels liés à la perception visuelle de la nourriture. Nous sommes quotidiennement et répétitivement exposés à des images de nourriture. Ces expositions répétées influencent nos choix, ainsi que nos préférences alimentaires. La première étude (Study A) de cette thèse investigue donc l'impact de ces exposition répétée à des stimuli visuels de nourriture. En particulier, nous avons comparé la dynamique spatio-temporelle de l'activité cérébrale induite par une exposition répétée à des images de nourriture de haute densité et de basse densité énergétique. (Manuscrit publié: "The role of energetic value in dynamic brain response adaptation during repeated food image viewing" (Lietti et al., 2012)). Dans cette étude, nous avons pu constater qu'une exposition répétée à des images représentant de la nourriture de haute densité énergétique, par opposition à de la nourriture de basse densité énergétique, affecte les mécanismes comportementaux et cérébraux de manière différente. En particulier, la représentation neurale des images de nourriture de haute densité énergétique est similaire lors de l'exposition initiale que lors de l'exposition répétée. Ceci indique que la perception d'images de nourriture de haute densité énergétique induit des adaptations comportementales et neurales de moindre ampleur par rapport à la perception d'images de nourriture de basse densité énergétique ou à la perception d'une « catégorie contrôle » d'objets qui ne sont pas de la nourriture. Notre discussion est orientée sur les notions prépondérantes de récompense et de motivation qui sont associées à la nourriture de haute densité énergétique. Nous suggérons que la nourriture de haute densité énergétique génère une représentation mémorielle plus stable et que ce mécanisme pourrait (partiellement) être sous-jacent au fait que la nourriture de haute densité énergétique soit préférentiellement consommée. Dans la deuxième étude (Study Β) menée au cours de cette thèse, nous nous sommes intéressés aux mécanismes de perception de la nourriture chez des patients ayant subi un bypass gastrique Roux- en-Y, afin de réussir à perdre du poids et améliorer leur santé. Ce type de chirurgie est connu pour altérer la perception de la nourriture et le comportement alimentaire, mais également la sécrétion d'adipokines et de peptides gastriques. Dans une approche interdisciplinaire et globale, cette deuxième étude investigue donc les différences entre les patients opérés et des individus « contrôles » de poids similaire au niveau des interactions entre leur activité cérébrale et les mesures de leurs hormones gastriques. D'un côté, nous avons investigué la dynamique spatio-temporelle cérébrale de la perception visuelle de nourriture de haute et de basse densité énergétique dans deux états physiologiques différent (pre- et post-prandial). Et de l'autre, nous avons également investigué les mesures physiologiques des hormones gastriques. Ensuite, afin d'évaluer les altérations liées à l'intervention chirurgicale au niveau des interactions entre la réponse cérébrale et la sécrétion d'hormone, des corrélations entre ces deux mesures ont été comparées entre les deux groupes. Les résultats révèlent que l'intervention chirurgicale du bypass gastrique Roux-en-Y altère la dynamique spatio-temporelle de la perception visuelle de la nourriture de haute et de basse densité énergétique, ainsi que les interactions entre cette dernière et les mesures périphériques des hormones gastriques. Nous discutons le rôle potentiel de ces altérations en relation avec les modulations des facteurs physiologiques et les changements du comportement alimentaire préalablement déjà démontrés. De cette manière, nous identifions des cibles potentielles pour le développement de stratégies d'intervention future, au niveau comportemental, cérébral et endocrinien (hormones gastriques) en ce qui concerne les déviances du comportement alimentaire, dont l'obésité. Nos deux études réunies démontrent que la représentation visuelle de la nourriture dans le cerveau est plastique et que des modulations de l'activité neurale apparaissent déjà à un stade très précoce des mécanismes de perception visuelle. Différents facteurs d'influence comme une exposition repetee, le bypass gastrique Roux-en-Y, la motivation (état nutritionnel), ainsi que la densité énergétique de la nourriture qui est perçue ont pu être identifiés.
Resumo:
Bien établie dans le monde anglo-saxon, l'approche "genre" en médecine semble encore peu connue des médecins suisses. Après avoir évoqué les principales initiatives ayant permis le développement de ce domaine en Suisse, cet article retrace de quelle manière, à partir des années 1970, les sciences sociales ont distingué ce qui relève du social (le genre) de ce qui relève du biologique (le sexe) dans l'analyse du statut réservé aux femmes et aux hommes; distinction officiellement reprise deux décennies plus tard en médecine. La présentation des principales étapes historiques ayant permis l'émergence du domaine "Gender Health-Gender Medicine" se clôt sur un portrait de cette approche dont la pertinence se voit soulignée en ce début de 21e siècle par l'OMS, comme par d'autres instances officielles.
Resumo:
La détection des traces pertinentes, pas toujours visibles, est le défi auquel le scientifique qui examine un champ d'investigation est systématiquement confronté : il cherche parfois des quantités infimes de matière qui dessinent des crêtes papillaires ou qui lui permettront d'extraire un profil d'ADN. Il cible ses recherches lorsque sur le lieu d'un incendie, l'odeur peut le diriger vers les restes d'un produit inflammable, lorsqu'il extrait des traces numériques pertinentes de gigantesques quantités d'informations ou lorsqu'il teste spécifiquement si une personne a consommé un produit. Le projet d'augmenter simultanément la capacité de détecter la présence de traces latentes et de reconnaître ce qui peut le mieux expliquer une présence ou une action combine nécessairement à la fois le développement de nouvelles techniques et leur intégration dans une approche globale du champ d'investigation dont les fondements sont encore à consolider.
Resumo:
Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.
Resumo:
Au moment où nos sociétés contemporaines s'interrogent avec passion sur le statut de l'animal et sur la responsabilité éthique des êtres humains envers la création et l'environnement - jusqu'à la question des OGM -, cette étude est d'une brûlante actualité. Qu'en est-il de la notion de dignité de la créature, ancrée dans la Constituton fédérale? Est-elle, comme le prétendent certains, une coquille vide, un mot magique et creux, sans signification réelle? Quelle pourrait être sa portée pour les animaux prétendus inférieurs et pour les plantes? Les auteurs s'appuient sur la distinction entre dignité et valeur. Ils pennent leurs distances par rapport aux catégories d'anthropocentrisme, de pathocentrisme et et de biocentrisme, catégories conditionnant la plupart des théories éthiques au sujet de l'animal et de l'environnement. Il en résulte une nouvelle conception de la relation anthropologique en ^tre l'être humain, l'animal et la nature. La perspective de l'anthropo-relationalité sert de fondement à une approche respectueuse des animaux et des plantes, tout en reconnaissant la place et la responsabilité spécifiques de l'être humain et des sociétés démocratiques.
Resumo:
The 2009 news in medicine regarding dependence confirm the bio-psycho-social field of addiction medicine and psychiatry. First a statement is made about the risk of cardiac arythmy in opioid substitution treatments. Then a review of the treatment of C hepatitis shows its importance in an addicted population. In the field of cognitive neuroscience, progress has been made in the knowledge of "craving" and of its endophenotypical components. Electronic medias related disorders are on the border of addiction: a case study is exploring this new domain. At last, recent datas are presented on the relationship between cannabis and psychosis. Les nouveautés en médecine 2009 concernant les dépendances confirment l'étendue du champ bio-psychosocial de la médecine et de la psychiatrie de l'addiction. Tout d'abord un point de situation est fait sur le risque d'arythmie cardiaque dans les traitements de substitution opiacée. Puis une revue de l'actualité du traitement de l'hépatite C dans la toxicodépendance en montre la pertinence. Sur le plan de la recherche plus fondamentale, les neurosciences cognitives progressent dans l'approche de la nature du craving et de ses composantes endophénotypiques. Les troubles liés aux médias électroniques illustrent les frontières de l'addiction : une étude de cas vient en explorer le contenu. Enfin, des données récentes sur les rapports entre cannabis et psychoses sont présentées.
Resumo:
Abstract : In the subject of fingerprints, the rise of computers tools made it possible to create powerful automated search algorithms. These algorithms allow, inter alia, to compare a fingermark to a fingerprint database and therefore to establish a link between the mark and a known source. With the growth of the capacities of these systems and of data storage, as well as increasing collaboration between police services on the international level, the size of these databases increases. The current challenge for the field of fingerprint identification consists of the growth of these databases, which makes it possible to find impressions that are very similar but coming from distinct fingers. However and simultaneously, this data and these systems allow a description of the variability between different impressions from a same finger and between impressions from different fingers. This statistical description of the withinand between-finger variabilities computed on the basis of minutiae and their relative positions can then be utilized in a statistical approach to interpretation. The computation of a likelihood ratio, employing simultaneously the comparison between the mark and the print of the case, the within-variability of the suspects' finger and the between-variability of the mark with respect to a database, can then be based on representative data. Thus, these data allow an evaluation which may be more detailed than that obtained by the application of rules established long before the advent of these large databases or by the specialists experience. The goal of the present thesis is to evaluate likelihood ratios, computed based on the scores of an automated fingerprint identification system when the source of the tested and compared marks is known. These ratios must support the hypothesis which it is known to be true. Moreover, they should support this hypothesis more and more strongly with the addition of information in the form of additional minutiae. For the modeling of within- and between-variability, the necessary data were defined, and acquired for one finger of a first donor, and two fingers of a second donor. The database used for between-variability includes approximately 600000 inked prints. The minimal number of observations necessary for a robust estimation was determined for the two distributions used. Factors which influence these distributions were also analyzed: the number of minutiae included in the configuration and the configuration as such for both distributions, as well as the finger number and the general pattern for between-variability, and the orientation of the minutiae for within-variability. In the present study, the only factor for which no influence has been shown is the orientation of minutiae The results show that the likelihood ratios resulting from the use of the scores of an AFIS can be used for evaluation. Relatively low rates of likelihood ratios supporting the hypothesis known to be false have been obtained. The maximum rate of likelihood ratios supporting the hypothesis that the two impressions were left by the same finger when the impressions came from different fingers obtained is of 5.2 %, for a configuration of 6 minutiae. When a 7th then an 8th minutia are added, this rate lowers to 3.2 %, then to 0.8 %. In parallel, for these same configurations, the likelihood ratios obtained are on average of the order of 100,1000, and 10000 for 6,7 and 8 minutiae when the two impressions come from the same finger. These likelihood ratios can therefore be an important aid for decision making. Both positive evolutions linked to the addition of minutiae (a drop in the rates of likelihood ratios which can lead to an erroneous decision and an increase in the value of the likelihood ratio) were observed in a systematic way within the framework of the study. Approximations based on 3 scores for within-variability and on 10 scores for between-variability were found, and showed satisfactory results. Résumé : Dans le domaine des empreintes digitales, l'essor des outils informatisés a permis de créer de puissants algorithmes de recherche automatique. Ces algorithmes permettent, entre autres, de comparer une trace à une banque de données d'empreintes digitales de source connue. Ainsi, le lien entre la trace et l'une de ces sources peut être établi. Avec la croissance des capacités de ces systèmes, des potentiels de stockage de données, ainsi qu'avec une collaboration accrue au niveau international entre les services de police, la taille des banques de données augmente. Le défi actuel pour le domaine de l'identification par empreintes digitales consiste en la croissance de ces banques de données, qui peut permettre de trouver des impressions très similaires mais provenant de doigts distincts. Toutefois et simultanément, ces données et ces systèmes permettent une description des variabilités entre différentes appositions d'un même doigt, et entre les appositions de différents doigts, basées sur des larges quantités de données. Cette description statistique de l'intra- et de l'intervariabilité calculée à partir des minuties et de leurs positions relatives va s'insérer dans une approche d'interprétation probabiliste. Le calcul d'un rapport de vraisemblance, qui fait intervenir simultanément la comparaison entre la trace et l'empreinte du cas, ainsi que l'intravariabilité du doigt du suspect et l'intervariabilité de la trace par rapport à une banque de données, peut alors se baser sur des jeux de données représentatifs. Ainsi, ces données permettent d'aboutir à une évaluation beaucoup plus fine que celle obtenue par l'application de règles établies bien avant l'avènement de ces grandes banques ou par la seule expérience du spécialiste. L'objectif de la présente thèse est d'évaluer des rapports de vraisemblance calcul és à partir des scores d'un système automatique lorsqu'on connaît la source des traces testées et comparées. Ces rapports doivent soutenir l'hypothèse dont il est connu qu'elle est vraie. De plus, ils devraient soutenir de plus en plus fortement cette hypothèse avec l'ajout d'information sous la forme de minuties additionnelles. Pour la modélisation de l'intra- et l'intervariabilité, les données nécessaires ont été définies, et acquises pour un doigt d'un premier donneur, et deux doigts d'un second donneur. La banque de données utilisée pour l'intervariabilité inclut environ 600000 empreintes encrées. Le nombre minimal d'observations nécessaire pour une estimation robuste a été déterminé pour les deux distributions utilisées. Des facteurs qui influencent ces distributions ont, par la suite, été analysés: le nombre de minuties inclus dans la configuration et la configuration en tant que telle pour les deux distributions, ainsi que le numéro du doigt et le dessin général pour l'intervariabilité, et la orientation des minuties pour l'intravariabilité. Parmi tous ces facteurs, l'orientation des minuties est le seul dont une influence n'a pas été démontrée dans la présente étude. Les résultats montrent que les rapports de vraisemblance issus de l'utilisation des scores de l'AFIS peuvent être utilisés à des fins évaluatifs. Des taux de rapports de vraisemblance relativement bas soutiennent l'hypothèse que l'on sait fausse. Le taux maximal de rapports de vraisemblance soutenant l'hypothèse que les deux impressions aient été laissées par le même doigt alors qu'en réalité les impressions viennent de doigts différents obtenu est de 5.2%, pour une configuration de 6 minuties. Lorsqu'une 7ème puis une 8ème minutie sont ajoutées, ce taux baisse d'abord à 3.2%, puis à 0.8%. Parallèlement, pour ces mêmes configurations, les rapports de vraisemblance sont en moyenne de l'ordre de 100, 1000, et 10000 pour 6, 7 et 8 minuties lorsque les deux impressions proviennent du même doigt. Ces rapports de vraisemblance peuvent donc apporter un soutien important à la prise de décision. Les deux évolutions positives liées à l'ajout de minuties (baisse des taux qui peuvent amener à une décision erronée et augmentation de la valeur du rapport de vraisemblance) ont été observées de façon systématique dans le cadre de l'étude. Des approximations basées sur 3 scores pour l'intravariabilité et sur 10 scores pour l'intervariabilité ont été trouvées, et ont montré des résultats satisfaisants.
Resumo:
Comment l'analyse chimique des produits contrefaits peut-elle contribuer à mieux comprendre le phénomène de la contrefaçon?Pour appréhender cette question, une approche novatrice basée sur l'analyse par SPME GC-MS des composés volatils de trente-neuf bracelets parfumés présents sur des contrefaçons horlogères a été mise en oeuvre.La détection de plusieurs dizaines de composés par montre a permis de définir des profils chimiques discriminants. Au total, trois groupes de montres possédant des profils comparables ont été détectés. Ces groupes ont été mis en perspective de liens physiques détectés sur la base du marquage des bracelets (marques et logos) par la fédération de l'industrie horlogère suisse (FH) et des informations spatiotemporelles des saisies. Les montres provenant d'une même saisie présentent systématiquement des liens physiques, mais pas forcément des profils chimiques similaires. Il en ressort que les profils chimiques peuvent fournir une information complémentaire à l'analyse des marquages, qu'ils varient peu dans le temps et que des montres liées chimiquement sont retrouvées dans le monde entier. Cette étude exploratoire révèle ainsi le potentielle d'exploitation de techniques d'analyse complémentaires pour mieux comprendre les modes de production, voire de diffusion de la contrefaçon. Finalement, la méthode analytique a permis de détecter des composés de plastiques en sus des constituants de parfums. Ce résultat laisse entrevoir la possibilité d'exploiterla méthode pour une large gamme de produits contrefaits.
Resumo:
AIM: Hyperglycaemia is now a recognized predictive factor of morbidity and mortality after coronary artery bypass grafting (CABG). For this reason, we aimed to evaluate the postoperative management of glucose control in patients undergoing cardiovascular surgery, and to assess the impact of glucose levels on in-hospital mortality and morbidity. METHODS: This was a retrospective study investigating the association between postoperative blood glucose and outcomes, including death, post-surgical complications, and length of stay in the intensive care unit (ICU) and in hospital. RESULTS: A total of 642 consecutive patients were enrolled into the study after cardiovascular surgery (CABG, carotid endarterectomy and bypass in the lower limbs). Patients' mean age was 68+/-10 years, and 74% were male. In-hospital mortality was 5% in diabetic patients vs 2% in non-diabetic patients (OR: 1.66, P=0.076). Having blood glucose levels in the upper quartile range (> or =8.8 mmol/L) on postoperative day 1 was independently associated with death (OR: 10.16, P=0.0002), infectious complications (OR: 1.76, P=0.04) and prolonged ICU stay (OR: 3.10, P<0.0001). Patients presenting with three or more hypoglycaemic episodes (<4.1 mmol/L) had increased rates of mortality (OR: 9.08, P<0.0001) and complications (OR: 8.57, P<0.0001). CONCLUSION: Glucose levels greater than 8.8 mmol/L on postoperative day 1 and having three or more hypoglycaemic episodes in the postoperative period were predictive of mortality and morbidity among patients undergoing cardiovascular surgery. This suggests that a multidisciplinary approach may be able to achieve better postoperative blood glucose control. Conclusion: Objectif: L'hyperglycémie a été reconnue comme facteur prédictif de morbidité et mortalité après un pontage aortocoronaire. Notre étude avait pour objectif d'évaluer la prise en charge postopératoire des glycémies chez les patients qui avaient subi une intervention chirurgicale cardiovasculaire et d'évaluer l'impact de ces glycémies sur la mortalité et la morbidité intrahospitalières. Méthodes: Étude rétrospective recherchant une association entre la glycémie postopératoire et les complications postchirurgicales, la mortalité et la durée du séjour aux soins intensifs et à l'hôpital. Résultats: L'étude a été réalisée sur 642 patients qui avaient subi une intervention chirurgicale cardiovasculaire (ex. pontage aortocoronaire, endartérectomie de la carotide, pontage artériel des membres inférieurs). L'âge moyen est de 68 ± 10 ans et 74 % des patients étaient de sexe masculin. La mortalité intrahospitalière a été de 5 % parmi les patients diabétiques et 2 % chez les non-diabétiques (OR 1,66, p = 0,076). Les taux de glycémies situés dans le quartile supérieur (≥ 8,8 mmol/l) à j1 postopératoire sont associés de manière indépendante avec la mortalité (OR 10,16, 95 % CI 3,20-39,00, p = 0,0002), les complications infectieuses (OR 1,76, 95 % CI 1,02-3,00, p = 0,04) et la durée du séjour aux soins intensifs (OR 3,10, 95 % CI 1,83-5,38, p < 0,0001). Les patients qui avaient présenté trois hypoglycémies ou plus (< 4,1 mmol/l) ont présenté un taux augmenté de mortalité (OR 9,08, p ≤ 0,0001) et de complications (OR 8,57, p < 0,0001). Conclusion : Des glycémies supérieures à 8,8 mmol/l à j1 postopératoire et la présence de trois hypoglycémies ou plus en période postopératoire sont des facteurs prédictifs de mauvais pronostic chez les patients qui avaient subi une intervention chirurgicale cardiovasculaire. Ainsi, une approche multidisciplinaire devrait être proposée afin d'obtenir un meilleur contrôle postopératoire des glycémies.