1000 resultados para Perception des courbes
Resumo:
Le tabagisme est responsable de plus de 5 million de décès par an à travers le monde. En Suisse (2010), la prévalence de fumeurs chez les 14-19 ans était de 22% et la prévalence d'ex-fumeurs de 3%, taux qui reste relativement stable au fil des dernières années. La plupart des jeunes fumeurs désirant arrêter de fumer rencontrent des difficultés pour y parvenir. Les revues empiriques ont conclu que les programmes ayant pour but l'arrêt du tabagisme chez les jeunes ont une efficacité limitée. Afin de fournir une base solide de connaissances pour les programmes d'interventions contre le tabagisme, les déterminants de l'auto-cessation ont besoin d'être compris. Nous avons systématiquement recherché dans PUBMED et EMBASE des études longitudinales, basées sur la population, portant sur les déterminants de l'auto-cessation chez des adolescents et des jeunes adultes fumeurs. Nous avons passé en revue 4'502 titres et 871 abstracts, tous examinés indépendamment par deux et trois examinateurs, respectivement. Les critères d'inclusion étant : articles publiés entre janvier 1984 et août 2010, concernant les jeunes entre 10 et 29 ans et avoir une définition de cessation de fumer d'au moins 6 mois. Neuf articles ont été retenus pour une analyse détaillée. Les données suivantes ont été extraites de chaque article : le lieu de l'étude, la période étudiée, la durée du suivi, le nombre de collecte de données, la taille de l'échantillon, l'âge ou l'année scolaire des participants, le nombre de participants qui arrêtent de fumer, le status tabagique lors de la première collecte, la définition de cessation, les co-variantes et la méthode analytique. Le nombre d'études qui montrent une association significativement significative entre un déterminant et l'arrêt du tabagisme a été tabulé à partir de toutes les études qui ont évalués ce déterminant. Trois des neufs articles retenus ont défini l'arrêt du tabagisme comme une abstinence de plus de 6 mois et les six autres comme 12 mois d'abstinence. Malgré l'hétérogénéité des méthodes utilisées, cinq facteurs principaux ressortent comme prédicteur de l'arrêt du tabagisme : 1) ne pas avoir d'amis qui fument, 2) ne pas avoir l'intention de continuer de fumer dans le futur, 3) résister à la pression sociale, 4) être âgé de plus de 18 ans lors de la première cigarette, et 5) avoir un avis négatif au sujet du tabagisme. D'autres facteurs sont significatifs mais ne sont évalués que dans peu d'articles. La littérature au sujet des prédicteurs de cessation chez les adolescents et les jeunes adultes est peu développée. Cependant, nous remarquons que les facteurs que nous avons mis en évidence ne dépendent pas que de l'individu, mais aussi de l'environnement. La prévention du tabagisme peut se centrer sur les bienfaits de l'arrêt (p.ex., par rapport à l'asthme ou les performances sportives) et ainsi motiver les jeunes gens à songer d'arrêter de fumer. Une taxation plus lourde sur le prix des cigarettes peut être envisagée afin de retarder l'âge de la première cigarette. Les publicités anti-tabagiques (non sponsorisées par les entreprises de tabac) peuvent influencer la perception des jeunes par rapport au tabagisme, renforçant ou créant une attitude anti-tabagique. Les prochaines campagnes anti- tabac devraient donc tenir compte de ces différents aspects.
Resumo:
The study of wave propagation at sonic frequency in soil leads to elasticity parameter determination. These parameters are compatible to those measured simultaneously by static loading. The acquisition of in situ elasticity parameter combined with laboratory description of the elastoplastic behaviour can lead to in situ elastoplastic curves. - L'étude de la propagation des ondes acoustiques permet la détermination des paramètres d'élasticité dans les sols. Ces paramètres sont cohérents avec des mesures statiques simultanées. L'acquisition des paramètres d'élasticité in situ associée à une description du comportement élasto-plastique mesuré en laboratoire permet d'obtenir des courbes d'élastoplasticité in situ.
Resumo:
Dans le domaine de l'analyse et la détection de produits pharmaceutiques contrefaits, différentes techniques analytiques ont été appliquées afin de discriminer les produits authentiques des contrefaçons. Parmi celles-ci, les spectroscopies proche infrarouge (NIR) et Raman ont fourni des résultats prometteurs. L'objectif de cette étude était de développer une méthodologie, basée sur l'établissement de liens chimiques entre les saisies de produits contrefaits, permettant de fournir des informations utiles pour les acteurs impliqués dans la lutte à la prolifération de ces produits. Une banque de données de spectres NIR et Raman a été créée et différents algorithmes de classification non-supervisée (i.e., analyse en composantes principales (ACP) et analyse factorielle discriminante (AFD) - elus ter onolysis) ont été utilisées afin d'identifier les différents groupes de produits présents. Ces classes ont été comparées aux profils chimiques mis en évidence par la spectroscopie infrarouge à transformée de Fourier (FT-IR) et par la chromatographie gazeuse couplée à la spectrométrie de masse (GC -MS). La stratégie de classification proposée, fondée sur les classes identifiées par spectroscopie NIR et Raman, utilise un algorithme de classification basé sur des mesures de distance et des courbes Receiver Operating Characteristics (ROC). Le modèle est capable de comparer le spectre d'une nouvelle contrefaçon à ceux des saisies précédemment analysées afin de déterminer si le nouveau spécimen appartient à l'une des classes existantes, permettant ainsi de le lier à d'autres saisies dans la base de données.
Resumo:
Introduction L'écriture manuelle fluide et automatisée constitue, avec la lecture, les fondements au développement des compétences scolaires. En effet, l'enfant peut développer le langage écrit avec l'acquisition de l'écriture, il a besoin d'une écriture manuelle automatisée lors d'évaluations scolaires écrites. De plus, la sollicitation de l'écriture manuelle augmente au cours de la scolarité, que ce soit au niveau de l'endurance, de la vitesse ou de la qualité. L'acquisition de l'écriture requiert des processus cognitifs, linguistiques et perceptivomoteurs, définis en tant que facteurs internes ou endogènes (Beeson et al., 2003) et résulte d'une démarche d'enseignement et d'un processus d'apprentissage constituant des facteurs externes ou exogènes. Les perturbations de l'acquisition de l'écriture sont nommées de différentes manières dans la littérature scientifique. Les chercheurs anglo-saxons convoquent la notion de faible écriture manuelle (poor handwriting), de troubles grapho-moteurs ou de difficultés d'écriture (Weintraub & Graham, 2000 ; Jongmans, Smits-Engelsman, & Schoemaker, 2003 ; Volman, van Schendel, &Jongmans, 2006) qui se caractérisent par une absence de régularité du tracé et/ ou de l'espace entre les mots, par des lettres ambiguës (Rosenblum, Weiss, & Parush, 2006). Les auteurs francophones, le plus souvent de formation médicale (Gubbay & de Klerk, 1995 ; Mazeau, 2005), utilisent plus fréquemment le diagnostic de dysgraphie qui renvoie à des difficultés d'assemblage de ronds et de traits pour former une lettre perturbant ainsi l'apprentissage de l'écriture (Mazeau, 2005). Selon Mazeau, la dysgraphie fait partie des troubles d'apprentissage. Les conséquences d'une faible écriture manuelle sont multiples. Si l'écriture n'est pas automatisée, l'enfant est placé dans une situation de double tâche nécessitant une attention focalisée à la fois sur l'acte d'écrire et sur le raisonnement nécessaire pour réaliser les exigences d'une tâche scolaire (Berningér et al., 1997). Si l'enfant se concentre sur la formation des lettres et le contrôle des mouvements, le raisonnement nécessaire à l'application de règles de grammaire et d'orthographe est perturbé tout comme la qualité des idées lors d'une composition. L'enfant présentant une écriture lente ne parviendra pas à finaliser son travail dans les situations de tests. Les difficultés d'écriture manuelle constituent un facteur de prédiction des troubles d'apprentissage (Harvey & Henderson, 1997 ; Simner, 1982) et elles sont fréquemment citées parmi les causes de la littératie. Car, comme le relèvent Berninger, Mizokawa et Bragg (1991), l'enfant présentant des difficultés d'écriture manuelle aura tendance à éviter toute activité d'écriture renforçant ainsi l'écart avec ses pairs dans ce domaine. Si ces comportements d'évitement se situent dans la période d'apprentissage de l'écriture, ils perturberont la mémorisation des lettres. En effet, la mémorisation des lettres est meilleure lorsque l'apprentissage se fait en situation d'écriture manuelle qu'en situation de lecture uniquement (Longcamp, Boucard, Guilhodes, & Velay, 2006). Par ailleurs, les épreuves dont la qualité de l'écriture est faible font l'objet d'évaluation moins favorable que celles dont l'écriture est plus facilement lisible. Les enseignants/es seraient alors moins persévérants/es dans leur lecture et plus sévères lors de la notation d'une rédaction. Ils, elles développeraient une faible perception des compétences en composition lorsqu'ils, elles sont confrontés/es à une épreuve dont la qualité est peu fluide et peu lisible (Alston & Taylor, 1987). L'identification des difficultés d'écriture peut se fairé de différentes manières (Kozatiek & Powell, 2002 ; Simons & Thijs, 2006 ). D'une part, l'appréciation de la qualité et de la vitesse d'écriture manuelle peut être subjective avec l'avis de l'enseignant et, d'autre part, objective avec l'utilisation de tests standardisés comportant des critères permettant de mesurer la vitesse et la qualité de l'écriture. Les conditions de passation des évaluations peuvent varier (copie, dictée ou composition) et influencer la vitesse et la qualité de l'écriture. La vitesse est moindre et la taille des lettres est inférieure en situation de composition qu'en situation de copie tandis que la régularité du tracé est plus stable en situation de copie que lors d'une composition. Si le dépistage et l'identification des difficultés d'écriture contribuent à la prévention de risques ultérieurs tels que de faibles compétence en littératie, la compréhension des causes de ces difficultés permettra le développement de moyens de remédiation de ces difficultés. Dans la littérature scientifique traitant de cette problématique, des facteurs endogènes ou exogènes peuvent être identifiés. Les facteurs endogènes regroupent autant la maturation développementale et le genre que les fonctions sensorimotrices telles que les dextérités manuelle et digitale, l'intégration visuomotrice, la visuoperception, l'attention visuelle et les fonctions cognitives. En outre, les troubles du développement tels qu'un trouble du langage, un déficit de l'attention ou un Trouble de l'acquisition de la coordination (TAC) (DSM-IV) (American Psychiatric Association, 2003) peuvent perturber l'acquisition de l'écriture. Les facteurs exogènes correspondent soit aux facteurs environnementaux tels que la position de l'enfant ou l'outil scripteur utilisé, soit aux modalités et à la durée de l'enseignement de l'écriture. En effet, la durée de l'enseignement de l'écriture et les modalités pédagogiques contribuent à marquer les différences interindividuelles pour la qualité et pour la vitesse de l'écriture. Actuellement, l'enseignement de l'écriture est, dans la plupart des programmes scolaires, intégré dans le cadre d'autres cours et ne fait pas l'objet d'un enseignement spécifique. Cette pratique entraîné un auto-apprentissage de la part de l'enfant et, par conséquent, un apprentissage implicite de l'écriture alors que les bénéfices d'un enseignement explicite ont été largement mis en évidence par Willingham et Goedert-Eschmann (1999). En effet, ces auteurs ont montré qu'un enseignement explicite favorise l'acquisition, la performance et le transfert d'apprentissage de manière plus importante que l'apprentissage implicite. Paradoxalement, alors que l'enseignement de l'écriture tend à être délaissé dans les programmes scolaires, les études mettant en évidence l'efficacité de l'enseignement de l'écriture (Berninger et al., 1997 ; Jongmans, Linthorst-Bakker, Westenberg & SmitsEngelsman et al., 2003 ; Schoemaker, Niemeijer, Reynders, & Smits-Engelsman , 2003) sont nombreuses. Leurs résultats montrent que l'enseignement d'une seule catégorie d'écriture (liée ou scripte) est plus efficace que l'enseignement de deux catégories d'écriture scripte en début d'apprentissage et écriture liée dans un second temps. Un enseignement régulier et intensif consacré à l'écriture au début de la scolarité va permettre une acquisition plus rapide de l'écriture et de la lecture (Graham & Weintraub, 1996 ; Denton, Cope & Moser, 2006). Selon Berninger, Abbot, Abbot, Graham et Richards (2002), la lecture et l'écriture devraient faire l'objet d'un enseignement coordonné et harmonisé. L'enseignement de l'écriture favorisant les liens avec les contextes d'utilisation de l'écriture montre une efficacité plus grande que lorsqu'il est déconnecté de son contexte (Denton, Cope, & Moser, 2006). L'enjeu d'une automatisation de l'écriture de qualité est important et relève d'une priorité afin de permettre aux enfants de développer de manière optimale leurs compétences académiques. Lorsque des troubles d'écriture sont constatés, l'identification des causes liées à ces difficultés tout comme une prise en charge spécifique faciliteront l'acquisition de cette compétence fondamentale (Berninger et al., 1997). Dans ces perspectives, cette thèse vise à identifier les facteurs endogènes et les facteurs exogènes intervenant dans l'écriture manuelle, que ce soit au niveau de la qualité ou de la vitesse de l'écriture. Au niveau théorique, elle développe l'étai des connaissances dans le domaine de l'écriture en neuropsychologie, en neurosciences et en sciences du mouvement humain. Elle présente, dans une perspective développementale, les modèles de l'apprentissage de l'écriture ainsi que les étapes d'acquisition de l'écriture tout en considérant les différences liées au genre. Ensuite, la description des difficultés d'écriture manuelle précède les moyens d'évaluation de l'écriture. Un chapitre est consacré aux fonctions perceptivomotrices et cognitives influençant l'écriture. Puis, comme les difficultés d'acquisition de l'écriture manuelle font partie du TAC, ce trouble est développé dans le chapitre 5. Enfin, les facteurs exogènes sont présentés dans le chapitre 6, ils comprennent les conditions environnementales (position de l'enfant, types de papiers, types d'outils scripteurs) ainsi que les dimensions d'un programme d'enseignement de l'écriture manuelle. Les effets des programmes de remédiation ou d'enseignement intensif de l'écriture sont traités en dernière partie du chapitre 6. Cette thèse est composée d'une partie de recherche fondamentale et d'une partie de recherche appliquée. La recherche fondamentale, qui comprend deux étapes d'investigation (Etudes 1 et 2), a pour objectifs d'identifier les facteurs endogènes prédictifs d'une écriture manuelle non performante (dextérités digitale et manuelle, intégration visuomotrice ou visuoperception) et d'investiguer les relations entre la lecture, l'attention visuelle, la mémoire audtive et l'écriture manuelle. De plus, elle déterminera la prévalence du TAC parmi les enfants présentant une faible écriture manuelle. La recherche appliquée comporte deux expérimentations. La première expérience a pour but de mesurer les effets d'un programme d'enseignement de l'écriture introduit en fin de deuxième année primaire visant à permettre aux enfants les plus faibles dans le domaine de l'écriture d'améliorer leurs performances. La seconde expérience analyse les effets d'un programme d'enseignement intensif de l'écriture manuelle qui s'est déroulé au début de la première année de scolarité obligatoire. L'acquisition de l'écriture est complexe tant au niveau du contróle moteur que du codage phonème -graphème ou de l'attention. L'écriture manuelle, en tant que compétence de base dans le développement des acquisitions scolaires, demeure tout au long de la scolarité et de la vie professionnelle, une compétence incontournable malgré le développement des nouvelles technologies. Remplir un formulaire, prendre des notes dans une séance ou à un cours, signer des documents, consigner des notes dans des dossiers, utiliser des écrans tactiles constituent des activités nécessitant une écriture manuelle fonctionnelle.
Resumo:
Rapport de synthèse : Introduction : le vieillissement cutané est un processus biologique complexe auquel participe une exposition excessive au rayonnement ultraviolet du soleil. En particulier, les longueurs d'onde des rayons ultraviolets A et B (UV-A et UV-B) peuvent induire une augmentation de la synthèse de protéases, comme la métalloprotéinase matricielle 1 (MMP-1), qui est impliquée dans le processus de vieillissement. La thermothérapie par infrarouges, dont les longueurs d'onde sont plus longues que celles des UV, est largement utilisée à des fins thérapeutiques ou cosmétiques. Or, il a été démontré que les infrarouges en filtration aqueuse (IRFA) pouvaient induire une augmentation de la production de MMP-1 et par conséquent être nocifs. Il serait donc intéressant d'évaluer les effets des IRFA au niveau cellulaire et moléculaire. But Expérimental : étudier les effets des lampes à infrarouges en filtration aqueuse utilisées en clinique sur des fibroblastes cutanés humains en culture, afin d'analyser l'expression du gène codant pour la protéine MMP-1. Méthode : des fibroblastes cutanés humain ont été irradiés d'une part avec approximativement 88% d'IRFA (780-1400 nm) et 12% de lumière rouge (LR, 665-780 nm) avec 380 mW/cm2 IRFA(+LR) (333 mW/cm2 IRFA) et d'autre part avec des UV-A comme contrôle. Des courbes de survie cellulaire ont été établies après une exposition allant de 15 minutes à 8 heures au IRFA(+LR) (340-10880 J/cm2 wIRA(+RL), 300-9600 J/cm2 wIRA) ou de 15 à 45 minutes aux UV-A(+BL) (25-75 J/cm2 UV-A(+BL). L'induction de l'ARNm du gène de la MMP-1 a été analysé dans les fibroblastes cutanés humain à deux températures physiologiques (30°C et 37°C) lors d'expositions uniques de 15 à 60 minutes aux IRFA(+LR) (340-1360 J/cm2 IRFA(+LR), 300-1200 J/cm2 IRFA) ou de 30 minutes aux UV-A(+BL) (50 J/cm2 UVA(+BL)). De plus, nous avons effectué des irradiations répétées, une a chaque passage cellulaire jusqu'au passage. 10 de 15 minutes d'IRFA(+LR) 340 J/cm2 IRFA(+LR), 300 J/cm2 IRFA) . Résultats : une exposition unique aux UV-A (+BL) entraîne chez des fibroblastes cutanés humains une augmentation de la mort cellulaire, ainsi qu'une forte augmentation de l'expression du gène codant pour la MMP-1. L'augmentation mise en évidence pour cet ARNm varie en fonction de la technique utilisée : elle est de 11 ± 1 fois par RT-PCR classique, de 76 ± 2 fois par RT-PCR quantitative à 30°C, et de 75 ± 1 fois par RT-PCR quantitative à 37°C. Par contre, une exposition unique ou répétée aux IRFA (+LR) n'induit aucune augmentation de la mort cellulaire, ni de l'expression de l'ARNm de la MMP-1 chez ces fibroblastes. Conclusions : les résultats de cette étude montrent que, contrairement aux rayons ultraviolets, les IRFA (+LR) ne semblent impliqués ni dans le vieillissement, ni dans la mort cellulaire, même utilisés à des doses très élevées. Ces résultats sont en accord avec certaines investigations in vivo montrant une induction de MMP-1 par des UV et non des infrarouges. Ces dernières études suggèrent d'ailleurs plutôt un rôle protecteur des IRFA (+LR).
Resumo:
Résumé (français)ContexteLe tabagisme est connu pour produire un effet coupe-faim chez la plupart des fumeurs. La crainte de la prise de poids à l'arrêt de la cigarette l'emporte souvent sur la perception des bénéfices sur la santé associés à l'abandon du tabac, particulièrement chez les adolescents. Nous avons examiné quel a été le rôle de l'industrie du tabac dans cet effet de la fumée sur l'appétit et sur le contrôle du poids.MéthodesNous avons réalisé une recherche systématique dans les archives de six grandes compagnies de tabac américaines et du Royaume-Uni (American Tobacco, Philip Morris, RJ Reynolds, Lorillard, Brown & Williamson et British American Tobacco) qui avaient été mises en cause dans les procès du tabac en 1998 aux Etats-Unis. Les résultats concernent les années 1949 à 1999.RésultatsLes archives de ces industries montrent qu'elles ont mis au point et ont utilisé diverses stratégies pour améliorer les effets du tabagisme sur le poids et l'appétit, la plupart du temps en réalisant des modifications chimiques des cigarettes. Des substances coupe-faim, telles que l'acide tartrique et le 2-acétylpyridine ont notamment été ajoutées aux cigarettes.ConclusionEn tout cas par le passé, ces compagnies de tabac ont activement modifié leurs cigarettes afin d'en augmenter l'effet de diminution de l'appétit, notamment en y ajoutant des substances coupe-faim.
Resumo:
RESUME INTRODUCTION Comprendre les déterminants de l'arrêt du tabagisme est un enjeu crucial, tant sur le plan clinique qu'en termes de santé publique. Dans l'étude transversale présentée ici, nous décrivons ce processus au travers de l'expérience d'ex-fumeurs. METHODE Sur une période de 4 mois, nous avons proposé à chaque patient consultant la Policlinique Médicale Universitaire de Lausanne de participer à une étude visant à examiner leur expérience de l'arrêt du tabagisme. Les critères d'inclusion étaient les suivants: (1) âge ≥ 18 ans (2) connaissance minimale de la langue française (capacité de comprendre et répondre aux questions) (3) être un ex-fumeur (défini comme une personne actuellement abstinente mais ayant fumé au moins 100 cigarettes [≥ 5 paquets] pendant > 6 mois dans le passé). Une infirmière formée a mené des entretiens semi-structurés en face-à-face avec les ex-fumeurs recrutés en utilisant un questionnaire explorant les 67 questions parmi les thèmes suivants : caractéristiques démographiques et socioéconomiques ; habitudes antérieures de consommation ; stades de motivation ; influence de l'environnement social ; état de santé et préoccupations au sujet de la santé ; perception des risques et des bénéfices du tabagisme ; perception de la dépendance nicotinique ; offre d'un counseling médical spécifique ; connaissances sur les modalités thérapeutiques disponibles et méthodes utilisées pour arrêter de fumer. Les résultats sont exprimés en nombres absolus, en pourcentages, en moyennes et en dispersion. RÉSULTATS 88 ex-fumeurs ont été inclus dans l'étude. Leurs caractéristiques démographiques et socioéconomiques sont les suivantes : La grande majorité d'entre eux sont des hommes (81%), l'âge moyen de 51 ans (variant de 19 à 81 ans), la moitié sont mariés, 72% de nationalité suisse et une grosse minorité (40%) ont une formation supérieure (universitaire ou équivalente). Leur histoire de consommation montre que l'âge moyen d'initiation du tabagisme est de 18 ans (entre 11 et 30 ans), et 23% ont commencé avant 16 ans. La consommation moyenne était de 26 cigarettes/jour. Presque tous les sujets (92%) étaient en contact fréquent avec des fumeurs à la maison, à l'école, au travail ou avec des amis au moment où ils ont commencé à fumer. La moitié des patients a essayé à une ou deux reprises d'arrêter de fumer avant de parvenir à une réelle abstinence. La durée depuis leur arrêt de consommation de cigarettes était en moyenne 5 ans et seuls 16% des sujets ont fumé occasionnellement depuis l'arrêt de leur consommation régulière. La majorité des ex-fumeurs (93%) dit avoir arrêté de manière abrupte et sans aucune aide thérapeutique (83%). 70 % des patients décrivent l'arrêt comme plutôt ou très difficile. Les problèmes décrits après l'interruption du tabagisme sont une prise pondérale (27%), la dépendance (23%), l'irritabilité (15%), les contacts avec des fumeurs (15%) et le manque de cigarette après les repas (11%). Les motivations principales à arrêter de fumer étaient des préoccupations générales au sujet de la santé (39%), des symptômes (23%) ou des signes cliniques spécifiques (22%), comme des problèmes cardiovasculaires ou respiratoires, ainsi que la conviction que le moment était venu d'arrêter (13%). D'autres motivations (comme les enfants, la grossesse, le coût...) étaient rarement mentionnées alors que 45% d'entre eux ont tout de même ressenti une pression de l'entourage, principalement de la part dé personnes vivant sous le même toit, de leurs famille ou amis. L'effet positif majeur de l'abstinence est, à leurs yeux, une amélioration globale de la santé (48%) ou de leurs problèmes cardiovasculaires ou respiratoires (32%). Trois quarts (74 %) des sujets savent que les cigarettes dites «légères »sont aussi nuisibles que les cigarettes normales, et 90 % sont conscients du fait que la nicotine peut induire une dépendance ; la moitié d'entre eux ne réalisent toutefois pas que le filtre ne protège pas contre les dangers de l'inhalation de fumée. Prés de trois quarts (73%) des ex-fumeurs disent avoir été interrogés sur leur consommation de tabac à l'occasion d'une consultation médicale motivée par un problème de santé et 30% clairement encouragés à arrêter par leur médecin. A ce sujet, 78 % sont d'avis qu'un médecin devrait par principe conseiller un arrêt du tabac. CONCLUSION Les 88 ex-fumeurs de cet échantillon ont, pour la plupart, arrêté la cigarette par leurs propres moyens, après un ou plusieurs échecs. Leurs motivations principales étaient le souci de leur propre santé, globalement ou relativement à des symptômes ou des signes cliniques spécifiques, ce qui reflète le fait que les patients sont relativement bien informés des dangers liés à la consommation de tabac. Enfin, le fumeur est sensible à l'influence de son environnement social, et, dans cette perspective, l'abstinence devrait être encouragée par les autorités sanitaires, les professionnels de la santé et les autres membres de la communauté.
Resumo:
Chemosensation is the detection of chemical signals in the environment that enable an animal to make informed decisions about food choice, mate preference or predator detection. Dissecting the molecular and neural mechanisms by which animals detect chemical cues is an important goal towards understanding how they interact with the environment. An attractive system to dissect the mechanisms of chemosensation is the olfactory system. One of the most-investigated olfactory systems is that of Drosophila melanogaster, a model organism that is amenable to a powerful combination of genetic and physiological analyses. Embedded within the antennal olfactory organ of Drosophila is an unusual sensory structure called the sacculus. The sacculus is comprised of three distinct chambers, each lined with several sensilla housing two to three neurons. Previous morphological, anatomical and surgical studies of sacculus neurons have implicated sacculus neurons in chemosensation, hygrosensation and/or thermosensation. While a subset of sacculus neurons have been physiologically characterised as temperature sensors, the role of this organ has remained largely mysterious, due to its inaccessibility to peripheral electrophysiological analysis. Recently a new family of olfactory receptors, the lonotropic Receptors (IRs), was identified. Five IRs are expressed in sacculus neurons providing the first selective molecular markers for these cells. In this thesis I describe the molecular, physiological and anatomical characterisation of these neurons. Genetic labelling of specific populations of sacculus neurons with anatomical (CD8:GFP) reporters has identified neurons in sacculus chambers I and II express IR40a+IR93a together with their co- receptor IR25a, while neurons in chamber III express IR64a with its co-receptor IR8a. Both these sets of neurons project to two distinct glomeruli in the antennal lobe; IR40a neurons project to the column and arm, IR64a neurons project to DC4 and DP1m. Through a live optical imaging screen I showed that these neurons are indeed olfactory and IR64a neurons recognise acidic ligands, while IR40a neurons recognise amine ligands. IR40a and IR64a neurons are in fact composed of anatomically and physiologically distinct subpopulations, strongly implying the existence of other factors that define their functional properties. My thesis identifies the sacculus as a specialised olfactory organ capable of detecting acids and bases, which are of widespread importance to insects. The data from my thesis along with data from other labs show the sacculus is composed of different populations of olfactory sensory neurons and thermosensory neurons. Comparative genomic analysis of sacculus IRs across insects reveals them to be among the most conserved of this receptor repertoire, suggesting that the sacculus represents an evolutionarily ancient insect olfactory acid-base sensor. - La détection des produits chimiques se trouvant dans l'environnement (perception chimiosensorielle) permet à un animal de choisir sa nourriture, son partenaire ou encore d'identifier ses prédateurs. Décortiquer les mécanismes moléculaires et neuronaux grâce auxquels les animaux détectent ces signaux chimiques permet de comprendre comment ces animaux interagissent avec leur environnement. Un système intéressant pour décortiquer ces mécanismes de perception chimiosensorielle est le système olfactif, de la drosophile (Drosophila melanogaster), aussi appelée mouche du vinaigre. C'est un animal modèle très utile grâce à la combinaison d'outils génétiques puissants et d'analyses physiologiques facilement réalisables. Dans l'antenne de la drosophile, qui est l'organe olfactif principal de cet animal, se trouve une structure appelée sacculus. Celui-ci est composé de trois chambres distinctes, chacune comprenant plusieurs sensilles à l'intérieur desquelles se trouvent deux à trois neurones. De précédentes études morphologiques et anatomiques des ces neurones ont déterminé qu'ils sont impliqués dans la perception des odeurs, de l'humidité et de la température. Malgré ceci, la fonction principale de cet organe reste largement inconnue, principalement car il est inaccessible aux analyses électrophysiologiques. Récemment, une nouvelle famille de soixante-six récepteurs olfactifs, nommés Récepteurs lonotropiques (IRs), a été découverte chez la drosophile. Cinq IRs sont exprimés dans les neurones du sacculus. Pour la première fois, une sélection de marqueurs moléculaires est disponible pour l'étude de ces cellules. Dans cette thèse, les caractéristiques moléculaires, physiologiques et anatomiques des neurones du sacculus sont décrites. Ces populations de neurones situés dans le sacculus ont été marquées avec des gènes rapporteurs (CD8:GFP). Ceci a montré que les récepteurs IR40a et IR93a sont exprimés ensemble avec le co-récepteur IR25a dans les chambres I et II, tandis que les neurones de la chambre III expriment IR64a avec son co-récepteur IR8a. Ces deux groupes de neurones projettent vers deux glomérules distincts du lobe antennaire : les neurones IR40a projettent vers la column et le arm, alors que les neurones IR64a projettent vers DC4 et DP1m. Un screen d'imagerie optique a démontré que ces neurones sont en effet des neurones olfactifs, et que les neurones IR64a reconnaissent des ligands acides, tandis que les neurones IR40a reconnaissent des ligands aminés. De plus, les neurones IR40a et IR64a sont séparés en sous-populations distinctes anatomiquement et physiologiquement, et d'autres facteurs permettant de définir leurs propriétés fonctionnelles sont probablement impliqués. Cette thèse identifie ainsi le sacculus comme un organe olfactif spécialisé capable de détecter des acides et amines, lesquels sont très importants pour les insectes. Toutes les données collectées durant cette thèse, combinées aux données d'autres laboratoires, montrent que le sacculus est composé de différentes populations de neurones olfactifs et thermosenseurs. Ces IRs sont très conservés parmi les insectes, suggérant que le sacculus représente révolution d'un ancien détecteur olfactif d'acides et de bases chez l'insecte. - Tous les animaux sont capables de percevoir les signaux chimiques dans leur environnement, comme les odeurs ou le goût, via différents organes. L'odorat est le sens qui permet de percevoir les odeurs, et il est implique des neurones olfactifs qui se trouvent dans le nez des mammifères ou les antennes des insectes. La capacité d'un neurone olfactif à détecter une molécule odorante dépend des types de récepteurs olfactifs qu'il exprime. Il existe deux grandes familles de récepteurs qui perçoivent les odeurs : les Récepteurs Olfactifs, ORs, et Récepteurs lonotropiques IRs, qui détectent différents types d'odeurs avec différents mécanismes. Lorsqu'un récepteur reconnaît une molécule odorante, il convertit ce signal en un signal électrique qui est ensuite transmis au centre olfactif dans le cerveau. La drosophile (Drosophila melanogaster), aussi appelée mouche du vinaigre, est utilisée comme animal modèle pour étudier l'odorat, parce que son génome entier a été séquencé et que ses gènes sont facilement manipulables. De plus, l'anatomie du système olfactif de la mouche est similaire à celui des mammifères, malgré qu'il possède moins de neurones, ce qui le rend moins complexe. Ma thèse a pour objectif d'étudier les Récepteurs lonotropiques dans un organe spécifique, appelé le sacculus, situé dans les antennes. Les neurones du sacculus exprimant des IRs envoient leurs projections au centre olfactif du cerveau, suggérant que ces neurones perçoivent les odeurs. Une technique d'imagerie optique a été utilisée sur le cerveau de mouches vivantes afin de mesurer la réponse des neurones du le sacculus à différentes odeurs. J'ai démontré que ces récepteurs détectent des acides et des amines, qui sont très importants pour les insectes. Par exemple, les acides se retrouvent dans les fruits mûrs sur lesquels les mouches vont se nourrir, s'accoupler et poser leurs oeufs, et les amines sont souvent produites par des bactéries pouvant être nuisible pour la mouche. La principale découverte de ma thèse est donc l'identification du sacculus comme un organe capable de détecter deux des principales odeurs importantes pour la mouche. Ces récepteurs sont aussi présents dans d'autres insectes où ils jouent peut-être des rôles différents. Les acides et les amines se retrouvent aussi dans les excrétions (comme la sueur ou l'urine) de beaucoup de mammifères, qui pourraient potentiellement être dangereux pour la mouche, mais qui attirent les moustiques se nourrissant de leur sang.
Resumo:
Les écosystèmes fournissent de nombreuses ressources et services écologiques qui sont utiles à la population humaine. La biodiversité est une composante essentielle des écosystèmes et maintient de nombreux services. Afin d'assurer la permanence des services écosystémiques, des mesures doivent être prises pour conserver la biodiversité. Dans ce but, l'acquisition d'informations détaillées sur la distribution de la biodiversité dans l'espace est essentielle. Les modèles de distribution d'espèces (SDMs) sont des modèles empiriques qui mettent en lien des observations de terrain (présences ou absences d'une espèce) avec des descripteurs de l'environnement, selon des courbes de réponses statistiques qui décrive la niche réalisée des espèces. Ces modèles fournissent des projections spatiales indiquant les lieux les plus favorables pour les espèces considérées. Le principal objectif de cette thèse est de fournir des projections plus réalistes de la distribution des espèces et des communautés en montagne pour le climat présent et futur en considérant non-seulement des variables abiotiques mais aussi biotiques. Les régions de montagne et l'écosystème alpin sont très sensibles aux changements globaux et en même temps assurent de nombreux services écosystémiques. Cette thèse est séparée en trois parties : (i) fournir une meilleure compréhension du rôle des interactions biotiques dans la distribution des espèces et l'assemblage des communautés en montagne (ouest des Alpes Suisses), (ii) permettre le développement d'une nouvelle approche pour modéliser la distribution spatiale de la biodiversité, (iii) fournir des projections plus réalistes de la distribution future des espèces ainsi que de la composition des communautés. En me focalisant sur les papillons, bourdons et plantes vasculaires, j'ai détecté des interactions biotiques importantes qui lient les espèces entre elles. J'ai également identifié la signature du filtre de l'environnement sur les communautés en haute altitude confirmant l'utilité des SDMs pour reproduire ce type de processus. A partir de ces études, j'ai contribué à l'amélioration méthodologique des SDMs dans le but de prédire les communautés en incluant les interactions biotiques et également les processus non-déterministes par une approche probabiliste. Cette approche permet de prédire non-seulement la distribution d'espèces individuelles, mais également celle de communautés dans leur entier en empilant les projections (S-SDMs). Finalement, j'ai utilisé cet outil pour prédire la distribution d'espèces et de communautés dans le passé et le futur. En particulier, j'ai modélisé la migration post-glaciaire de Trollius europaeus qui est à l'origine de la structure génétique intra-spécifique chez cette espèce et évalué les risques de perte face au changement climatique. Finalement, j'ai simulé la distribution des communautés de bourdons pour le 21e siècle afin d'évaluer les changements probables dans ce groupe important de pollinisateurs. La diversité fonctionnelle des bourdons va être altérée par la perte d'espèces spécialistes de haute altitude et ceci va influencer la pollinisation des plantes en haute altitude. - Ecosystems provide a multitude of resources and ecological services, which are useful to human. Biodiversity is an essential component of those ecosystems and guarantee many services. To assure the permanence of ecosystem services for future generation, measure should be applied to conserve biodiversity. For this purpose, the acquisition of detailed information on how biodiversity implicated in ecosystem function is distributed in space is essential. Species distribution models (SDMs) are empirical models relating field observations to environmental predictors based on statistically-derived response surfaces that fit the realized niche. These models result in spatial predictions indicating locations of the most suitable environment for the species and may potentially be applied to predict composition of communities and their functional properties. The main objective of this thesis was to provide more accurate projections of species and communities distribution under current and future climate in mountains by considering not solely abiotic but also biotic drivers of species distribution. Mountain areas and alpine ecosystems are considered as particularly sensitive to global changes and are also sources of essential ecosystem services. This thesis had three main goals: (i) a better ecological understanding of biotic interactions and how they shape the distribution of species and communities, (ii) the development of a novel approach to the spatial modeling of biodiversity, that can account for biotic interactions, and (iii) ecologically more realistic projections of future species distributions, of future composition and structure of communities. Focusing on butterfly and bumblebees in interaction with the vegetation, I detected important biotic interactions for species distribution and community composition of both plant and insects along environmental gradients. I identified the signature of environmental filtering processes at high elevation confirming the suitability of SDMs for reproducing patterns of filtering. Using those case-studies, I improved SDMs by incorporating biotic interaction and accounting for non-deterministic processes and uncertainty using a probabilistic based approach. I used improved modeling to forecast the distribution of species through the past and future climate changes. SDMs hindcasting allowed a better understanding of the spatial range dynamic of Trollius europaeus in Europe at the origin of the species intra-specific genetic diversity and identified the risk of loss of this genetic diversity caused by climate change. By simulating the future distribution of all bumblebee species in the western Swiss Alps under nine climate change scenarios for the 21st century, I found that the functional diversity of this pollinator guild will be largely affected by climate change through the loss of high elevation specialists. In turn, this will have important consequences on alpine plant pollination.
Resumo:
La tomodensitométrie (CT) est une technique d'imagerie dont l'intérêt n'a cessé de croître depuis son apparition dans le début des années 70. Dans le domaine médical, son utilisation est incontournable à tel point que ce système d'imagerie pourrait être amené à devenir victime de son succès si son impact au niveau de l'exposition de la population ne fait pas l'objet d'une attention particulière. Bien évidemment, l'augmentation du nombre d'examens CT a permis d'améliorer la prise en charge des patients ou a rendu certaines procédures moins invasives. Toutefois, pour assurer que le compromis risque - bénéfice soit toujours en faveur du patient, il est nécessaire d'éviter de délivrer des doses non utiles au diagnostic.¦Si cette action est importante chez l'adulte elle doit être une priorité lorsque les examens se font chez l'enfant, en particulier lorsque l'on suit des pathologies qui nécessitent plusieurs examens CT au cours de la vie du patient. En effet, les enfants et jeunes adultes sont plus radiosensibles. De plus, leur espérance de vie étant supérieure à celle de l'adulte, ils présentent un risque accru de développer un cancer radio-induit dont la phase de latence peut être supérieure à vingt ans. Partant du principe que chaque examen radiologique est justifié, il devient dès lors nécessaire d'optimiser les protocoles d'acquisitions pour s'assurer que le patient ne soit pas irradié inutilement. L'avancée technologique au niveau du CT est très rapide et depuis 2009, de nouvelles techniques de reconstructions d'images, dites itératives, ont été introduites afin de réduire la dose et améliorer la qualité d'image.¦Le présent travail a pour objectif de déterminer le potentiel des reconstructions itératives statistiques pour réduire au minimum les doses délivrées lors d'examens CT chez l'enfant et le jeune adulte tout en conservant une qualité d'image permettant le diagnostic, ceci afin de proposer des protocoles optimisés.¦L'optimisation d'un protocole d'examen CT nécessite de pouvoir évaluer la dose délivrée et la qualité d'image utile au diagnostic. Alors que la dose est estimée au moyen d'indices CT (CTDIV0| et DLP), ce travail a la particularité d'utiliser deux approches radicalement différentes pour évaluer la qualité d'image. La première approche dite « physique », se base sur le calcul de métriques physiques (SD, MTF, NPS, etc.) mesurées dans des conditions bien définies, le plus souvent sur fantômes. Bien que cette démarche soit limitée car elle n'intègre pas la perception des radiologues, elle permet de caractériser de manière rapide et simple certaines propriétés d'une image. La seconde approche, dite « clinique », est basée sur l'évaluation de structures anatomiques (critères diagnostiques) présentes sur les images de patients. Des radiologues, impliqués dans l'étape d'évaluation, doivent qualifier la qualité des structures d'un point de vue diagnostique en utilisant une échelle de notation simple. Cette approche, lourde à mettre en place, a l'avantage d'être proche du travail du radiologue et peut être considérée comme méthode de référence.¦Parmi les principaux résultats de ce travail, il a été montré que les algorithmes itératifs statistiques étudiés en clinique (ASIR?, VEO?) ont un important potentiel pour réduire la dose au CT (jusqu'à-90%). Cependant, par leur fonctionnement, ils modifient l'apparence de l'image en entraînant un changement de texture qui pourrait affecter la qualité du diagnostic. En comparant les résultats fournis par les approches « clinique » et « physique », il a été montré que ce changement de texture se traduit par une modification du spectre fréquentiel du bruit dont l'analyse permet d'anticiper ou d'éviter une perte diagnostique. Ce travail montre également que l'intégration de ces nouvelles techniques de reconstruction en clinique ne peut se faire de manière simple sur la base de protocoles utilisant des reconstructions classiques. Les conclusions de ce travail ainsi que les outils développés pourront également guider de futures études dans le domaine de la qualité d'image, comme par exemple, l'analyse de textures ou la modélisation d'observateurs pour le CT.¦-¦Computed tomography (CT) is an imaging technique in which interest has been growing since it first began to be used in the early 1970s. In the clinical environment, this imaging system has emerged as the gold standard modality because of its high sensitivity in producing accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase of the number of CT examinations performed has raised concerns about the potential negative effects of ionizing radiation on the population. To insure a benefit - risk that works in favor of a patient, it is important to balance image quality and dose in order to avoid unnecessary patient exposure.¦If this balance is important for adults, it should be an absolute priority for children undergoing CT examinations, especially for patients suffering from diseases requiring several follow-up examinations over the patient's lifetime. Indeed, children and young adults are more sensitive to ionizing radiation and have an extended life span in comparison to adults. For this population, the risk of developing cancer, whose latency period exceeds 20 years, is significantly higher than for adults. Assuming that each patient examination is justified, it then becomes a priority to optimize CT acquisition protocols in order to minimize the delivered dose to the patient. Over the past few years, CT advances have been developing at a rapid pace. Since 2009, new iterative image reconstruction techniques, called statistical iterative reconstructions, have been introduced in order to decrease patient exposure and improve image quality.¦The goal of the present work was to determine the potential of statistical iterative reconstructions to reduce dose as much as possible without compromising image quality and maintain diagnosis of children and young adult examinations.¦The optimization step requires the evaluation of the delivered dose and image quality useful to perform diagnosis. While the dose is estimated using CT indices (CTDIV0| and DLP), the particularity of this research was to use two radically different approaches to evaluate image quality. The first approach, called the "physical approach", computed physical metrics (SD, MTF, NPS, etc.) measured on phantoms in well-known conditions. Although this technique has some limitations because it does not take radiologist perspective into account, it enables the physical characterization of image properties in a simple and timely way. The second approach, called the "clinical approach", was based on the evaluation of anatomical structures (diagnostic criteria) present on patient images. Radiologists, involved in the assessment step, were asked to score image quality of structures for diagnostic purposes using a simple rating scale. This approach is relatively complicated to implement and also time-consuming. Nevertheless, it has the advantage of being very close to the practice of radiologists and is considered as a reference method.¦Primarily, this work revealed that the statistical iterative reconstructions studied in clinic (ASIR? and VECO have a strong potential to reduce CT dose (up to -90%). However, by their mechanisms, they lead to a modification of the image appearance with a change in image texture which may then effect the quality of the diagnosis. By comparing the results of the "clinical" and "physical" approach, it was showed that a change in texture is related to a modification of the noise spectrum bandwidth. The NPS analysis makes possible to anticipate or avoid a decrease in image quality. This project demonstrated that integrating these new statistical iterative reconstruction techniques can be complex and cannot be made on the basis of protocols using conventional reconstructions. The conclusions of this work and the image quality tools developed will be able to guide future studies in the field of image quality as texture analysis or model observers dedicated to CT.
Resumo:
RESUME en français Centrée sur le grand nymphée de Leptis Magna la recherche met en évidence l'évolution et la signification de ce monument des eaux dans l'une des plus importantes cités africaines de l'époque romaine en mettant en lumière trois thèmes principaux. L'étude historiographique permet tout d'abord d'appréhender, à l'aide des témoignages littéraires des siècles derniers et d'une abondante documentation d'archive, l'histoire de l'édifice de son ensablement à sa remise au jour, puis de suivre les différentes étapes de son dégagement et de sa restauration, mettant ainsi en relief la perception des divers observateurs à l'encontre du monument. L'étude urbanistique permet ensuite de dégager la signification de l'édifice dans la cité par rapport aux autres monuments du secteur aux différentes périodes de son histoire, ainsi que de reconstituer l'approvisionnement en eau de Leptis Magna. Enfin, l'étude architecturale s'intéresse à l'analyse détaillée des structures, permettant la mise en évidence de la conception initiale, du fonctionnement et des transformations du nymphée. Cette dernière approche, qui s'accompagne d'un catalogue circonstancié des éléments du décor, fait intervenir des considérations sur les techniques de constructions, le traitement des blocs d'ornementation et, d'une manière plus générale, sur ('économie du chantier. Cette recherche permet non seulement de reconstituer l'aspect, le rôle et l'histoire du monument et de le replacer dans la série des nymphées romains, mais aussi de percevoir son impact sur les habitants du lieu aux différents moments de son histoire, cherchant ainsi à rejoindre par l'archéologie des considérations sociologiques. THE GREAT SEVERAN NYMPHAEUM OF LEPTIS MAGNA: HISTORIOGRAPHICAL, URBANISTIC AND ARCHITECTURAL STUDY RESUME en anglais Based on the great nymphaeum of Leptis Magna, the research considers the development and significance of this water monument in one of the most important African cities of the Roman period, through three principal aspects. The historiographical study aboards the subject through literary testimony from the last centuries and an abundance of documentary archives, the history of the edifice from its burial to its reconstruction, studying the different stages of its unearthing and its restoration, thus pinpointing perspectives from various observers of the monument. The urban study divulges the significance of the edifice in the city, in comparison with other monuments in the region over different periods of its history, as well as reconstituting Leptis Magna's water supply. Finally, the architectural study undertakes a detailed analysis of the structures, which highlights the conception and the transformations of the nymphaeum, as well as its hydraulic functions. This architectural approach, which is accompanied by a detailed catalogue of the decorative elements, juxtaposes the technical considerations of construction with the ornamental treatment of the marble blocks, accounting for the economical aspects of the site of the nymphaeum. This research proposes not only a consideration of the appearance, the role and the history of the monument and situates it within the series of Roman nymphaea, but also the perception of its impact on the local inhabitants at different moments in its history, looking for accomplish by archaeology some sociological considerations.
Resumo:
Contexte: Impression clinique que l'Etat de Stress Post-traumatique (ESPT) est sous-diagnostiqué dans la prise en charge des patients qui sont évalués dans le cadre d'une urgence psychiatrique. Objectifs: (i) identifier la prévalence de l'ESPT dans une unité d'urgence psychiatrique au moyen d'un instrument diagnostic et la comparer avec le diagnostic clinique retenu dans un échantillon historique (ii) évaluer la perception des cliniciens quant à l'utilisation systématique d'un instrument diagnostic Méthodes: la prévalence de l'ESPT a été évaluée chez des patients consécutifs (N = 403) qui ont bénéficié d'une consultation par des psychiatres de l'Unité urgence-crise du Service de Psychiatrie de Liaison (PLI) du CHUV, en utilisant le module J du Mini Mental Neuropsychologic Interview (MINI 5.0.0, version CIM-10). Ce résultat a été comparé avec la prévalence de l'ESPT mentionné comme diagnostic dans les dossiers (N = 350) d'un échantillon historique. La perception des médecins-assistants de psychiatrie quant au dépistage systématique de l'ESPT avec un instrument a été étudiée en se basant sur la conduite d'un focus group d'assistants travaillant dans l'Unité urgence-crise du PLI. Résultats: Parmi les patients (N = 316) évalués à l'aide de l'instrument diagnostic, 20,3% (n = 64) réunissaient les critères de l'ESPT. Cela constitue un taux de prévalence significativement plus élevé que la prévalence d'ESPT documentée dans les dossiers de l'échantillon historique (0,57%). Par ailleurs, la prévalence de l'ESPT est significativement plus élevée parmi les groupes socio- économiques précarisés, tels que réfugiés et sans papiers (50%), patients venant d'un pays à histoire de guerre récente (47,1%), patients avec quatre (44,4%) ou trois comorbidités psychiatriques (35,3%), migrants (29,8%) et patients sans revenus professionnels (25%). Le focus groupe composé de 8 médecins-assistants a révélé que l'utilisation systématique d'un outil- diagnostic ne convenait pas dans le setting d'urgence psychiatrique, notamment parce que l'instrument a été considéré comme non adapté à une première consultation ou jugé avoir un impact négatif sur l'entretien clinique. Toutefois, après la fin de l'étude, les médecins-assistants estimaient qu'il était important de rechercher activement l'ESPT et continuaient à intégrer les éléments principaux du questionnaire dans leur travail clinique. Conclusion et perspectives: cette étude confirme que l'ESPT est largement sous-diagnostiqué dans le contexte des urgences psychiatriques, mais que l'usage systématique d'un outil diagnostic dans ce cadre ne satisfait pas les praticiens concernés. Pour améliorer la situation et au vu du fait qu'un instrument diagnostic est considéré comme non-adapté dans ce setting, il serait peut-être bénéfique d'envisager un dépistage ciblé et/ou de mettre en place une stratégie de formation institutionnelle.
Resumo:
Résumé Les glissements de terrain représentent un des principaux risques naturels dans les régions montagneuses. En Suisse, chaque année les glissements de terrains causent des dégâts qui affectent les infrastructures et ont des coûts financiers importants. Une bonne compréhension des mécanismes des glissements peut permettre d'atténuer leur impact. Celle-ci passe notamment par la connaissance de la structure interne du glissement, la détermination de son volume et de son ou ses plans de glissement. Dans un glissement de terrain, la désorganisation et la présence de fractures dans le matériel déplacé engendre un changement des paramètres physiques et en particulier une diminution des vitesses de propagation des ondes sismiques ainsi que de la densité du matériel. Les méthodes sismiques sont de ce fait bien adaptées à l'étude des glissements de terrain. Parmi les méthodes sismiques, l'analyse de la dispersion des ondes de surface est une méthode simple à mettre en oeuvre. Elle présente l'avantage d'estimer les variations des vitesses de cisaillement avec la profondeur sans avoir spécifiquement recours à l'utilisation d'une source d'onde S et de géophones horizontaux. Sa mise en oeuvre en trois étapes implique la mesure de la dispersion des ondes de surface sur des réseaux étendus, la détermination des courbes de dispersion pour finir par l'inversion de ces courbes. Les modèles de vitesse obtenus à partir de cette procédure ne sont valides que lorsque les milieux explorés ne présentent pas de variations latérales. En pratique cette hypothèse est rarement vérifiée, notamment pour un glissement de terrain dans lequel les couches remaniées sont susceptibles de présenter de fortes hétérogénéités latérales. Pour évaluer la possibilité de déterminer des courbes de dispersion à partir de réseaux de faible extension des mesures testes ont été effectuées sur un site (Arnex, VD) équipé d'un forage. Un profil sismique de 190 m de long a été implanté dans une vallée creusée dans du calcaire et remplie par des dépôts glacio-lacustres d'une trentaine de mètres d'épaisseur. Les données acquises le long de ce profil ont confirmé que la présence de variations latérales sous le réseau de géophones affecte l'allure des courbes de dispersion jusqu'à parfois empêcher leur détermination. Pour utiliser l'analyse de la dispersion des ondes de surface sur des sites présentant des variations latérales, notre approche consiste à déterminer les courbes de dispersions pour une série de réseaux de faible extension, à inverser chacune des courbes et à interpoler les différents modèles de vitesse obtenus. Le choix de la position ainsi que de l'extension des différents réseaux de géophones est important. Il tient compte de la localisation des hétérogénéités détectées à partir de l'analyse de sismique réfraction, mais également d'anomalies d'amplitudes observées sur des cartes qui représentent dans le domaine position de tir - position du récepteur, l'amplitude mesurée pour différentes fréquences. La procédure proposée par Lin et Lin (2007) s'est avérée être une méthode efficace permettant de déterminer des courbes de dispersion à partir de réseaux de faible extension. Elle consiste à construire à partir d'un réseau de géophones et de plusieurs positions de tir un enregistrement temps-déports qui tient compte d'une large gamme de distances source-récepteur. Au moment d'assembler les différentes données une correction de phase est appliquée pour tenir compte des hétérogénéités situées entre les différents points de tir. Pour évaluer cette correction nous suggérons de calculer pour deux tir successif la densité spectrale croisée des traces de même offset: Sur le site d'Arnex, 22 courbes de dispersions ont été déterminées pour de réseaux de géophones de 10 m d'extension. Nous avons également profité du forage pour acquérir un profil de sismique verticale en ondes S. Le modèle de vitesse S déduit de l'interprétation du profil de sismique verticale est utilisé comme information à priori lors l'inversion des différentes courbes de dispersion. Finalement, le modèle en deux dimension qui a été établi grâce à l'analyse de la dispersion des ondes de surface met en évidence une structure tabulaire à trois couches dont les limites coïncident bien avec les limites lithologiques observées dans le forage. Dans celui-ci des argiles limoneuses associées à une vitesse de propagation des ondes S de l'ordre de 175 m/s surmontent vers 9 m de profondeur des dépôts de moraine argilo-sableuse caractérisés par des vitesses de propagation des ondes S de l'ordre de 300 m/s jusqu'à 14 m de profondeur et supérieur ou égal à 400 m/s entre 14 et 20 m de profondeur. Le glissement de la Grande Combe (Ballaigues, VD) se produit à l'intérieur du remplissage quaternaire d'une combe creusée dans des calcaires Portlandien. Comme dans le cas du site d'Arnex les dépôts quaternaires correspondent à des dépôts glacio-lacustres. Dans la partie supérieure la surface de glissement a été localisée à une vingtaine de mètres de profondeur au niveau de l'interface qui sépare des dépôts de moraine jurassienne et des dépôts glacio-lacustres. Au pied du glissement 14 courbes de dispersions ont été déterminées sur des réseaux de 10 m d'extension le long d'un profil de 144 m. Les courbes obtenues sont discontinues et définies pour un domaine de fréquence de 7 à 35 Hz. Grâce à l'utilisation de distances source-récepteur entre 8 et 72 m, 2 à 4 modes de propagation ont été identifiés pour chacune des courbes. Lors de l'inversion des courbes de dispersion la prise en compte des différents modes de propagation a permis d'étendre la profondeur d'investigation jusqu'à une vingtaine de mètres de profondeur. Le modèle en deux dimensions permet de distinguer 4 couches (Vs1 < 175 m/s, 175 m/s < Vs2 < 225 m/s, 225 m/s < Vs3 < 400 m/s et Vs4 >.400 m/s) qui présentent des variations d'épaisseur. Des profils de sismiques réflexion en ondes S acquis avec une source construite dans le cadre de ce travail, complètent et corroborent le modèle établi à partir de l'analyse de la dispersion des ondes de surface. Un réflecteur localisé entre 5 et 10 m de profondeur et associé à une vitesse de sommation de 180 m/s souligne notamment la géométrie de l'interface qui sépare la deuxième de la troisième couche du modèle établi à partir de l'analyse de la dispersion des ondes de surface. Abstract Landslides are one of the main natural hazards in mountainous regions. In Switzerland, landslides cause damages every year that impact infrastructures and have important financial costs. In depth understanding of sliding mechanisms may help limiting their impact. In particular, this can be achieved through a better knowledge of the internal structure of the landslide, the determination of its volume and its sliding surface or surfaces In a landslide, the disorganization and the presence of fractures in the displaced material generate a change of the physical parameters and in particular a decrease of the seismic velocities and of the material density. Therefoe, seismic methods are well adapted to the study of landslides. Among seismic methods, surface-wave dispersion analysis is a easy to implement. Through it, shearwave velocity variations with depth can be estimated without having to resort to an S-wave source and to horizontal geophones. Its 3-step implementation implies measurement of surface-wave dispersion with long arrays, determination of the dispersion curves and finally inversion of these curves. Velocity models obtained through this approach are only valid when the investigated medium does not include lateral variations. In practice, this assumption is seldom correct, in particular for landslides in which reshaped layers likely include strong lateral heterogeneities. To assess the possibility of determining dispersion curves from short array lengths we carried out tests measurements on a site (Arnex, VD) that includes a borehole. A 190 m long seismic profile was acquired in a valley carved into limestone and filled with 30 m of glacio-lacustrine sediments. The data acquired along this profile confirmed that the presence of lateral variations under the geophone array influences the dispersion-curve shape so much that it sometimes preventes the dispersion curves determination. Our approach to use the analysis of surface-wave dispersion on sites that include lateral variations consists in obtaining dispersion curves for a series of short length arrays; inverting each so obtained curve and interpolating the different obtained velocity model. The choice of the location as well as the geophone array length is important. It takes into account the location of the heterogeneities that are revealed by the seismic refraction interpretation of the data but also, the location of signal amplitude anomalies observed on maps that represent, for a given frequency, the measured amplitude in the shot position - receiver position domain. The procedure proposed by Lin and Lin (2007) turned out to be an efficient one to determine dispersion curves using short extension arrays. It consists in building a time-offset from an array of geophones with a wide offset range by gathering seismograms acquired with different source-to-receiver offsets. When assembling the different data, a phase correction is applied in order to reduce static phase error induced by lateral variation. To evaluate this correction, we suggest to calculate, for two successive shots, the cross power spectral density of common offset traces. On the Arnex site, 22 curves were determined with 10m in length geophone-arrays. We also took advantage of the borehole to acquire a S-wave vertical seismic profile. The S-wave velocity depth model derived from the vertical seismic profile interpretation is used as prior information in the inversion of the dispersion-curves. Finally a 2D velocity model was established from the analysis of the different dispersion curves. It reveals a 3-layer structure in good agreement with the observed lithologies in the borehole. In it a clay layer with a shear-wave of 175 m/s shear-wave velocity overlies a clayey-sandy till layer at 9 m depth that is characterized down to 14 m by a 300 m/s S-wave velocity; these deposits have a S-wave velocity of 400 m/s between depths of 14 to 20 m. The La Grand Combe landslide (Ballaigues, VD) occurs inside the Quaternary filling of a valley carved into Portlandien limestone. As at the Arnex site, the Quaternary deposits correspond to glaciolacustrine sediments. In the upper part of the landslide, the sliding surface is located at a depth of about 20 m that coincides with the discontinuity between Jurassian till and glacio-lacustrine deposits. At the toe of the landslide, we defined 14 dispersion curves along a 144 m long profile using 10 m long geophone arrays. The obtained curves are discontinuous and defined within a frequency range of 7 to 35 Hz. The use of a wide range of offsets (from 8 to 72 m) enabled us to determine 2 to 4 mode of propagation for each dispersion curve. Taking these higher modes into consideration for dispersion curve inversion allowed us to reach an investigation depth of about 20 m. A four layer 2D model was derived (Vs1< 175 m/s, 175 m/s <Vs2< 225 m/s, 225 m/s < Vs3 < 400 m/s, Vs4> 400 m/s) with variable layer thicknesses. S-wave seismic reflection profiles acquired with a source built as part of this work complete and the velocity model revealed by surface-wave analysis. In particular, reflector at a depth of 5 to 10 m associated with a 180 m/s stacking velocity image the geometry of the discontinuity between the second and third layer of the model derived from the surface-wave dispersion analysis.
Resumo:
Résumé : Nous avons effectué une étude de cohorte examinant la survie de tous les patients qui ont présenté une sepsis sévère ou un choc septique aux soins intensifs de médecine et de chirurgie du CIIUV durant une période de 3 ans. Introduction: La sepsis sévère et le choc septique constituent la deuxième cause de mortalité dans les unités de soins intensifs non coronaires. La survie à long terme est mal connue. Nous avons comparé la survie à 28 jours de notre collectif avec les données de la littérature, examiné la survie à long terme des patients ayant survécus plus de 28 jours et identifié des paramètres prédictifs de la survie. Matériel et méthode : Nous avons classifié les patients ayant présenté un épisode septique rétrospectivement en sepsis sévère ou choc septique selon les critères de Bone (1). Les données cliniques et paracliniques ont été relevées au moment de l'épisode. Des courbes de survie uni- et multivariées ont été établies à 28 jours et à long terme chez ceux qui ont survécus plus de 28 jours, d'après les données de questionnaires envoyés aux médecins traitants. Résultats : Durant Ìa période de l'étude, 339 patients ont présenté un choc septique (169) ou une sepsis sévère (170). La mortalité à 28 jours a été de 33% (choc septique: 55%, sepsis sévère: 11.2%, p<10"5). Les données significativement associées à la mortalité à 28 jours dans l'analyse de régression multivariée selon Cox ont été le type d'épisode septique (choc septique vs. sepsis sévère, p=0.001), le «Acute Physiology Score» du score APACHE II (p=0.02) et le nombre de dysfonctions d'organes (plus de trois dysfunctions, p=0.04). 227 patients ont survécu plus de 28 jours et des données de suivi ont été obtenues chez 225. Le suivi moyen après 28 jours a été de 25.1 mois (5700 mois-patients). La mortalité globale de ces patients, extrapolée des courbes de Kaplan-Meyer, a été de l'ordre de 7% à 1 an et de 15% à 2 ans. Les données significativement associées à leur survie à long terme ont été les "chronic health points" du score APACHE II (p=0.02), l'âge (p=0.05) et le fait d'avoir subi une opération chirurgicale avant l'épisode septique (p=0.02). Conclusion : La mortalité à 28 jours de notre cohorte de patients s'est révélée comparable aux chiffres publiés. La survie à long terme des patients ayant survécu plus de 28 jours a été satisfaisante. Elle s'est révélée indépendante de la sévérité de l'épisode septique, mais dépendait plutôt des conditions de santé sous-jacentes.
Resumo:
Rapport de synthèseApproche et objectifL'objectif de la recherche était de préciser les relations existant entre l'insuffisance rénale chronique, l'anémie et l'accident vasculaire cérébral parmi des patients hospitalisés au Centre Hospitalier Universitaire Vaudois (CHUV) pour un accident vasculaire cérébral (AVC). Les auteurs ont déterminé la prévalence de l'anémie et de l'insuffisance rénale chronique parmi ces patients et examiné s'ils sont des facteurs de risque indépendants de la mortalité suite à un AVC.L'insuffisance rénale chronique est associée à un risque élevé de développer un AVC. L'anémie est une complication et une conséquence fréquente qui découle de l'insuffisance rénale chronique et est également un facteur de risque pour les maladies cérébro- et cardiovasculaires.MéthodeLa présente étude de cohorte rétrospective se base sur le registre des AVC du CHUV et inclut tous les patients traités suite à un premier AVC au service de neurologie du CHUV entre les années 2000 et 2003.Les variables utilisées pour l'analyse sont les caractéristiques démographiques, l'insuffisance rénale chronique, le débit de filtration glomérulaire.(GFR), l'anémie et d'autres facteurs de risque d'AVC. Ils ont été récoltés au moyen du système informatique du laboratoire du CHUV, d'entretiens téléphoniques (patients ou proches) et du registre des AVC du CHUV.L'insuffisance rénale chronique a été calculée sur base de la ,,Kidney Disease Outcomes Quality Initiative (K/DOQI)-CKD Classification", laquelle est divisée en cinq stades. L'anémie a été définie par une hémoglobine de < 120g/L pour les femmes et < 130g/L pour les hommes.Les analyses statistiques réalisées sont des tests Chi-carré, des tests de Τ ainsi que des courbes de Kaplan-Meier et le modèle de régression de Cox.RésultatsParmi 890 patients adultes avec un AVC, le GFR moyen était de 64.3 ml/min/1.73 m2, 17% souffraient d'anémie et 10% sont décédés pendant la première année après la sortie de l'hôpital, suite à l'"AVC index". Parmi ceux-ci, 61% avaient une insuffisance rénale chronique de stade 3-5 et 39% de stade 1 ou 2 selon les critères de K/DOQI.D'autre part un taux d'hémoglobine élevé a pu être associé à un risque moins élevé de mortalité un an après la sortie de l'hôpital.Conclusion et perspectiveNous avons constaté que l'anémie ainsi que l'insuffisance rénale chronique sont fréquents parmi les patients souffrant d'un AVC et qu'ils sont des facteurs de risque d'un taux de mortalité élevé après un an. En conséquence, il pourrait être utile de traiter les patients souffrant d'anémie et d'insuffisance rénale dès que possible afin de diminuer les complications et comorbidités résultants de ces maladies.La perspective est de rendre les cliniciens attentif à l'importance de l'insuffisance rénale et de l'anémie parmi les patients ayants développé un AVC, ainsi que d'initier le traitement approprié afin de diminuer les complications, les comorbidités ainsi que les récidives d'un AVC. L'efficacité et l'économicité des interventions visant à améliorer le pronostic chez les patients présentant un AVC et souffrant d'une insuffisance rénale chronique et / ou d'une anémie doivent être évaluées par des études appropriées.