999 resultados para mesure
Resumo:
Après une revue de la littérature concernant les médias utilisés dans le cadre de campagne de prévention, le matériel d'exposition est présenté. Le contenu et les moyens mis en oeuvre ne sont traités que dans la mesure où ils influencent directement la présentation du matériel. Enfin pour clore ce travail, une discussion concernant les possibilités et difficultés d'évaluation de ces actions de diffusion de l'information. [Auteur, p. 2]
Resumo:
Une expertise collective sur l'évaluation des risques liés aux nanomatériaux pour la population générale et pour l'environnement a identifié plusieurs centaines de produits de grande consommation contenant des nanomatériaux, présents dans notre quotidien : textiles, cosmétiques, alimentaires, équipements sportifs, matériaux de construction... Des études nouvelles suggèrent la possibilité de risques pour la santé et pour l'environnement de certains produits. Face à cette situation d'incertitude, l'Afsset recommande d'agir sans attendre au nom du principe de précaution et de 1) Rendre obligatoire la traçabilité des nanomatériaux. Cela passe par une obligation de déclaration par les industriels, 2) la mise en place un étiquetage clair qui mentionne la présence de nanomatériaux dans les produits et informe sur la possibilité de relargage à l'usage, 3) d'aller jusqu'à l'interdiction de certains usages des nanomatériaux pour lesquels l'utilité est faible par rapport aux dangers potentiels, 4) l'harmonisation des cadres réglementaires français et européens pour généraliser les meilleures pratiques : déclaration, autorisation, substitution. En particulier, une révision de REACh s'impose pour prendre en compte les nanomatériaux manufacturés de manière spécifique et quel que soit leur tonnage. L'expertise fait également des recommandations pour construire une méthode renouvelée d'évaluation des risques sanitaires qui soit adaptée aux spécificités des nanomatériaux. Pour cela l'Afsset a testé les méthodologies classiques d'évaluation des risques sur 4 produits particuliers et courants : la chaussette antibactérienne (nanoparticules d'argent), le ciment autonettoyant et le lait solaire (nanoparticules de dioxyde de titane), la silice alimentaire à l'état nanométrique. Ces 4 produits représentent bien les voies d'exposition de l'homme (cutanée, inhalation, ingestion) et la possibilité de dispersion environnementale. Ces travaux font apparaître une urgence à faire progresser les connaissances sur les expositions et les dangers potentiels des nanomatériaux. Aujourd'hui, seuls 2% des études publiées sur les nanomatériaux concernent leurs risques pour la santé et l'environnement. Le premier effort devra porter sur la normalisation des caractéristiques des nanomatériaux. Les priorités de la recherche devront cibler la toxicologie, l'écotoxicologie et la mesure des expositions. Enfin, l'Afsset prévoit de s'autosaisir pour définir en 2 ans, avec son groupe de travail, un outil simplifié d'évaluation des risques. Il s'agit d'une grille de cotation des risques qui permet de catégoriser les produits en plusieurs gammes de risques. Face à ce chantier considérable, une mise en réseau entre les organismes européens et internationaux pour se partager le travail est nécessaire. Elle a commencé autour de l'OCDE qui coordonne des travaux d'évaluation des risques et de l'ISO qui travaille à la mise en place de nouvelles normes. [Auteurs]
Resumo:
Cet article présente une recherche menée dans le cadre d'une consultation ambulatoire pour couples et familles. Les multiples niveaux impliqués dans une thérapie de couple ou de famille constituent une difficulté pour définir les variables pertinentes permettant d'évaluer l'efficacité d'une intervention thérapeutique systémique. Le but de notre recherche est d'évaluer l'efficacité à court et moyen terme d'une intervention systémique brève (ISB), qui consiste en un suivi thérapeutique de six séances maximum, en évaluant son impact au niveau de: (1) la symptomatologie individuelle; (2) la satisfaction conjugale; (3) la qualité des relations parentale et co-parentale et (4) le fonctionnement familial global. Les différents niveaux sont évalués par des auto-questionnaires avant et après l'ISB ainsi qu'après trois mois de catamnèse. L'alliance thérapeutique est également mesurée par auto-questionnaire (WAI) après chaque séance. Les premiers résultats sur un échantillon pilote de N = 10 couples/familles montrent, d'une part, une efficacité globale de l'ISB pour la plupart des variables mesurées, et, d'autre part, une efficacité plus grande pour les femmes que pour les hommes. Aucun effet thérapeutique n'est observé pour la symptomatologie individuelle des hommes et pour le fonctionnement familial global, suggérant que l'impact de l'ISB diffère selon les niveaux mesurés. L'importance de l'alliance thérapeutique pour la réussite thérapeutique est également confirmée.
Resumo:
Résumé Les études épidémiologiques indiquent que la restriction intra-utérine confère un risque accru de développement de diabète de type 2 au cours de la vie. Certaines études ont documenté la présence d'une résistance à l'insuline chez les jeunes adultes ou les adolescents nés petits pour l'âge gestationnel. Comme la plupart des études ont impliqués des individus post-pubères et comme la puberté influence de manière marquée le métabolisme énergétique, nous avons évalué le devenir du glucose administré oralement dans un groupe incluant essentiellement des enfants pré-pubères ou en début de puberté avec restriction intra-utérine, et chez des enfants matchés pour l'âge et pour le poids. Tous les enfants ont eu une évaluation de leur composition corporelle par mesure des plis cutanés. Ils ont ensuite été étudiés dans des conditions standardisées et ont reçu 4 charges consécutives orales de glucose à raison de 180 mg/kg de poids corporel jusqu'à atteindre un état d'équilibre relatif. La dépense énergétique et l'oxydation des substrats ont été évaluées durant la quatrième heure par calorimétrie indirecte. Comparativement avec les enfants matchés pour l'âge et le poids, les enfants nés petits pour l'âge gestationnel avaient une plus petite stature. Leur dépense énergétique n'était pas significativement abaissée, mais leur oxydation du glucose était plus basse. Ces résultats indiquent que des altérations métaboliques sont présentes précocement chez les enfants nés petits pour l'âge gestationnel, et qu'elles sont possiblement reliées à des altérations de la composition corporelle. Abstract: Epidemiological studies indicate that intrauterine growth restriction confers an increased risk of developing type 2 diabetes mellitus in subsequent life. Several studies have further documented the presence of insulin resistance in young adults or adolescent children born small for gestational age. Since most studies addressed postpubertal individuals, and since puberty markedly affects energy metabolism, we evaluated the disposal of oral glucose in a group including mainly prepubertal and early pubertal children with intrauterine growth restriction and in healthy age- and weight-matched control children. All children had an evaluation of their body composition by skinfold thickness measurements. They were then studied in standardized conditions and received 4 consecutive hourly loads of 180 mg glucose/kg body weight to reach a near steady state. Energy expenditure and substrate oxidation were evaluated during the fourth hour by indirect calorimetry. Compared to both age- and weight-matched children, children born small for gestational age had lower stature. Their energy expenditure was not significantly decreased, but they had lower glucose oxidation rates. These results indicate that metabolic alterations are present early in children born small for gestational age, and are possibly related to alterations of body composition.
Resumo:
L'idée de complémentarité de certaines épreuves projectives s'est dessinée dès les années 1960, telles que Rorschach - test du Village, Rorschach - CAT et enfin Rorschach - TAT. L'essentiel des dispositifs projectifs mobilise les épreuves de Rorschach et de TAT dont la complémentarité a été largement pointée, notamment, par Anzieu et Chabert (1983), Chabert (1998), Roman (2006, 2007, 2009) et Emmanuelli et Azoulay (2001, 2008, 2009). Les épreuves de Hand-Test, Rorschach et TAT opèrent selon des dynamiques différentes à partir de consignes, sorte d'« injonction à imaginer » (Roman, 2008). Le défi méthodologique et épistémologique est d'envisager une complémentarité entre ces trois épreuves projectives, complémentarité qui ne va pas de soi dans la mesure où le Hand-Test a été pensé à partir du modèle de l'Analyse Structurale, le Rorschach et le TAT dans une perspective psychodynamique. L'enjeu du défi est de parvenir à se dégager du modèle de l'Analyse Structurale, d'une dimension déterministe et inscrire le Hand-Test dans une dimension processuelle d'une part, et de croiser ces trois épreuves afin de parvenir à mettre en avant les ressources du sujet quant à l'émergence de potentialités de transformations bien souvent, trop souvent, reléguées au second plan, voire négligées, lors de la prise en charge institutionnelle d'autre part. Ainsi, l'approche de la complémentarité des épreuves se trouve au service d'une compréhension de l'évolution du rapport à l'agir chez les adolescents. L'écart qui se donne à voir entre la conception des épreuves projectives envisagées dans une perspective psychodynamique et la manière d'appréhender le Hand-Test constitue le défi méthodologique et épistémologique que nous proposons de discuter.
Resumo:
RESUME Les fibres textiles sont des produits de masse utilisés dans la fabrication de nombreux objets de notre quotidien. Le transfert de fibres lors d'une action délictueuse est dès lors extrêmement courant. Du fait de leur omniprésence dans notre environnement, il est capital que l'expert forensique évalue la valeur de l'indice fibres. L'interprétation de l'indice fibres passe par la connaissance d'un certain nombre de paramètres, comme la rareté des fibres, la probabilité de leur présence par hasard sur un certain support, ainsi que les mécanismes de transfert et de persistance des fibres. Les lacunes les plus importantes concernent les mécanismes de transfert des fibres. A ce jour, les nombreux auteurs qui se sont penchés sur le transfert de fibres ne sont pas parvenus à créer un modèle permettant de prédire le nombre de fibres que l'on s'attend à retrouver dans des circonstances de contact données, en fonction des différents paramètres caractérisant ce contact et les textiles mis en jeu. Le but principal de cette recherche est de démontrer que la création d'un modèle prédictif du nombre de fibres transférées lors d'un contact donné est possible. Dans le cadre de ce travail, le cas particulier du transfert de fibres d'un tricot en laine ou en acrylique d'un conducteur vers le dossier du siège de son véhicule a été étudié. Plusieurs caractéristiques des textiles mis en jeu lors de ces expériences ont été mesurées. Des outils statistiques (régression linéaire multiple) ont ensuite été utilisés sur ces données afin d'évaluer l'influence des caractéristiques des textiles donneurs sur le nombre de fibres transférées et d'élaborer un modèle permettant de prédire le nombre de fibres qui vont être transférées à l'aide des caractéristiques influençant significativement le transfert. Afin de faciliter la recherche et le comptage des fibres transférées lors des expériences de transfert, un appareil de recherche automatique des fibres (liber finder) a été utilisé dans le cadre de cette recherche. Les tests d'évaluation de l'efficacité de cet appareil pour la recherche de fibres montrent que la recherche automatique est globalement aussi efficace qu'une recherche visuelle pour les fibres fortement colorées. Par contre la recherche automatique perd de son efficacité pour les fibres très pâles ou très foncées. Une des caractéristiques des textiles donneurs à étudier est la longueur des fibres. Afin de pouvoir évaluer ce paramètre, une séquence d'algorithmes de traitement d'image a été implémentée. Cet outil permet la mesure de la longueur d'une fibre à partir de son image numérique à haute résolution (2'540 dpi). Les tests effectués montrent que les mesures ainsi obtenues présentent une erreur de l'ordre du dixième de millimètre, ce qui est largement suffisant pour son utilisation dans le cadre de cette recherche. Les résultats obtenus suite au traitement statistique des résultats des expériences de transfert ont permis d'aboutir à une modélisation du phénomène du transfert. Deux paramètres sont retenus dans le modèle: l'état de la surface du tissu donneur et la longueur des fibres composant le tissu donneur. L'état de la surface du tissu est un paramètre tenant compte de la quantité de fibres qui se sont détachées de la structure du tissu ou qui sont encore faiblement rattachées à celle-ci. En effet, ces fibres sont les premières à se transférer lors d'un contact, et plus la quantité de ces fibres par unité de surface est importante, plus le nombre de fibres transférées sera élevé. La longueur des fibres du tissu donneur est également un paramètre important : plus les fibres sont longues, mieux elles sont retenues dans la structure du tissu et moins elles se transféreront. SUMMARY Fibres are mass products used to produce numerous objects encountered everyday. The transfer of fibres during a criminal action is then very common. Because fibres are omnipresent in our environment, the forensic expert has to evaluate the value of the fibre evidence. To interpret fibre evidence, the expert has to know some parameters as frequency of fibres,' probability of finding extraneous fibres by chance on a given support, and transfer and persistence mechanisms. Fibre transfer is one of the most complex parameter. Many authors studied fibre transfer mechanisms but no model has been created to predict the number of fibres transferred expected in a given type of contact according to parameters as characteristics of the contact and characteristics of textiles. The main purpose of this research is to demonstrate that it is possible to create a model to predict the number of fibres transferred during a contact. In this work, the particular case of the transfer of fibres from a knitted textile in wool or in acrylic of a driver to the back of a carseat has been studied. Several characteristics of the textiles used for the experiments were measured. The data obtained were then treated with statistical tools (multiple linear regression) to evaluate the influence of the donor textile characteristics on the number of úbers transferred, and to create a model to predict this number of fibres transferred by an equation containing the characteristics having a significant influence on the transfer. To make easier the searching and the counting of fibres, an apparatus of automatic search. of fibers (fiber finder) was used. The tests realised to evaluate the efficiency of the fiber finder shows that the results obtained are generally as efficient as for visual search for well-coloured fibres. However, the efficiency of automatic search decreases for pales and dark fibres. One characteristic of the donor textile studied was the length of the fibres. To measure this parameter, a sequence of image processing algorithms was implemented. This tool allows to measure the length of a fibre from it high-resolution (2'540 dpi) numerical image. The tests done shows that the error of the measures obtained are about some tenths of millimetres. This precision is sufficient for this research. The statistical methods applied on the transfer experiment data allow to create a model of the transfer phenomenon. Two parameters are included in the model: the shedding capacity of the donor textile surface and the length of donor textile fibres. The shedding capacity of the donor textile surface is a parameter estimating the quantity of fibres that are not or slightly attached to the structure of the textile. These fibres are easily transferred during a contact, and the more this quantity of fibres is high, the more the number of fibres transferred during the contact is important. The length of fibres is also an important parameter: the more the fibres are long, the more they are attached in the structure of the textile and the less they are transferred during the contact.
Resumo:
Pour pouvoir naviguer sans encombre dans notre environnement social, il est important d'être en mesure d'identifier correctement les propriétés sociales des personnes avec qui nous sommes amenés à interagir. Au cours de leur socialisation, les enfants doivent donc nécessairement faire l'apprentissage des catégories sociales en usage dans leur univers socio-culturel. Des recherches expérimentales en psychologie du développement permettent de penser qu'un tel apprentissage est tout à la fois rendu possible et contraint par un certain nombre de prédispositions cognitives, déjà à l'oeuvre chez les très jeunes enfants et les bébés. En me basant sur ces recherches, j'avance dans cet article que l'être humain possède une tendance cognitive spontanée à catégoriser socialement ses semblables selon trois axes: une catégorisation horizontale, détectant les relations d'affiliation entre des individus, une catégorisation verticale, identifiant leurs relations de dominance, et une catégorisation transversale, les distinguant selon leur sexe et leur âge. Si ces "pentes cognitives naturelles" préparent les enfants à intégrer les catégories particulières en vigueur au sein de leur société, elles les inclinent malheureusement aussi à les essentialiser.
Resumo:
[Table des matières] 1. Introduction: que vais-je apprendre? - quelques définitions - recommandations pour une activité physique favorable à la santé - comment mesure-t-on l'activité physique? - déterminants de l'activité physique. - 2. Épidémiologie de la sédentarité: prévalence de la sédentarité - coûts imputables à la sédentarité. - 3. Bénéfices pour la santé: un effet dose-réponse non linéaire - estimation des bénéfices de l'activité physique. - 4. Rôle du médecin de premier recours. - 5. Prise en charge: description générale d'un modèle de prise en charge - comment s'y prendre dans les détails - appréciation des risques liés à l'activité physique. - 6. Exemples d'outils: brochure pour les patients - podomètre: 10000 pas quotidiens pour sa santé! - 7. Autres ressources à disposition: site internet: www.paprica.ch. - Glossaire [Introduction (extrait)] Ce manuel décrit la perspective et le rôle du médecin de premier recours dans la promotion d'une activité physique bénéfique pour la santé. Il s'inscrit, avec la brochure d'accompagnement destinée aux patients, dans un concept global de promotion de l'activité physique au cabinet médical. Développé pour être le plus concis possible, ce manuel fait la synthèse des connaissances et des savoir-faire utiles à la pratique du conseil en activité physique au cabinet médical.
Resumo:
Résumé La levodopa (LD) est le traitement antiparkinsonien le plus efficace et le plus répandu. Son effet est composé d'une réponse de courte (quelques heures) et de longue durée (jours à semaines). La persistance de cette dernière dans les phases avancées de la maladie de Parkinson est controversée, et sa mesure directe n'a jamais été faite en raison des risques liés à un sevrage complet de LD. La stimulation du noyau sous-thalamique est un nouveau traitement neurochirurgical de la maladie de Parkinson, indiqué dans les formes avancées, qui permet l'arrêt complet du traitement médicamenteux chez certains patients. Nous avons étudié 30 patients qui ont bénéficié d'une telle stimulation, et les avons évalués avant l'intervention sans médicaments, et à 6 mois postopératoires, sans médicaments et sans stimulation. Chez 19 patients, la médication a pu être complètement arrêtée, alors qu'elle a dû être réintroduite chez les 11 patients restants. Au cours des 6 mois qui ont suivi l'intervention, le parkinsonisme s'est aggravé de façon significative dans le groupe sans LD, et non dans le groupe avec LD. Cette différence d'évolution s'explique par la perte de l'effet à long terme de la LD dans le groupe chez qui ce médicament a pu être arrêté. En comparant cette aggravation à la magnitude de l'effet à court terme, la réponse de longue durée correspond environ à 80 pourcent de la réponse de courte durée, et elle lui est inversement corrélée. Parmi les signes cardinaux de la maladie, la réponse de longue durée affecte surtout la bradycinésie et la rigidité, mais pas le tremblement ni la composante axiale. La comparaison du parkinsonisme avec traitement (stimulation et LD si applicable) ne montre aucune différence d'évolution entre les 2 groupes, suggérant que la stimulation compense tant la réponse de courte que de longue durée. Notre travail montre que la réponse de longue durée à la LD demeure significative chez les patients parkinsoniens après plus de 15 ans d'évolution, et suggère que la stimulation du noyau sous-thalamique compense les réponses de courte et de longue durée. Abstract Background: Long duration response to levodopa is supposed to decrease with Parkinson's disease (PD) progression, but direct observation of this response in advanced PD has never been performed. Objective: To study the long duration response to levodopa in advanced PD patients treated with subthalamic deep-brain stimulation. Design and settings: We studied 30 consecutive PD patients who underwent subthalamic deep-brain stimulation. One group had no antiparkinsonian treatment since surgery (no levodopa), while medical treatment had to be reinitiated in the other group (levodopa). Main outcome measures: motor Unified Parkinson's Disease Rating Scale (UPDRS). Results: In comparison with preoperative assessment, evaluation six months postoperatively with stimulation turned off for three hours found a worsening of the motor part of UPDRS in the no-levodopa group. This worsening being absent in the levodopa group, it most probably reflected the loss of the long duration response to levodopa in the no-levodopa group. Stimulation turned on, postoperative motor UPDRS in both groups were similar to preoperative on medication scores, suggesting that subthalamic deep-brain stimulation compensated for both the short and long duration responses to levodopa. Conclusions: Our results suggest that the long duration response to levodopa remains significant even in advanced PD, and that subthalamic deep-brain stimulation compensates for both the short and the long duration resposes to levodopa.
Resumo:
RESUME POUR UN LARGE PUBLIC Parmi les globules blancs, les lymphocytes T 004 jouent un rôle primordial dans la coordination de la réponse immunitaire contre les pathogènes et les lymphocytes T CD8 dans leur élimination. Lors d'une infection par le virus de l'immunodéficience humaine (VIH-1), non seulement les cellules T CD4 sont les principales cibles d'infections, mais aussi elles disparaissent progressivement tout au long de la maladie. Ce phénomène, appelé aussi épuisement des lymphocytes T CD4, est la principale cause provoquant le Syndrome d'Immunodéficience Acquise (SIDA). Malgré de grands efforts de recherche, nous ne sommes toujours pas en mesure de dire si ce phénomène est dû à un défaut dans la production de nouvelles cellules ou à une destruction massive de cellules en circulation. Dans cette étude, nous nous proposions, dans un premier temps, de comparer la production de nouvelles cellules T CD4 et CD8 chez des individus VIH-négatifs et positifs. Les cellules nouvellement produites portent un marqueur commun que l'on appelle TREC et qui est facilement mesurable. En considérant des paramètres cliniques, nous étions en mesure de déterminer le niveau de TRECs de cellules T CD4 et CD8 dans différentes phases de la maladie. De là, nous avons pu déterminer que le niveau de TREC est toujours plus bas dans les cellules T CD8 de patients VIH-positifs comparativement à notre groupe contrôle. Nous avons pu déterminer par une analyse ultérieure que cette différence est due à une forte prolifération de ces cellules chez les patients VIH-positifs, ce qui a pour effet de diluer ce marqueur. En revanche, la production de nouvelles cellules T CD4 chez des patients VIH-positifs est accentuée lors de la phase précoce de la maladie et largement réprimée lors de la phase tardive. Dans un second temps, nous avons effectué une analyse à grande échelle de l'expression de gènes associés à la division cellulaire sur des lymphocytes T CD4 et CD8 d'individus VIH-¬positifs et négatifs, avec comme contrôle des cellules proliférant in vitro. De cette étude, nous avons pu conclure que les cellules T CD8 de patients VIH-positifs étaient en état de prolifération, alors que les lymphocytes T CD4 présentaient des défauts majeurs conduisant à un arrêt de la division cellulaire. Nos résultats montrent que la capacité à produire de nouvelles cellules chez des patients VIH¬positifs reste active longtemps pendant la maladie, mais que l'incapacité des cellules T CD4 à proliférer peut enrayer la reconstitution immunitaire chez ces individus. ABSTRACT The hallmark of HIV-1 infection is the depletion of CD4 T cells. Despite extensive investigation, the mechanisms responsible for the loss of CD4 T cells have been elucidated only partially. In particular, it remains controversial whether CD4 T cell depletion results from a defect in T cell production or from a massive peripheral destruction. In this study, de novo T cell generation has been investigated by measuring T cell receptor rearrangement excision circles (TRECs) on large cohorts of HIV-negative (N=120) and HIV-1 infected (N=298) individuals. Analysis of TREC levels was performed in HIV-infected subjects stratified by the stage of HIV disease based on CD4 T cell counts (early: >500 CD4 T cells/µl; intermediate: <500>200; late: <200) and by age (20 to 60 years, n = 259). Our data show that TREC levels in CD8 T cells were significantly lower in HIV-infected subjects at any stage of disease compared to the control group. In contrast, TREC levels in CD4 T cells were significantly higher in HIV-infected subjects at early stages disease while no significant differences were observed at intermediate stages of the disease and were severely reduced only at late stages of disease. To investigate further the status of cell cycle in peripheral CD4 and CD8 T cells in HIV-1 infections, we determined the pattern of gene expression with the microarray technology. In particular, CD4 and CD8 T cells of HIV-1 infected and HIV-negative subjects were analysed by Cell Cycle cDNA expression array. The patterns of gene expression were compared to in vitro stimulated CD4 and CD8 T cells and this analysis showed that CD8 T cells of HIV-1 infected subjects had a pattern of gene expression very similar to that of in vitro stimulated CD8 T cells thus indicating ongoing cell cycling. In contrast, CD4 T cells of HIV-1 infected subjects displayed a complex pattern of gene expression. In fact, CD4 T cells expressed high levels of genes typically associated with cell activation, but low levels of cell cycle genes. Therefore, these results indicated that activated CD4 T cells of HIV-1 infected subjects were in cell cycle arrest. Taking together these results indicate that thymus function is preserved for long time during HIV- 1 infection and the increase observed in early stage disease may represent a compensatory mechanism to the depletion of CD4 T cells. However, we provide evidence for a cell cycle arrest of peripheral CD4 T cells that may prevent potentially the replenishment of CD4 T cells. RESUME Les mécanismes responsables de la perte des lymphocytes T CD4 lors de l'infection pas VIH n'ont été élucidés que partiellement. Nous ne savons toujours pas si l'épuisement des lymphocytes T CD4 résulte d'un défaut dans la production de cellules ou d'une destruction périphérique massive. Dans cette étude, la production de cellules T a été étudiée en mesurant les cercles d'excision générés lors du réarrangement du récepteur au cellules T (TRECs) chez des individus VIH-négatifs (N=120) et VIH-1 positifs (N=298). L'analyse des niveaux de TREC a été faite chez sujets HIV-infectés en considérant les phases de la maladie sur la base des comptes CD4 (phase précoce: > 500 cellules CD4/µl; intermédiaire: < 500>200; tardive: < 200) et par âge. Nos données démontrent que les niveaux de TRECs des cellules T CD8 étaient significativement plus bas chez les sujets VIH-1 infectés, à tous les stades de la maladie comparativement au groupe contrôle. En revanche, les niveaux de TRECs des cellules T CD4 étaient significativement plus élevés chez les sujets VIH-1 infectés durant la phase précoce de la maladie, tandis qu'aucune différence significative n'était observée durant la phase intermédiaire et étaient très réduits dans la phase tardive. Dans une deuxième partie, nous avons utilisé la technique des biopuces à d'ADN complémentaire pour analyser la régulation du cycle cellulaire chez les lymphocytes T CD4 et CD8 périphériques lors d'une infection au VIH-1. Des profils d'expression ont été déterminés et comparés à ceux de cellules T CD4 et CD8 stimulées in vitro, démontrant que les cellules T CD8 des sujets VIH-positifs avaient un profil d'expression très semblable à celui des cellules stimulées in vitro en prolifération. En revanche, les lymphocytes T CD4 des sujets VIH-1 positifs avaient un profil d'expression de gène plus complexe. En fait, leur profil montrait une sur- expression de gènes associés à une activation cellulaire, mais une sous-expression de ceux induisant une division. Ainsi, ces résultats indiquent que les lymphocytes T CD4 d'individus VIH-positifs présentent des dérégulations qui conduisent à un arrêt du cycle cellulaire. Ces résultats montrent que la fonction thymique est préservée longtemps pendant l'infection au VIH-1 et que l'augmentation de la quantité de TRECs dans la phase précoce de la maladie peut représenter un mécanisme compensatoire à l'épuisement des cellules T CD4. Cependant, nous démontrons aussi un clair dysfonctionnement du cycle cellulaire chez les cellules T CD4 d'individus infectés par VIH-1 ce qui peut enrayer la reconstitution du système immunitaire.
Resumo:
Introduction: En Suisse, toute hospitalisation pour un séjour de¦réadaptation doit être soumise à l'accord préalable du service du¦médecin-conseil de l'assurance du patient. Les assureurs fixent ensuite¦le nombre de jours d'hospitalisation qu'ils s'engagent à financer¦(délai de garantie initial). Dans le canton de Vaud, ces délais sont¦hétérogènes entre assureurs et souvent trop courts, ce qui nécessite¦fréquemment une demande de prolongation de garantie (jusqu'à 80%¦des hospitalisations dans certains services de réadaptation). Un travail¦précédent a montré la validité d'un groupage, basé principalement sur¦l'état fonctionnel du patient à l'admission (score d'activités de la vie¦quotidienne de base [AVQ]), pour prédire les durées de séjour en¦réadaptation. L'objectif de cette étude est d'évaluer si les scores AVQ¦communiqués aux assureurs permettraient d'établir un délai de garantie¦correspondant au plus près à la durée de séjour effective des patients¦en réadaptation, afin de diminuer le nombre de demandes de¦prolongation sans induire une augmentation artificielle des durées de¦séjour.¦Méthode: Les données de 2335 patients admis consécutivement sur¦une durée de trois ans au Centre de Traitement et de Réadaptation¦gériatrique du Centre Hospitalier Universitaire Vaudois (CUTR) ont été¦analysées rétrospectivement. Des délais de garantie fictifs ont été¦calculés à partir de plusieurs algorithmes utilisant des groupages de¦patients basés uniquement sur leurs AVQ à l'admission, et comparés¦aux durées de séjour effectives ainsi qu'aux délais de garantie initiaux¦fournis par les assureurs.¦Résultats: Une règle d'allocation de délais de garantie initiaux proches¦des durées réelles de séjour a pu être produite. Son application au¦CUTR réduirait la proportion estimée de séjours pour lesquels une¦demande de prolongation est nécessaire de 69% à 46% (0,1 EPT¦économisé). La proportion globale de jours en excès accordés par¦l'assureur passerait de 7% à 11%.¦Conclusion: L'utilisation systématique d'une règle d'allocation utilisant¦l'état fonctionnel du patient pour définir le délai de garantie initial¦accordé par les assureurs permettrait de diminuer de façon importante¦le nombre de demandes de prolongation. Cette mesure contribuerait à¦alléger les charges administratives, aussi bien pour les assureurs que¦pour les services de réadaptation. La proportion de jours accordés en¦excès resterait faible, limitant le risque d'augmentation artificielle de la¦durée de séjour.
Resumo:
But: L'échauffement local augmente le flux sanguin cutané (SkBF) en induisant une vasodilatation. Cette réponse de la microcirculation dermique est dénommée hyperémie thermique. Dans une précédente étude, nous avons montré qu'un stimulus thermique local appliqué une première fois atténue la réponse hypérémique à un second stimulus appliqué ultérieurement sur le même site cutané, un phénomène que nous appelons désensibilisation. Cependant, d'autres études n'ont pas mis en évidence une désensibilisation dans des conditions similaires. Le but du présent travail est d'explorer les raisons de cette discordance qui pourrait relever d'une différence au niveau de l'instrumentation. Méthode: vingt-huit jeunes hommes en bonne santé sont étudiés. Deux paires de corps de chauffe, l'une faite sur mesure (notre étude) et l'autre produite commercialement (autres groupes d'investigateurs), sont fixées sur l'avant bras. SkBF est mesuré par fluxmétrie laser Doppler ponctuelle (LDF) (780 nm) sur une paire, et par imagerie laser Doppler (LDI) (633 nm) sur l'autre paire. Des palliers de température de 34 à 41 °C sont appliqués pendant 30 minutes et reproduits après deux heures. Résultats : Durant le second échauffement, le plateau SkBF est plus bas que lors du premier stimulus thermique et ce phénomène est observé avec chacune des quatre combinaisons entre différents instruments de mesure du SkBF et de chauffage (p< 0.05 pour chacune des conditions, différence de -9% à -16% de la valeur initiale). Conclusion : La désensibilisation lors d'une hypérémie thermique n'est pas spécifique à des conditions opératoires particulières.
Resumo:
Le partage et la réutilisation d'objets d'apprentissage est encore une utopie. La mise en commun de documents pédagogiques et leur adaptation à différents contextes ont fait l'objet de très nombreux travaux. L'un des aspects qui fait problème concerne leur description qui se doit d'être aussi précise que possible afin d'en faciliter la gestion et plus spécifiquement un accès ciblé. Cette description s'effectue généralement par l'instanciation d'un ensemble de descripteurs standardisés ou métadonnées (LOM, ARIADNE, DC, etc). Force est de constater que malgré l'existence de ces standards, dont certains sont relativement peu contraignants, peu de pédagogues ou d'auteurs se prêtent à cet exercice qui reste lourd et peu gratifiant. Nous sommes parti de l'idée que si l'indexation pouvait être réalisée automatiquement avec un bon degré d'exactitude, une partie de la solution serait trouvée. Pour ce, nous nous sommes tout d'abord penché sur l'analyse des facteurs bloquants de la génération manuelle effectuée par les ingénieurs pédagogiques de l'Université de Lausanne. La complexité de ces facteurs (humains et techniques) nous a conforté dans l'idée que la génération automatique de métadonnées était bien de nature à contourner les difficultés identifiées. Nous avons donc développé une application de génération automatique de métadonnées laquelle se focalise sur le contenu comme source unique d'extraction. Une analyse en profondeur des résultats obtenus, nous a permis de constater que : - Pour les documents non structurés : notre application présente des résultats satisfaisants en se basant sur les indicateurs de mesure de qualité des métadonnées (complétude, précision, consistance logique et cohérence). - Pour des documents structurés : la génération automatique s'est révélée peu satisfaisante dans la mesure où elle ne permet pas d'exploiter les éléments sémantiques (structure, annotations) qu'ils contiennent. Et dans ce cadre nous avons pensé qu'il était possible de faire mieux. C'est ainsi que nous avons poursuivi nos travaux afin de proposer une deuxième application tirant profit du potentiel des documents structurés et des langages de transformation (XSLT) qui s'y rapportent pour améliorer la recherche dans ces documents. Cette dernière exploite la totalité des éléments sémantiques (structure, annotations) et constitue une autre alternative à la recherche basée sur les métadonnées. De plus, la recherche basée sur les annotations et la structure offre comme avantage supplémentaire de permettre de retrouver, non seulement les documents eux-mêmes, mais aussi des parties de documents. Cette caractéristique apporte une amélioration considérable par rapport à la recherche par métadonnées qui ne donne accès qu'à des documents entiers. En conclusion nous montrerons, à travers des exemples appropriés, que selon le type de document : il est possible de procéder automatiquement à leur indexation pour faciliter la recherche de documents dès lors qu'il s'agit de documents non structurés ou d'exploiter directement leur contenu sémantique dès lors qu'il s'agit de documents structurés.
Resumo:
Estimer la filtration glomérulaire chez les personnes âgées, tout en tenant compte de la difficulté supplémentaire d'évaluer leur masse musculaire, est difficile et particulièrement important pour la prescription de médicaments. Le taux plasmatique de la creatinine dépend à la fois de la fraction d'élimination rénale et extra-rénale et de la masse musculaire. Actuellement, pour estimer là filtration glomérulaire différentes formules sont utilisées, qui se fondent principalement sur la valeur de la créatinine. Néanmoins, en raison de la fraction éliminée par les voies tubulaires et intestinales la clairance de la créatinine surestime généralement le taux de filtration glomérulaire (GFR). Le but de cette étude est de vérifier la fiabilité de certains marqueurs et algorithmes de la fonction rénale actuellement utilisés et d'évaluer l'avantage additionnel de prendre en considération la masse musculaire mesurée par la bio-impédance dans une population âgée (> 70 ans) et avec une fonction rénale chronique compromise basée sur MDRD eGFR (CKD stades lll-IV). Dans cette étude, nous comparons 5 équations développées pour estimer la fonction rénale et basées respectivement sur la créatinine sérique (Cockcroft et MDRD), la cystatine C (Larsson), la créatinine combinée à la bêta-trace protéine (White), et la créatinine ajustée à la masse musculaire obtenue par analyse de la bio-impédance (MacDonald). La bio-impédance est une méthode couramment utilisée pour estimer la composition corporelle basée sur l'étude des propriétés électriques passives et de la géométrie des tissus biologiques. Cela permet d'estimer les volumes relatifs des différents tissus ou des fluides dans le corps, comme par exemple l'eau corporelle totale, la masse musculaire (=masse maigre) et la masse grasse corporelle. Nous avons évalué, dans une population âgée d'un service interne, et en utilisant la clairance de l'inuline (single shot) comme le « gold standard », les algorithmes de Cockcroft (GFR CKC), MDRD, Larsson (cystatine C, GFR CYS), White (beta trace protein, GFR BTP) et Macdonald (GFR = ALM, la masse musculaire par bio-impédance. Les résultats ont montré que le GFR (mean ± SD) mesurée avec l'inuline et calculée avec les algorithmes étaient respectivement de : 34.9±20 ml/min pour l'inuline, 46.7±18.5 ml/min pour CKC, 47.2±23 ml/min pour CYS, 54.4±18.2ml/min pour BTP, 49±15.9 ml/min pour MDRD et 32.9±27.2ml/min pour ALM. Les courbes ROC comparant la sensibilité et la spécificité, l'aire sous la courbe (AUC) et l'intervalle de confiance 95% étaient respectivement de : CKC 0 68 (055-0 81) MDRD 0.76 (0.64-0.87), Cystatin C 0.82 (0.72-0.92), BTP 0.75 (0.63-0.87), ALM 0.65 (0.52-0.78). ' En conclusion, les algorithmes comparés dans cette étude surestiment la GFR dans la population agee et hospitalisée, avec des polymorbidités et une classe CKD lll-IV. L'utilisation de l'impédance bioelectrique pour réduire l'erreur de l'estimation du GFR basé sur la créatinine n'a fourni aucune contribution significative, au contraire, elle a montré de moins bons résultats en comparaison aux autres equations. En fait dans cette étude 75% des patients ont changé leur classification CKD avec MacDonald (créatinine et masse musculaire), contre 49% avec CYS (cystatine C), 56% avec MDRD,52% avec Cockcroft et 65% avec BTP. Les meilleurs résultats ont été obtenus avec Larsson (CYS C) et la formule de Cockcroft.
Resumo:
Résumé : J'ai souvent vu des experts être d'avis contraires. Je n'en ai jamais vu aucun avoir tort. Auguste Detoeuf Propos d'O.L. Brenton, confiseur, Editions du Tambourinaire, 1948. En choisissant volontairement une problématique comptable typiquement empirique, ce travail s'est attelé à tenter de démontrer la possibilité de produire des enseignements purement comptables (ie à l'intérieur du schème de représentation de la Comptabilité) en s'interdisant l'emprunt systématique de theories clé-en-main à l'Économie -sauf quant cela s'avère réellement nécessaire et légitime, comme dans l'utilisation du CAPM au chapitre précédent. Encore une fois, rappelons que cette thèse n'est pas un réquisitoire contre l'approche économique en tant que telle, mais un plaidoyer visant à mitiger une telle approche en Comptabilité. En relation avec le positionnement épistémologique effectué au premier chapitre, il a été cherché à mettre en valeur l'apport et la place de la Comptabilité dans l'Économie par le positionnement de la Comptabilité en tant que discipline pourvoyeuse de mesures de représentation de l'activité économique. Il nous paraît clair que si l'activité économique, en tant que sémiosphère comptable directe, dicte les observations comptables, la mesure de ces dernières doit, tant que faire se peut, tenter de s'affranchir de toute dépendance à la discipline économique et aux théories-méthodes qui lui sont liées, en adoptant un mode opératoire orthogonal, rationnel et systématique dans le cadre d'axiomes lui appartenant en propre. Cette prise de position entraîne la définition d'un nouveau cadre épistémologique par rapport à l'approche positive de la Comptabilité. Cette dernière peut se décrire comme l'expression philosophique de l'investissement de la recherche comptable par une réflexion méthodique propre à la recherche économique. Afin d'être au moins partiellement validé, ce nouveau cadre -que nous voyons dérivé du constructivisme -devrait faire montre de sa capacité à traiter de manière satisfaisante une problématique classique de comptabilité empirico-positive. Cette problématique spécifique a été choisie sous la forme de traitement-validation du principe de continuité de l'exploitation. Le principe de continuité de l'exploitation postule (énonciation d'une hypothèse) et établit (vérification de l'hypothèse) que l'entreprise produit ses états financiers dans la perspective d'une poursuite normale de ses activités. Il y a rupture du principe de continuité de l'exploitation (qui devra alors être écartée au profit du principe de liquidation ou de cession) dans le cas de cessation d'activité, totale ou partielle, volontaire ou involontaire, ou la constatation de faits de nature à compromettre la continuité de l'exploitation. Ces faits concernent la situation financière, économique et sociale de l'entreprise et représentent l'ensemble des événements objectifs 33, survenus ou pouvant survenir, susceptibles d'affecter la poursuite de l'activité dans un avenir prévisible. A l'instar de tous les principes comptables, le principe de continuité de l'exploitation procède d'une considération purement théorique. Sa vérification requiert toutefois une analyse concrète, portant réellement et de manière mesurable à conséquence, raison pour laquelle il représente un thème de recherche fort apprécié en comptabilité positive, tant il peut (faussement) se confondre avec les études relatives à la banqueroute et la faillite des entreprises. Dans la pratique, certaines de ces études, basées sur des analyses multivariées discriminantes (VIDA), sont devenues pour l'auditeur de véritables outils de travail de par leur simplicité d'utilisation et d'interprétation. À travers la problématique de ce travail de thèse, il a été tenté de s'acquitter de nombreux objectifs pouvant être regroupés en deux ensembles : celui des objectifs liés à la démarche méthodologique et celui relevant de la mesure-calibration. Ces deux groupes-objectifs ont permis dans une dernière étape la construction d'un modèle se voulant une conséquence logique des choix et hypothèses retenus.