16 resultados para Fiabilité et productivité
em Université de Lausanne, Switzerland
Resumo:
Popularisée par l'usage extensif (et de ce fait quelque peu galvaudé) qu'en fit Gérard Genette en narratologie littéraire, la « diégèse » constitue certes la notion vedette des filmologues, mais elle fut pendant plusieurs décennies le lieu d'une certaine occultation de son champ originel en raison des appropriations non référencées qu'en firent poéticiens et sémiologues. En suivant le fil historiographique des différents emplois et acceptions de cette notion associée à Etienne Souriau dans l'espace francophone, le présent article propose un état des lieux qui, par la petite porte d'une entrée terminologique, entend s'interroger sur les conséquences théoriques des variations que le terme « diégèse » a subies et, plus généralement, sur la question du statut octroyé au courant filmologique. En examinant les différentes implications de la définition première qu'il s'agit parfois de délester de sens dont on l'a ultérieurement investie, cet article tente de montrer que le cadre dans lequel la diégèse a été conceptualisée contient des potentialités théoriques qui n'ont pas encore été épuisées aujourd'hui, et qui convergent avec certains champs d'étude récents (comme celui de la logique des mondes possibles) dont l'application au cinéma n'a probablement jamais été aussi pertinent qu'à l'ère des images de synthèse, des mondes virtuels et des environnements de jeux vidéo.
Resumo:
Célèbre est devenu le concept d'empreinte écologique qui se présente comme un indicateur composite supposé nous renseigner sur l'espace utilisé par les hommes pour produire les ressources qu'ils consomment et les déchets qu'ils rejettent, le mettre en regard de la capacité écologique de la planète (la biocapacité), donc le revenu écologique à disposition des hommes. Lorsque l'empreinte écologique excède la biodiversité, cela signifie que la planète est en danger. Le succès de cet indicateur élaboré par le Global Footprint Network (GFN) tient sans doute aux conclusions sensationnelles qui se dégagent des calculs effectués : par exemple, la propagation à la planète du mode de vie nord-américain exigerait à elle seule cinq planètes... Il est donc important de comprendre comment a été élaboré cet indicateur, quelle est sa fiabilité et quels enseignements peuvent en être tirés en vue de l'adoption d'une politique de développement durable. Tel est le premier objectif de cet article qui en explique la philosophie, montre comment est conçu cet indicateur et comment sont opérés les calculs. Mais les auteurs ne s'arrêtent pas là. Ils rappellent certaines impasses faites consciemment par le GFN, puis les critiques déjà adressées à cet indicateur qui, précisément en raison de son caractère composite, agrège des données hétérogènes et procède à des calculs et des pondérations sujets à caution dont les enseignements sont donc contestables ? par exemple lorsqu'il suggère que certains pays auraient intérêt à remplacer leurs forêts pour accroître les surfaces cultivables, alors même que l'espace bâti (amputant lui aussi des terres arables) n'est absolument pas remis en question. Au-delà même de ces réserves, les auteurs prolongent et approfondissent la critique de l'empreinte écologique. Ainsi soulignent-ils, par exemple, que l'empreinte carbone compte pour la moitié de l'empreinte totale et que, si on se contentait de mesurer celle-ci en quantité physique plutôt qu'en usant d'un artefact (l'hectare global), le calcul serait sans doute plus robuste et les conclusions non moins alarmistes puisqu'il faudrait cette fois 11 planètes si d'aventure le mode de vie nord-américain devait s'étendre au monde entier. Même s'il peut paraître parfois un peu ardu, cet article est à lire absolument car ses auteurs y mettent en évidence un certain nombre de problèmes majeurs que nul ne saurait ignorer.
Resumo:
De nos jours, l'ADN apparaît fréquemment dans les affaires judiciaires et la littérature spécialisée. L'évaluation de ce type d'indice est vaste. En général, les débats restent toutefois assez théoriques. Dans la présente contribution, deux types courants d'analyse sont abordés, l'ADN nucléaire et l'ADN mitochondrial, dans le cadre d'une recherche en demi-fraternité. Deux rapports d'expertise seront décortiqués ligne par ligne pour en offrir une lecture critique et cerner la fiabilité et l'utilité des conclusions apportées par les experts.
Resumo:
According to Jenkyns (2010), oceanic anoxic events (OAE) record profound changes in the climatic and paleoceanographic state of the planet and represent major disturbances in the global carbon cycle. One of the most studied OAEs on a worldwide scale is the Cenomanian-Turonian OAE 2, which is characterized by a pronounced positive excursion in carbon-isotope records and the important accumulation of organic-rich sediments. The section at Gongzha (Tibet) and the sections at Barranca and Axaxacualco (Mexico) are located in remote parts of the Tethys, and show δ13C records, which are well correlated with those of classical Tethyan sections. Both sections, however, do not exhibit the presence of organic-rich sediments. Phosphorus Mass Accumulation Rates (PMAR) in Tibet show a pattern similar to that observed in the Tethys by Mort et al. (2007), which suggests enhanced Ρ regeneration during the OAE 2 time interval, though there is no evidence for anoxic conditions in Tibet. Ρ appears here to have been mainly driven by detrital influx and sea-level fluctuations. The sections at Barranca and Axaxacualco show that the Mexican carbonate platform persisted during this anoxic event, which allowed the evolution of platform fauna otherwise not present in Tethyan sections. The persistence of this carbonate platform close to the Caribbean Igneous Plateau, which is thought to have released bio-limiting metals, is explained by local uplift which delayed the drowning of the platform and a specific oceanic circulation that permitted the preservation of oligotrophic conditions in the area. The Coniacian-Santonian OAE (OAE3) appears to have been more dependent on local conditions than OAE2. The presence of black shales associated with OAE3 appear to have been restricted to shallow-water settings and epicontinental seas in areas located around the Atlantic Ocean. The sections at Olazagutia (Spain), and Ten Mile - Arbor Park (USA), two potential Global Boundary Stratotype Sections and Points (GSSP) sites, are devoid of organic-rich sediments and lack a δ13C positive excursion around the C-S boundary. The Gabal Ekma section (Sinai, Egypt) exhibits accumulations of organic-rich sediments, in addition to phosphorite bone beds layers, which may have been linked to an epicontinental upwelling zone and/or storm inputs. Our data suggest that OAE 3 is rarely expressed by truly anoxic conditions and seems to have been linked to local conditions rather than global paleoenvironmental change. The evidence for detrital-P being the likely cause of Ρ fluctuations during the OAEs studied here does not negate the idea that anoxia was the principal driver of these fluctuations in the western Tethys. However, an explanation is required as to why the Ρ accumulation signatures are mirrored in both oxic and anoxic sedimentary successions. 'Eustatic/climatic' and 'productivity/anoxic' models may have both operated simultaneously in different parts of the world depending on local conditions, both producing similar trends in Ρ accumulation. - Selon Jenkyns (2010), les événements anoxiques océaniques enregistrent de profonds changements dans le climat et la paléoceanographie de la planète et représente des perturbations majeures du cycle du carbone. L'un des plus étudiés à l'échelle mondiale est l'ΟΑΕ2 du Cénomanien-Turonien, qui est caractérisé par une très forte excursion positive des isotopes du carbone et une importante accumulation de sédiments riche en matière organique. La section de Gongzha (Tibet) et les sections de Barranca et Axaxcualco (Mexique) sont situées aux confins de la Téthys, et enregistrent une courbe isotopique en δ13C parfaitement corrélable avec les sections téthysiennes, mais ne montre pas d'accumulation de black shales. Le taux de phosphore en accumulation de masses (PMAR) au Tibet montre un pattern similaire observé également par Mort et al. (2007) dans la Téthys, suggérant un model de régénération du Ρ durant l'anoxie, cependant aucune conditions anoxiques régnent dans la région du Tibet. Ρ apparaît donc principalement guidé par le détritisme et les fluctuations du niveau marin. Les sections de Barranca et d'Axaxacualco montrent que la plateforme carbonatée mexicaine persiste durant cet événement anoxique, et permet le développement d'une faune de plateforme qui n'est pas présente dans les sections téthysiennes. La persistance de cette plateforme carbonatée si proche du plateau Caribéen, qui est connu pour le relâchement de métaux bio-limitant, peut être expliqué par un soulèvement tectonique local qui inhibe l'ennoiement de la plateforme et une circulation océanique spécifique qui permet la préservation de conditions oligotrophiques dans cette région. L'événement anoxique océanique du Coniacien-Santonien apparaît plus dépendant des conditions locales que pour l'ΟΑΕ2. Les black shales associés à POAE3 sont restreints aux zones situées autour de l'océan Atlantique et plus particulièrement aux eaux peu profondes et épicontinentales. Les sections d'Olazagutia (Espagne), Ten Mile Creek et Arbor Park (USA), qui sont deux potentielles sections GSSP (Sections de stratotype de limite globaux et de points), ne montre pas d'accumulation de black shales et pas de forte excursion positive en δ13C autour de la limite C-S. La section de Gabal Ekma (Sinai, Egypte) montre des accumulations de black shales, en plus des couches de phosphorites et d'accumulation d'os (« bone beds »), vraisemblablement lié à des zones active d'upwelling épicontinentale et/ou d'apport de tempêtes. Nos données suggèrent que l'OAE 3 est rarement exprimé par de vraies conditions anoxiques et semble être plus lié à des conditions plus locales que des changements paléo-environnementaux globaux, comme observés pour le Cénomanien- Turonien. Les arguments pour un modèle lié au phosphore détritique qui serait la cause des fluctuations du phosphore total durant les OAEs, n'écartent pas l'idée que l'anoxie est la principale cause de ces fluctuations dans les sections riches en matière organique de l'Ouest téthysien. Cependant une explication est nécessaire pour comprendre pourquoi la signature de l'accumulation du phosphore est semblable dans les successions sédimentaires déposées dans des conditions oxygénées et anoxiques. Les modèles « Eustatisme/Climat » et « Productivité/anoxie » ont simultanément opéré dans les différentes parties du monde dépendant de conditions locales, et ont produit des tendances similaires en accumulation de phosphore.
Resumo:
RESUMEUne consommation excessive et chronique d'alcool est associée à une augmentation significative de la morbidité et de la mortalité. L'identification de marqueurs biologiques fiables, permettant de mettre en évidence une consommation excessive et chronique, présente donc un intérêt certain pour prévenir les conséquences néfastes de l'abus d'alcool. L'approche couramment employée consiste à mesurer les marqueurs biologiques indirects dans le sang, tels que les marqueurs hépatiques dont l'augmentation peut résulter d'une consommation chronique et excessive d'alcool. Cependant, leur valeur diagnostique est souvent limitée par leur manque de sensibilité et/ou de spécificité et leur combinaison est généralement recommandée pour améliorer le diagnostic. A ce jour, il n'existe pas de marqueur biologique permettant le diagnostic fiable d'une consommation chronique et excessive d'alcool.L'objectif principal de cette thèse était d'évaluer la pertinence de l'éthylglucuronide (EtG), un métabolite direct de l'éthanol présentant la particularité d'être incorporé dans les cheveux, comme marqueur d'une consommation chronique et excessive d'alcool. Dans un premier temps, une revue de la littérature a permis de dresser un état des lieux de l'usage de l'EtG et d'identifier les axes de réflexion. L'EtG s'est révélé être un marqueur efficace pour identifier une consommation chronique et excessive d'alcool. Cependant, l'absence de seuil de positivité fiable et une méconnaissance des facteurs influençant l'incorporation de l'EtG dans les cheveux ont été mises en évidence. Afin d'investiguer ces différents points, deux études ont été conduites : (1) une étude chez le rat pour tenter de comprendre les facteurs influençant l'incorporation de l'EtG dans les cheveux et étudier la relation entre la quantité d'alcool administrée et la concentration d'EtG mesurée dans les cheveux; et (2) une étude clinique afin de déterminer les performances diagnostiques de l'EtG comme marqueur d'une consommation excessive et chronique d'alcool. Une méthode analytique sensible et sélective par chromatographic gazeuse couplée à la spectrométrie de masse en tandem a été développée et appliquée à l'analyse de l'EtG dans les cheveux.Le sang semblait jouer un rôle majeur dans l'incorporation de l'EtG dans les poils. Son incorporation n'était pas influencée par la pigmentation. La concentration d'EtG mesurée dans les poils de rats reflétait la dose d'éthanol administrée. De plus, la mesure de l'EtG dans les cheveux humains a démontré de très bonnes performances diagnostiques pour détecter une consommation excessive et chronique d'alcool. Les performances diagnostiques de l'EtG surpassaient celles des marqueurs hépatiques usuels seuls ou combinés. L'EtG n'était pas influencé par l'âge, le sexe ou l'indice de masse corporelle. Un seuil de positivité de 25 pg/mg permettait de détecter les consommateurs à usage nocif avec une grande fiabilité. Un seuil de positivité de 9 pg/mg permettait de détecter les consommateurs à risque.SUMMARYChronic and excessive alcohol consumption is associated with a significant increase of morbidity and mortality. The identification of a reliable biomarker to detect chronic and excessive alcohol consumers would be valuable to prevent alcohol's harmful effects. The combined analysis of 2 or more hepatic biomarkers, which are known to be increased following sustained alcohol consumption, is usually applied to enhance the diagnostic performance in identifying chronic and excessive alcohol consumers. However, their diagnostic value is often limited by their lack of sensitivity and / or specificity and their combination is generally recommended to improve diagnosis. To date, there are no reliable biomarkers available for diagnosing chronic and excessive alcohol consumption.The main objective of this research was to evaluate the relevance of EtG, a direct alcohol metabolite, as a biomarker of chronic and excessive alcohol consumption, thanks to its characteristic to incorporate into hair. First, a review of literature on the use of EtG was carried out. EtG demonstrated strong potential in detecting chronic and excessive alcohol consumption. However, the lack of reliable cutoff and the unawareness of factors that affect the EtG incorporation into hair were stressed. To investigate these points, two studies have been conducted: (1) a nonclinical study in rats to determine the factors affecting the incorporation of EtG into hair as well as to investigate the relationship between the amount of alcohol administered and the EtG concentration measured in hair; and (2) a clinical study to determine the diagnostic performance of EtG as a biomarker for the identification of chronic and excessive alcohol consumers. A sensitive and specific Gas Chromatography-Mass Spectrometry coupled to tandem Mass Spectrometry method has been developed and applied to hair EtG analysis.Bloodstream seemed to play a major role in the EtG incorporation into hair. EtG incorporation into rat hair was not affected by hair pigmentation. EtG concentration in rat hair appeared to reflect the EtG concentration in blood. Besides, EtG demonstrated strong diagnostic performance in detecting both heavy alcohol consumption and at-risk alcohol consumption, and clearly outperformed diagnostic performance of hepatic biomarkers. In contrast with hepatic biomarkers, EtG was not associated with age, gender or body mass index. A reliable cutoff value of 25 pg/mg allowed to detect heavy drinkers; a reliable cutoff value of 9 pg/mg allowed to detect at-risk drinkers.
Resumo:
Résumé Objectif: l'observation des variations de volume de la matière grise (MG), de la matière blanche (MB), et du liquide céphalo-rachidien (LCR) est particulièrement utile dans l'étude de nombreux processus physiopathologiques, la mesure quantitative 'in vivo' de ces volumes présente un intérêt considérable tant en recherche qu'en pratique clinique. Cette étude présente et valide une méthode de segmentation automatique du cerveau avec mesure des volumes de MG et MB sur des images de résonance magnétique. Matériel et Méthode: nous utilisons un algorithme génétique automatique pour segmenter le cerveau en MG, MB et LCR à partir d'images tri-dimensionnelles de résonance magnétique en pondération Ti. Une étude morphométrique a été conduite sur 136 sujets hommes et femmes de 15 à 74 ans. L'algorithme a ensuite été validé par 5 approches différentes: I. Comparaison de mesures de volume sur un cerveau de cadavre par méthode automatique et par mesure de déplacement d'eau selon la méthode d'Archimède. 2. Comparaison de mesures surfaces sur des images bidimensionnelles segmentées soit par un traçage manuel soit par la méthode automatique. 3. Evaluation de la fiabilité de la segmentation par acquisitions et segmentations itératives du même cerveau. 4. Les volumes de MG, MB et LCR ont été utilisés pour une étude du vieillissement normal de la population. 5. Comparaison avec les données existantes de la littérature. Résultats: nous avons pu observer une variation de la mesure de 4.17% supplémentaire entre le volume d'un cerveau de cadavre mesuré par la méthode d'Archimède, en majeure partie due à la persistance de tissus après dissection_ La comparaison des méthodes de comptage manuel de surface avec la méthode automatique n'a pas montré de variation significative. L'épreuve du repositionnement du même sujet à diverses reprises montre une très bonne fiabilité avec une déviation standard de 0.46% pour la MG, 1.02% pour la MB et 3.59% pour le LCR, soit 0.19% pour le volume intracrânien total (VICT). L'étude morphométrique corrobore les résultats des études anatomiques et radiologiques existantes. Conclusion: la segmentation du cerveau par un algorithme génétique permet une mesure 100% automatique, fiable et rapide des volumes cérébraux in vivo chez l'individu normal.
Resumo:
La perception de la productivité SUMMARY The main objective of this thesis is the perception of the productivity in the luxury hospitality industry. Despite a lot of efforts which were already made in the field of the production of goods, this concept (productivity) still remains to be defined in the services sector, more still, in that of the luxury hospitality industry. Since the object of this study is the perception of productivity, we decided to analyze the elements considered to be relevant by the top management in this field. Then, it seemed important to evaluate these same elements for the categories of middle-management and by the in-line employees. As perception is not static, it is dependent in an indirect way on its improvement and however also with the means of improvement. The assumption of our work evokes the possible relationship between productivity and its perception (P), (Q) quality and profitability (R). On this basis we built the P-Q-R model: R=F(P,Q) Finally, our research on this model enabled us to establish a mathematical relation between the three predetermined elements: fR=fP+fQ+c That means that the function efficiency of a process of services -(fR) is the sum of its quality function (intrinsic and extrinsic)-(fP) and of its productivity function - fQ (and the constant of regression "c"). To increase the profitability of the most significant manner, it is necessary to increase at the same time the productivity and quality. On the other hand, according to this formula but also according to the perception of the managers, with a constant profitability, either the productivity decreases in favor of the increase in quality, or the reverse. If the dimensions of the model influence positively or negatively the production process of services, then those wí11 influence in same manner our model (P, Q, R). We advance a point of view saying that profitability depends on the labor productivity which follows same dynamics than the perception of the productivity. The identification of the labor productivity as an essential element of successful management of the hotel is fundamental. The question which always remains in suspense is however the relevance of the concept "labor productivity" for the luxury hospitality industry. It was not proven an obvious correlation between this notion and the one of profitability. We still remain at the stage of perception. It results that one interesting way of future research will be the study of this correlation. As in any kind of luxury industry, the real added value does not consist in the volume produced or in the speed with which the product/service is carried out but in the creativity involved in their results. Let us note that the field of luxury is extremely related to the emotions and to the experience provided to the customers. La perception de la productivité... RÉSUME L'objectif principal de cette thèse est la perception de la productivité dans l'hôtellerie de luxe. Malgré tous les efforts qui ont déjà été faits dans le domaine de la production de biens, ce concept (productivité) reste encore à définir dans le secteur des services, plus encore, dans celui de l'hôtellerie de luxe. Étant donné que l'objet de l'étude est la perception de la productivité, nous avons décidé d'analyser les éléments jugés pertinents par les cadres dirigeants dans ce domaine. Puis, il nous a semblé important d'évaluer ces mêmes éléments pour les catégories de cadres moyens et par les employés in-line. Comme la perception n'est pas statique, elle est liée d'une manière indirecte à son amélioration et cependant également aux moyens d'amélioration. L'hypothèse de notre travail évoque la possible relation entre la productivité et sa perception (P), la qualité (Q) et la rentabilité (R). Sur cette base nous avons construit le modèle P-Q-R de départ R=f(P,Q) Finalement, notre recherche sur ce modèle nous a permis d'établir une relation mathématique entre les trois construits prédéterminés: fR=fP+fQ+c Cela signifie que la fonction rentabilité d'un processus de services -(fR) est la somme de sa fonction qualité (intrinsèque et extrinsèque)-fP et de sa fonction productivité -fQ (plus la constante de régression « c ») Pour augmenter la rentabilité de la manière la plus significative, il faut augmenter en même temps la productivité et la qualité. En revanche, selon cette formule mais selon aussi la perception des managers, à une rentabilité constante, soit la productivité diminue en faveur de l'augmentation de la qualité, soit l'inverse. Si les dimensions du modèle influencent positivement ou négativement le processus de production de services, alors celles-ci vont influencer de la même manière les construits de notre modèle (P, Q, R). Nous avançons un point de vue disant que la rentabilité dépend de la productivité du travail qui suit la même dynamique que la perception de la productivité. L'identification de la productivité du travail comme élément essentiel de gestion réussie de l'hôtel s'avère fondamentale. La question qui reste toujours en suspens est pourtant la pertinence de la notion «productivité du travail » pour l'industrie hôtelière de luxe. Il n'a pas été prouvé une corrélation évidente entre cette notion et celle de la profitabilité. Nous restons donc ici encore au stade de perception. Il en résulte que l'une des voies les plus intéressantes de recherche future sera l'étude de cette corrélation. Comme dans toute industrie de luxe, la vraie valeur ajoutée ne consiste pas toujours dans le volume produit, ni dans la vitesse avec laquelle le produit/service est réalisé, mais parfois dans la créativité emmagasinée dans ces résultats. Notons que le domaine de luxe est extrêmement lié aux émotions et à l'expérience fournie aux clients.
Resumo:
L'étude porte sur 951 porteurs d'un cancer primaire bucco-pharyngo-laryngé, et révèle un taux de multifocalité du carcinome épidermoïde sur les voies digestive supérieure (bouche-pharynx-oesophage) et aérienne distale (larynx-trachée-bronches) s'élevant à 14,5 %. Les secondes localisations peuvent être simultanées (6,4 %) ou successives (8,1 %) à la découverte du premier cancer: dès la deuxième année du follow-up leur incidence dépasse celle des récidives. Elles se localisent tant au niveau ORL (8,5 %) qu'oesophagien (3 %) ou bronchique (3 %). Le cancer du voile présente un taux de multifocalité particulièrement élevé (51 %). Les auteurs décrivent un type d'endoscopie de dépistage (bucco-pharyngo-oesophago-laryngo-trachéobronchoscopie) dont la fiabilité repose sur une technicité spécifique d'une part, et sur la connaissance des caractéristiques propres aux secondes localisations d'autre part. Ce dépistage systématique permet de détecter les tumeurs secondaires à un stade le plus souvent précoce et encore asymptomatique.
Resumo:
Fondements : La recherche sur l'oedème postopératoire consécutif à la chirurgie prothétique du genou est peu développée, notamment en raison de l'absence d'une méthode de mesure adaptée. Une collaboration entre physiothérapeutes et ingénieurs a permis de développer et valider une méthode de mesure innovante et facilement applicable. Les physiothérapeutes ont identifié un besoin clinique, les ingénieurs ont apporté leur savoir technologique, et l'équipe a conjointement élaboré le protocole de mesure et effectué l'étude de validation. Introduction : La bioimpédance est fréquemment utilisée pour évaluer l'oedème par l'analyse d'un signal électrique passant au travers du corps, en extrapolant la résistance théorique à une fréquence égale à zéro (R0). La mesure s'avère fiable et rapide, mais n'a jamais été appliquée et validée pour l'évaluation de l'oedème en chirurgie orthopédique. Objectif : L'objectif de l'étude est de valider la mesure de l'oedème du membre inférieur par bioimpédance, chez des patients ayant bénéficié d'une prothèse totale de genou (PTG). Questionnement : Après nous être assurés de l'absence d'influence de l'implant métallique de la PTG sur la mesure, nous nous questionnions sur la validité et la fiabilité des mesures de bioimpédance dans ce contexte. Méthodes : Deux évaluateurs ont mesuré à tour de rôle et à deux reprises successives l'oedème chez 24 patients opérés d'une PTG, à trois temps différents (préopératoire, J+2, J+8). L'oedème a été évalué par bioimpédance (R0) et par conversion en volume de mesures centimétriques du membre inférieur (MI). Nous avons calculé le ratio moyen des MI pour chaque méthode. Nous avons évalué la reproductibilité intra- et inter-observateurs de la bioimpédance (coefficient de corrélation intraclasse, CCI) et la corrélation entre méthodes (Spearman). Résultats : Le ratio moyen opéré/sain du volume des MI est de 1.04 (SD ± 0.06) en préopératoire, 1.18 (SD ± 0.09) à J+2 et 1.17 (SD ± 0.10) à J+8. Le ratio sain/opéré des MI de R0 est de 1.04 (SD ± 0.07) en préopératoire, 1.51 (SD ± 0.22) à J+2 et 1.65 (SD ± 0.21) à J+8. En préopératoire, à J+2 et J+8, les CCI tous supérieurs à 0.95 pour la reproductibilité intra- et inter-observateurs de la bioimpédance. La corrélation entre méthodes est de 0.71 en préopératoire, 0.61 à J2 et 0.33 à J8. Analyse et conclusion : La variation du ratio des MI entre les temps préopératoire, J+2 et J+8 est plus marquée pour R0. La mesure de bioimpédance bénéficie d'une excellente reproductibilité intra- et inter-observateurs. L'évolution dans le temps de la corrélation entre méthodes peut être expliquée par l'influence potentielle de facteurs confondants sur R0 (modification de la composition liquidienne) et par l'influence de l'atrophie musculaire postopératoire sur la mesure de volume. La collaboration physiothérapeutes-ingénieurs a permis le développement et l'évaluation d'une nouvelle méthode de mesure.
Resumo:
Introductionþ: L'insulinothérapie intraveineuse est la mieux adaptée pour obtenirun contrôle glycémique rapidement efficace ou lors de besoins en insulinechangeants de façon peu prévisible, mais son emploi hors des soins intensifs seheurte souvent aux manque de formation et réticences des soignants. L'inclusionL'inclusiondu contrôle glycémique rapide dans nos standards institutionnels de priseen charge de l'AVC aigu a suscité une demande de protocole thérapeutiqueadapté aux besoins de l'Unité cérébrovasculaire.Patients et méthodesþ: Le protocole d'insulinothérapie a été dérivé d'algorithmespubliés intégrant glycémie actuelle, cinétique glycémique et sensibilité àl'insuline du patient. Aux repas, une augmentation du débit d'insuline iv. pendant1 h a été ajoutée. Les objectifs glycémiques étaient 4-6þmmol/l en préprandialetþ< 8þmmol/l en postprandial. L'implémentation s'est faite à travers unprocessus de co-construction (outils de gestion, documents et activités de formation)avec les responsables médico-infirmiers du service.Résultatsþ: Les données des 90 premiers patients ont été analysées (diabète connuþ:38, hyperglycémie nouvelleþ: 52, 2715h de traitement cumulées). Les duréesd'insulinothérapie iv. étaient de 34,5 h [interquartile 24-39] et 26,5 h [21-36,3] respectivement(pþ=þ0,03), les délais d'atteinte de l'objectif de 5 h [4.0-8.25] et 7 h[4.0-9.75] (pþ=þns.). Pendant les 24 h suivantes, les taux de glycémies dans la cibleétaient de 70,4þ%/81,3þ% (90,3þ%/94,6þ% entre 4-8þmmol/l), avec un faible tauxd'hypoglycémies (3,9þ%/3,1þ%þ< 4,0þmmol/l, 0,4þ%/0,2þ%þ<þ3,3þmmol/l) et un contrôleglycémique postprandial comparable (excursions +2,6þmmol/l [0,7-3,9] et+1,7þmmol/l [0,6-3,7]þ; Nþ=þ75þ; pþ=þns.).Conclusionþ: L'insulinothérapie intraveineuse hors des soins intensifs est faisable,hautement sûre et efficace, même avec des objectifs glycémiques particulièrementstricts. Outre la fiabilité perçue de l'outil de gestion, la démarche departenariat adoptée avec les soignants, permettant la prise en compte de leurspréoccupations à chaque étape du processus, a été un facteur de succès importantpour son implémentation.
Resumo:
[Table des matières] 1. Patients et méthodes. 1.1. Enquête dans la population générale : population, modalités d'envoi, taux de réponse. 1.2. Questionnaire SF-36 et questionnaire Medical Outcome Study (MOS) : PF physical functioning = activité physique (fonctionnement) ; RP role physical = limitations (du rôle) liées à la santé physique ; BP bodily pain = douleur physique ; GH General Health = santé générale ; VT vitality = vitalité (énergie/fatigue) ; SF social functioning = fonctionnement ou bien-être social ; RE role éemotional = limitations (du rôle) liées à la santé mentale ; MH mental health = santé mentale ; CF cognitive functioning = fonctionnement cognitif (dimension absente du SF-36 classique) ; HT eported health transition = modification perçue de l'état de santé ("dimension" annexe, = item 2 ou Q2). 1.3. Analyse : calcul des scores du SF-36 et du SF-36 + CF, cohérence des réponses, fiabilité de l'instrument, validité. 1.4. Analyse statistique. 2. Résultats commentés de l'enquête dans la population générale. 2.1. Fréquence des non-réponses par item et par question. 2.2. Cohérence des réponses. 2.3. Scores d'état de santé par dimension : description et comparaison avec une population américaine, comparaison des scores vaudois et genevois. 2.4. Existe-t-il une concentration des bons et des mauvais scores chez les mêmes répondants ? 2.5. Fiabilité. 2.6. Validité : validité convergente et discriminante, analyse factorielle, validation en fonction de variables externes. 3. Discussion. 3.1. Evaluation du questionnaire. 3.2. Mesure de la qualité de vie liée à l'état de santé perçu dans la population générale. 3.3. Adjonction de la dimension "fonctionnement cognitif". 3.4. Conclusions et recommandations.