97 resultados para Intervalle de crédibilité simultané
Resumo:
Résumé Introduction et objectif : l'articulation du coude est vulnérable à l'enraidissement, en particulier après un traumatisme. Le but de cette étude est d'évaluer les résultats du traitement chirurgical des raideurs post-traumatiques du coude. Type d'étude : étude rétrospective de cohorte. Les patients : dix-huit patients ont été évalués cliniquement par un observateur indépendant dans un intervalle moyen de 16 mois (6 à 43) après avoir subi une arthrolyse ouverte du coude, avec comme indication opératoire une raideur post traumatique du coude. Les traumatismes subis étaient : 11 fractures isolées, 1 luxation isolée, 6 fracture-luxations complexes. Les prises en charge initiales étaient : non-chirurgicales pour 3 patients, résection de la tête radiale pour 1 patient, réduction ouverte et ostéosynthèse pour 14 patients. Les patients ont présenté des types de raideurs mixtes pour la plupart d'entre eux. Type d'intervention : arthrolyse ouverte du coude. Evaluation : la fonction du coude et la satisfaction des patients furent les principales données récoltées. Lacs de l'évaluation, les scores de SECEC (Société Européenne de Chirurgie d'Epaule et du Coude) ont été calculés. Une analyse radiologique a aussi été effectuée. Résultats : trois patients ont présenté des complications postopératoires mineures : 1 déhiscence de plaie, 1 infection sous-cutanée, 1 sérome. Aucune de ces complications n'a eu de répercussion sur le résultat final. Le gain d'amplitude articulaire moyen était de 40°, avec un gain moyen en flexion du coude de 14° (0°-45°), et de 26° en extension (5°-67°) Aucun patient n'a présenté d'instabilité du coude. Il n'y a pas eu de signe de progression d'arthrose sur les clichés radiographiques à la revue. Nous n'avons pas mis en évidence de rapport entre le type de raideur et la voie d'abord sur les résultats. Les patients ayant présentés les raideurs les plus importantes ont bénéficiés des meilleurs résultats en terme de mobilité (p<0.001). Les meilleurs résultats ont été obtenus pour les patients opérés dans la première année aptes le traumatisme initial (p=0.008). Le score SECEC moyen était de 88 points pour les coudes opérés (52-100), et de 96 points pour les coudes sains (88-100). Conclusion : l'arthrolyse ouverte confère de bons résultats pour les patients présentant une raideur post traumatique du coude. Les meilleurs résultats sont obtenus pour les patients présentant une raideur sévère, prise en charge dans l'année qui suit le traumatisme initial.
Resumo:
Dans cette étude rétrospective, nous reportons des données relatives à la chimiothérapie chez des patients atteints d'adénocarcinome pancréatique avancé, avec attention à la durée du temps qui passe entre le dernier traitement et la mort. En outre, nous analysons des paramètres cliniques et de laboratoire, enregistrés à la dernière chimiothérapie, avec le but d'identifier des facteurs de risque pour un décès proche. L'analyse rétrospective est effectuée sur des patients avec adénocarcinome pancréatique avancé, qui ont bénéficié au moins d'une ligne de chimiothérapie. Nous avons enregistré les données concernant la chimiothérapie (régimes, lignes et date de la dernière administration) et avons choisi et enregistré des facteurs cliniques et de laboratoire, qui étaient récoltés à la dernière chimiothérapie (performance status, présence d'ascite, hémoglobine, leucocytes, plaquettes, bilirubine totale, albumine, LDH, protéine C-réactive et Ca19-9). Des analyses statistiques (univariée et multivariée) sont effectuées pour étudier la relation entre ces facteurs et le temps de survie, à la recherche de facteurs prédictifs de mort imminente. Nous avons analysé les données de 231 patients: hommes/femmes, 53/47%; métastatique/localement avancé, 80/20%; âge médian 66 ans (gamme 32-85). Tous les patients sont décédés à cause de la progression de la maladie. La survie globale médiane est 6.1 mois (95% Cl 5.1-7.2). Lors de la dernière chimiothérapie, le performance status est 0-1 pour 37% et 2 pour 63% des patients. Cinquante-neuf pour cent des patients reçoivent une ligne de chimiothérapie, 32, 8 et 1% reçoivent des chimiothérapies de deuxième, troisième, quatrième ligne, respectivement. L'intervalle entre la dernière administration de chimiothérapie et le décès est <4 semaines pour 24%, 4-12 semaines pour 47% et >12 semaines pour 29% des patients. La survie médiane à partir de la dernière chimiothérapie jusqu'au décès est 7.5 semaines (95% Cl 6.7-8.4). L'ascite, la leucocytose, des valeurs élevées de bilirubine, LDH, protéine C- réactive et Ca19-9, et des valeurs abaissées d'albumine sont associés à une survie plus courte à l'analyse univariée; néanmoins, aucun de ces facteurs n'est corrélé à la survie de façon significative à l'analyse multivariée. Nous en concluons qu'une proportion significative de patients avec adénocarcinome pancréatique avancé reçoit la chimiothérapie dans le dernier mois de vie, et que les paramètres cliniques et de laboratoire enregistrés à la dernière chimiothérapie ne prédisent pas une survie plus courte.
Resumo:
Rapport de synthèse : Introduction: la prévalence de l'insuffisance rénale chronique (IRC) augmente et malgré les traitements de remplacement rénal telle que la transplantation ou la dialyse, la mortalité chez des patients atteints d'une IRC reste très élevée. Les maladies cardiovasculaires sont la cause principale de mortalité chez ces patients, et le risque de décès dú à une complication cardiovasculaire est chez eux accru de 10 à 20 fois par rapport à la population générale. Méme si les facteurs de risque cardiovasculaires «traditionnels », principalement l'hypertension artérielle et le diabète sont très prévalents chez les patients avec IRC, ils sont insuffisants pour expliquer l'excès de mortalité cardiovasculaire. D'autres facteurs de risques « nontraditionnels » comme l'accumulation du diméthylarginine asymétrique (ADMA), un inhibiteur endogène de la synthase d'oxyde d'azote (NO), semblent aussi être importants. Chez les patients avec IRC, des taux élevés d'ADMA sont un puissant facteur prédictif indépendant de la mortalité cardiovasculaire. Il a également été démontré chez des souris que l'ADMA peut étre une cause directe de dysfonction endothéliale. Cette dernière joue un rôle primordial dans le développement de l'athérosclérose, cause principale des complications cardiovasculaires. Le but du présent travail est de tester l'hypothèse qu'une réduction du taux d'ADMA après une séance unique d'hémodialyse améliore la dysfonction endothéliale. Méthodes: la dysfonction endothéliale peut être évaluée dans les microvaisseaux de la péan de façon non invasive par fluxmétrie laser Doppler. La vasodilatation cutanée induite par un échauffement local de 34° à 41 °C (hyperémie thermique) est connue pour être dépendante de la production endothéliale de NO et a été utilisée dans plusieurs études cliniques pour évaluer la dysfonction endothéliale. Nous avons recruté 24 patients traités par hémodialyse chronique et également 24 sujets contrôles du même âge et sexe. Chez les patients dialysés, l'hyperémie thermique est mesuré une fois directement avant une séance d'hémodialyse, et une fois directement après une autre séance, toutes deux distantes de 2 à 7 jours. En même temps, les taux plasmatiques d'ADMA sont mesurés par la méthode de spectrométrie de masse en tandem. Chez les sujets contrôle, l'hyperémie thermique est également mesurée à deux reprises, à un intervalle de 2 à 7 jours comme chez les patients dialysés et les taux d'ADMA sont déterminés qu'une seule fois. Résultats: chez les patients dialysés, les réactions d'hyperémie thermique étaient superposables avant et après dialyse, mais moindre que chez les sujets contrôles. Par contre, les taux d'ADMA étaient plus élevés avant qu'après dialysé. Les taux d'ADMA après dialyse étaient similaires aux taux chez les sujets contrôles. Conclusion: cette étude montre que la vasodilatation dépendante de la production endothéliale de NO dans la microcirculation cutanée n'est pas influencée par les taux plasmatiques d'ADMA chez les patients dialysés. Ces résultats suggèrent que d'autres mécanismes sont responsables de la dysfonction endothéliale chez ces patients. Ceci met en question le concept que l'accumulation d'ADMA est un facteur causal du risque cardiovasculaire élevé et suggère que l'ADMA est juste un marqueur du milieu très athérogénique causé par l'IRC.
Resumo:
Rapport de synthèse : Introduction : plusieurs études observationnelles suggèrent qu'il existe une association entre le tabagisme actif et l'incidence du diabète de type 2. Toutefois de telles études n'ont jamais été synthétisées de façon systématique. Objectif : conduire une revue systématique avec meta-analyse des études évaluant l'association entre le tabagisme actif et l'incidence du diabète de type 2. Méthode : nous avons effectué une recherche dans les bases de donnée électroniques MEDLINE et EMBASE de 1966 à mai 2007, et l'avons complétée par une recherche manuelle des bibliographies des articles clés retenus ainsi que par la recherche d'abstracts de congrès scientifiques et le contact d'experts. Pour être inclues dans notre revue, les études devaient avoir un design de type cohorte, reporter un risque de glycémies jeun élevée, d'intolérance au glucose ou de diabète de type 2 en relation avec le statut tabagique des participants lors du recrutement et devaient exclure les sujets avec un diabète au début de l'étude. Deux auteurs ont sélectionné de façon indépendante les études et ont extrait les données. Les risques relatifs de diabète étaient ensuite compilés, utilisant un modèle de type « random effect ». Résultats : la recherche a aboutit à 25 études de cohorte prospectives (N=1'165'374 participants) et a reporté en tout 45'844 cas de diabète de type 2 pendant une durée de suivi s'étendant sur 5 à 30 années. Sur les 25 études, 24 reportaient un risque augmenté de diabète chez les fumeurs par comparaison aux non fumeurs. Le risque relatif (RR) commun de toutes les études était de 1.44 (intervalle de confiance (IC) à 95% : 1.31-1.58). Le risque de diabète était plus élevé chez les fumeurs de plus de 20 cigarettes par jour (RR : 1.61, IC 95% : 1.43-1.80) en comparaison aux fumeurs ayant une consommation inférieure (RR : 1.29, IC 95% : 1.13-1.48) et le risque était moindre pour les anciens fumeurs (RR :1.23; IC 95% : 1.14-1.33) comparé aux fumeurs actifs. Ces éléments parlent en faveur d'un effet dose-réponse et donc d'une relation de causalité, sans pour autant la prouver. Conclusion : notre étude révèle que le tabagisme actif est associé avec un risque augmenté de 44% de diabète de type 2. Des recherches futures sont nécessaires pour évaluer si cette association est causale et pour clarifier les mécanismes d'action. Dans l'intervalle, les professionnels de santé devraient mentionner l'éviction du diabète comme une raison supplémentaire d'arrêter de fumer ou de ne pas commencer à fumer.
Resumo:
Parmi les neuroleptiques disponibles, l'amisulpride est de plus en plus prescrit. De par son affinité sélective dose-dépendante aux récepteurs dopaminergiques, il est possible de moduler les effets de cette substance montrant des propriétés antidépressives à faible dose et agissant comme un puissant antipsychotique à forte dose. Toutefois, l'amisulpride induit une prolongation dose-dépendante de l'intervalle QT ce qui peut potentialiser la survenue d'arythmies ventriculaires, souvent fatales lorsque sa consommation est concomitante à celles d'autres médicaments ou stupéfiants allongeant l'intervalle QT. Cependant, la littérature scientifique demeure peu documentée en ce qui concerne la détermination de concentrations sanguines thérapeutiques, toxiques et létales. Après avoir présenté les propriétés pharmacodynamiques et pharmacocinétiques de l'amisulpride, nous nous proposons de définir plus précisément les seuils sanguins de concentrations thérapeutiques, toxiques et létales pour cette molécule illustrée par la revue des cas mortels impliquant l'amisulpride en Suisse romande depuis 2005. Among the available neuroleptic drugs, amisulpride is increasingly prescribed. Thanks to its dose-dependent selective affinity for dopamine receptors, it is possible to modulate the effects of this substance showing antidepressant properties at low dose and acting as a powerful antipsychotic at high dose. However, amisulpride induces a dose-dependent prolongation of the QT interval which may potentiate the occurrence of ventricular arrhythmias, often fatal when its consumption is concomitant with those of other drugs that prolong the QT interval. However, the scientific literature remains poorly documented with regard to the determination of therapeutic, toxic and lethal blood concentrations. After presenting the pharmacodynamic and pharmacokinetic properties of amisulpride, we propose to define more precisely the blood levels of therapeutic, toxic and lethal concentrations for this molecule illustrated by a review of the fatal cases involving amisulpride in Western Switzerland since 2005.
Resumo:
Introduction : Depuis 2005, le « Test FIFA » est utilisé chez les arbitres de football, comme critère de sélection pour monter dans les échelons de l'arbitrage et chaque arbitre base son entraînement dans cet objectif. Ce test a été développé grâce aux nombreux travaux scientifiques, ayant utilisé l'analyse vidéo, afin de quantifier les activités de match des arbitres et analyser leur performance en cours de match. Objectifs : Le but de ce travail a été d'évaluer la performance de l'arbitre, lors d'un match de football, au moyen d'un accéléromètre en raison de sa facilité d'utilisation et en particulier d'évaluer si au cours du match, il existe une éventuelle diminution de la capacité de performance engendrée par la fatigue. Enfin, à la lumière des résultats, nous avons pu discuter du bien fondé du «test par intervalle proposé par la FIFA» comme moyen d'estimation de la capacité physique d'un arbitre. Méthode : Il s'agit d'une étude prospective basée sur une analyse descriptive. Les données ont été récoltées dans des stades de football suisses ≥1ère Ligue, du 01.12.2011 au 01.12.2012. Le groupe étudié était composé de 5 arbitres de football de sexe masculin, dont deux officiant en 1ère Ligue et faisant partie des talents de l'Association Cantonale Vaudoise de Football (ACVF) et trois en Super League et Challenge League. Les 5 arbitres ont été équipés d'un iPhone 3GS®, muni d'une application, capable d'enregistrer les déplacements sur le terrain (arrêt, marche et course). Le traitement des données a été effectué par un programme Matlab®, élaboré par le Laboratoire des Mesures d'Analyse du Mouvement (LMAM) de l'EPFL, tout comme l'application en question. Pour ce travail ont été considérées les phases et les fréquences d'arrêt, de marche et de course tout au long de l'évolution de la partie. Résultats : Durant les 90 minutes du match, la répartition se fait de la manière suivante : 13,74% du temps total où l'accéléromètre ne mesure aucune activité, 33,70% concernent une activité de course alors que le reste, 52,48% est de la marche. Avec l'avancement dans le match, il est constaté une augmentation des phases d'arrêt et une diminution du temps de course. Une intensité d'effort plus importante est observée lors des 15 premières minutes du match (environ 41,7% de course), alors qu'en fin de la partie, il y a une alternance de marche et de course avec des efforts de plus en plus brefs. La détermination de la médiane de durée des différents efforts a montré qu'un épisode de marche ou de course étaient de 5-6 secondes. De plus, les épisodes de marche ou de course étaient rarement >20 secondes. Discussion : Les résultats montrent que l'accéléromètre est un système de mesure facile d'utilisation, permettant un gain de temps dans l'analyse des données pour évaluer la performance sportive. Les principaux résultats de cette étude, ont mis en évidence une diminution de l'intensité des activités physiques de l'arbitre avec l'avancement du match, résultant soit de sa propre fatigue, soit de celle des joueurs dictant le rythme du jeu. Cette diminution se traduit par des déplacements de plus en plus brefs au fil du temps. La mesure de médiane du temps de course et de marche (5-6 sec) correspond à une activité aérobie pour la marche et anaérobie alactique pour la course. Par conséquent, le « test par intervalle » de la FIFA actuel ne nous semble pas adéquat en raison de sa filière énergétique de type anaérobique lactique. Conclusion : Cette étude pilote apporte un nouveau type d'instrumentation efficace et simple, jamais employé auparavant dans l'analyse des activités de match des arbitres de football. Il permet d'explorer des mouvements avec précision au fil du match et apporte un nouvel aspect sur la quantification de performance des arbitres non exploré jusqu'ici. Après analyse de l'ensemble des paramètres, il semble que le test FIFA ne soit pas adapté à la performance exigée par l'arbitrage.
Resumo:
De nombreuses études cliniques ont révélé une corrélation étroite entre un régime alimentaire riche en sel et le développement d'une hypertrophie ventriculaire gauche. Cette association a été classiquement attribuée aux effets hypertensifs à long terme d'une alimentation riche en sel. Toutefois, les études épidémiologiques ont également démontré que l'hypertrophie ventriculaire gauche peut survenir indépendamment de changements de pression artérielle.¦L'ingestion de sel n'étant pas distribuée de manière homogène durant la journée mais ayant lieu principalement durant les repas, nous émettons l'hypothèse que chaque repas riche en sel induit une augmentation aiguë de la pression artérielle, des pressions de remplissage cardiaque, du volume d'éjection systolique et du débit cardiaque. L'augmentation résultante du travail cardiaque pourrait ainsi à la longue entraîner une hypertrophie cardiaque.¦Pour tester si un repas riche en sel conduit à des modifications hémodynamiques favorisant l'hypertrophie cardiaque, nous avons comparé chez la même personne jeune et en bonne santé la réponse hémodynamique à un repas modérément salé (45 mmol) à celle d'un repas riche en sel (165 mmol de sodium). Les repas ont été pris de manière randomisée à 7 jours d'intervalle. Divers paramètres hémodynamiques ont été mesurés en continu avant et jusqu'à 140 minutes après chaque repas. Nos résultats montrent que les augmentations post-prandiales du volume d'éjection systolique et du travail cardiaque ont été plus prononcées après un repas à haute teneur en sel par rapport à un repas modérément salé.¦Nous spéculons que des apports chroniques en sel induisent des charges hémodynamiques répétées. Etant donné que la concentration plasmatique de sodium, qui est augmentée après un repas salé, est également capable de stimuler la croissance des myocytes cardiaques, il est possible que la combinaison sur des mois ou des années de pics hypernatrémiques post-prandiaux et de charges cardiaques soit responsable de l'hypertrophie cardiaque souvent observée avec une alimentation riche en sel.¦-¦Many clinical studies have shown a close correlation between a chronic high salt diet and the development of left ventricular hypertrophy. This association has been classically attributed to the long-term hypertensive effects of a high salt diet. However, epidemiological studies have also shown that left ventricular hypertrophy may occur independently of changes in arterial pressure.¦Since salt ingestion during a high salt diet is not distributed evenly over a 24-hr period, but occurs essentially during meal periods, we speculate that each acute salt load could lead to greater acute increases in blood pressure, heart filling pressure, stroke volume and cardiac output, putting an additional work load on the heart, promoting in the long run cardiac hypertrophy.¦To test whether a high salt meal leads to hemodynamic changes that may favor cardiac hypertrophy, we compared in the same healthy young individual the response to a moderately salted meal (45 mmol) and to a high-salt meal (165 mmol sodium), given in a random order on separate days, on various cardiovascular parameters that were continuously monitored before and up to 140 minutes after the meal. Our results show that the post-prandial increases in stroke volume, and cardiac work were more pronounced after a high-salt meal than after a low-salt meal.¦We speculate that repetitive salt loads associated with a high salt diet may lead to repetitive hemodynamic loads. Since plasma sodium concentration, which is increased after a salty meal, is also capable to stimulate myocyte growth, it is possible that the combination of post-prandial hypernatremic peaks and of cardiac loads may be responsible, when repeated many times over period of months, of the cardiac hypertrophy often seen with a high salt diet.
Resumo:
Le "Chest wall syndrome" (CWS) est défini comme étant une source bénigne de douleurs thoraciques, localisées sur la paroi thoracique antérieure et provoquées par une affection musculosquelettique. Le CWS représente la cause la plus fréquente de douleurs thoraciques en médecine de premier recours. Le but de cette étude est de développer et valider un score de prédiction clinique pour le CWS. Une revue de la littérature a d'abord été effectuée, d'une part pour savoir si un tel score existait déjà, et d'autre part pour retrouver les variables décrites comme étant prédictives d'un CWS. Le travail d'analyse statistique a été effectué avec les données issues d'une cohorte clinique multicentrique de patients qui avaient consulté en médecine de premier recours en Suisse romande avec une douleur thoracique (59 cabinets, 672 patients). Un diagnostic définitif avait été posé à 12 mois de suivi. Les variables pertinentes ont été sélectionnées par analyses bivariées, et le score de prédiction clinique a été développé par régression logistique multivariée. Une validation externe de ce score a été faite en utilisant les données d'une cohorte allemande (n= 1212). Les analyses bivariées ont permis d'identifier 6 variables caractérisant le CWS : douleur thoracique (ni rétrosternale ni oppressive), douleur en lancées, douleur bien localisée, absence d'antécédent de maladie coronarienne, absence d'inquiétude du médecin et douleur reproductible à la palpation. Cette dernière variable compte pour 2 points dans le score, les autres comptent pour 1 point chacune; le score total s'étend donc de 0 à 7 points. Dans la cohorte de dérivation, l'aire sous la courbe sensibilité/spécificité (courbe ROC) est de 0.80 (95% de l'intervalle de confiance : 0.76-0.83). Avec un seuil diagnostic de > 6 points, le score présente 89% de spécificité et 45% de sensibilité. Parmi tous les patients qui présentaient un CWS (n = 284), 71% (n = 201) avaient une douleur reproductible à la palpation et 45% (n= 127) sont correctement diagnostiqués par le score. Pour une partie (n = 43) de ces patients souffrant de CWS et correctement classifiés, 65 investigations complémentaires (30 électrocardiogrammes, 16 radiographies du thorax, 10 analyses de laboratoire, 8 consultations spécialisées, et une tomodensitométrie thoracique) avaient été réalisées pour parvenir au diagnostic. Parmi les faux positifs (n = 41), on compte trois angors stables (1.8% de tous les positifs). Les résultats de la validation externe sont les suivants : une aire sous la courbe ROC de 0.76 (95% de l'intervalle de confiance : 0.73-0.79) avec une sensibilité de 22% et une spécificité de 93%. Ce score de prédiction clinique pour le CWS constitue un complément utile à son diagnostic, habituellement obtenu par exclusion. En effet, pour les 127 patients présentant un CWS et correctement classifiés par notre score, 65 investigations complémentaires auraient pu être évitées. Par ailleurs, la présence d'une douleur thoracique reproductible à la palpation, bien qu'étant sa plus importante caractéristique, n'est pas pathognomonique du CWS.
Resumo:
RAPPORT DE SYNTHESE Introduction : dans la présente étude, nous nous sommes intéressés à la vasodilatation cutanée induite par le réchauffement local (hyperémie thermique). Il est établi, qu'une partie de cette réponse vasculaire est médiée par l'oxyde nitrique (NO). De manière générale, les effets du NO peuvent être sujets à une désensibilisation, comme nous le démontre le phénomène bien connu de tolérance aux dérivés nitrés. Le but du présent travail était d'évaluer si une telle désensibilisation existe dans le cas de l'hyperémie thermique. Méthodes : nous avons donc examiné si une première stimulation thermique pouvait en atténuer une deuxième, induite plus tard sur le même site cutané à une intervalle de 2h ou 4h. Pour vérifier directement l'effet du réchauffement local sur la sensibilité de la microcirculation cutanée au NO, nous avons de plus appliqué un donneur de NO (nitroprussiate de sodium, SNP) par la technique d' iontophorèse, sur des sites cutanés préalablement soumis à un échauffement local 2h ou 4h auparavant. Nous avons examinés 12 sujets en bonne santé habituelle, de sexe masculin, non fumeurs, âgés de 18 à 30 ans, ne prenant aucune médication. Le flux sanguin dermique a été mesuré par imagerie laser Doppler (LDI, Moor Instruments) sur la face antérieur de l'avant-bras. Le réchauffement local de la peau a été effectué grâce a des petits anneaux métalliques thermo-contrôlés contenant de l'eau. La température était initialement de 34°C. Elle a été augmentée à 41 °C en une minute et maintenue à cette valeur durant 30 minutes. Cette manoeuvre a été répétée sur le même site cutané soit 2 h, soit 4h plus tard. Quant à l'iontophorèse de SNP, elle a été effectuée sur des sites ayant préalablement subi, 2h ou 4h auparavant, un échauffement unique appliqué selon la technique qui vient d'être décrite. Résultats : nous avons observé une atténuation de l'hyperémie thermique lorsque celleci était examinée 2h après un premier échauffement local. Lorsque l'intervalle était de 4h la réponse vasodilatatrice n'était pas réduite. Nous avons également observé une atténuation de la réponse vasodilatatrice au SNP lorsque celui-ci a était appliqué 2h, mais non 4h après un premier échauffement local. Conclusion :cette étude démontre que la réponse vasodilatatrice cutanée induite par l'échauffement local est bien sujette à désensibilisation, comme nous en avions formulé l'hypothèse. Ce phénomène est transitoire. Il est lié, au moins en partie, à une baisse de sensibilité de la microcirculation cutanée aux effets vasodilatateurs du NO.
Resumo:
Situer des évènements dans le temps est une question essentielle en science forensique, de même que le transfert et l'identification. En effet, si une personne déclare avoir été sur les lieux d'un crime à un autre moment que l'évènement en question, la trace laissée (transfert) sur les lieux par cette personne (identification) perd toute signification. La pertinence de la trace est donc étroitement liée à la notion de temps. Les difficultés rencontrés lors de l'étude de la datation de différents type de traces ont crées une controverse mondiale sur la validité des méthodes proposées jusqu'ici, particulièrement en regard de la responsabilité de l'expert scientifique face à la justice. Si l'on considère la récurrence de cette problématique en sciences forensiques, une approche systématique ainsi qu'une meilleure compréhension fondamentale de la détermination de l'âge d'une trace est définitivement nécessaire. Cela représente un grand défi, puisque les processus de vieillissement sont influencés par plusieurs facteurs qui peuvent considérablement accélérer ou ralentir le vieillissement. Ceux-ci devront être étudiés de manière approfondie et peuvent être classés en trois groupes principaux : (i) la composition initiale de la trace, (ii) le type de substrat sur lequel se trouvent les traces, et (iii) les conditions de stockage. Pour ces raisons, l'objectif est donc plus de déterminer un intervalle de temps durant lequel la trace a été déposée, plutôt qu'une date précise. Finalement, une interprétation des résultats selon une approche probabiliste (par ex. basée sur une inférence de type Bayesienne sous deux hypothèses alternatives) semble la plus appropriée. Le développement de cette approche globale fait l'objet d'un ambitieux programme de recherche soutenu par le Fonds National Suisse de la Recherche Scientifique.
Resumo:
Dans le contexte d'un climat de plus en plus chaud, une étude « géosystémique » de la répartition du pergélisol dans l'ensemble d'un versant périglaciaire alpin, de la paroi rocheuse jusqu'au glacier rocheux, s'avère primordiale. S'insérant dans cette problématique, ce travail de thèse vise comme objectif général l'étude des versants d'éboulis situés à l'intérieur de la ceinture du pergélisol discontinu selon deux volets de recherche différents : une étude de la stratigraphie et de la répartition du pergélisol dans les éboulis de haute altitude et des processus qui lui sont associés ; une reconstitution de l'histoire paléoenvironnementale du domaine périglaciaire alpin pendant le Tardiglaciaire et l'Holocène. La stratigraphie et la répartition spatiale du pergélisol a été étudiée dans cinq éboulis des Alpes Valaisannes (Suisse), dont trois ont fait l'objet de forages profonds, grâce à la prospection géophysique de détail effectuée à l'aide de méthodes thermiques, de résistivité, sismiques et nucléaires. Les mesures effectuées ont permis de mettre en évidence que, dans les cinq éboulis étudiés, la répartition du pergélisol est discontinue et aucun des versants n'est intégralement occupé par du pergélisol. En particulier, il a été possible de prouver de manière directe que, dans un éboulis, le pergélisol est présent dans les parties inférieures du versant et absent dans les parties supérieures. Trois facteurs de contrôle principaux de la répartition du pergélisol déterminée au sein des éboulis étudiés ont été individualisés, pouvant agir seuls ou de manière combinée : la ventilation ascendante, l'augmentation de la granulométrie en direction de l'aval et la redistribution de la neige par le vent et les avalanches. Parmi ceux-ci, la relation ventilation - granulométrie semble être le facteur de contrôle principal permettant d'expliquer la présence de pergélisol dans les parties inférieures d'un éboulis et son absence dans les parties supérieures. Enfin, l'analyse de la structure des éboulis périglaciaires de haute altitude a permis de montrer que la stratigraphie du pergélisol peut être un élément important pour l'interprétation de la signification paléoclimatique de ce type de formes. Pour le deuxième volet de la recherche, grâce aux datations relatives effectuées à l'aide de l'utilisation conjointe de la méthode paléogéographique et du marteau de Schmidt, il a été possible de définir la chrono - stratigraphie du retrait glaciaire et du développement des glaciers rocheux et des versants d'éboulis d es quatre régions des Alpes suisses étudiées (régions du Mont Gelé - Mont Fort, des Fontanesses et de Chamosentse , dans les Alpes Valaisannes, et Massif de la Cima di Gana Bianca , dans les Alpes Tessinoises). La compilation de toutes les datations effectuées a permis de montrer que la plupart des glaciers rocheux actifs étudiés se seraient développés soit juste avant et/ou pendant l'Optimum Climatique Holocène de 9.5 - 6.3 ka cal BP, soit au plus tard juste après cet évènement climatique majeur du dernier interglaciaire. Parmi les glaciers rocheux fossiles datés, la plupart aurait commencé à se former dans la deuxième moitié du Tardiglaciaire et se serait inactivé dans la première partie de l'Optimum Climatique Holocène. Pour les éboulis étudiés, les datations effectuées ont permis d'observer que leur surface date de la période entre le Boréal et l'Atlantique récent, indiquant que les taux d'éboulisation après la fin de l'Optimum Climatique Holocène ont dû être faibles, et que l'intervalle entre l'âge maximal et l'âge minimal est dans la plupart des cas relativement court (4 - 6 millénaires), indiquant que les taux d'éboulisation durant la période de formation des éboulis ont dû être importants. Grâce au calcul des taux d'érosion des parois rocheuses sur la base du volume de matériaux rocheux pour quatre des éboulis étudiés, il a été possible mettre en évidence l'existence d'une « éboulisation parapériglaciaire » liée à la dégradation du pergélisol dans les parois rocheuses, fonctionnant principalement durant les périodes de réchauffement climatique rapide comme cela a été le cas au début du Bølling, du Préboréal à la fin de l'Atlantique récent et, peut-être, à partir des années 1980.
Resumo:
RESUME BUT Cette étude a été menée sur le suivi de patients traités pour un glioblastome nouvellement diagnostiqué. Son objectif a été de déterminer l'impact des séquences de perfusion et de diffusion en imagerie par résonance magnétique (IRM). Un intérêt particulier a été porté au potentiel de ces nouvelles techniques d'imagerie dans l'anticipation de la progression de la maladie. En effet, l'intervalle de temps libre de progression est une mesure alternative de pronostic fréquemment utilisée. MATERIEL ET METHODE L'étude a porté sur 41 patients participant à un essai clinique de phase II de traitement par temozolomide. Leur suivi radiologique a comporté un examen IRM dans les 21 à 28 jours après radiochimiothérapie et tous les 2 mois par la suite. L'évaluation des images s'est faite sur la base de l'évaluation de l'effet de masse ainsi que de la mesure de la taille de la lésion sur les images suivantes : T1 avec produit de contraste, T2, diffusion, perfusion. Afin de déterminer la date de progression de la maladie, les critères classiques de variation de taille adjoints aux critères cliniques habituels ont été utilisés. RESULAT 311 examens IRM ont été revus. Au moment de la progression (32 patients), une régression multivariée selon Cox a permis de déterminer deux paramètres de survie : diamètre maximal en T1 (p>0.02) et variation de taille en T2 (p<0.05). L'impact de la perfusion et de la diffusion n'a pas été démontré de manière statistiquement significative. CONCLUSION Les techniques de perfusion et de diffusion ne peuvent pas être utilisées pour anticiper la progression tumorale. Alors que la prise de décision au niveau thérapeutique est critique au moment de la progression de la maladie, l'IRM classique en T1 et en T2 reste la méthode d'imagerie de choix. De manière plus spécifique, une prise de contraste en T1 supérieure à 3 cm dans son plus grand diamètre associée à un hypersignal T2 en augmentation forment un marqueur de mauvais pronostic.
Resumo:
Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.
Resumo:
Par le biais d'une procédure Test-Retest, la stabilité à long terme des indices standard du WISC-IV français a été évaluée. L'intervalle moyen entre les deux passations est de 2,33 ans. L'échantillon comprend 96 enfants « tout venant » âgés de huit à 12 ans. Les comparaisons entre les moyennes des deux passations ne montrent pas de différence significative pour indice de compréhension verbale (ICV), indice de raisonnement perceptif (IRP), indice de mémoire de travail (IMT), indice d'aptitude générale (IAG) et QIT. Au niveau interindividuel, les coefficients de corrélations témoignent d'une bonne stabilité à long terme pour ICV, IAG et QIT (allant de 0,81 à 0,82). Une analyse des différences de performances entre les deux passations indique une stabilité intra-individuelle satisfaisante pour IMT et IAG. Seul IAG présente donc une stabilité à long terme satisfaisante au niveau inter- et intra-individuel. By a Test-Retest procedure, this study explores the long-term stability of the French WISC-IV index scores. The average Test-Retest interval was 2.33 years. The sample consisted of 96 non-clinical children aged between 8 and 12 years. Mean difference between the two testings was not statistically significant for VCI, PRI, WMI, GAI and FSIQ. Test-Retest reliability correlations between the two assessments are high for VCI, GAI and FSIQ (ranging from .81 to .82). An analysis of the performance differences between two assessments indicates intra-individual stability for WMI and GAI. In sum, only GAI demonstrates reliable long-term stability at an inter-and intra-individual level.
Resumo:
Cet article se veut une revue des effets ergogéniques et potentiellement délétères des principaux compléments alimentaires consommés par les sportifs populaires ou d'élite. De nombreux produits sont proposés sur le marché avec des allégations prometteuses, le plus souvent sans preuve scientifique sur leur validité ou leur innocuité. Les antioxydants n'augmentent ni la force ni l'endurance. La créatine améliore la capacité de récupération pour les exercices en intervalle anaérobie mais pas en course à pied ni en natation. L'hormone de croissance et les stéroïdes anabolisants augmentent la synthèse protéique et la masse maigre mais comportent des effets secondaires graves et souvent irréversibles. Les médecins, les diététiciens et les fédérations sportives ont un rôle important à jouer dans l'information et la prévention, afin d'éviter des attitudes néfastes pour la santé, pouvant même créer des addictions. This article reviews the evidence-based ergogenic potential adverse effects of the most common products in use by recreational and elite athletes today. This is an aggressively marketed and controversial area of sports medicine wordwide. It is therefore important for the scientific societies, clinicians, dieticians sports federations to be well versed in the more popular supplements and drugs in order to have an important role in information and prevention attitudes that can lead to health risks or addictions!