999 resultados para Amélioration de la performance
Resumo:
Se determinaron modelos estadísticos estimados por regresión lineal simple y múltiple que tratan de explicar la performance y geometría de la red.
Resumo:
Summary : With regard to exercise metabolism, lactate was long considered as a dead-end waste product responsible for muscle fatigue and a limiting factor for motor performance. However, a large body of evidence clearly indicates that lactate is an energy efficient metabolite able to link the glycolytic pathway with aerobic metabolism and has endocrine-like actions, rather than to be a dead-end waste product. Lactate metabolism is also known to be quickly upregulated by regular endurance training and is thought to be related to exercise performance. However, to what extent its modulation can increase exercise performance in already endurance-trained subjects is unknown. The general hypothesis of this work was therefore that increasing either lactate metabolic clearance rate or lactate availability could, in turn, increase endurance performance. The first study (Study I) aimed at increasing the lactate clearance rate by means of assumed interaction effects of endurance training and hypoxia on lactate metabolism and endurance performance. Although this study did not demonstrate any interaction of training and hypoxia on both lactate metabolism and endurance performance, a significant deleterious effect of endurance training in hypoxia was shown on glucose homeostasis. The methods used to determine lactate kinetics during exercise exhibited some limitations, and the second study did delineate some of the issues raised (Study 2). The third study (Study 3) investigated the metabolic and performance effects of increasing plasma lactate production and availability during prolonged exercise in the fed state. A nutritional intervention was used for this purpose: part of glucose feedings ingested during the control condition was substituted by fructose. The results of this study showed a significant increase of lactate turnover rate, quantified the metabolic fate of fructose; and demonstrated a significant decrease of lipid oxidation and glycogen breakdown. In contrast, endurance performance appeared to be unmodified by this dietary intervention, being at odds with recent reports. Altogether the results of this thesis suggest that in endurance athletes the relationship between endurance performance and lactate turnover rate remains unclear. Nonetheless, the result of the present study raises questions and opens perspectives on the rationale of using hypoxia as a therapeutic aid for the treatment of insulin resistance. Moreover, the results of the second study open perspectives on the role of lactate as an intermediate metabolite and its modulatory effects on substrate metabolism during exercise. Additionally it is suggested that the simple nutritional intervention used in the third study can be of interest in the investigation on the aforementioned roles of lactate. Résumé : Lorsque le lactate est évoqué en rapport avec l'exercice, il est souvent considéré comme un déchet métabolique responsable de l'acidose métabolique, de la fatigue musculaire ou encore comme un facteur limitant de la performance. Or la littérature montre clairement que le lactate se révèle être plutôt un métabolite utilisé efficacement par de nombreux tissus par les voies oxydatives et, ainsi, il peut être considéré comme un lien entre le métabolisme glycolytique et le métabolisme oxydatif. De plus on lui prête des propriétés endocrines. Il est connu que l'entraînement d'endurance accroît rapidement le métabolisme du lactate, et il est suggéré que la performance d'endurance est liée à son métabolisme. Toutefois la relation entre le taux de renouvellement du lactate et la performance d'endurance est peu claire, et, de même, de quelle manière la modulation de son métabolisme peut influencer cette dernière. Le but de cette thèse était en conséquence d'investiguer de quelle manière et à quel degré l'augmentation du métabolisme du lactate, par l'augmentation de sa clearance et de son turnover, pouvait à son tour améliorer la performance d'endurance de sujets entraînés. L'objectif de la première étude a été d'augmenter la clearance du lactate par le biais d'un entraînement en conditions hypoxiques chez des cyclistes d'endurance. Basé sur la littérature scientifique existante, on a fait l'hypothèse que l'entraînement d'endurance et l'hypoxie exerceraient un effet synergétique sur le métabolisme du lactate et sur la performance, ce qui permettrait de montrer des relations entre performance et métabolisme du lactate. Les résultats de cette étude n'ont montré aucun effet synergique sur la performance ou le métabolisme du lactate. Toutefois, un effet délétère sur le métabolisme du glucose a été démontré. Quelques limitations de la méthode employée pour la mesure du métabolisme du lactate ont été soulevées, et partiellement résolues dans la seconde étude de ce travail, qui avait pour but d'évaluer la sensibilité du modèle pharmacodynamique utilisé pour le calcul du turnover du lactate. La troisième étude a investigué l'effet d'une augmentation de la lactatémie sur le métabolisme des substrats et sur la performance par une intervention nutritionnelle substituant une partie de glucose ingéré pendant l'exercice par du fructose. Les résultats montrent que les composants dynamiques du métabolisme du lactate sont significativement augmentés en présence de fructose, et que les oxydations de graisse et de glycogène sont significativement diminuées. Toutefois aucun effet sur la performance n'a été démontré. Les résultats de ces études montrent que la relation entre le métabolisme du lactate et la performance reste peu claire. Les résultats délétères de la première étude laissent envisager des pistes de travail, étant donné que l'entraînement en hypoxie est considéré comme outil thérapeutique dans le traitement de pathologies liées à la résistance à l'insuline. De plus les résultats de la troisième étude ouvrent des perspectives de travail quant au rôle du lactate comme intermédiaire métabolique durant l'exercice ainsi que sur ses effets directs sur le métabolisme. Ils suggèrent de plus que la manipulation nutritionnelle simple qui a été utilisée se révèle être un outil prometteur dans l'étude des rôles et effets métaboliques que peut revêtir le lactate durant l'exercice.
Resumo:
L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.
Resumo:
Plusieurs infirmières pratiquant dans les centres d'hébergement se questionnent sur la pertinence d'utiliser systématiquement certaines échelles de mesure. Elles sont d'avis que l'utilisation ou les modalités entourant l'usage de ces échelles augmentent surtout leur charge de travail et ne contribuent pas toujours à l'amélioration de la qualité des soins. Face à cette préoccupation, la communauté de pratique de la Faculté des sciences infirmières de l'Université Laval sur les soins à l'aîné en centre d'hébergement (CP-FSI) a voulu explorer les fondements à la base des recommandations de ces différents instruments de mesure en l'occurrence l'échelle du risque de plaie de pression de Braden et les échelles d'évaluation des risques de chute. Un examen de la littérature scientifique et l'analyse de données empiriques amènent à la conclusion que l'utilisation systématique de ces échelles alourdit en effet la tâche des infirmières. Qui plus est, le jugement clinique infirmier est équivalent ou supérieur à l'utilisation de ces échelles. La CP-FSI conclut à l'importance de modifier les recommandations sur l'usage systématique de ces échelles et de plutôt valoriser le jugement clinique des infirmières.
Resumo:
Introduction Les interventions proposées pour promouvoir les directives anticipées (D.A.) n'ont que partiellement atteint leurs objectifs malgré les bénéfices anticipés. L'expérience internationale montre que, quand bien même l'institutionnalisation des D.A. est importante, les pratiques n'ont que peu évolué au cours des trois dernières décennies avec un taux de rédaction entre 15 à 30 %, variant modestement selon les publics, contextes et stratégies. Ce constat nécessite un changement de paradigme car la question des D.A. a trop fréquemment été conçue dans la perspective d'une allocation de ressources, avec une sélection de traitements à envisager en fonction de l'état de santé. Le déplacement souhaité implique de mettre en oeuvre une intervention de type Planification Anticipée du Projet Thérapeutique (P.A.P.T), centrée sur les objectifs et finalités des soins, selon les valeurs et priorités singulières à chaque patient. But L'étude pilote a permis dans un premier temps de développer et tester l'effet d'une intervention de P.A.P.T. menée par une infirmière auprès de résidants nouvellement admis en établissement médico-social (EMS) et de leurs proches significatifs. Dans un deuxième temps, la faisabilité et l'acceptabilité de cette intervention infirmière pour cette population spécifique a été évaluée. Méthode Au total 44 dyades (âge résidants M = 85,01 ans et proches M = 57,42) ont été recrutées pour participer entre mai 2011 et mai 2012 avec un suivi sur six mois dès l'admission du résidant. Un devis pré-post à groupe unique a évalué la qualité de la communication avec l'infirmière sur les soins à la fin de la vie (résidant/proche), les préférences et options de soins (résidant/proche) et la perception du fardeau chez le proche à l'entrée dans l'étude (semaine 5) et trois mois après l'intervention (semaine 25 après l'admission). L'intervention de P.A.P.T. sous forme de trois entretiens a été conduite par l'infirmière, durant le premier trimestre (semaines 6 à 13). Elle a pris connaissance de l'histoire de vie, des croyances et valeurs générales du résidant, clarifié les dix priorités jugées les plus importantes à la fin de sa vie sélectionnées et classées à l'aide d'un jeu de cartes ; elle a identifié, chez le proche, les représentations qu'il se faisait des préférences du résidant et discuté les options de soins au sein de la dyade. Après l'intervention, l'existence de traces dans les dossiers sur les priorités et souhaits de soins ainsi que la présence de D.A. rédigées ont été colligées. Des analyses descriptives et bivariées des données ont été effectuées. Résultats Aucune différence significative n'a été retrouvée après l'intervention par rapport à la qualité de la communication avec l'infirmière sur les soins à la fin de la vie chez le résidant (p = 0,32) et la similitude globale dans la dyade vis-à-vis des options de soins (p = 0,50). La concordance (degré d'accord mesuré avec l'indice K) entre résidant et proche par scénario vis-à-vis des options de soins s'est améliorée pour un des cinq scénarios et a diminué pour les quatre autres (p < 0,001). Pour le proche il a été constaté une amélioration de la qualité de la communication avec l'infirmière (p = 0,000) et de la perception du fardeau global (p - 0,007). Des traces de la P.A.P.T. ont été identifiées dans deux tiers des dossiers alors que des D.A. sont signalées pour 11 résidants. L'intervention s'est avérée faisable et a été bien acceptée par les dyades et les infirmières ayant conduit les entretiens. Conclusion L'intervention infirmière de P.A.P.T. en EMS parait efficace surtout auprès du proche. D'autres études interventionnelles à large échelle sont nécessaires pour confirmer ces résultats préliminaires chez la dyade.
Resumo:
Dans les sociétés contemporaines axées sur le savoir, plus grande sera la proportion de leur population détentrice d'une formation supérieure et engagée en recherche, plus avancé sera leur développement économique et social.1,2 Par contre, dans ces sociétés, le vieillissement de la population, l'importance ccordée aux soins de santé axés sur les maladies chroniques et les coûts financiers de ceux-ci exercent une forte pression sur les systèmes de santé. Les nterventions doivent donc être les plus efficaces possible, avec un rapport coût/efficacité optimal. Cela requiert que les infirmières soient capables d'oeuvrer en pratique avancée, c'est-à-dire capables de développer, implémenter et évaluer des approches cliniques infirmières basées sur des preuves, de tester de nouvelles interventions potentiellement plus efficientes et de promouvoir un programme de recherche portant explicitement sur l'amélioration de la qualité et sécurité des soins en contexte d'interdisciplinarité.
Resumo:
Cette thèse explore dans quelle mesure la poursuite d'un but de performance-approche (i.e., le désir de surpasser autrui et de démontrer ses compétences) favorise, ou au contraire endommage, la réussite et l'apprentissage-une question toujours largement débattue dans la littérature. Quatre études menées en laboratoire ont confirmé cette hypothèse et démontré que la poursuite du but de performance-approche amène les individus à diviser leur attention entre d'une part la réalisation de la tâche évaluée, et d'autre part la gestion de préoccupations liées à l'atteinte du but-ceci empêchant une concentration efficace sur les processus de résolution de la tâche. Dans une deuxième ligne de recherche, nous avons ensuite démontré que cette distraction est exacerbée chez les individus les plus performants et ayant le plus l'habitude de réussir, ceci dérivant d'une pression supplémentaire liée au souhait de maintenir le statut positif de « bon élève ». Enfin, notre troisième ligne de recherche a cherché à réconcilier ces résultats-pointant l'aspect distractif du but de performance-approche-avec le profil se dégageant des études longitudinales rapportées dans la littérature-associant ce but avec la réussite académique. Ainsi, nous avons mené une étude longitudinale testant si l'adoption du but de performance-approche en classe pourrait augmenter la mise en oeuvre de stratégies d'étude tactiquement dirigées vers la performance-favorisant une réussite optimale aux tests. Nos résultats ont apporté des éléments en faveur de cette hypothèse, mais uniquement chez les élèves de bas niveau. Ainsi, l'ensemble de nos résultats permet de mettre en lumière les processus cognitifs à l'oeuvre lors de la poursuite du but de performance-approche, ainsi que d'alimenter le débat concernant leur aspect bénéfique ou nuisible en contexte éducatif. -- In this dissertation, we propose to investigate whether the pursuit of performance-approach goals (i.e., the desire to outperform others and appear talented) facilitates or rather endangers achievement and learning-an issue that is still widely discussed in the achievement goal literature. Four experiments carried out in a laboratory setting have provided evidence that performance- approach goals create a divided-attention situation that leads cognitive resources to be divided between task processing and the activation of goal-attainment concerns-which jeopardizes full cognitive immersion in the task. Then, in a second research line, we found evidence that high- achievers (i.e., those individuals who are the most used to succeed) experience, under evaluative contexts, heightened pressure to excel at the task, deriving from concerns associated with the preservation of their "high-achiever" status. Finally, a third research line was designed to try to reconcile results stemming from our laboratory studies with the overall profile emerging from longitudinal research-which have consistently found performance-approach goals to be a positive predictor of students' test scores. We thus set up a longitudinal study so as to test whether students' adoption of performance-approach goals in a long-term classroom setting enhances the implementation of strategic study behaviors tactically directed toward goal-attainment, hence favoring test performance. Our findings brought support for this hypothesis, but only for low-achieving students. Taken together, our findings shed new light on the cognitive processes at play during the pursuit of performance-approach goals, and are likely to fuel the debate regarding whether performance-approach goals should be encouraged or not in educational settings.
Resumo:
Le diabète de type 2 est une maladie fréquente et en augmentation dans le monde entier. Malheureusement, elle est souvent diagnostiquée à un stade ou des complications sont déjà apparues. Depuis quelques années, des scores ont été développés pour identifier les sujets à risque de développer cette maladie. L'utilisation d'un tel score par le praticien pourrait amener ces patients à des mesures préventives, telles que le changement d'hygiène de vie, ou la prescription d'un traitement médicamenteux. Le but de notre étude est de comparer et de valider différents scores de risques de diabète de type 2 et de déterminer leur capacité à prédire la survenue de cette maladie dans la population de la cohorte CoLaus. Les premiers résultats, en étude transversale, ont tout d'abord montré de grandes différences quant à la population à risque d'un score à l'autre. En effet, le nombre de personnes à traiter varie considérablement selon la méthode utilisée. Ces différents scores ont donc nécessité une validation prospective. Ces résultats ont fait l'objet d'une publication (Schmid et col, Diabetes Care. 2011 Aug;34(8):1863-8). Au moyen des données du suivi à 5 ans, il est sorti qu'un score de risque utilisant des variables biologiques et cliniques, ainsi qu'un score utilisant des variables uniquement cliniques, obtenaient de très bon résultats quant à la prédiction du diabète de type 2. En effet, un des scores testés donne une valeur prédictive positive d'environ 20% à 5 ans, ce qui signifie qu'un patient « détecté » sur 5 pourrait bénéficier d'une intervention précoce. Toutefois, ces résultats concernent la population lausannoise et ne sont donc pas forcément applicables à l'ensemble de la population suisse. De plus, de plus amples études sont nécessaires évaluer l'efficacité d'un tel score dans la prévention du diabète en Suisse. Ces résultats ont fait l'objet d'une seconde publication (Schmid et col, Arch Intern Med. 2012 Jan 23;172(2):188-9). Dans un troisième volet de l'étude, l'impact de marqueurs génétiques a été évalué dans un sous- groupe de la population CoLaus. Les résultats n'ont toutefois montré qu'une très faible amélioration de la prédiction du risque en utilisant ces marqueurs. Ceci devrait nous encourager à intensifier les efforts de prévention sur le style de vie pour toute la population, plutôt qu'une approche ciblée sur les personnes génétiquement prédisposées. Ces résultats ont fait l'objet d'une troisième publication (Schmid et col, J Clin Endocrinol Metab. 2012 Apr 24. [Epub ahead of print]). La même démarche méthodologique a été utilisée pour évaluer l'importance pronostique de plusieurs marqueurs inflammatoires (interleukines 1 et 6, Τ Ν F-, protéine C-réactive) hépatiques (GT) ou adipocytaires (leptine et adiponectine) dans la survenue du diabète. Ces résultats sont actuellement soumis au Journal of Clinical Endocrinology and Metabolism).
Resumo:
L'une des premières activités du groupe spécialisé "Global Health", créé au sein de la société de discipline médicale Santé Publique Suisse, a été de formuler une définition appropriée au contexte helvétique du terme de "Global Health" (santé globale). La "Global Health est un espace destiné à la recherche, à la pratique et aux règles y afférents, qui met la priorité sur l'amélioration de la santé, en général, et sur un accès équitable à la santé pour tous, en particulier. La Global Health répond aux questions de santé transnationales et s'intéresse aux déterminants et aux possibilités de solution. Elle implique beaucoup de disciplines, tant du secteur médical que d'autres domaines, promouvant ainsi la collaboration interdisciplinaire; elle encourage la bonne gouvernance pour anticiper et s'adapter à un environnement qui change rapidement ". A l'avenir, une plateforme sera créée dans le but d'offrir un accès aux expériences internationales et de les fructifier en Suisse mais aussi de partager les expériences acquises ici localement, avec des partenaires internationaux tels que les associations européenne et mondiale de santé publique. Last but not least, le groupe spécialisé susmentionné va plaider pour une compréhension large et commune de la Global Health.
Resumo:
L'article a été réalisé en collaboration avec Marie-Elise Verga, infirmière de recherche au DMCP, il a été publié dans les Archives de Pédiatrie, une revue française d'importance pour la profession en novembre 2013. L'impact factor de la revue est de 0.36. Ce travail est centré sur l'évaluation de l'impact d'une école de l'asthme chez l'enfant. L'asthme est la maladie chronique la plus fréquente chez l'enfant, sa prévalence est en augmentation dans le monde depuis plusieurs années. Son impact sur la vie des enfants atteints et de leur famille est important en termes d'absentéisme et de limitation dans les activités de la vie quotidienne. Selon différentes études, la connaissance de la maladie serait un pilier pour l'amélioration de son contrôle. Associée à des compétences personnelles et une médication optimale, elle diminuerait les absences scolaires, la survenue des crises et augmenterait la compliance au traitement. L'Ecole de l'Asthme de l'Hôpital de l'Enfance à Lausanne a été mise en place dans ce but, afin d'offrir, par une équipe pluridisciplinaire, des séances d'éducation thérapeutique tant aux enfants qu'à leur famille. Notre étude exploratoire a pour but d'évaluer l'effet de l'Ecole de l'Asthme sur la consommation en soins et la qualité de vie des enfants de 4 à 12 ans et de leurs parents. 27 enfants ont été inclus durant une année. La qualité de vie a été évaluée chez les enfants et leurs parents au moyen du Paediatric Asthma Quality of Life Questionnaire à l'inclusion et 6 mois plus tard. La consommation en soins a été évaluée sur une période d'un an avant et après l'Ecole de l'asthme par un questionnaire envoyé aux pédiatres. Il s'agit de la première étude de ce genre en Suisse et il y en a très peu à l'étranger. Elle démontre clairement une diminution de la consommation en soins que ce soit les rendez- vous chez le pédiatre, les consultations aux urgences et les hospitalisations. Une amélioration de la qualité de vie retrouvée tant chez les enfants que leurs parents a aussi été observée lors de notre étude. En donnant aux enfants et à leur famille des moyens de mieux gérer la maladie à domicile, l'Ecole de l'Asthme contribue à un meilleur contrôle de cette maladie. Ces premières conclusions valident l'importance d'évaluer cette prise en charge par des études prospectives randomisées. Il existe plusieurs perspectives à développer dans le prolongement de cette étude par exemple inclure des patients non francophones, sachant que les migrants représentent une part importante des consultations en urgences et que leur maladie asthmatique est souvent mal contrôlée. Il faudrait affiner les résultats en comparant nos résultats à ceux d'un groupe contrôle ou d'un groupe avec un enseignement individualisé. Un suivi sur 5 ans permettrait de voir l'impact à long terme. Le côté financier devrait être évalué afin de vérifier la diminution des coûts supposée en rapport à la diminution de la consommation en soins.
Resumo:
Résumé: La sélection des étudiants en médecine se fait à la Faculté de Médecine de Lausanne pendant les deux premières années du curriculum, sur la base d'examens portant sur les sciences de base. Le risque est par ce biais de privilégier le passage dans les années cliniques d'étudiants doués sur le plan scientifique, mais ne possédant pas nécessairement les qualités humaines que devrait avoir un bon médecin. La présente étude a porté sur une volée d'étudiants (n = 115) ayant réussi la première partie de l'examen final à la fin de la troisième année des études de médecine. A cette occasion les étudiants ont passé un examen oral de médecine psycho-sociale permettant d'évaluer leurs aptitudes à gérer la relation médecin- malade. Les notes obtenues à cet examen ont été mises en rapport avec celles obtenues en première année lors d'un examen écrit de physique et de physiologie. Les résultats ont montré que la performance à ces disciplines de base n'ont pas de valeur prédictive quant aux performances futures à l'examen de médecine psycho-sociale. Par ailleurs il est apparu que le type de maturité acquis pendant le gymnase n'a pas d'influence majeure sur la progression des étudiants pendant les années pré-cliniques des études de médecine.
Resumo:
The purpose of this dissertation is to better understand how individual employees? values and personality traits influence their attitudes toward market orientation; how such attitudes impact their market-oriented behaviors; and how in turn, these behaviors lead to their superior individual performance. To investigate these relationships, an empirical study was conducted in the French speaking part of Switzerland and data were collected from a sample of service firms? employees from diverse departments and hierarchical levels. To a large extent, the results support the hypothesis of a hierarchical chain moving from value / personality to attitude to behavior to individual performance in relation to market orientation. Le sujet de cette thèse de doctorat est de mieux comprendre comment les valeurs et les traits de personnalité des employés influencent leurs attitudes envers l'orientation vers le marché ; comment ces attitudes ont un effet sur les comportements orientés vers le marché de ces employés et enfin, comment ces comportements conduisent à une meilleure performance individuelle. Afin d'étudier ces relations, une enquête a été conduite en Suisse romande et des données ont été collectées auprès d'un échantillon d'employés d'entreprises de service de différents départements et niveaux hiérarchiques. Les résultats sont concordants avec l'hypothèse d'une chaîne causale allant des valeurs / traits de personnalité aux attitudes, aux comportements et finalement à la performance individuelle dans le contexte de l'orientation vers le marché.
Resumo:
Résumé: Les gouvernements des pays occidentaux ont dépensé des sommes importantes pour faciliter l'intégration des technologies de l'information et de la communication dans l'enseignement espérant trouver une solution économique à l'épineuse équation que l'on pourrait résumer par la célèbre formule " faire plus et mieux avec moins ". Cependant force est de constater que, malgré ces efforts et la très nette amélioration de la qualité de service des infrastructures, cet objectif est loin d'être atteint. Si nous pensons qu'il est illusoire d'attendre et d'espérer que la technologie peut et va, à elle seule, résoudre les problèmes de qualité de l'enseignement, nous croyons néanmoins qu'elle peut contribuer à améliorer les conditions d'apprentissage et participer de la réflexion pédagogique que tout enseignant devrait conduire avant de dispenser ses enseignements. Dans cette optique, et convaincu que la formation à distance offre des avantages non négligeables à condition de penser " autrement " l'enseignement, nous nous sommes intéressé à la problématique du développement de ce type d'applications qui se situent à la frontière entre les sciences didactiques, les sciences cognitives, et l'informatique. Ainsi, et afin de proposer une solution réaliste et simple permettant de faciliter le développement, la mise-à-jour, l'insertion et la pérennisation des applications de formation à distance, nous nous sommes impliqué dans des projets concrets. Au fil de notre expérience de terrain nous avons fait le constat que (i)la qualité des modules de formation flexible et à distance reste encore très décevante, entre autres parce que la valeur ajoutée que peut apporter l'utilisation des technologies n'est, à notre avis, pas suffisamment exploitée et que (ii)pour réussir tout projet doit, outre le fait d'apporter une réponse utile à un besoin réel, être conduit efficacement avec le soutien d'un " champion ". Dans l'idée de proposer une démarche de gestion de projet adaptée aux besoins de la formation flexible et à distance, nous nous sommes tout d'abord penché sur les caractéristiques de ce type de projet. Nous avons ensuite analysé les méthodologies de projet existantes dans l'espoir de pouvoir utiliser l'une, l'autre ou un panachage adéquat de celles qui seraient les plus proches de nos besoins. Nous avons ensuite, de manière empirique et par itérations successives, défini une démarche pragmatique de gestion de projet et contribué à l'élaboration de fiches d'aide à la décision facilitant sa mise en oeuvre. Nous décrivons certains de ses acteurs en insistant particulièrement sur l'ingénieur pédagogique que nous considérons comme l'un des facteurs clé de succès de notre démarche et dont la vocation est de l'orchestrer. Enfin, nous avons validé a posteriori notre démarche en revenant sur le déroulement de quatre projets de FFD auxquels nous avons participé et qui sont représentatifs des projets que l'on peut rencontrer dans le milieu universitaire. En conclusion nous pensons que la mise en oeuvre de notre démarche, accompagnée de la mise à disposition de fiches d'aide à la décision informatisées, constitue un atout important et devrait permettre notamment de mesurer plus aisément les impacts réels des technologies (i) sur l'évolution de la pratique des enseignants, (ii) sur l'organisation et (iii) sur la qualité de l'enseignement. Notre démarche peut aussi servir de tremplin à la mise en place d'une démarche qualité propre à la FFD. D'autres recherches liées à la réelle flexibilisation des apprentissages et aux apports des technologies pour les apprenants pourront alors être conduites sur la base de métriques qui restent à définir. Abstract: Western countries have spent substantial amount of monies to facilitate the integration of the Information and Communication Technologies (ICT) into Education hoping to find a solution to the touchy equation that can be summarized by the famous statement "do more and better with less". Despite these efforts, and notwithstanding the real improvements due to the undeniable betterment of the infrastructure and of the quality of service, this goal is far from reached. Although we think it illusive to expect technology, all by itself, to solve our economical and educational problems, we firmly take the view that it can greatly contribute not only to ameliorate learning conditions but participate to rethinking the pedagogical approach as well. Every member of our community could hence take advantage of this opportunity to reflect upon his or her strategy. In this framework, and convinced that integrating ICT into education opens a number of very interesting avenues provided we think teaching "out of the box", we got ourself interested in courseware development positioned at the intersection of didactics and pedagogical sciences, cognitive sciences and computing. Hence, and hoping to bring a realistic and simple solution that could help develop, update, integrate and sustain courseware we got involved in concrete projects. As ze gained field experience we noticed that (i)The quality of courseware is still disappointing, amongst others, because the added value that the technology can bring is not made the most of, as it could or should be and (ii)A project requires, besides bringing a useful answer to a real problem, to be efficiently managed and be "championed". Having in mind to propose a pragmatic and practical project management approach we first looked into open and distance learning characteristics. We then analyzed existing methodologies in the hope of being able to utilize one or the other or a combination to best fit our needs. In an empiric manner and proceeding by successive iterations and refinements, we defined a simple methodology and contributed to build descriptive "cards" attached to each of its phases to help decision making. We describe the different actors involved in the process insisting specifically on the pedagogical engineer, viewed as an orchestra conductor, whom we consider to be critical to ensure the success of our approach. Last but not least, we have validated a posteriori our methodology by reviewing four of the projects we participated to and that we think emblematic of the university reality. We believe that the implementation of our methodology, along with the availability of computerized cards to help project managers to take decisions, could constitute a great asset and contribute to measure the technologies' real impacts on (i) the evolution of teaching practices (ii) the organization and (iii) the quality of pedagogical approaches. Our methodology could hence be of use to help put in place an open and distance learning quality assessment. Research on the impact of technologies to learning adaptability and flexibilization could rely on adequate metrics.
Resumo:
Cette thèse vise à apporter des éléments concrets permettant d'évaluer l'efficacité et la pertinence de la nouvelle gestion publique (NGP) dans le contexte de l'assurance-chômage en Suisse. Ancrée dans une approche des politiques publiques partant de ces dernières telles qu'elles sont mises en oeuvre plutôt que de ce qu'elles devraient être, elle s'attache à observer l'impact d'une catégorie spécifique d'instruments de gestion caractéristiques de la NGP, les instruments de redevabilité. La redevabilité désigne la nécessité ou l'obligation qu'ont des individus ou des organisations de rendre compte de leurs activités, d'en accepter la responsabilité et d'en exposer les résultats de façon transparente. À partir d'un matériau empirique constitué d'entretiens semi-directifs et d'observations participantes et non-participantes, complété par l'analyse d'un corpus documentaire varié, elle répond à cinq questions de recherche liant les agents de base, les managers qui les encadrent et les instruments gestionnaires de redevabilité. Ces questions concernent les effets réels, désirés ou non, des instruments gestionnaires encadrant la mise en oeuvre des politiques d'insertion socioprofessionnelle. Elles permettent également d'évaluer la pertinence des instruments de la NGP au regard de l'objectif général d'amélioration de la qualité du service aux usagers. En résumé, les instruments étudiés incitent les managers et les agents à la conformité (légale et budgétaire) et entraînent des conséquences inattendues limitant l'efficacité des interventions, ce qui met en question la pertinence du lien entre NGP et qualité du service rendu aux usagers. Les résultats obtenus font également ressortir l'importance d'étudier l'ensemble de la chaîne d'exécution des politiques publiques en tenant compte des interactions entre niveaux.
Resumo:
Atherosclerosis is a chronic cardiovascular disease that involves the thicken¬ing of the artery walls as well as the formation of plaques (lesions) causing the narrowing of the lumens, in vessels such as the aorta, the coronary and the carotid arteries. Magnetic resonance imaging (MRI) is a promising modality for the assessment of atherosclerosis, as it is a non-invasive and patient-friendly procedure that does not use ionizing radiation. MRI offers high soft tissue con¬trast already without the need of intravenous contrast media; while modifica¬tion of the MR pulse sequences allows for further adjustment of the contrast for specific diagnostic needs. As such, MRI can create angiographic images of the vessel lumens to assess stenoses at the late stage of the disease, as well as blood flow-suppressed images for the early investigation of the vessel wall and the characterization of the atherosclerotic plaques. However, despite the great technical progress that occurred over the past two decades, MRI is intrinsically a low sensitive technique and some limitations still exist in terms of accuracy and performance. A major challenge for coronary artery imaging is respiratory motion. State- of-the-art diaphragmatic navigators rely on an indirect measure of motion, per¬form a ID correction, and have long and unpredictable scan time. In response, self-navigation (SM) strategies have recently been introduced that offer 100% scan efficiency and increased ease of use. SN detects respiratory motion di¬rectly from the image data obtained at the level of the heart, and retrospectively corrects the same data before final image reconstruction. Thus, SN holds po-tential for multi-dimensional motion compensation. To this regard, this thesis presents novel SN methods that estimate 2D and 3D motion parameters from aliased sub-images that are obtained from the same raw data composing the final image. Combination of all corrected sub-images produces a final image with reduced motion artifacts for the visualization of the coronaries. The first study (section 2.2, 2D Self-Navigation with Compressed Sensing) consists of a method for 2D translational motion compensation. Here, the use of com- pressed sensing (CS) reconstruction is proposed and investigated to support motion detection by reducing aliasing artifacts. In healthy human subjects, CS demonstrated an improvement in motion detection accuracy with simula¬tions on in vivo data, while improved coronary artery visualization was demon¬strated on in vivo free-breathing acquisitions. However, the motion of the heart induced by respiration has been shown to occur in three dimensions and to be more complex than a simple translation. Therefore, the second study (section 2.3,3D Self-Navigation) consists of a method for 3D affine motion correction rather than 2D only. Here, different techniques were adopted to reduce background signal contribution in respiratory motion tracking, as this can be adversely affected by the static tissue that surrounds the heart. The proposed method demonstrated to improve conspicuity and vi¬sualization of coronary arteries in healthy and cardiovascular disease patient cohorts in comparison to a conventional ID SN method. In the third study (section 2.4, 3D Self-Navigation with Compressed Sensing), the same tracking methods were used to obtain sub-images sorted according to the respiratory position. Then, instead of motion correction, a compressed sensing reconstruction was performed on all sorted sub-image data. This process ex¬ploits the consistency of the sorted data to reduce aliasing artifacts such that the sub-image corresponding to the end-expiratory phase can directly be used to visualize the coronaries. In a healthy volunteer cohort, this strategy improved conspicuity and visualization of the coronary arteries when compared to a con¬ventional ID SN method. For the visualization of the vessel wall and atherosclerotic plaques, the state- of-the-art dual inversion recovery (DIR) technique is able to suppress the signal coming from flowing blood and provide positive wall-lumen contrast. How¬ever, optimal contrast may be difficult to obtain and is subject to RR variability. Furthermore, DIR imaging is time-inefficient and multislice acquisitions may lead to prolonged scanning times. In response and as a fourth study of this thesis (chapter 3, Vessel Wall MRI of the Carotid Arteries), a phase-sensitive DIR method has been implemented and tested in the carotid arteries of a healthy volunteer cohort. By exploiting the phase information of images acquired after DIR, the proposed phase-sensitive method enhances wall-lumen contrast while widens the window of opportunity for image acquisition. As a result, a 3-fold increase in volumetric coverage is obtained at no extra cost in scanning time, while image quality is improved. In conclusion, this thesis presented novel methods to address some of the main challenges for MRI of atherosclerosis: the suppression of motion and flow artifacts for improved visualization of vessel lumens, walls and plaques. Such methods showed to significantly improve image quality in human healthy sub¬jects, as well as scan efficiency and ease-of-use of MRI. Extensive validation is now warranted in patient populations to ascertain their diagnostic perfor¬mance. Eventually, these methods may bring the use of atherosclerosis MRI closer to the clinical practice. Résumé L'athérosclérose est une maladie cardiovasculaire chronique qui implique le épaississement de la paroi des artères, ainsi que la formation de plaques (lé¬sions) provoquant le rétrécissement des lumières, dans des vaisseaux tels que l'aorte, les coronaires et les artères carotides. L'imagerie par résonance magné¬tique (IRM) est une modalité prometteuse pour l'évaluation de l'athérosclérose, car il s'agit d'une procédure non-invasive et conviviale pour les patients, qui n'utilise pas des rayonnements ionisants. L'IRM offre un contraste des tissus mous très élevé sans avoir besoin de médias de contraste intraveineux, tan¬dis que la modification des séquences d'impulsions de RM permet en outre le réglage du contraste pour des besoins diagnostiques spécifiques. À ce titre, l'IRM peut créer des images angiographiques des lumières des vaisseaux pour évaluer les sténoses à la fin du stade de la maladie, ainsi que des images avec suppression du flux sanguin pour une première enquête des parois des vais¬seaux et une caractérisation des plaques d'athérosclérose. Cependant, malgré les grands progrès techniques qui ont eu lieu au cours des deux dernières dé¬cennies, l'IRM est une technique peu sensible et certaines limitations existent encore en termes de précision et de performance. Un des principaux défis pour l'imagerie de l'artère coronaire est le mou¬vement respiratoire. Les navigateurs diaphragmatiques de pointe comptent sur une mesure indirecte de mouvement, effectuent une correction 1D, et ont un temps d'acquisition long et imprévisible. En réponse, les stratégies d'auto- navigation (self-navigation: SN) ont été introduites récemment et offrent 100% d'efficacité d'acquisition et une meilleure facilité d'utilisation. Les SN détectent le mouvement respiratoire directement à partir des données brutes de l'image obtenue au niveau du coeur, et rétrospectivement corrigent ces mêmes données avant la reconstruction finale de l'image. Ainsi, les SN détiennent un poten¬tiel pour une compensation multidimensionnelle du mouvement. A cet égard, cette thèse présente de nouvelles méthodes SN qui estiment les paramètres de mouvement 2D et 3D à partir de sous-images qui sont obtenues à partir des mêmes données brutes qui composent l'image finale. La combinaison de toutes les sous-images corrigées produit une image finale pour la visualisation des coronaires ou les artefacts du mouvement sont réduits. La première étude (section 2.2,2D Self-Navigation with Compressed Sensing) traite d'une méthode pour une compensation 2D de mouvement de translation. Ici, on étudie l'utilisation de la reconstruction d'acquisition comprimée (compressed sensing: CS) pour soutenir la détection de mouvement en réduisant les artefacts de sous-échantillonnage. Chez des sujets humains sains, CS a démontré une amélioration de la précision de la détection de mouvement avec des simula¬tions sur des données in vivo, tandis que la visualisation de l'artère coronaire sur des acquisitions de respiration libre in vivo a aussi été améliorée. Pourtant, le mouvement du coeur induite par la respiration se produit en trois dimensions et il est plus complexe qu'un simple déplacement. Par conséquent, la deuxième étude (section 2.3, 3D Self-Navigation) traite d'une méthode de cor¬rection du mouvement 3D plutôt que 2D uniquement. Ici, différentes tech¬niques ont été adoptées pour réduire la contribution du signal du fond dans le suivi de mouvement respiratoire, qui peut être influencé négativement par le tissu statique qui entoure le coeur. La méthode proposée a démontré une amélioration, par rapport à la procédure classique SN de correction 1D, de la visualisation des artères coronaires dans le groupe de sujets sains et des pa¬tients avec maladies cardio-vasculaires. Dans la troisième étude (section 2.4,3D Self-Navigation with Compressed Sensing), les mêmes méthodes de suivi ont été utilisées pour obtenir des sous-images triées selon la position respiratoire. Au lieu de la correction du mouvement, une reconstruction de CS a été réalisée sur toutes les sous-images triées. Cette procédure exploite la cohérence des données pour réduire les artefacts de sous- échantillonnage de telle sorte que la sous-image correspondant à la phase de fin d'expiration peut directement être utilisée pour visualiser les coronaires. Dans un échantillon de volontaires en bonne santé, cette stratégie a amélioré la netteté et la visualisation des artères coronaires par rapport à une méthode classique SN ID. Pour la visualisation des parois des vaisseaux et de plaques d'athérosclérose, la technique de pointe avec double récupération d'inversion (DIR) est capa¬ble de supprimer le signal provenant du sang et de fournir un contraste posi¬tif entre la paroi et la lumière. Pourtant, il est difficile d'obtenir un contraste optimal car cela est soumis à la variabilité du rythme cardiaque. Par ailleurs, l'imagerie DIR est inefficace du point de vue du temps et les acquisitions "mul- tislice" peuvent conduire à des temps de scan prolongés. En réponse à ce prob¬lème et comme quatrième étude de cette thèse (chapitre 3, Vessel Wall MRI of the Carotid Arteries), une méthode de DIR phase-sensitive a été implémenté et testé