432 resultados para raison systémique
Resumo:
Introduction La dystrophie musculaire de Duchenne (DMD) est une myopathie progressive liée au chromosome X qui atteint environ un garçon sur 3500. Des troubles du sommeil (TDS) sont fréquemment rapportés par ces patients Les études effectuées à ce jour se sont essentiellement concentrées sur les troubles respiratoires liés au sommeil. Les TDS débutent toutefois fréquemment avant l'installation d'un trouble ventilatoire nocturne et de nombreux autres facteurs peuvent en être la cause. Objectif L'objectif de cette étude est d'évaluer la fréquence des TDS chez les garçons avec une DMD et d'en identifier les facteurs de risque. Méthode II s'agit d'une étude transversale effectuée par questionnaire postal adressé aux parents de tout garçon âgé de 4-18 ans avec une DMD, suivi dans deux centres tertiaires de réhabilitation pédiatrique (Lausanne et Dublin). Les TDS sont évalués à l'aide de la 'Sleep Disturbance Scale for Children' (SDSC), validée sur 1157 enfants sains. Elle permet d'obtenir un score total et des scores pour six facteurs représentant les TDS les plus fréquents (troubles de l'endormissement et du maintien du sommeil (TEMS), éveil nocturne-cauchemars, transition veille-sommeil, somnolence diurne excessive, troubles respiratoires associés au sommeil (TRS), hyperhidrose du sommeil). Un T- score supérieur à 70 (>2DS) est considéré comme pathologique. Les associations potentielles entre des scores pathologiques et des facteurs individuels (âge, mobilité diurne et nocturne, douleur), thérapeutiques (orthèses nocturnes, ventilation non-invasive, médication) et environnementaux (facteurs socio-familiaux) sont évaluées à l'aide d'analyses univariées (χ2) et de régressions logistiques ascendantes. Résultats Seize garçons sur 63, soit 25.4%, présentent un score total pathologique en comparaison au 3% attendus dans la population générale. Les TEMS (29.7%), les TRS (15.6%) et l'hyperhidrose du sommeil (14.3%) sont les TDS les plus prévalent. Le besoin d'être mobilisé la nuit par un tiers (OR=9.4; 95%CI: 2.2-40.7; p=0.003) et être l'enfant d'une famille monoparentale (OR=7.2; 95%CI: 1.5-35.1; p=0.015) sont des facteurs de risque indépendants pour un score total pathologique. Le besoin d'être mobilisé la nuit par un tiers (OR=18.0; 95%CI: 2.9¬110.6; p=0.002), le traitement par corticostéroïdes (OR=7.7; 95%CI: 1.4-44.0; p-0.021) et être l'enfant d'une famille monoparentale (OR=7.0; 95%CI: 1.3-38.4; p=0.025) sont des facteurs de risque indépendants pour un TEMS. Discussion Cette étude montre une prévalence élevée des TDS chez les garçons avec une DMD (25% contre 3% attendus dans la population générale). Le besoin d'être mobilisé la nuit par un tiers est identifié comme un facteur de risque important pour un score total pathologique et un TEMS. Il reflète vraisemblablement un degré d'atteinte motrice tel qu'il limite les mouvements spontanés et les adaptations posturales du sommeil, ayant pour conséquence une diminution importante de la qualité du sommeil. Les enfants vivant dans un foyer monoparental présentent plus fréquemment un score total pathologique et des TEMS, possiblement en lien avec un stress psychologique plus important dans ces familles. Le traitement par corticostéroïdes est identifié comme facteur de risque pour un TEMS. Une adaptation du schéma ou du dosage permet généralement de limiter cet effet secondaire. Si nécessaire, un traitement par Mélatonine peut être instauré. Aucune association n'a pu être mise en évidence entre les facteurs analysés et les TRS, possiblement en raison du petit nombre de garçons ayant rapporté de tels symptômes et du fait que certains symptômes d'hypoventilation nocturne ne sont pas évalués par la SDSC. Par ailleurs, la valeur prédictive de l'anamnèse, comme celle des fonctions pulmonaires diurnes, est connue pour être limitée, raison pour laquelle une oxy-capnométrie est effectuée de routine en dessous d'une capacité vitale forcée de 50%. Elle permet, si nécessaire, l'instauration précoce d'une ventilation non-invasive, limitant ainsi vraisemblablement l'impact de ('hypoventilation nocturne sur la qualité du sommeil dans notre population. Plusieurs limitations sont à évoquer. Le petit nombre de patients ne permet pas d'exclure d'autres associations potentielles. La nature transversale de l'étude augmente le risque de causalité inverse. Cette étude n'inclut pas de mesure quantitative du sommeil. Les questionnaires adressés aux parents ont toutefois pu être démontrés comme fiables hormis pour les TRS. Un biais de non-réponse ne peut pas être totalement exclu, bien que le taux de réponse soit élevé (86,5%) et qu'il n'y ait pas de différence significative entre les populations de répondeurs et non-répondeurs. Conclusion La prévalence des TDS est élevée chez les garçons avec une DMD et leurs causes sont multiples. Les facteurs de risques sont physiques (immobilité nocturne), pharmacologiques (corticothérapie) et environnementaux (famille monoparentale). Compte tenu de son impact sur la qualité de vie, l'évaluation du sommeil doit être systématique en consultation et ne pas se limiter aux seuls troubles ventilatoires nocturnes.
Resumo:
Introduction Le cadre conceptuel de l'analyse économique considère que l'individu prend des décisions en mettant en balance les avantages et les inconvénients que ces décisions présentent pour lui. En s'appuyant sur ses préférences et en intégrant ses contraintes (matérielles, physiques, externes, etc.), il choisit d'effectuer ou non une action, d'adopter ou pas un comportement, de façon à ce que les conséquences de ses choix maximisent sa satisfaction. Le fait qu'un individu adopte un certain comportement révèle donc le caractère positif pour lui des conséquences de ce comportement. C'est le postulat méthodologique de rationalité du consommateur, fondement de toute analyse économique. L'adoption par un individu d'un comportement qui implique un risque pour son bien-être physique ou mental suit le même schéma d'analyse. Il résulte d'un arbitrage inter temporel entre la satisfaction que procure ce comportement et le coût du risque associé. Ce risque se définit par la combinaison de la probabilité d'occurrence de l'événement redouté avec la gravité de ses conséquences. En adoptant un comportement à risque, l'individu révèle donc que ce comportement a pour lui un impact net positif. Certains comportements à risque, comme la consommation de tabac et, plus largement, de psychotropes, engendrent une dépendance à même de brider le libre-arbitre du consommateur. Un individu peut être amené à consommer un produit alors même que sa raison lui dicte de ne pas le faire. Ces comportements ont longtemps été considérés par les économistes comme extérieurs au champ d'analyse de leur discipline, la dépendance paraissant antinomique avec le concept de rationalité du consommateur. Par son modèle de dépendance rationnelle, Gary Stanley Becker prend le contre-pied de cette approche en montrant qu'un comportement de dépendance pouvait parfaitement s'expliquer par la maximisation de la fonction de satisfaction d'un individu rationnel et informé. Il postule que les consommateurs de stupéfiants sont conscients des conséquences futures de leurs décisions présentes, tant du point de vue de leur santé que de celui de la dépendance. Dans ce modèle, la dépendance implique deux effets le renforcement et la tolérance. Le renforcement signifie que plus un bien a été consommé dans le passé, plus l'augmentation de sa consommation courante est valorisée. En d'autres termes, l'utilité marginale de la consommation courante augmente avec la consommation antérieure. La tolérance traduit le fait qu'un individu habitué à la consommation d'un bien tirera d'une consommation donnée une satisfaction inférieure par rapport à un individu qui a peu consommé par le passé. Dans l'exemple du tabagisme, l'effet de renforcement implique qu'un grand fumeur ressent une forte envie de fumer, mais que plus il a fumé dans le passé, plus le plaisir qu'il ressent en fumant une quantité donnée de cigarettes diminue. Le premier effet explique le phénomène de manque et le second explique pourquoi la satisfaction qu'un fumeur retire de sa consommation de cigarettes tend à diminuer avec le temps. Selon Becker, l'individu choisit de devenir dépendant : il sait que sa consommation présente de cigarettes contraint ses choix futurs et il détermine au départ sa consommation sur l'ensemble de sa vie. Cependant, ce modèle n'est pas compatible avec les regrets exprimés par de nombreux fumeurs et les tentatives infructueuses de sevrage souvent concomitantes. Un fumeur qui anticiperait parfaitement le phénomène de dépendance arrêterait de fumer à la date voulue, à sa première tentative. Partant de ce constat, Athanasios Orphanides a construit un modèle dans lequel les fumeurs peuvent se retrouver prisonniers de leur consommation par des anticipations imparfaites du pouvoir addictif du tabac. Leur théorie suppose que les individus ne sont pas tous sujets de la même manière à la dépendance, que chacun a une perception subjective de son risque de dépendance et que cette perception évolue constamment durant la période de consommation du bien addictif. Dans ce contexte, un individu qui maximise des préférences stables, mais qui sous-estime le potentiel addictif d'un produit peut devenir dépendant par accident et regretter ensuite cette dépendance. Le modèle de Becker ou celui d'Orphanides ont des conséquences très différentes sur l'action régulatrice que doit ou non jouer l'État sur le marché d'un bien addictif. Si, comme Becker, on considère que les consommateurs sont rationnels et parfaitement informés des conséquences de leurs actes, l'action du régulateur devrait se limiter à l'internalisation du coût externe que les fumeurs font peser sur la société. Si le fumeur est conscient du risque qu'il prend et que pour lui le plaisir qu'il retire de cette consommation dépasse le déplaisir engendré par ses conséquences, une intervention du régulateur reposerait sur une base paternaliste, l'État posant alors un jugement de valeur sur les préférences des individus. En revanche, si on considère, comme dans la modélisation d'Orphanides, que les fumeurs sous-estiment le phénomène de dépendance lorsqu'ils décident de se mettre à fumer, un marché non régulé conduit à une consommation supérieure à celle qui prévaudrait en information parfaite. Certains fumeurs peuvent ainsi se retrouver accrochés à leur consommation de tabac, sans que cela ait été leur but. Dans cette perspective, l'État est légitimé à intervenir par des politiques de lutte contre le tabagisme, afin de compenser les erreurs d'anticipation des individus. Cette thèse propose d'appliquer les outils de l'analyse économique à des problématiques de santé publique dans le domaine des comportements à risque et en particulier du tabagisme. Elle a pour finalité d'apporter de nouveaux éléments de connaissance permettant d'éclairer certains choix de régulation dans ce domaine. Le premier chapitre est une analyse coût-efficacité des thérapies médicamenteuses de soutien à la désaccoutumance tabagique. Comme nous l'avons vu plus haut, certains fumeurs se trouvent piégés dans leur consommation par le phénomène de dépendance et ont des difficultés à arrêter de fumer. Ces dernières années, plusieurs médicaments de soutien au fumeur en phase de sevrage ont fait leur apparition. Parmi eux, on compte des substituts nicotiniques sous forme de gomme, patch, spray ou inhalateur, mais aussi un antidépresseur ne contenant pas de nicotine. Ces traitements présentent des efficacités et des coûts différents. L'évaluation économique en santé permet de calculer un indicateur unique d'efficience qui synthétise l'efficacité d'un traitement et son coût. Cette méthode permet de comparer différents types de prises en charge médicales d'une même pathologie, mais aussi de comparer des interventions thérapeutiques dans des domaines différents. Nous développons un modèle de Markov pour estimer le gain en année de vie d'une stratégie de prévention du tabagisme. Ce modèle permet de simuler le devenir d'une cohorte de fumeurs en fonction du type de soutien à la désaccoutumance qui leur est proposé. Sur cette base, nous calculons le coût par année de vie gagnée de chaque type d'intervention. Les résultats permettent de classer les cinq types de prise en charge selon leur efficience, mais aussi de les comparer à d'autres interventions de prévention dans des domaines différents. Le deuxième chapitre traite des corrélations entre le niveau de formation des individus et leur consommation de tabac. Sur un plan épidémiologique, on constate que les personnes qui atteignent un niveau de formation plus élevé ont une propension à fumer plus faible que les autres. Peut-on en conclure qu'il existe une relation causale inverse entre formation et tabagisme ? Sous l'angle de la théorie économique, il existe deux principales hypothèses à même d'expliquer cette corrélation. La première hypothèse repose sur le modèle de capital santé développé par Michael Grossman au début des années 1970. Dans ce modèle, l'individu dispose d'un stock de santé qui se déprécie avec le temps. Ce stock peut être augmenté grâce à des dépenses en soins médicaux ou à des investissements en temps consacré à l'amélioration de sa santé. La formation a pour effet d'augmenter l'efficacité des investissements en santé. Dans le cas du tabac, Grossman considère que des individus mieux formés auront une meilleurs information sur les méfaits du tabac sur la santé, ce qui tendra à diminuer leur consommation de tabac. La seconde hypothèse ne considère pas un lien causal entre la formation et la santé, mais repose sur l'existence d'une tierce variable qui influencerait parallèlement, et dans un sens opposé, le niveau de formation et la propension à fumer. Cette tierce variable est le taux de préférence pour le présent. Pour un individu fortement tourné vers le présent, l'investissement en temps de formation a un coût relativement élevé dans la mesure où il doit sacrifier du revenu aujourd'hui pour obtenir un revenu plus élevé demain. Parallèlement, il pondère moins fortement la santé future et a donc une plus forte propension à fumer. Nous développons une méthode économétrique qui permet de séparer l'effet de causalité de l'effet de sélection. Le troisième chapitre traite du rôle des interactions sociales dans les comportements à risque des adolescents. La théorie économique considère que chaque individu définit seul ses choix de consommation en maximisant sa fonction d'utilité. Cela ne signifie pas pour autant qu'il soit insensible aux influences extérieures, notamment au comportement de son entourage. Dans certaines situations et pour certains produits, l'utilité que procure la consommation d'un bien est corrélée avec le nombre de personnes qui consomment ce même bien dans l'entourage. En d'autres termes, la consommation des autres, augmente la valeur que l'on attribue à un bien. Ce mécanisme est souvent appliqué à l'analyse des comportements à risque des adolescents et du rôle que peut y jouer le groupe des pairs. Si cet impact est bien connu du point de vue théorique, il est beaucoup plus difficile de le quantifier sur un plan empirique. Pour identifier cet effet, nous développons une méthodologie économétrique, originale dans ce contexte, qui permet de séparer l'effet individuel de l'effet d'influence des pairs dans l'adoption d'un comportement à risque. Nous appliquons cette méthode aux trois comportements à risque que sont la consommation de tabac, d'alcool et de cannabis chez les adolescents.
Resumo:
Summary Ecotones are sensitive to change because they contain high numbers of species living at the margin of their environmental tolerance. This is equally true of tree-lines, which are determined by attitudinal or latitudinal temperature gradients. In the current context of climate change, they are expected to undergo modifications in position, tree biomass and possibly species composition. Attitudinal and latitudinal tree-lines differ mainly in the steepness of the underlying temperature gradient: distances are larger at latitudinal tree-lines, which could have an impact on the ability of tree species to migrate in response to climate change. Aside from temperature, tree-lines are also affected on a more local level by pressure from human activities. These are also changing as a consequence of modifications in our societies and may interact with the effects of climate change. Forest dynamics models are often used for climate change simulations because of their mechanistic processes. The spatially-explicit model TreeMig was used as a base to develop a model specifically tuned for the northern European and Alpine tree-line ecotones. For the latter, a module for land-use change processes was also added. The temperature response parameters for the species in the model were first calibrated by means of tree-ring data from various species and sites at both tree-lines. This improved the growth response function in the model, but also lead to the conclusion that regeneration is probably more important than growth for controlling tree-line position and species' distributions. The second step was to implement the module for abandonment of agricultural land in the Alps, based on an existing spatial statistical model. The sensitivity of its most important variables was tested and the model's performance compared to other modelling approaches. The probability that agricultural land would be abandoned was strongly influenced by the distance from the nearest forest and the slope, bath of which are proxies for cultivation costs. When applied to a case study area, the resulting model, named TreeMig-LAb, gave the most realistic results. These were consistent with observed consequences of land-abandonment such as the expansion of the existing forest and closing up of gaps. This new model was then applied in two case study areas, one in the Swiss Alps and one in Finnish Lapland, under a variety of climate change scenarios. These were based on forecasts of temperature change over the next century by the IPCC and the HadCM3 climate model (ΔT: +1.3, +3.5 and +5.6 °C) and included a post-change stabilisation period of 300 years. The results showed radical disruptions at both tree-lines. With the most conservative climate change scenario, species' distributions simply shifted, but it took several centuries reach a new equilibrium. With the more extreme scenarios, some species disappeared from our study areas (e.g. Pinus cembra in the Alps) or dwindled to very low numbers, as they ran out of land into which they could migrate. The most striking result was the lag in the response of most species, independently from the climate change scenario or tree-line type considered. Finally, a statistical model of the effect of reindeer (Rangifer tarandus) browsing on the growth of Pinus sylvestris was developed, as a first step towards implementing human impacts at the boreal tree-line. The expected effect was an indirect one, as reindeer deplete the ground lichen cover, thought to protect the trees against adverse climate conditions. The model showed a small but significant effect of browsing, but as the link with the underlying climate variables was unclear and the model was not spatial, it was not usable as such. Developing the TreeMig-LAb model allowed to: a) establish a method for deriving species' parameters for the growth equation from tree-rings, b) highlight the importance of regeneration in determining tree-line position and species' distributions and c) improve the integration of social sciences into landscape modelling. Applying the model at the Alpine and northern European tree-lines under different climate change scenarios showed that with most forecasted levels of temperature increase, tree-lines would suffer major disruptions, with shifts in distributions and potential extinction of some tree-line species. However, these responses showed strong lags, so these effects would not become apparent before decades and could take centuries to stabilise. Résumé Les écotones son sensibles au changement en raison du nombre élevé d'espèces qui y vivent à la limite de leur tolérance environnementale. Ceci s'applique également aux limites des arbres définies par les gradients de température altitudinaux et latitudinaux. Dans le contexte actuel de changement climatique, on s'attend à ce qu'elles subissent des modifications de leur position, de la biomasse des arbres et éventuellement des essences qui les composent. Les limites altitudinales et latitudinales diffèrent essentiellement au niveau de la pente des gradients de température qui les sous-tendent les distance sont plus grandes pour les limites latitudinales, ce qui pourrait avoir un impact sur la capacité des espèces à migrer en réponse au changement climatique. En sus de la température, la limite des arbres est aussi influencée à un niveau plus local par les pressions dues aux activités humaines. Celles-ci sont aussi en mutation suite aux changements dans nos sociétés et peuvent interagir avec les effets du changement climatique. Les modèles de dynamique forestière sont souvent utilisés pour simuler les effets du changement climatique, car ils sont basés sur la modélisation de processus. Le modèle spatialement explicite TreeMig a été utilisé comme base pour développer un modèle spécialement adapté pour la limite des arbres en Europe du Nord et dans les Alpes. Pour cette dernière, un module servant à simuler des changements d'utilisation du sol a également été ajouté. Tout d'abord, les paramètres de la courbe de réponse à la température pour les espèces inclues dans le modèle ont été calibrées au moyen de données dendrochronologiques pour diverses espèces et divers sites des deux écotones. Ceci a permis d'améliorer la courbe de croissance du modèle, mais a également permis de conclure que la régénération est probablement plus déterminante que la croissance en ce qui concerne la position de la limite des arbres et la distribution des espèces. La seconde étape consistait à implémenter le module d'abandon du terrain agricole dans les Alpes, basé sur un modèle statistique spatial existant. La sensibilité des variables les plus importantes du modèle a été testée et la performance de ce dernier comparée à d'autres approches de modélisation. La probabilité qu'un terrain soit abandonné était fortement influencée par la distance à la forêt la plus proche et par la pente, qui sont tous deux des substituts pour les coûts liés à la mise en culture. Lors de l'application en situation réelle, le nouveau modèle, baptisé TreeMig-LAb, a donné les résultats les plus réalistes. Ceux-ci étaient comparables aux conséquences déjà observées de l'abandon de terrains agricoles, telles que l'expansion des forêts existantes et la fermeture des clairières. Ce nouveau modèle a ensuite été mis en application dans deux zones d'étude, l'une dans les Alpes suisses et l'autre en Laponie finlandaise, avec divers scénarios de changement climatique. Ces derniers étaient basés sur les prévisions de changement de température pour le siècle prochain établies par l'IPCC et le modèle climatique HadCM3 (ΔT: +1.3, +3.5 et +5.6 °C) et comprenaient une période de stabilisation post-changement climatique de 300 ans. Les résultats ont montré des perturbations majeures dans les deux types de limites de arbres. Avec le scénario de changement climatique le moins extrême, les distributions respectives des espèces ont subi un simple glissement, mais il a fallu plusieurs siècles pour qu'elles atteignent un nouvel équilibre. Avec les autres scénarios, certaines espèces ont disparu de la zone d'étude (p. ex. Pinus cembra dans les Alpes) ou ont vu leur population diminuer parce qu'il n'y avait plus assez de terrains disponibles dans lesquels elles puissent migrer. Le résultat le plus frappant a été le temps de latence dans la réponse de la plupart des espèces, indépendamment du scénario de changement climatique utilisé ou du type de limite des arbres. Finalement, un modèle statistique de l'effet de l'abroutissement par les rennes (Rangifer tarandus) sur la croissance de Pinus sylvestris a été développé, comme première étape en vue de l'implémentation des impacts humains sur la limite boréale des arbres. L'effet attendu était indirect, puisque les rennes réduisent la couverture de lichen sur le sol, dont on attend un effet protecteur contre les rigueurs climatiques. Le modèle a mis en évidence un effet modeste mais significatif, mais étant donné que le lien avec les variables climatiques sous jacentes était peu clair et que le modèle n'était pas appliqué dans l'espace, il n'était pas utilisable tel quel. Le développement du modèle TreeMig-LAb a permis : a) d'établir une méthode pour déduire les paramètres spécifiques de l'équation de croissance ä partir de données dendrochronologiques, b) de mettre en évidence l'importance de la régénération dans la position de la limite des arbres et la distribution des espèces et c) d'améliorer l'intégration des sciences sociales dans les modèles de paysage. L'application du modèle aux limites alpines et nord-européennes des arbres sous différents scénarios de changement climatique a montré qu'avec la plupart des niveaux d'augmentation de température prévus, la limite des arbres subirait des perturbations majeures, avec des glissements d'aires de répartition et l'extinction potentielle de certaines espèces. Cependant, ces réponses ont montré des temps de latence importants, si bien que ces effets ne seraient pas visibles avant des décennies et pourraient mettre plusieurs siècles à se stabiliser.
Resumo:
With the advancement of high-throughput sequencing and dramatic increase of available genetic data, statistical modeling has become an essential part in the field of molecular evolution. Statistical modeling results in many interesting discoveries in the field, from detection of highly conserved or diverse regions in a genome to phylogenetic inference of species evolutionary history Among different types of genome sequences, protein coding regions are particularly interesting due to their impact on proteins. The building blocks of proteins, i.e. amino acids, are coded by triples of nucleotides, known as codons. Accordingly, studying the evolution of codons leads to fundamental understanding of how proteins function and evolve. The current codon models can be classified into three principal groups: mechanistic codon models, empirical codon models and hybrid ones. The mechanistic models grasp particular attention due to clarity of their underlying biological assumptions and parameters. However, they suffer from simplified assumptions that are required to overcome the burden of computational complexity. The main assumptions applied to the current mechanistic codon models are (a) double and triple substitutions of nucleotides within codons are negligible, (b) there is no mutation variation among nucleotides of a single codon and (c) assuming HKY nucleotide model is sufficient to capture essence of transition- transversion rates at nucleotide level. In this thesis, I develop a framework of mechanistic codon models, named KCM-based model family framework, based on holding or relaxing the mentioned assumptions. Accordingly, eight different models are proposed from eight combinations of holding or relaxing the assumptions from the simplest one that holds all the assumptions to the most general one that relaxes all of them. The models derived from the proposed framework allow me to investigate the biological plausibility of the three simplified assumptions on real data sets as well as finding the best model that is aligned with the underlying characteristics of the data sets. -- Avec l'avancement de séquençage à haut débit et l'augmentation dramatique des données géné¬tiques disponibles, la modélisation statistique est devenue un élément essentiel dans le domaine dé l'évolution moléculaire. Les résultats de la modélisation statistique dans de nombreuses découvertes intéressantes dans le domaine de la détection, de régions hautement conservées ou diverses dans un génome de l'inférence phylogénétique des espèces histoire évolutive. Parmi les différents types de séquences du génome, les régions codantes de protéines sont particulièrement intéressants en raison de leur impact sur les protéines. Les blocs de construction des protéines, à savoir les acides aminés, sont codés par des triplets de nucléotides, appelés codons. Par conséquent, l'étude de l'évolution des codons mène à la compréhension fondamentale de la façon dont les protéines fonctionnent et évoluent. Les modèles de codons actuels peuvent être classés en trois groupes principaux : les modèles de codons mécanistes, les modèles de codons empiriques et les hybrides. Les modèles mécanistes saisir une attention particulière en raison de la clarté de leurs hypothèses et les paramètres biologiques sous-jacents. Cependant, ils souffrent d'hypothèses simplificatrices qui permettent de surmonter le fardeau de la complexité des calculs. Les principales hypothèses retenues pour les modèles actuels de codons mécanistes sont : a) substitutions doubles et triples de nucleotides dans les codons sont négligeables, b) il n'y a pas de variation de la mutation chez les nucléotides d'un codon unique, et c) en supposant modèle nucléotidique HKY est suffisant pour capturer l'essence de taux de transition transversion au niveau nucléotidique. Dans cette thèse, je poursuis deux objectifs principaux. Le premier objectif est de développer un cadre de modèles de codons mécanistes, nommé cadre KCM-based model family, sur la base de la détention ou de l'assouplissement des hypothèses mentionnées. En conséquence, huit modèles différents sont proposés à partir de huit combinaisons de la détention ou l'assouplissement des hypothèses de la plus simple qui détient toutes les hypothèses à la plus générale qui détend tous. Les modèles dérivés du cadre proposé nous permettent d'enquêter sur la plausibilité biologique des trois hypothèses simplificatrices sur des données réelles ainsi que de trouver le meilleur modèle qui est aligné avec les caractéristiques sous-jacentes des jeux de données. Nos expériences montrent que, dans aucun des jeux de données réelles, tenant les trois hypothèses mentionnées est réaliste. Cela signifie en utilisant des modèles simples qui détiennent ces hypothèses peuvent être trompeuses et les résultats de l'estimation inexacte des paramètres. Le deuxième objectif est de développer un modèle mécaniste de codon généralisée qui détend les trois hypothèses simplificatrices, tandis que d'informatique efficace, en utilisant une opération de matrice appelée produit de Kronecker. Nos expériences montrent que sur un jeux de données choisis au hasard, le modèle proposé de codon mécaniste généralisée surpasse autre modèle de codon par rapport à AICc métrique dans environ la moitié des ensembles de données. En outre, je montre à travers plusieurs expériences que le modèle général proposé est biologiquement plausible.
Resumo:
INTRODUCTION : Le syndrome antiphospholipide primaire est caractérisé par des thromboses, des avortements a répétition associés à une thrombocytopénie, un PTT prolongé et la présence d'anticorps antiphospholipides, en I'absence d'autres maladies de type immunologique, comme le lupus érythémateux dissémine. PRESENTATION DE CAS: Une fillette de 7 ans s'est présentée avec des douleurs intenses, persistant pendant plusieurs heures, aux extrémités des membres, suite a I'exposition à un temps caniculaire. II n'y avait aucune évidence de photosensibilité. C'est une fillette en bonne santé habituelle et aucun autre signe ou symptôme ne semblait suggérer une maladie auto-immune ou infectieuse. Le status clinique était parfaitement normal exception faite des nécroses aux extrémités des orteils et des doigts. Les paramétrés paracliniques ne montraient pas de signes inflammatoires, pas d'anémie, pas de leucocytose et les plaquettes étaient dans la norme. Nous avons exclu la présence d'anticorps antinucléaire et anti-DNA, ainsi que la présence de cryo-et pyroglobulines. Les test de la crase ont montre un PTT prolongé et des anticorps antiphospholipides spécifiques de la P2-glycoprotéine I, mais aucune autre anomalie susceptible de favoriser des thromboses. Le diagnostic de syndrome antiphospholipide primaire a été pose sur la base des épisodes de thromboses des extrémités, associes a un PTT prolonge et à la présence d'anticorps antiphospholipides. Le risque pour I'enfant de présenter un nouvel épisode thrombotique étant élevé, nous avons propose une anticoagulation par dicoumarine. CONCLUSION: La présentation de ce cas de syndrome antiphospholipide primaire est atypique. Ce syndrome est rare chez I'enfant, mais iI est responsable d'un tiers des thromboses pédiatriques. La rareté de ce syndrome est due au fait que I'enfant n'a pas d'autres facteurs thrombogènes par opposition a I'adulte. La raison pour laquelle I'exposition à la chaleur est Ie facteur déclenchant chez cette patiente reste inexpliquée. Ce cas démontre la nécessité de contrôler les anticorps antiphospholipides chez tous les patients pédiatriques présentant des thromboses.
Resumo:
Une recherche du Fonds national et de la SUVA [sur la réinsertion professionnelle des travailleurs absents en raison de troubles musculosquelettiques dorsaux] dévoile plusieurs failles dans la gestion des absences. Ce qui freine la détection puis la réinsertion de collaborateurs souffrant de mal de dos. La récolte des données est souvent incomplète et la coordination RH-managers-partenaires externes est lacunaire. Enquête et quelques pistes pour corriger le tir. [Ed.]
Resumo:
Les partis politiques ont comme vocation de structurer le débat démocratique et de constituer un trait d'union entre le citoyen et l'Etat. En Suisse, ils sont fortement sollicités en raison de l'importante quantité de scrutins organisés chaque année aux échelons communal, cantonal et national, mais leur organisation reste très peu professionnalisée. Comme ils doivent par ailleurs faire face à l'effritement de leur base partisane et à l'inflation des coûts de la politique, le risque est grand qu'ils soient mis en difficulté dans l'accomplissement de leur tâche d'intégration et de formation de l'opinion. Cette étude se concentre sur les pratiques de financement des partis cantonaux et nationaux du PDC, du PRD, du PS, de l'UDC et des Verts. S'appuyant sur les données empriques récoltées en 1997 et en 2007, elle décrit dans quelle mesure les moyens financiers des partis ont évolué au cours des dix dernières années. Les analyses portent sur le volume et l'origine des fonds et elles permettent notamment de saisir comment s'articulent les clivages en matière de financement. Die politischen Parteien haben die Aufgabe, die demokratische Debatte zu strukturieren und ein verbindendes Element zwischen dem Bürger und dem Staat zu bilden. In der Schweiz werden sie angesichts der grossen Anzahl jährlich auf kommunaler, kantonaler und nationaler Ebene durchgeführten Wahlgänge besonders stark beansprucht, ihre Organisationen sind aber wenig professionalisiert. Da sich die Parteien heute mit abnehmenden Parteienbindungen und steigenden Kosten der Politik konfrontiert sehen, steigt das Risiko, dass sie ihre Aufgaben der Integration und der politischen Meinungsbildung kaum mehr wahrnehmen können. Diese Arbeit konzentriert sich auf die Finanzierungspraktiken der kantonalen und nationalen Parteien CVP, FDP, SP, SVP und Grüne. Die Analysen stützen sich ab auf empirische Angaben zu Herkunft und Umfang der Parteifinanzen, die in den Jahren 1997 und 2007 erhoben wurden und erlauben es, die Unterschiede hinsichtlich der Finanzierung zu erläutern.
Resumo:
Cette thèse analyse la défense du paradis fiscal suisse dans les négociations internationales de l'entre-deux-guerres. Pour ce faire, elle s'appuie sur un très large panel de sources inédites, tirées des archives publiques suisses, britanniques, françaises, allemandes et belges, ainsi que sur une série d'archives du monde économique et d'organisations internationales. Ce travail tente, sur cette base, de retracer l'évolution des pourparlers fiscaux et d'identifier comment les dirigeants suisses sont parvenus à écarter en leur sein les premières pressions internationales qui surviennent après la Grande Guerre à l'encontre des pratiques fiscales helvétiques. Sur fond de fuites massives d'avoirs européens en direction du refuge suisse, ces démarches étrangères à l'encontre du secret bancaire sont menées aussi bien au niveau multilatéral, au sein des débats fiscaux de la Société des Nations, que sur le plan bilatéral, à l'intérieur des négociations interétatiques pour la conclusion de conventions de double imposition et d'assistance fiscale. Pourtant, les tentatives de la part des gouvernements européens d'amorcer une coopération contre l'évasion fiscale avec leur homologue suisse échouent constamment durant l'entre-deux-guerres : non seulement aucune mesure de collaboration internationale n'est adoptée par la Confédération, mais les dirigeants helvétiques parviennent encore à obtenir dans les négociations des avantages fiscaux pour les capitaux qui sont exportés depuis la Suisse ou qui transitent par son entremise. En clair, bien loin d'être amoindrie, la compétitivité fiscale du centre économique suisse sort renforcée des discussions internationales de l'entre-deux-guerres. La thèse avance à la fois des facteurs endogènes et exogènes à la politique suisse pour expliquer cette réussite a priori surprenante dans un contexte de crise financière et monétaire aiguë. A l'intérieur de la Confédération, la grande cohésion des élites suisses facilite la défense extérieure de la compétitivité fiscale. En raison de l'anémie de l'administration fiscale fédérale, du conservatisme du gouvernement ou encore de l'interpénétration du patronat industriel et bancaire helvétique, les décideurs s'accordent presque unanimement sur le primat à une protection rigoureuse du secret bancaire. En outre, corollaire de l'afflux de capitaux en Suisse, la place financière helvétique dispose de différentes armes économiques qu'elle peut faire valoir pour défendre ses intérêts face aux gouvernements étrangers. Mais c'est surtout la conjonction de trois facteurs exogènes au contexte suisse qui a favorisé la position helvétique au sein des négociations fiscales internationales. Premièrement, après la guerre, le climat anti-fiscal qui prédomine au sein d'une large frange des élites occidentales incite les gouvernements étrangers à faire preuve d'une grande tolérance à l'égard du havre fiscal suisse. Deuxièmement, en raison de leur sous-développement, les administrations fiscales européennes n'ont pas un pouvoir suffisant pour contrecarrer la politique suisse. Troisièmement, les milieux industriels et financiers étrangers tendent à appuyer les stratégies de défense du paradis fiscal suisse, soit parce qu'ils usent eux-mêmes de ses services, soit parce que, avec la pression à la baisse qu'il engendre sur les systèmes fiscaux des autres pays, l'îlot libéral helvétique participe au démantèlement de la fiscalité progressive que ces milieux appellent de leur voeu.
Resumo:
Rapport de synthèse : L'article constituant le présent travail de thèse décrit une recherche portant sur des couples adultes recrutés dans la population générale, décrivant rétrospectivement les attitudes de leurs parents respectifs envers eux au cours de leur enfance. Le rôle joué par les attitudes d'attachement dans les relations adultes, et notamment les relations de couples, est bien démontré. De même, il est établi que les relations établies avec les parents dans l'enfance influencent le type d'attitude d'attachement qui prédominera à l'âge adulte. Dès lors, nous avons investigué l'existence, au sein de ces couples adultes, de souvenirs similaires quant aux attitudes prodiguées par les parents. Pour réaliser cette recherche, nous avons contacté tous les parents des enfants scolarisés en 2e/3e années et en 6e/7e années au sein des écoles de plusieurs communes de la région lausannoise, permettant de constituer un échantillon de 563 couples de parents. Au moyen d'autoquestionnaires, nous avons évalué pour chaque membre du couple : 1) sa description rétrospective des attitudes de ses deux parents envers lui pendant son enfance ; 2) le degré de sa symptomatologie psychiatrique actuelle ; et 3) son évaluation du degré d'ajustement dyadique actuel au sein du couple. La comparaison des scores des époux respectifs sur « l'échelle de lien parental » (PBI : Parental Bonding Instrument) a montré une ressemblance, au sein des couples, concernant la c chaleur et affection » (« Care ») témoignée au cours de l'enfance parle parent de même sexe que le sujet. Les analyses complémentaires effectuées semblent exclure que cette similarité soit due à des facteurs confondant comme l'âge, l'origine culturelle, le niveau socio-économique, ou le degré de symptomatologie psychiatrique. De même, cette similarité ne semble pas être attribuable à une convergence de vue grandissante des conjoints au cours de leur union. Par ailleurs, le degré d'ajustement dyadique s'est révélé être dépendant du degré cumulé de chaleur et d'affection tel que remémoré par chaque conjoint, et non du degré de similarité dans le couple pour ce qui concerne le souvenir de la chaleur et de l'affection reçues. Bien que basée sur des évaluations rétrospectives des attitudes parentales, et ne disposant pas d'une investigation psychiatrique standardisée incluant les critères diagnostiques, cette étude repose néanmoins sur un grand échantillon, recruté dans la population générale. Nos résultats ont notamment des implications concernant la santé des enfants. En effet, en raison de la similarité mise en évidence dans nos résultats, un enfant dont un des parents a reçu peu de chaleur et d'affection dans son enfance a plus de chances que son autre parent aie lui-même également reçu moins de chaleur et d'affection. De ce fait, d'une part l'ajustement dyadique du couple parental sera particulièrement bas, ce qui peut se répercuter sur les enfants du couple. D'autre part, comme les attitudes parentales se transmettent en partie de génération en génération, le même enfant risque d'être exposé, de la part de ses deux parents, à une attitude comportant peu de chaleur et d'affection, ce qui représente un risque de développement ultérieur des pathologies psychiatriques chez cet enfant.
Resumo:
Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.
Resumo:
Les gènes orthologues divergent sur plusieurs aspects durant l'évolution. Après une revue de la littérature cherchant à montrer de la divergence entre les orthologues de l'humain et de la souris, j'ai souligné les différentes causes de cette divergence. En comparant les gènes qui divergent en fonction, je n'ai pas trouvé de lien avec la divergence des séquences, pour cette raison je me suis penché sur l'étude de l'expression. Notamment, j'ai étudié le niveau, la spécificité ainsi que la présence/absence d'expression des orthologues humain-souris liés aux maladies Mendéliennes. Malgré les similarités trouvées entre l'humain et la souris, j'ai détecté une différence d'expression spécifique à une des deux espèces liée a un phénotype précis (gène essentiel/non-essentiel). Cela m'a permis de conclure que la différence sur le plan phénotypique entre l'humain et la souris est mieux expliquée par les patrons d'expression plutôt que le niveau d'expression ou la sélection. J'ai été également intéressé par l'évolution des séquences d'ADN codantes pour des protéines, en particulier sur le rôle de la sélection. J'ai commencé par une étude sur la fiabilité de détection de la sélection positive en comparant des séquences divergentes. J'ai trouvé, en utilisant le model de branche-site que la sélection peut être détectée sur des séquences qui ont divergé il y a plus de 500 millions d'années. J'ai analysé le biais de GC entres les séquences sans trouver une influence sur l'estimation de la sélection positive. Finalement, Je crois que ce travail est une première étape dans l'établissement d'un lien entre la sélection et les patrons d'expression des gènes chez les vertébrés.
Resumo:
« Quel est l'âge de cette trace digitale?» Cette question est relativement souvent soulevée au tribunal, lorsque la personne suspectée admet avoir laissé ses empreintes digitales sur une scène de crime mais prétend l'avoir fait à un autre moment que celui du crime et pour une raison innocente. Au travers de différents exemples américains et européens, ce premier article met en évidence le manque de consensus actuel dans les réponses données à cette question par les experts du domaine. Cette disparité dans le traitement des cas de datation de traces digitales est sans doute due au fait qu'aucune méthodologie n'est pour l'heure validée et acceptée par l'ensemble de la communauté forensique. En effet, cet article recense les études menées sur la datation des traces digitales sous forme d'une revue critique et met ainsi en évidence le fait que la plupart de ces méthodes souffrent de problèmes limitant leur application pratique. Toutefois, cette revue permet également d'identifier une approche ayant le potentiel d'apporter des réponses pratiques aux questions de datation, à savoir l'approche se basant sur l'étude du vieillissement de composés cibles intrinsèques aux traces digitales. Cette approche prometteuse ouvre des pistes afin de proposer une méthodologique formelle de datation des traces digitales. Une telle proposition permettrait d'apporter une information pertinente à la justice et fera l'objet de la seconde partie de cet article.
Resumo:
RESUME L'étude de la médecine à la Faculté de l'Université de Lausanne est un cursus de six ans. Depuis la réforme générale du curriculum en octobre 1995, le programme de la deuxième année consacrée à l'étude de l'être humain sain a été transformé. L'enseignement intégré par système ou organe a été introduit en remplaçant l'enseignement par discipline. Parallèlement, un système d'évaluation de l'enseignement par les étudiants a été proposé. Il a été amélioré au fil des années et depuis l'année académique 1998-99, l'évaluation est devenue systémique et régulière. Notre étude présente et compare les résultats des évaluations de l'enseignement et des enseignants de neuf cours intégrés dispensés en deuxième année durant deux années académiques (1998-99 et 1999-2000). Une forte corrélation entre les résultats des deux années consécutives ainsi qu'une importante disparité des estimations à l'intérieure de chacune de deux années ont été observées. Ceci démontre un engagement sérieux des étudiants dans le processus d'évaluation, révèle la pertinence de leur analyse et leur bonne capacité de discernement. L'analyse de nos résultats montre que les évaluations effectuées par les étudiants peuvent constituer une source fiable d'informations et contribuer à l'amélioration du processus d'enseignement.
Resumo:
In this discussion, after a few general comments, I will propose a systems reading of the intervention so elegantly described by Kaija Puura. I will draw parallels between the therapeutic and the family groups as framing-developing systems and formalize the steps taken by the family toward healing under the influence of the therapist's team. En esta discusión, después de algunos comentarios generales, propongo una lectura sistemática de la intervención tan elegantemente descrita por Kaija Puura. Buscaré paralelos entre los grupos terapéuticos y de familia como sistemas de desarrollo enmarcado y formalizaré los pasos tomados por la familia hacia la cicatrización bajo la influencia del equipo del terapista. Après quelques commentaires généraux, je proposerai dans cette discussion une lecture systémique de l'intervention si élégamment décrite par Kaija Puura. J'établirai des parallèles entre les groupes thérapeutiques et familiaux en tant que systèmes d'encadrement-développement et je formaliserai les étapes de guérison franchies par la famille grâce à l'influence de l'équipe thérapeutique. In dieser Diskussion, werde ich nach einigen allgemeineren Aussagen, eine systemische Lesart der von Kaija Puura so eingängig beschriebenen Intervention vorschlagen. Ich werde darin Parallelen zwischen der therapeutischen und Rahmengebenden Familiengruppen ziehen, und die Schritte der Familien hin zu einer Heilung unter dem Einfluss des Therapeutenteams formalisieren.