213 resultados para taille de particule
Resumo:
Rapport de synthèseLe syndrome métabolique (défini par les critères ATP III par la présence au minimum de 3 des facteurs suivants : taux plasmatiques d'HDL-cholestérol < 1,04 mmol/1 chez l'homme et < 1.29 mmol/1 chez la femme, taux plasmatiques de triglycérides > 1,69 mmol/1, tension artérielle > 130/85 mmHg, glycémie >6,1 mmol/1, tour de taille > 108 cm chez l'homme et > 88 cm chez la femme) représente une constellation de facteurs de risque majeurs pour le développement de maladies cardiovascu-laires. Il n'est pas encore établi actuellement quelle composante de ce syndrome contribue de manière plus marquée au risque de développer une athérosclérose. Dans le but d'éclaircir la pathogenèse de ce syndrome, une étude multicentrique intitulée GEMS (« Genetic Epidemiology of Metabolic Syndrome ») a été initiée afin de déterminer si la constellation d'une dyslipidémie avec HDL-C bas et TG élevé est un marqueur sensible de l'homogénéité génétique chez les individus atteints de syndrome métabolique.Dans l'étude menée à Lausanne (multicentrique), la contribution de la dyslipidémie avec HDL-C bas et TG élevé dans la pathogenèse de l'athérosclérose a été évaluée par 2 examens, reconnus comme marqueurs fiables de la vasculopathie : la mesure de l'épaisseur intima média carotidienne par ultrasonographic et l'évaluation de la dysfonction endothéliale de la microcirculation cutanée. Deux groupes de sujets comparables en terme d'âge et de sexe et souffrant d'un excès pondéral (BMI > 25 kg/m2) mais normoglycémiques ont été comparés. Ces deux groupes (étude cas-témoins) étaient uniquement discordants quant à leurs profils lipidiques. Ainsi, 120 cas, définis comme ayant un HDL-cholestérol bas (< 25 percentile pour l'âge et le sexe dans la population générale) et des TG élevés (> 75 percentile) ont été comparés à 120 contrôles avec un HDL-cholestérol haut (> 50 percentile) et des TG bas (< 50 percentile). Un doppler des artères carotides et fémorales a été effectué pour déterminer l'épaisseur de l'intima média et la présence ou non de plaques d'athérome. La fonction endothéliale a été évaluée par un laser doppler sur la micro-circulation cutanée (réponse hyperémique à une occlusion transitoire de la circulation de l'avant-bras par une manchette à pression et mesure de la vasodilatation induite par un échauffement local de la peau avec de l'eau). Un enregistrement de la pression artérielle ambulatoire sur la journée (Remler) a été pratiqué chez tous les sujets.Les résultats obtenus montrent que les cas ont une prévalence plus élevée de plaques d'athérome (médiane 1,5 ± 0,15 vs 0,8 > 0,15, p<.001), une épaisseur intima média plus importante (médiane 0,66 ± 0,15 vs 0,61 ± 0,15, p<.01), ainsi qu'une réduction significative de la vasodilatation endothéliale induite par la chaleur et post-ischémique comparativement aux contrôles.En conclusion, le profil lipidique associant un HDL-cholestérol bas et des triglycérides élevés représente un risque majeur de développer une maladie athéromateuse périphérique et est associée à une augmentation de l'épaisseur intima média et une altération de la fonction endothéliale chez les individus en surcharge pondérale. Bien qu'un HDL-cholestérol bas soit fréquemment associé à une hypertriglycéridémie, les résultats de notre étude peuvent suggérer un rôle potentiel de la fraction HDL-cholestérol comme un puissant agent anti-athérogénique.
Resumo:
Abstract : In the subject of fingerprints, the rise of computers tools made it possible to create powerful automated search algorithms. These algorithms allow, inter alia, to compare a fingermark to a fingerprint database and therefore to establish a link between the mark and a known source. With the growth of the capacities of these systems and of data storage, as well as increasing collaboration between police services on the international level, the size of these databases increases. The current challenge for the field of fingerprint identification consists of the growth of these databases, which makes it possible to find impressions that are very similar but coming from distinct fingers. However and simultaneously, this data and these systems allow a description of the variability between different impressions from a same finger and between impressions from different fingers. This statistical description of the withinand between-finger variabilities computed on the basis of minutiae and their relative positions can then be utilized in a statistical approach to interpretation. The computation of a likelihood ratio, employing simultaneously the comparison between the mark and the print of the case, the within-variability of the suspects' finger and the between-variability of the mark with respect to a database, can then be based on representative data. Thus, these data allow an evaluation which may be more detailed than that obtained by the application of rules established long before the advent of these large databases or by the specialists experience. The goal of the present thesis is to evaluate likelihood ratios, computed based on the scores of an automated fingerprint identification system when the source of the tested and compared marks is known. These ratios must support the hypothesis which it is known to be true. Moreover, they should support this hypothesis more and more strongly with the addition of information in the form of additional minutiae. For the modeling of within- and between-variability, the necessary data were defined, and acquired for one finger of a first donor, and two fingers of a second donor. The database used for between-variability includes approximately 600000 inked prints. The minimal number of observations necessary for a robust estimation was determined for the two distributions used. Factors which influence these distributions were also analyzed: the number of minutiae included in the configuration and the configuration as such for both distributions, as well as the finger number and the general pattern for between-variability, and the orientation of the minutiae for within-variability. In the present study, the only factor for which no influence has been shown is the orientation of minutiae The results show that the likelihood ratios resulting from the use of the scores of an AFIS can be used for evaluation. Relatively low rates of likelihood ratios supporting the hypothesis known to be false have been obtained. The maximum rate of likelihood ratios supporting the hypothesis that the two impressions were left by the same finger when the impressions came from different fingers obtained is of 5.2 %, for a configuration of 6 minutiae. When a 7th then an 8th minutia are added, this rate lowers to 3.2 %, then to 0.8 %. In parallel, for these same configurations, the likelihood ratios obtained are on average of the order of 100,1000, and 10000 for 6,7 and 8 minutiae when the two impressions come from the same finger. These likelihood ratios can therefore be an important aid for decision making. Both positive evolutions linked to the addition of minutiae (a drop in the rates of likelihood ratios which can lead to an erroneous decision and an increase in the value of the likelihood ratio) were observed in a systematic way within the framework of the study. Approximations based on 3 scores for within-variability and on 10 scores for between-variability were found, and showed satisfactory results. Résumé : Dans le domaine des empreintes digitales, l'essor des outils informatisés a permis de créer de puissants algorithmes de recherche automatique. Ces algorithmes permettent, entre autres, de comparer une trace à une banque de données d'empreintes digitales de source connue. Ainsi, le lien entre la trace et l'une de ces sources peut être établi. Avec la croissance des capacités de ces systèmes, des potentiels de stockage de données, ainsi qu'avec une collaboration accrue au niveau international entre les services de police, la taille des banques de données augmente. Le défi actuel pour le domaine de l'identification par empreintes digitales consiste en la croissance de ces banques de données, qui peut permettre de trouver des impressions très similaires mais provenant de doigts distincts. Toutefois et simultanément, ces données et ces systèmes permettent une description des variabilités entre différentes appositions d'un même doigt, et entre les appositions de différents doigts, basées sur des larges quantités de données. Cette description statistique de l'intra- et de l'intervariabilité calculée à partir des minuties et de leurs positions relatives va s'insérer dans une approche d'interprétation probabiliste. Le calcul d'un rapport de vraisemblance, qui fait intervenir simultanément la comparaison entre la trace et l'empreinte du cas, ainsi que l'intravariabilité du doigt du suspect et l'intervariabilité de la trace par rapport à une banque de données, peut alors se baser sur des jeux de données représentatifs. Ainsi, ces données permettent d'aboutir à une évaluation beaucoup plus fine que celle obtenue par l'application de règles établies bien avant l'avènement de ces grandes banques ou par la seule expérience du spécialiste. L'objectif de la présente thèse est d'évaluer des rapports de vraisemblance calcul és à partir des scores d'un système automatique lorsqu'on connaît la source des traces testées et comparées. Ces rapports doivent soutenir l'hypothèse dont il est connu qu'elle est vraie. De plus, ils devraient soutenir de plus en plus fortement cette hypothèse avec l'ajout d'information sous la forme de minuties additionnelles. Pour la modélisation de l'intra- et l'intervariabilité, les données nécessaires ont été définies, et acquises pour un doigt d'un premier donneur, et deux doigts d'un second donneur. La banque de données utilisée pour l'intervariabilité inclut environ 600000 empreintes encrées. Le nombre minimal d'observations nécessaire pour une estimation robuste a été déterminé pour les deux distributions utilisées. Des facteurs qui influencent ces distributions ont, par la suite, été analysés: le nombre de minuties inclus dans la configuration et la configuration en tant que telle pour les deux distributions, ainsi que le numéro du doigt et le dessin général pour l'intervariabilité, et la orientation des minuties pour l'intravariabilité. Parmi tous ces facteurs, l'orientation des minuties est le seul dont une influence n'a pas été démontrée dans la présente étude. Les résultats montrent que les rapports de vraisemblance issus de l'utilisation des scores de l'AFIS peuvent être utilisés à des fins évaluatifs. Des taux de rapports de vraisemblance relativement bas soutiennent l'hypothèse que l'on sait fausse. Le taux maximal de rapports de vraisemblance soutenant l'hypothèse que les deux impressions aient été laissées par le même doigt alors qu'en réalité les impressions viennent de doigts différents obtenu est de 5.2%, pour une configuration de 6 minuties. Lorsqu'une 7ème puis une 8ème minutie sont ajoutées, ce taux baisse d'abord à 3.2%, puis à 0.8%. Parallèlement, pour ces mêmes configurations, les rapports de vraisemblance sont en moyenne de l'ordre de 100, 1000, et 10000 pour 6, 7 et 8 minuties lorsque les deux impressions proviennent du même doigt. Ces rapports de vraisemblance peuvent donc apporter un soutien important à la prise de décision. Les deux évolutions positives liées à l'ajout de minuties (baisse des taux qui peuvent amener à une décision erronée et augmentation de la valeur du rapport de vraisemblance) ont été observées de façon systématique dans le cadre de l'étude. Des approximations basées sur 3 scores pour l'intravariabilité et sur 10 scores pour l'intervariabilité ont été trouvées, et ont montré des résultats satisfaisants.
Resumo:
Cadre de l'étude La part des dépenses de santé dans les budgets des pays occidentaux est importante et tend à croître depuis plusieurs décennies. Une des conséquences, notamment pour la Suisse, est une augmentation régulière des primes d'assurance maladie, dont l'impopularité incite les responsables politiques à trouver des stratégies de frein à la croissance des coûts de la santé. Les médicaments, qui contribuent notablement à l'augmentation de ces coûts, constituent l'une des cibles classiques d'interventions visant à une réduction des dépenses de santé. Le niveau de coûts des médicaments représente plus de 20% des dépenses de soins du domaine ambulatoire à la charge de l'assurance obligatoire des soins (AOS), soit une dépense annuelle de plus de 4 milliards de francs. Différentes mesures peuvent être utilisées par le gouvernement pour contenir cette facture à charge de la collectivité : baisse du prix des médicaments, limitation du nombre de produits remboursés par l'assurance de base et incitations à la concurrence sur les prix en autorisant les importations parallèles. Depuis que de plus en plus de brevets pour des médicaments sont arrivés à échéance, un autre angle d'attaque s'est concrétisé avec l'incitation à la prescription de médicaments génériques. Les génériques sont définis comme des produits thérapeutiques chimiquement identiques à des composés déjà utilisés, appelés médicaments originaux. En principe, une économie substantielle devrait pouvoir être réalisée sur les coûts totaux des médicaments si tous les génériques disponibles sur le marché étaient systématiquement prescrits par les professionnels et acceptés par les patients. Les résultats publiés par les caisses maladie et les offices fédéraux sont des estimations globales et les montants publiés par l'industrie pharmaceutique concernent l'ensemble du marché, incluant les médicaments utilisés dans les séjours hospitaliers, sont par ailleurs exprimés en prix de fabrique. De plus, aucune étude n'a tenu compte de la substituabilité des produits d'un point de vue pharmaceutique. L'objectif général de la thèse est d'évaluer aussi précisément que possible l'économie pouvant être encore réalisée dans le secteur ambulatoire en substituant aux médicaments originaux les produits génériques présents sur le marché et de caractériser plusieurs facteurs qui influencent la substitution générique. Pour cette étude, nous avons pu disposer de l'ensemble des factures pharmaceutiques de la caisse maladie CSS, pour tous ses assurés des cantons d'Argovie, du Tessin et de Vaud, soit plus de 169'000 assurés représentant les trois régions linguistiques de la Suisse. Les 1'341'197 prescriptions médicales qui ont été analysées concernent l'année 2003. C'est un moment critique dans l'histoire des génériques en Suisse, approprié pour établir un premier bilan après l'entrée en vigueur de la première mesure relative au droit de substituer octroyé en 2001 aux pharmaciens et, pour identifier idéalement les principaux déterminants de la substitution par les praticiens avant l'introduction de la quote-part différenciée en 2006. La présence d'un même principe actif n'est pas une condition suffisante pour permettre une substitution et pour ce travail des critères tenant compte des caractéristiques pharmaceutiques des produits ont été établis et appliqués pour valider la substituabilité des originaux par les génériques disponibles sur le marché. Ces critères concernent notamment le mode d'administration, le dosage et le nombre de doses dans l'emballage. L'étude a été réalisée selon deux approches, d'abord par une analyse descriptive sur l'ensemble de la population source pour estimer le marché des génériques et ensuite par une analyse statistique (régression logit multivariée) sur 173'212 prescriptions agrégées, qui concernent spécifiquement soit un générique soit un original substituable, pour caractériser les facteurs déterminants de la substitution générique. Résultats Dans l'ensemble de la population source, les génériques et les originaux substituables représentent 17,4% du marché en termes de coûts facturés, avec 3,4% de génériques et 14,0% d'originaux substituables ce qui correspond à un taux de substitution de 19,5%. En termes de dépenses, les substitutions génériques réalisées représentent une économie de 1,3% du total du marché étudié alors qu'il reste un potentiel notable d'économie par la substitution de 4,6%. Les taux de substitution sont très variables selon les cantons : 10,1% au Tessin, 29,0% pour le canton de Vaud et 35,8% pour Argovie. L'analyse univariée des 173'212 prescriptions de génériques ou d'originaux substituables, montre des taux de substitution plus élevés chez les patients jeunes et lorsqu'il y a d'importantes différences de prix entre les originaux et les génériques. Des taux de substitution peu élevés sont observés chez les patients les plus âgés et pour ceux qui ont des traitements médicamenteux complexes. Les patients ayant plus de 10 médicaments différents durant la même année, présentent une probabilité relative de substituer inférieure (-24%) par rapport aux patients ayant 6 à 10 médicaments différents dans l'année. Cependant, l'analyse multivariée montre que l'effet négatif sur le taux de substitution de l'âge combiné à la complexité des traitements n'excède pas 3%. Bien que le niveau de franchises et la participation financière à la quote-part soient liées à une augmentation de la prescription de génériques, leurs effets sont modérés pour les patients avec des franchises supérieures à 300 francs (effet marginal de 1%) et pour les patients qui n'ont pas atteint le plafond de participation (effet marginal de 2%). La différence de taux substitution entre les médecins hospitaliers et les spécialistes est diminuée de façon notable (effet marginal de -13%) et elle est cependant moins marquée avec les médecins généralistes (effet marginal de -3%). Les facteurs associés au marché ont une influence notable sur la substitution générique et des effets positifs sont observés avec l'augmentation de la taille du marché, du nombre de génériques pour un même original substituable et de l'économie relative entre l'original et le générique. Par contre, la diversification des formes galéniques et des tailles d'emballages au niveau de l'offre des médicaments originaux a des effets fortement négatifs sur la substitution générique (-7%). Le canton de domicile a aussi un impact notable sur la substitution et le canton du Tessin présente un taux plus bas (-26%) que le canton d'Argovie. Conclusion et perspectives Ce travail a montré qu'il y a encore un important potentiel d'économies à réaliser par la substitution générique, calculé à plus de 4% des dépenses pharmaceutiques prises en charge par l'AOS en ambulatoires. Une extrapolation à l'ensemble du marché suisse, qui doit être faite avec prudence, fait apparaître un potentiel d'économies de 127 millions pour les médicaments délivrés par les pharmacies en 2003. L'étude a mis en évidence un certain nombre de déterminants qui freinent la substitution générique, notamment la prescription par un médecin hospitalier. Sur ce point la prescription en DCI (dénomination commune internationale) pourrait favoriser la dispensation de génériques moins chers. Un taux de substitution plus faible est observé chez les patients âgés avec des traitements complexes. Ce constat peut être mis en relation avec la crainte d'avoir un traitement moins efficace ou moins bien supporté et les risques de confusion lors du passage d'un original substituable à un générique ou d'un générique à un autre générique. Sur ces éléments, l'indication claire et précise du nom de la substance, aussi bien sur les emballages des originaux substituables que sur ceux des génériques, pourrait rassurer les patients et diminuer les risques d'erreurs dans la prise des médicaments. Certaines précautions à prendre lors de la prescription de génériques sont reconnues, notamment pour les médicaments à faible marge thérapeutique, et des informations sur la bioéquivalence, régulièrement mises à jour et à disposition des professionnels, pourraient augmenter la confiance dans l'utilisation des génériques. Les industries pharmaceutiques préservent par différentes tactiques leurs parts de marché et notamment avec succès en introduisant de nouvelles formes galéniques juste avant l'expiration des brevets. Des directives complémentaires sur la fixation des prix pour le remboursement, en particulier l'introduction d'un prix de référence quelle que soit la forme galénique, pourraient diminuer l'effet de barrage des médicaments originaux. Les incitations économiques, telles que la franchise et les participations sont efficaces si l'on considère l'impact sur les taux de substitution. Leur effet global reste toutefois modeste et il serait nécessaire de mesurer concrètement l'impact de l'introduction en 2006 de la quote-part différenciée. Les différences de prix entre les originaux et les génériques exigées à 50% pour les gros marchés, c'est-à-dire de plus de 16 millions, devraient aussi avoir un impact qu'il serait opportun de mesurer.
Resumo:
Résumé Contexte et objectifs Les activités de recherche appliquée et développement (Ra&D) font partie du mandat de prestations des hautes écoles spécialisées (HES) prescrit par la loi. Néanmoins la tradition, le type et l'importance de la recherche varient fortement en fonction des domaines d'études. Il en va de même pour les liens avec les autres domaines de prestations que sont l'enseignement, la formation continue et les prestations de services. Les activités de Ra&D dans chaque HES s'inscrivent dans la tension entre l'orientation pratique (qui signifie le plus souvent une orientation vers le marché économique) et l'orientation vers la science (signe de leur rattachement au système scientifique). Il en découle des conflits d'intérêts entre les critères de qualité du « succès sur le marché » et de la « réputation scientifique ». En 2005, sur mandat de la Commission pour la technologie et l'innovation (CTI), B. Lepori et L. Attar (2006) ont mené une étude visant à examiner plus particulièrement les stratégies de recherche et l'organisation de la recherche au sein des hautes écoles spécialisées. Aujourd'hui, six ans plus tard, la phase de mise sur pied est en grande partie terminée. En lançant une nouvelle étude, l'Office fédéral de la formation professionnelle et de la technologie (OFFT) et la Commission fédérale des hautes écoles spécialisées (CFHES) souhaitaient faire le point sur les activités de recherche des HES, c'està- dire examiner les résultats des stratégies et de l'organisation de cette phase. Cette étude s'articule principalement autour de l'état actuel de la recherche, de ses problèmes et de ses perspectives. Structure de l'étude La recherche dans les HES se caractérise par différents facteurs d'influence (cultures disciplinaires, traditions, ancrage dans les régions linguistiques, structures organisationnelles, gouvernance, stratégies de positionnement, personnel, etc.). Dans la présente étude, ces facteurs sont systématiquement examinés selon deux dimensions: le « domaine d'études » et la « haute école spécialisée». L'analyse repose notamment sur l'exploitation de documents et de données. Mais cette étude se fonde principalement sur les entretiens menés avec les représentants des HES à différents niveaux de responsabilités. Les hautes écoles spécialisées (HES) Les entretiens avec les directions des HES ainsi que l'exploitation des données et des documents mettent en évidence la grande diversité des sept HES suisses de droit public dans leur structure, leurs combinaisons de domaines d'études et leurs orientations. Les modes de financement de la recherche varient fortement entre les HES. Concrètement, les sources de financement ne sont pas les mêmes d'une HES à l'autre (contributions des organes responsables, fonds de tiers, etc.). Les degrés et formes du pilotage concernant les contenus de la recherche diffèrent également dans une large mesure (définition de pôles de recherche, soutien cumulatif à l'acquisition de fonds de tiers), de même que les stratégies en matière de recrutement et d'encouragement du personnel. La politique de chaque HES implique des tensions et des problèmes spécifiques. Les domaines d'études Sur les dix domaines d'études, quatre ont été choisis à titre d'exemples pour des études approfondies : Technique et technologies de l'information (TI), Economie et services, Travail social, Musique, arts de la scène et autres arts. Chaque domaine d'études a été examiné à chaque fois dans deux HES. Cette méthode permet de relever les différences et les similitudes. Les résultats confirment qu'il existe des différences importantes à bien des égards entre les domaines d'études évalués. Ces différences concernent la position dans le système des hautes écoles, le volume des activités de recherche, l'importance de la recherche au sein des HES, la tradition, l'identité et l'orientation. Elles se retrouvent par ailleurs dans les buts et la place de la Ra&D dans les domaines d'études concernés. Il ressort toutefois qu'il n'y a pas lieu de parler d'une dichotomie entre les « anciens » et les « nouveaux » domaines d'études : Technique, économie et design (TED) d'une part et Santé, social et arts (SSA) d'autre part. Il semble plus pertinent de désigner le domaine d'études 4/144 Technique et TI comme le domaine dominant auquel se référent le pilotage et le financement des HES, que ce soit implicitement ou explicitement. Cadre homogène et espaces hétérogènes Le pilotage et le financement de la Ra&D au sein des hautes écoles spécialisées s'inscrivent dans un modèle-cadre fixé à l'échelle fédérale et principalement axé sur le domaine d'études Technique. Ce modèle-cadre se caractérise par un apport élevé de fonds de tiers (notamment les subventions de la CTI et les fonds privés) et des incitations en faveur de ce mode de financement, par une orientation vers le marché et par un haut degré d'autonomie des établissements partenaires/départements et instituts. Par comparaison avec les hautes écoles universitaires, les HES affichent notamment un faible niveau de financement de base dans le secteur Ra&D. Cet état de fait est certes compatible avec la forme actuelle du financement par la CTI, mais pas avec les règles de financement du Fonds national suisse (FNS). Un financement principalement basé sur les fonds de tiers signifie par ailleurs que l'orientation du contenu de la recherche et la définition de critères de qualité sont confiées à des instances externes, notamment aux mandants et aux institutions d'encouragement de la recherche. Il apparaît en dernier lieu qu'un tel modèle-cadre ne favorise pas les politiques visant à la constitution de pôles de recherche, l'obtention d'une taille critique, et la mise en place d'une coordination. Ces résultats concernent tous les domaines d'études sans avoir pour autant les mêmes conséquences : les domaines d'études se prêtant dans une faible mesure à l'acquisition de fonds de tiers sur des marchés économiques (dans cette étude, il s'agit essentiellement de la Musique, arts de la scène et autres arts, mais également du Travail social dans certains cas) ont plus de difficultés à répondre aux attentes énoncées en termes de succès et de profit. Les HES modifient plus ou moins le modèle-cadre en élaborant elles-mêmes des modèles d'organisation qui prennent en compte leur combinaison de domaines d'études et soutiennent leurs propres orientations et positionnements stratégiques. La combinaison de domaines d'études hétérogènes et de politiques différentes au sein des HES se traduit par une complexité du système des HES, beaucoup plus importante que ce que généralement supposée. De plus, au regard des connaissances lacunaires sur les structures « réelles » de gouvernance des HES, il n'est quasiment pas possible de comparer directement les hautes écoles spécialisées entre elles. Conclusions et recommandations Le principal constat qui ressort d'un ensemble de conclusions et de recommandations des auteurs est que le secteur Ra&D dans les HES doit être plus explicitement évalué en fonction des spécificités des domaines d'études, à savoir du rôle de la recherche pour l'économie et la société, des différences entre les marchés (économiques) correspondants et de l'importance de la Ra&D pour les objectifs visés. L'étude montre clairement qu'il n'y a pas à proprement parler une seule et unique recherche au sein des hautes écoles spécialisées et que la notion de « recherche appliquée » ne suffit ni comme description ni, par conséquence, comme critère d'identité commun. Partant de ce constat, nous recommandons de revoir le mode de financement de la recherche dans les HES et d'approfondir le débat sur les structures de gouvernance sur l'orientation de la Ra&D (et notamment sur les critères de qualité appliqués), de même que sur l'autonomie et la coordination. Les recommandations constituent des points de discussion et n'engagent aucunement l'OFFT ou la CFHES.
Resumo:
SummaryGene duplication and neofunctidnalization are important processes in the evolution of phenotypic complexity. They account for important evolutionary novelties that confer ecological adaptation, such as the major histocompatibility complex (MHC), a multigene family with a central role in vertebrates' adaptive immune system. Multigene families, which evolved in large part through duplication, represent promising systems to study the still strongly depbated relative roles of neutral and adaptive processes in the evolution of phenotypic complexity. Detailed knowledge on ecological function and a well-characterized evolutionary history place the mammals' MHC amongst ideal study systems. However mammalian MHCs usually encompass several million base pairs and hold a large number of functional and non-functional duplicate genes, which makes their study complex. Avian MHCs on the other hand are usually way more compact, but the reconstruction of. their evolutionary history has proven notoriously difficult. However, no focused attempt has been undertaken so far to study the avian MHC evolutionary history in a broad phylogenetic context and using adequate gene regions.In the present PhD, we were able to make important contributions to the understanding of the long-term evolution of the avian MHC class II Β (MHCI1B). First, we isolated and characterized MHCIIB genes in barn owl (Tyto alba?, Strigiformes, Tytonidae), a species from an avian lineage in which MHC has not been studied so far. Our results revealed that with only two functional MHCIIB genes the MHC organization of barn owl may be similar to the 'minimal essential' MHC of chicken (Gallus gallus), indicating that simple MHC organization may be ancestral to birds. Taking advantage of the sequence information from barn owl, we studied the evolution of MHCIIB genes in 13 additional species of 'typical' owls (Strigiformes, Strigidae). Phylogenetic analyses revealed that according to their function, in owls the peptide-binding region (PBR) encoding exon 2 and the non-PBR encoding exon 3 evolve by different patterns. Exon 2 exhibited an evolutionary history of positive selection and recombination, while exon 3 traced duplication history and revealed two paralogs evolving divergently from each other in owls, and in a shorebird, the great snipe {Gallinago media). The results from exon 3 were the first ever from birds to demonstrate gene orthology in species that diverged tens of millions of years ago, and strongly questioned whether the taxa studied before provided an adequate picture of avian MHC evolution. In a follow-up study, we aimed at explaining a striking pattern revealed by phylogenetic trees analyzing the owl sequences along with MHCIIB sequences from other birds: One owl paralog (termed DAB1) grouped with sequences of passerines and falcons, while the other (DAB2) grouped with wildfowl, penguins and birds of prey. This could be explained by either a duplication event preceding the evolution of these bird orders, or by convergent evolution of similar sequences in a number of orders. With extensive phylogenetic analyses we were able to show, that indeed a duplication event preceeded the major avian radiation -100 my ago, and that following this duplication, the paralogs evolved under positive selection. Furthermore, we showed that the divergently evolving amino acid residues in the MHCIIB-encoded β-chain potentially interact with the MHCI I α-chain, and that molecular coevolution of the interacting residues may have been involved in the divergent evolution of the MHCIIB paralogs.The findings of this PhD are of particular interest to the understanding of the evolutionary history of the avian MHC and, by providing essential information on long-term gene history in the avian MHC, open promising perspectives for advances in the understanding of the evolution of multigene families in general, and for avian MHC organization in particular. Amongst others I discuss the importance of including protein structure in the phylogenetic study of multigene families, and the roles of ecological versus molecular selection pressures. I conclude by providing a population genomic perspective on avian MHC, which may serve as a basis for future research to investigate the relative roles of neutral processes involving effective population size effects and of adaptation in the evolution of avian MHC diversity and organization.RésuméLa duplication de gènes et leur néo-fonctionnalisation sont des processus importants dans l'évolution de la complexité phénotypique. Ils sont impliqués dans l'apparition d'importantes nouveautés évolutives favorisant l'adaptation écologique, comme c'est le cas pour le complexe majeur d'histocompatibilité
Resumo:
RÉSUMÉ Le système rénine-angiotensine joue un rôle prépondérant dans la régulation de la pression sanguine et de la balance des sels ainsi que dans d'autres processus physiologiques et pathologiques. Lorsque la pression sanguine est trop basse, les cellules juxtaglomérulaires sécrètent la rénine, qui clivera l'angiotensinogène circulant (sécrété majoritairement par le foie) pour libérer l'angiotensine I, qui sera alors transformée en angiotensine II par l'enzyme de conversion de l'angiotensine. Ce système est régulé au niveau de la sécrétion de la rénine par le rein. La rénine est une enzyme de type protéase aspartique. Elle est produite sous la forme d'un précurseur inactif de haut poids moléculaire appelé prorénine, qui peut être transformé en rénine active. Si le rôle de la prorégion de la rénine n'est pas encore connu, plusieurs études ont montré qu'elle pourrait être un auto-inhibiteur. Des travaux menés sur d'autres enzymes protéolytique ont mis en évidence un rôle de chaperon de leurs prorégions. Dans la circulation, la prorénine est majoritaire (90%) et la rénine active ne représente que 10% de la rénine circulante. L'enzyme qui transforme, in vivo, la prorénine en rénine active n'est pas connue. De même, l'endroit précis du clivage n'est pas élucidé. Dans ce travail, nous avons généré plusieurs mutants de la prorénine et les avons exprimés dans deux types cellulaires : les CV1 (modèle constitutif) et AtT-20 (modèle régulé). Nous avons montré que la prorégion joue un rôle important aussi bien dans l'acquisition de l'activité enzymatique que dans la sécrétion de la rénine, mais fonctionne différemment d'un type cellulaire à l'autre. Nous avons montré pour la première fois que la prorégion interagit de façon intermoléculaire à l'intérieur de la cellule. Les expériences de complémentation montre que l'interaction favorable de la rénine avec la prorégion dépend de la taille de cette dernière : prorénine (383 acides aminés) > pro62 (62 acides aminés) > pro43 (43 acides aminés). Par ailleurs nos résultats montrent qu'une faible partie de la rénine est dirigée vers la voie de sécrétion régulée classique tandis que la majorité est dirigée vers les lysosomes. Ceci suggère qu'une internalisation de la rénine circulante via le récepteur mannose-6-phosphate est possible. Cette dernière concernerait essentiellement la prorénine (dont les taux circulants sont 10 fois plus élevés que la rénine active). La suite de ce travail porterait sur la confirmation de cette hypothèse et l'identification de son possible rôle physiologique. SUMMARY The renin-angiotensin system is critical for the control of blood pressure and salt balance and other physiological and pathological processes. When blood pressure is too low, renin is secreted by the juxtaglomerular cells. It will cleave the N-terminus of circulating angiotensinogen (mostly secreted by the liver) to angiotensin-1, which is then transformed in angiotensin-II by the angiotensin-converting-enzyme (ACE). This system is regulated at the level of renin release. Renin, an aspartyl protease, is produced from a larger precursor (called prorenin) which is matured into active renin. Although the role of the renin proregion remains unknown, it has been reported that it could act as an autoinhibitor. Works on other proteolytic enzymes showed that their prorégion can act as chaperones. prorenin is the major circulating form of renin, while active renin represents only 10%. The enzyme which transforms, in vivo, the prorenin into active renin is unknown and the exact cleavage site remains to be elucidated. In this study, we generated some prorenin mutants, which were expressed in CV1 cells (constitutive pathway model) or AtT-20 cells (regulated pathway model). We showed that the proregion plays a pivotal role in the enzymatic activity and secretion of renin in a different manner in the two cell types. For the first time, it has been demonstrated that the proregion acts in an intermolecular way into the cell. Complementation assays showed that interaction between renin and proregion depends on the size of the proregion: prorenin (383 amino acids) > pro62 (62 amino acids) > pro43 (43 amino acids). Furthermore, our results showed that only a small amount of the cellular renin pool is targeted to the "canonical" regulated pathway and that the remaining is targeted to the lysosomes. Those results suggest a possible internalizátion of the circulating renin through the mannose-6-phosphate receptor pathway. This would mostly concern the prorenin (whose levels are ten times higher than active renin). Further studies would confirm or infirm this hypothesis and elucidate a potential physiological role.
Resumo:
La majorité des organelles d'une cellule adaptent leur nombre et leur taille pendant les processus de division cellulaire, de trafic vésiculaire ou suite à des changements environnementaux par des processus de fusion et de fragmentation membranaires. Ceci est valable notamment pour le golgi, les mitochondries, les péroxisomes et les lysosomes. La vacuole est le compartiment terminal de la voie endocytaire dans la levure Saccharomyces cerevisiae\ elle correspond aux lysosomes des cellules mammifères. Suite à un choc hyperosmotique, la vacuole se fragmente en plusieurs petites vésicules. Durant ce projet, cette fragmentation a été étudiée en utilisant la technique de microscopie confocale in vivo. J'ai observé que la division de la vacuole se produit d'une façon asymétrique. La première minute après le choc osmotique, les vacuoles rétrécissent et forment des longues invaginations tubulaires. Cette phase est dépendante de la protéine Vps1, un membre de la famille des protéines apparentées à la dynamine, ainsi que d'un gradient transmembranaire de protons. Pendant les 10-15 minutes qui suivent, des vésicules se détachent dans les régions où l'on observe les invaginations pendant la phase initiale. Cette deuxième phase qui mène à la fission des nouveaux compartiments vacuolaires dépend de la production du lipide PI(3,5)P2 par la protéine Fab1. J'ai établi la suite des événements du processus de fragmentation des vacuoles et propose la possibilité d'un rôle régulateur de la protéine kinase cycline-dépendante Pho85.¦En outre, j'ai tenté d'éclaircir plus spécifiquement le rôle de Vps1 pendant la fusion et fission des vacuoles. J'ai trouvé que tous les deux processus sont dépendants de l'activité GTPase de cette protéine. De plus l'association avec la membrane vacuolaire paraît régulée par le cycle d'hydrolyse du GTP. Vps1 peut lier la membrane sans la présence d'un autre facteur protéinique, ce qui permet de conclure à une interaction directe avec des lipides de la membrane. Cette interaction est au moins partiellement effectuée par le domaine GTPase, ce qui est une nouveauté pour un membre de cette famille de protéines. Une deuxième partie de Vps1, nommée insert B, est impliquée dans la liaison à la vacuole, soit par interaction directe avec la membrane, soit par régulation du domaine GTPase. En assumant que Vps1 détienne deux régions capables de liaison aux membranes, je conclus qu'elle pourrait fonctionner comme facteur de « tethering » lors de la fusion des vacuoles.¦-¦La cellule contient plusieurs sous-unités, appelées organelles, possédant chacune une fonction spécifique. Dépendant des processus qui s'y déroulent à l'intérieur, un environnement chimique spécifique est requis. Pour maintenir ces différentes conditions, les organelles sont séparées par des membranes. Lors de la division cellulaire ou en adaptation à des changements de milieu, les organelles doivent être capables de modifier leur morphologie. Cette adaptation a souvent lieu par fusion ou division des organelles. Le même principe est valable pour la vacuole dans la levure. La vacuole est une organelle qui sert principalement au stockage des aliments et à la dégradation des différents composants cellulaires. Alors que la fusion des vacuoles est un processus déjà bien décrit, la fragmentation des vacuoles a jusqu'ici été peu étudiée. Elle peut être induit par un choc osmotique: à cause de la concentration de sel élevé dans le milieu, le cytosol de la levure perd de l'eau. Par un flux d'eau de la vacuole au cytosol, la cellule est capable d'équilibrer celui-ci. Quand la vacuole perd du volume, elle doit réadapter le rapport entre surface membranaire et volume, ce qui se fait efficacement par une fragmentation d'une grande vacuole en plusieurs petites vésicules. Comment ce processus se déroule d'un point de vue morphologique n'a pas été décrit jusqu'à présent. En analysant la fragmentation vacuolaire par microscopie, j'ai trouvé que celle-ci se déroule en deux phases. Pendant la première minute suivant le choc osmotique, les vacuoles rétrécissent et forment des longues invaginations tubulaires. Cette phase dépend de la protéine Vps1, un membre de la famille des protéines apparentées à la dynamine, ainsi que du gradient transmembranaire de protons. Ce gradient s'établit par une pompe membranaire, la V-ATPase, qui transporte des protons dans la vacuole en utilisant l'énergie libérée par hydrolyse d'ATP. Après cette phase initiale, la formation de nouvelles vésicules vacuolaires dépend de la synthèse du lipide PI(3,5)P2.¦Dans la deuxième partie de l'étude, j'ai tenté de décrire comment Vps1 lie la membrane pour effectuer un remodelage de la vacuole. Vps1 est nécessaire pour la fusion et la fragmentation des vacuoles. J'ai découvert que tous les deux processus dépendent de sa capacité d'hydrolyser du GTP. Ainsi l'association avec la membrane est couplée au cycle d'hydrolyse du GTP. Vps1 peut lier la membrane sans la présence d'une autre protéine, et interagit donc très probablement avec les lipides de la membrane. Deux parties différentes de la protéine sont impliquées dans la liaison, dont une, inattendue, le domaine GTPase.¦-¦Numerous organelles undergo membrane fission and fusion events during cell division, vesicular traffic, or in response to changes in environmental conditions. Examples include Golgi (Acharya et al., 1998) mitochondria (Bleazard et al., 1999) peroxisomes (Kuravi et al., 2006) and lysosomes (Ward et al., 1997). In the yeast Saccharomyces cerevisiae the vacuole is the terminal component of the endocytic pathway and corresponds to lysosomes in mammalian cells. Yeast vacuoles fragment into multiple small vesicles in response to a hypertonic shock. This rapid and homogeneous reaction can serve as a model to study the requirements of the fragmentation process. Here, I investigated osmotically induced fragmentation by time-lapse microscopy. I observe that the small fragmentation products originate directly from the large central vacuole by asymmetric scission rather than by consecutive equal divisions and that fragmentation occurs in two distinct phases. During the first minute, vacuoles shrink and generate deep invaginations, leaving behind tubular structures. This phase requires the dynamin-like GTPase Vps1 and the vacuolar proton gradient. In the subsequent 10-15 minutes, vesicles pinch off from the tubular structures in a polarized fashion, directly generating fragmentation products of the final size. This phase depends on the production of phosphatidylinositol- 3,5-bisphosphate by the Fab1 complex. I suggest a possible regulation of vacuole fragmentation by the CDK Pho85. Based on my microscopy study I established a sequential involvement of the different fission factors.¦In addition to the morphological description of vacuole fragmentation I more specifically aimed to shed some light on the role of Vps1 in vacuole fragmentation and fusion. I find that both functions are dependent on the GTPase activity of the protein and that also the membrane association of the dynamin-like protein is coupled to the GTPase cycle. I found that Vps1 has the capacity for direct lipid binding on the vacuole and that this lipid binding is at least partially mediated through residues in the GTPase domain, a complete novelty for a dynamin family member. A second stretch located in the region of insert Β has also membrane-binding activity or regulates the association with the vacuole through the GTPase domain. Under the assumption of two membrane-binding regions I speculate on Vps1 as a possible tethering factor for vacuole fusion.
Resumo:
Les communes vaudoises ne sont pas épargnées par les profonds changements que subissent les communes suisses depuis les années 90. Le nombre de réformes a augmenté de manière considérable et les causes de ces changements sont multiples: une complexité croissante des prestations à fournir, la recherche de formes organisationnelles plus efficaces, la difficulté de trouver des personnes s'engageant en politique. Vu ces défis, la fusion de communes a été fréquente dans certains cantons. Quant à lui, le canton de Vaud reste un canton avec un grand nombre de communes de petite taille. C'est entre autre sous l'aspect de la différente taille des communes que cette étude aborde des thèmes concernant les communes vaudoises, comme par exemple les limites de performances des communes, la politique et l'administration communale, les relations et la répartition des tâches entre les communes et le canton, la collaboration intercommunale où encore les fusions de communes. L'analyse se base sur les données de l'enquête auprès des secrétaires communaux suisses qui a lieu régulièrement depuis 1988.
Resumo:
Le monitoring de la problématique du cannabis en Suisse constitue un ensemble de travaux qui permettent le suivi de la situation au niveau national et qui sont mis en oeuvre par un consortium d'institutions de recherche. Ce monitoring comprend l'étude présentée dans ce rapport, l'étude sentinelle. Celle-ci s'intéresse à l'évolution de la situation en matière de cannabis ainsi qu'à la gestion de cette situation au niveau local. Il s'agit de répondre aux questions suivantes : - quelle est la situation en matière de consommation de cannabis et de marché et quelle est son évolution ? - quels sont les principaux problèmes rencontrés sur le terrain ? - quelles sont les mesures et interventions qui ont été développées dans ce domaine ? Pour y répondre, on a choisi de suivre la situation dans quatre cantons suisses dits "sentinelle" (St-Gall, Tessin, Vaud, Zurich). Les critères de choix de ces cantons font appel à leur taille, au rapport ville/campagne et à la présence de frontière avec des états voisins, à la langue, au type de politique drogue pratiqué. Dans chaque canton on a constitué des panels d'experts formés par des profes-sionnels de terrain dans trois domaines différents (santé et social, école, police et justice). Leurs observations ainsi que les données cantonales disponibles sont récoltées et discutées lors d'un workshop et analysées sur plusieurs années. Le présent rapport fait état des résultats des quatre workshops de suivi (2005, 2006, 2008, 2009). [Résumé, p. 5]
Resumo:
Introduction L'écriture manuelle fluide et automatisée constitue, avec la lecture, les fondements au développement des compétences scolaires. En effet, l'enfant peut développer le langage écrit avec l'acquisition de l'écriture, il a besoin d'une écriture manuelle automatisée lors d'évaluations scolaires écrites. De plus, la sollicitation de l'écriture manuelle augmente au cours de la scolarité, que ce soit au niveau de l'endurance, de la vitesse ou de la qualité. L'acquisition de l'écriture requiert des processus cognitifs, linguistiques et perceptivomoteurs, définis en tant que facteurs internes ou endogènes (Beeson et al., 2003) et résulte d'une démarche d'enseignement et d'un processus d'apprentissage constituant des facteurs externes ou exogènes. Les perturbations de l'acquisition de l'écriture sont nommées de différentes manières dans la littérature scientifique. Les chercheurs anglo-saxons convoquent la notion de faible écriture manuelle (poor handwriting), de troubles grapho-moteurs ou de difficultés d'écriture (Weintraub & Graham, 2000 ; Jongmans, Smits-Engelsman, & Schoemaker, 2003 ; Volman, van Schendel, &Jongmans, 2006) qui se caractérisent par une absence de régularité du tracé et/ ou de l'espace entre les mots, par des lettres ambiguës (Rosenblum, Weiss, & Parush, 2006). Les auteurs francophones, le plus souvent de formation médicale (Gubbay & de Klerk, 1995 ; Mazeau, 2005), utilisent plus fréquemment le diagnostic de dysgraphie qui renvoie à des difficultés d'assemblage de ronds et de traits pour former une lettre perturbant ainsi l'apprentissage de l'écriture (Mazeau, 2005). Selon Mazeau, la dysgraphie fait partie des troubles d'apprentissage. Les conséquences d'une faible écriture manuelle sont multiples. Si l'écriture n'est pas automatisée, l'enfant est placé dans une situation de double tâche nécessitant une attention focalisée à la fois sur l'acte d'écrire et sur le raisonnement nécessaire pour réaliser les exigences d'une tâche scolaire (Berningér et al., 1997). Si l'enfant se concentre sur la formation des lettres et le contrôle des mouvements, le raisonnement nécessaire à l'application de règles de grammaire et d'orthographe est perturbé tout comme la qualité des idées lors d'une composition. L'enfant présentant une écriture lente ne parviendra pas à finaliser son travail dans les situations de tests. Les difficultés d'écriture manuelle constituent un facteur de prédiction des troubles d'apprentissage (Harvey & Henderson, 1997 ; Simner, 1982) et elles sont fréquemment citées parmi les causes de la littératie. Car, comme le relèvent Berninger, Mizokawa et Bragg (1991), l'enfant présentant des difficultés d'écriture manuelle aura tendance à éviter toute activité d'écriture renforçant ainsi l'écart avec ses pairs dans ce domaine. Si ces comportements d'évitement se situent dans la période d'apprentissage de l'écriture, ils perturberont la mémorisation des lettres. En effet, la mémorisation des lettres est meilleure lorsque l'apprentissage se fait en situation d'écriture manuelle qu'en situation de lecture uniquement (Longcamp, Boucard, Guilhodes, & Velay, 2006). Par ailleurs, les épreuves dont la qualité de l'écriture est faible font l'objet d'évaluation moins favorable que celles dont l'écriture est plus facilement lisible. Les enseignants/es seraient alors moins persévérants/es dans leur lecture et plus sévères lors de la notation d'une rédaction. Ils, elles développeraient une faible perception des compétences en composition lorsqu'ils, elles sont confrontés/es à une épreuve dont la qualité est peu fluide et peu lisible (Alston & Taylor, 1987). L'identification des difficultés d'écriture peut se fairé de différentes manières (Kozatiek & Powell, 2002 ; Simons & Thijs, 2006 ). D'une part, l'appréciation de la qualité et de la vitesse d'écriture manuelle peut être subjective avec l'avis de l'enseignant et, d'autre part, objective avec l'utilisation de tests standardisés comportant des critères permettant de mesurer la vitesse et la qualité de l'écriture. Les conditions de passation des évaluations peuvent varier (copie, dictée ou composition) et influencer la vitesse et la qualité de l'écriture. La vitesse est moindre et la taille des lettres est inférieure en situation de composition qu'en situation de copie tandis que la régularité du tracé est plus stable en situation de copie que lors d'une composition. Si le dépistage et l'identification des difficultés d'écriture contribuent à la prévention de risques ultérieurs tels que de faibles compétence en littératie, la compréhension des causes de ces difficultés permettra le développement de moyens de remédiation de ces difficultés. Dans la littérature scientifique traitant de cette problématique, des facteurs endogènes ou exogènes peuvent être identifiés. Les facteurs endogènes regroupent autant la maturation développementale et le genre que les fonctions sensorimotrices telles que les dextérités manuelle et digitale, l'intégration visuomotrice, la visuoperception, l'attention visuelle et les fonctions cognitives. En outre, les troubles du développement tels qu'un trouble du langage, un déficit de l'attention ou un Trouble de l'acquisition de la coordination (TAC) (DSM-IV) (American Psychiatric Association, 2003) peuvent perturber l'acquisition de l'écriture. Les facteurs exogènes correspondent soit aux facteurs environnementaux tels que la position de l'enfant ou l'outil scripteur utilisé, soit aux modalités et à la durée de l'enseignement de l'écriture. En effet, la durée de l'enseignement de l'écriture et les modalités pédagogiques contribuent à marquer les différences interindividuelles pour la qualité et pour la vitesse de l'écriture. Actuellement, l'enseignement de l'écriture est, dans la plupart des programmes scolaires, intégré dans le cadre d'autres cours et ne fait pas l'objet d'un enseignement spécifique. Cette pratique entraîné un auto-apprentissage de la part de l'enfant et, par conséquent, un apprentissage implicite de l'écriture alors que les bénéfices d'un enseignement explicite ont été largement mis en évidence par Willingham et Goedert-Eschmann (1999). En effet, ces auteurs ont montré qu'un enseignement explicite favorise l'acquisition, la performance et le transfert d'apprentissage de manière plus importante que l'apprentissage implicite. Paradoxalement, alors que l'enseignement de l'écriture tend à être délaissé dans les programmes scolaires, les études mettant en évidence l'efficacité de l'enseignement de l'écriture (Berninger et al., 1997 ; Jongmans, Linthorst-Bakker, Westenberg & SmitsEngelsman et al., 2003 ; Schoemaker, Niemeijer, Reynders, & Smits-Engelsman , 2003) sont nombreuses. Leurs résultats montrent que l'enseignement d'une seule catégorie d'écriture (liée ou scripte) est plus efficace que l'enseignement de deux catégories d'écriture scripte en début d'apprentissage et écriture liée dans un second temps. Un enseignement régulier et intensif consacré à l'écriture au début de la scolarité va permettre une acquisition plus rapide de l'écriture et de la lecture (Graham & Weintraub, 1996 ; Denton, Cope & Moser, 2006). Selon Berninger, Abbot, Abbot, Graham et Richards (2002), la lecture et l'écriture devraient faire l'objet d'un enseignement coordonné et harmonisé. L'enseignement de l'écriture favorisant les liens avec les contextes d'utilisation de l'écriture montre une efficacité plus grande que lorsqu'il est déconnecté de son contexte (Denton, Cope, & Moser, 2006). L'enjeu d'une automatisation de l'écriture de qualité est important et relève d'une priorité afin de permettre aux enfants de développer de manière optimale leurs compétences académiques. Lorsque des troubles d'écriture sont constatés, l'identification des causes liées à ces difficultés tout comme une prise en charge spécifique faciliteront l'acquisition de cette compétence fondamentale (Berninger et al., 1997). Dans ces perspectives, cette thèse vise à identifier les facteurs endogènes et les facteurs exogènes intervenant dans l'écriture manuelle, que ce soit au niveau de la qualité ou de la vitesse de l'écriture. Au niveau théorique, elle développe l'étai des connaissances dans le domaine de l'écriture en neuropsychologie, en neurosciences et en sciences du mouvement humain. Elle présente, dans une perspective développementale, les modèles de l'apprentissage de l'écriture ainsi que les étapes d'acquisition de l'écriture tout en considérant les différences liées au genre. Ensuite, la description des difficultés d'écriture manuelle précède les moyens d'évaluation de l'écriture. Un chapitre est consacré aux fonctions perceptivomotrices et cognitives influençant l'écriture. Puis, comme les difficultés d'acquisition de l'écriture manuelle font partie du TAC, ce trouble est développé dans le chapitre 5. Enfin, les facteurs exogènes sont présentés dans le chapitre 6, ils comprennent les conditions environnementales (position de l'enfant, types de papiers, types d'outils scripteurs) ainsi que les dimensions d'un programme d'enseignement de l'écriture manuelle. Les effets des programmes de remédiation ou d'enseignement intensif de l'écriture sont traités en dernière partie du chapitre 6. Cette thèse est composée d'une partie de recherche fondamentale et d'une partie de recherche appliquée. La recherche fondamentale, qui comprend deux étapes d'investigation (Etudes 1 et 2), a pour objectifs d'identifier les facteurs endogènes prédictifs d'une écriture manuelle non performante (dextérités digitale et manuelle, intégration visuomotrice ou visuoperception) et d'investiguer les relations entre la lecture, l'attention visuelle, la mémoire audtive et l'écriture manuelle. De plus, elle déterminera la prévalence du TAC parmi les enfants présentant une faible écriture manuelle. La recherche appliquée comporte deux expérimentations. La première expérience a pour but de mesurer les effets d'un programme d'enseignement de l'écriture introduit en fin de deuxième année primaire visant à permettre aux enfants les plus faibles dans le domaine de l'écriture d'améliorer leurs performances. La seconde expérience analyse les effets d'un programme d'enseignement intensif de l'écriture manuelle qui s'est déroulé au début de la première année de scolarité obligatoire. L'acquisition de l'écriture est complexe tant au niveau du contróle moteur que du codage phonème -graphème ou de l'attention. L'écriture manuelle, en tant que compétence de base dans le développement des acquisitions scolaires, demeure tout au long de la scolarité et de la vie professionnelle, une compétence incontournable malgré le développement des nouvelles technologies. Remplir un formulaire, prendre des notes dans une séance ou à un cours, signer des documents, consigner des notes dans des dossiers, utiliser des écrans tactiles constituent des activités nécessitant une écriture manuelle fonctionnelle.
Resumo:
Ce guide présente la méthode Data Envelopment Analysis (DEA), une méthode d'évaluation de la performance . Il est destiné aux responsables d'organisations publiques qui ne sont pas familiers avec les notions d'optimisation mathématique, autrement dit de recherche opérationnelle. L'utilisation des mathématiques est par conséquent réduite au minimum. Ce guide est fortement orienté vers la pratique. Il permet aux décideurs de réaliser leurs propres analyses d'efficience et d'interpréter facilement les résultats obtenus. La méthode DEA est un outil d'analyse et d'aide à la décision dans les domaines suivants : - en calculant un score d'efficience, elle indique si une organisation dispose d'une marge d'amélioration ; - en fixant des valeurs-cibles, elle indique de combien les inputs doivent être réduits et les outputs augmentés pour qu'une organisation devienne efficiente ; - en identifiant le type de rendements d'échelle, elle indique si une organisation doit augmenter ou au contraire réduire sa taille pour minimiser son coût moyen de production ; - en identifiant les pairs de référence, elle désigne quelles organisations disposent des best practice à analyser.
Resumo:
Introduction :¦Alors que le risque de métastases ganglionnaires est absent pour les adénomes coliques avec dysplasie de haut degré ou adénocarcinome intramuqueux limités à la muqueuse, ce risque existe à priori pour les adénomes avec transformation adénocarcinomateuse se définissant par l'envahissement de la sous-muqueuse (pT1). Néanmoins l'importance de leur potentiel à développer des métastases reste difficile à estimer posant un réel problème pour leur prise en charge. A ce jour, près de la moitié des adénocarcinomes débutants diagnostiqués sur des polypectomies est traitée par une résection colique chirurgicale complémentaire avec un curage ganglionnaire.¦Le but de cette étude est de quantifier le risque de développement de métastases ganglionnaires pour les adénocarcinomes pT1 et de définir les critères histologiques et macroscopiques utiles pour l'évaluation de ce risque.¦Méthode :¦Il s'agit d'une revue rétrospective de 32 cas d'adénocarcinomes colo-rectaux débutants chez 31 patients et recensés entre 2000 et 2010 à l'institut de pathologie du CHUV. Pour chaque tumeur nous avons procédé à une analyse macroscopique et histologique détaillée et nous l'avons corrélée à la rechercher de métastases ou de récidives lors du suivi. Enfin nous avons comparés nos résultats à une analyse de la littérature.¦Résultats et conclusion :¦Un seul adénocarcinome parmi les 32 adénocarcinomes recensés (3.13%) a présenté une métastase ganglionnaire avec 1 ganglion métastatique sur 21 ganglions prélevés. Aucune récidive n'a été mise en évidence lors du suivi des 32 adénocarcinomes. Ces résultats sont beaucoup plus optimistes que ceux de la littérature permettant de penser que la majorité de ces tumeurs peuvent être traités par polypectomie seule avec suivi endoscopique.¦Selon la littérature, les paramètres les plus significatifs pour la prédiction du risque métastatique sont un grade 3, une clearance inférieure à 2mm, un budding marqué (petits bourgeonnements de cellules tumorales éloignées de la masse tumorale principale), l'invasion du 3ème tiers de la sous-muqueuse (sm3) et l'invasion vasculaire. Notre étude confirme l'importance de la mise en évidence d'invasion lymphatique et montre un intérêt probable de la réaction de budding et de la taille du front d'invasion tumoral dans la prédiction du risque de développement de métastases ganglionnaires
Resumo:
Messages à retenir: Connaître le principe physique de l'imagerie de diffusion (DWI) à l'IRM adaptée à l'exploration des tumeurs du foie.Savoir la bonne technique d'acquisition des séquences pour évaluer la diffusion du parenchyme hépatique ainsi que des lésions focales intra -hépatiques les plusfréquentes.Apprendre l'utilité de la DWI pour évaluer le succès d'un traitement médical oncologique ou interventionnel .Discuter les avantages et les pièges liés à la DWI hépatique susceptibles d'influencer l'interprétation des tumeurs hépatiques. Résumé: Le principe d'imagerie de diffusion (DWI) à l'IRM repose sur la mobilité des molécules d'eau dans les différents tissus. Ce «mouvement Brownien» dépend de lacellularité tissulaire , des membranes cellulaires intactes et de la vascularisation . L'augmentation de ces paramètres précités résulte en une restriction de ladiffusion moléculaire, caractérisée par un hypersignal, puis quantifié par le calcul d'un coefficient apparent de diffusion (ADC). Basée sur des séquenceséchoplanaires pondérées en T2, la technique d'acquisition est rapide et non-invasive, donc souvent intégrée à l'IRM hépatique de routine. La DWI s'est révéléetrès sensible pour la détection de tumeurs hépatiques, même à un diamètre infracentimétrique. Néanmoins, sans être très spécifique, elle ne donne pas d'information certaine sur le caractère bénin ou malin, et elle doit être interprétée avec les autres séquences d'IRM et dans le contexte clinique donné. L'informationdiagnostique résultant de la DWI est morphologique et fonctionnelle, ce qui permet d'évaluer le succès de traitements oncologiques, notamment en absence dechangement de taille ou persistance de prise de contraste des lésions hépatiques. Très sensibles aux mouvements respiratoires, la DWI hépatique peut êtreaccompagnée d'artéfacts, qui influencent le calcul de l'ADC dont la valeur dépend de la machine IRM utilisée.
Resumo:
Contexte Le plasmocytome isolé osseux est une tumeur maligne rare des cellules plasmocytaires. Les données issues de la littérature ne permettent pas de se déterminer sur la dose radiothérapeutique optimale. Dans cette perspective nous avons conduit une vaste étude rétrospective dans le but d'évaluer l'évolution, les facteurs pronostiques aunsi que la dose radiothérapeutique optimale chez les patients présentant un plasmocytome isolé. Méthodes Nous avons réunis les données de 206 patients présentant un plasmocytome isolé osseux sans évidence de myélome multiple. Chaque cas a été documenté histopathologiquement. La majorité des patients (n=169) ont été traités par radiothérapie seule, 32 par une combinaison radiothérapie-chimiothérapie, et 5 par chirurgie. La durée de suivi médiane fut de 54 mois (7-245) Résultats A 5 ans, la survie globale est de 70%, la survie sans maladie de 46% et le contrôle local de 88%. La durée médiane de développement vers une myélome multiple est de 21 mois (2-135) avec une probabilité à 5 ans de 51 %. Les analyses multivariées indiquent l'âge (<60 ans) et la taille de la tumeur (<5cm) comme facteur favorables pour survie. L'âge (<60ans) se dégage comme facteur favorable pour la survie sans maladie. La localisation de la tumeur (vertébrale vs autre) indique la probabilité de contrôle local. L'âge plus avancé (>60 ans) est le seul prédicteur de myélome multiple. Aucune relation dose-réponse n'est mise en évidence pour les doses supérieures à 30 Gy, même pour lés tumeurs les plus étendues. Conclusions Les patients les plus jeunes, principalement ceux présentant une localisation vertébrale, présentent la meilleure évolution sous traitement radiothérapeutique modéré. La progression vers le myélome multiple reste le problème thérapeutique principal. Les futures investigations devraient se focaliser sur les chimiothérapies adjuvantes ainsi que sur les nouveaux agents thérapeutiques.
Resumo:
L'ulcère des membres inférieurs se définit comme une plaie située sur la partie déclive des membres inférieurs évoluant depuis plus d'un mois sans tendance à la cicatrisation spontanée. La lenteur de guérison d'un ulcère ne s'explique pas seulement par sa taille et sa profondeur mais également par l'existence d'une pathologie sous-jacente qui doit mener à un traitement spécifique pour induire la guérison de la plaie. La prévalence de l'ulcère des membres inférieurs toutes causes confondues est de 1 % dans la population générale. Une origine vasculaire est retrouvée dans la majorité des cas. On retrouve plus rarement une origine infectieuse, dermatologique, hématologique, tumorale, métabolique, neurologique, iatrogène ou traumatique. Il est essentiel de connaître l'ensemble des pathologies pouvant amener à l'ulcère de jambe afin de pouvoir assurer une prise en charge adaptée qui seule permettra d'amener à la guérison.