989 resultados para Erreur systématique
Resumo:
The eggplant ( Solanum aethiopicum ) is the species of the Solanum genus, whose geographical distribution is broadest. It is grown throughout tropical Africa, and includes three groups of cultivars commonly called African or indigenous eggplant. Kumba group or “bitter eggplant” is an important Solanaceous vegetable crop in Burkina Faso. The objective of this study was to determine genetic variability, strength of association and level of heritability among agronomic interest traits. Phenotypic and genotypic variations and heritability of 14 traits were estimated in 61 accessions at Institut de Développement Rural (IDR), Gampela in Burkina Faso. High phenotypic and genotypic coefficients of variation were observed for fruit diameter, number of seeds per fruit, fruit weight, leaf blade length and width, and height at flowering. In addition, genetic and phenotypic variances were high for the number of seed, fruit weight, plant height at flowering and days to 50% flowering. High heritability estimates were recorded for all traits. Fruit weight showed a positive association with fruit diameter and thickness. The fifty percent flowering cycle registered positive correlations with plant height and fruit diameter. Fruit number showed a negative association with fruit weight and diameter, and 50% flowering cyle.
Resumo:
1-Inroduction générale (Extraits). L'IFREMER exerce de longue date des tâches de surveillance et de contrôle de la qualité du milieu marin et de ses ressources. Certaines de ces tâches le sont de façon très organisée et systématique, couvrant "en réseau" l'ensemble du littoral français. Le présent ouvrage dresse le bilan des résultats obtenus par trois de ces réseaux, en vue d'évaluer la qualité actuelle des eaux littorales, mission à laquelle ils sont dédiés : le Réseau National d'Observation de la Qualité du Milieu Marin (RNO), le réseau de surveillance du phytoplancton (REPHY) et le réseau de surveillance microbiologique (REMI ). Le RNO a été mis en place en 1974 par le Ministère de l'Environnement avec pour premier objectif l'évaluation des niveaux et des tendances des polluants et des paramètres généraux de la qualité du milieu marin. Mais cette activité ne peut se concevoir sans une surveillance des effets biologiques de la qualité du milieu. Ce deuxième objectif de surveillance vise à évaluer l'état de santé de la flore et de la faune marines par la mesure de la réponse de ces organismes à des perturbations de la qualité du milieu. Il a été introduit en 1987 dans les programmes du RNO. Toutefois, les résultats n'en sont encore que préliminaires et ne sont pas présentés ici. La création du REPHY a fait suite aux intoxications par les coquillages observées en 1983. Ce réseau fait le suivi des populations phytoplanctoniques, de leurs perturbations et de l'apparition d'espèces toxiques pour l'homme ou pour les animaux marins. Dès 1984, la majeure partie du littoral faisait l'objet de cette surveillance. Quant au REMI , il évalue les niveaux et les tendances de la contamination microbiologique du milieu et plus spécialement des zones de production conchylicole. Il résulte de la réorganisation opérée en 1989 des activités de contrôle de la salubrité des coquillages menées par l'IFREMER. Cette réorganisation a eu pour objectif de permettre une appréciation plus globale de la qualité microbiologique du milieu, tout en fournissant les éléments contribuant à la protection du consommateur. Les résultats de surveillance du mi lieu portent au total sur une vingtaine de paramètres qui définissent plusieurs types de qualité environnementale : qualité générale des masses d'eaux par la température, la salinité, les sels nutritifs (nitrate, phosphate ... ), la chlorophylle ; contamination du milieu par des métaux (mercure, cadmium, plomb ... ) et des composés organiques toxiques (PCB, pesticides ... ), mesurés dans certains organismes sentinelles (moule, huître ... ) ; fréquence d'apparition dans les masses d'eaux d'espèces phytoplanctoniques toxiques représentées ici par Dinophysis et Alexandrium, et risques de toxicité effective des coquillages ; contamination du milieu par les bactéries d'origine terrestre, représentées ici par les coliformes fécaux mesurés dans les moules et les huîtres. …
Resumo:
National audience
Resumo:
National audience
Resumo:
Vladimir S. Soloviev (1853-1900) était un philosophe russe, poète et dissident de la période prérévolutionnaire. Comme celle de beaucoup de ses contemporains prérévolutionnaires russes, la pensée de Soloviev fut constamment sollicitée par la réfection imminente de l’État russe dans un futur très proche. Dans le contexte de cette époque, un examen des fondements théoriques du système juridique était peut-être inévitable. Néanmoins, dans la pensée russe, c’est seulement avec Soloviev que le droit cessa d’être un sujet spécialisé dans le domaine de l’administration, ne concernant guère les grands enjeux de société, et devint intimement lié au développement même de la philosophie morale et sociale. Au sein du projet philosophique systématique que propose Soloviev, le concept de l’unitotalité est envahissant, en termes épistémologique et social. Une pierre d’assise également fondamentale est le concept philosophico-religieux de la divino-humanité, à travers lequel la source de la dignité humaine est ultimement exprimée. La philosophie juridique de Soloviev, contenue pour l’essentiel dans un traité intitulé La Justification du bien : essai de philosophie morale (1897), a pour principal objet l’interaction entre le droit et la morale. Alors que l’objet et la portée du droit peuvent être directement déduits de principes moraux, le droit ne peut pas coïncider exactement avec la morale, compte tenu de son caractère plus limité, fini et coercitif. Pour Soloviev, le droit doit imposer un niveau minimum du bien en fournissant les conditions de base (par ex. la primauté du droit, le droit à une existence digne, la liberté de conscience) pour le libre développement des facultés humaines sans transposer directement en lui la plénitude complète du bien. La principale motivation de Soloviev réside dans la prémisse théologique sous-jacente que le bien ne peut jamais être complètement subsumé sauf par un acte conscient de liberté personnelle. En tandem, Soloviev souligne le rôle progressiste de l’État pour favoriser le libre perfectionnement humain. En tant que tel, Soloviev nous fournit certaines voies innovatrices dans le façonnement de la relation tant théorique que pratique entre le droit et la religion. À l’encontre d’un compromis entre objets, c’est-à-dire un arrangement de type interculturel situé entre fragmentation culturelle (multiculturalisme idéologique) et assimilation antireligieuse (laïcité militante), l’analyse de Soloviev présente la nécessité d’une conciliation temporelle, dans une perspective historique beaucoup plus large, où la laïcité est considérée non pas comme une finalité ontologique en soi, figée dans le temps, mais comme un moyen au service d’une destinée humaine en cours d’actualisation. Le cadre philosophico-juridique de Soloviev peut être utilement mis en dialogue avec des auteurs contemporains comme Stephen L. Carter, Charles Taylor, John Witte Jr, Ronald Dworkin et Jürgen Habermas. La contribution potentielle de Soloviev sur la place de la religion dans la société russe contemporaine est également mentionnée, avec un accent particulier sur le réexamen critique de l’héritage durable de la notion byzantine de la symphonie entre l’Église et l’État. Enfin, une théorie du fédéralisme inspirée par Soloviev est développée en appliquant, sur une base comparative, des avancées théoriques dans le domaine de l’histoire juridique global à l’évolution constitutionnelle du Canada et d’Israël.
Resumo:
Quelques sites archéologiques comme Olympie, Stymphalos et Olynthe possèdent respectivement un répertoire faisant l’étude des armes de jet retrouvées durant une série de campagnes de fouilles archéologiques. Parmi ces indexes, figurent fréquemment des pointes de flèche, des balles de fronde et des saurotères (contrepoids de lance ou de javelot) provenant de différentes périodes historiques gréco-romaines. À travers les 20e et 21e siècle de notre ère, des spécialistes comme D. Robinson (1931), A. Snodgrass (1964), H. Baitinger (2001), C. Hagerman (2014) dédièrent une partie de leur expertise pour produire des synthèses sur ces objets jadis négligés. Ainsi, ils parvinrent à créer de grandes encyclopédies commentées composées de projectiles retrouvés en sol grec. À l’aide de ces bases de données, les archéologues militaires sont en mesure d’établir des datations et l’origine prétendue de certains types de projectiles. Jusqu’en 2015, les artéfacts militaires trouvés sur le site archéologique d’Argilos n’avaient jamais fait l’objet d’une étude de synthèse. D’abord, inspiré par de publications semblables, ces projectiles furent soumis à un inventaire sous forme de catalogue. Au total, deux types de balles de fronde en plomb, onze types de pointes de flèche et un type de saurotère furent identifiés. Finalement, ce nouveau contenu fut assujetti à des analyses comparatives avec d’autres sites archéologiques possédant des données similaires. Les conclusions découlant de ces analogies donnèrent naissance à la première typologie des armes de jet argilienne. Certes, les analyses se heurtèrent à certains obstacles, notamment à une compréhension de la quasi-inexistence d'une pointe de flèche typiquement "grecque" et à la confusion systématique quant à la distinction entre un saurotère et une pointe de javelot, voire possiblement un carreau de gastraphétès (une sorte d’arbalète imposante utilisée lors de sièges durant le 4e siècle av. J.-C.). En partie, ceci découle de l'historique d'échanges entre la Grèce et les autres peuples méditerranéens, balkaniques et orientaux. En outre, de nombreuses réformes militaires des périodes archaïque et classique provoquèrent une évolution constante sur les aspects stratégiques et les tactiques militaires. Considérant ces facteurs parmi tant d'autres et le fait qu'Argilos ait été une fondation grecque en territoire thraco-macédonien, la possibilité d'influence "étrangère" devient alors prépondérante sur la typologie des projectiles argiliens publiée dans le présent mémoire. Avec beaucoup d’espoir, nous croyons sans équivoque que ce travail de recherche contribuera grandement non seulement à l’histoire d’Argilos, mais aussi à l’étude des projectiles en Grèce du nord.
Resumo:
Thèse réalisée en cotutelle avec l'Université Paris-Sorbonne et l'Université de Montréal. Composition du jury : M. Laurent Cugny (Université Paris-Sorbonne) ; M. Michel Duchesneau (Université de Montréal) ; M. Philippe Gumplowicz (Université d'Evry-Val d'Essonne) ; Mme Barbara Kelly (Keele University - Royal Northern College of Music) ; M. François de Médicis (Université de Montréal) ; M. Christopher Moore (Université d'Ottawa)
Resumo:
L’objectif principal de cette thèse était de créer, d’implanter et d’évaluer l’efficacité d’un programme de remédiation cognitive, intervenant de façon comparable sur les aspects fluide (Gf) et cristallisé (Gc) de l’intelligence, au sein d’une population d’intérêt clinique, les adolescents présentant un fonctionnement intellectuel limite (FIL). Compte tenu de la forte prévalence de ce trouble, le programme de remédiation GAME (Gains et Apprentissages Multiples pour Enfant) s’est développé autour de jeux disponibles dans le commerce afin de faciliter l’accès et l’implantation de ce programme dans divers milieux.
Le premier article de cette thèse, réalisé sous forme de revue systématique de la littérature, avait pour objectif de faire le point sur les études publiées utilisant le jeu comme outil de remédiation cognitive dans la population pédiatrique. L’efficacité, ainsi que la qualité du paradigme utilisé ont été évaluées, et des recommandations sur les aspects méthodologiques à respecter lors de ce type d’étude ont été proposées. Cet article a permis une meilleure compréhension des écueils à éviter et des points forts méthodologiques à intégrer lors de la création du programme de remédiation GAME. Certaines mises en garde méthodologiques relevées dans cet article ont permis d’améliorer la qualité du programme de remédiation cognitive développé dans ce projet de thèse.
Compte tenu du peu d’études présentes dans la littérature scientifique concernant la population présentant un FIL (70
Resumo:
1. Un premier apport de notre travail consiste à proposer un cadre théorique, analytique et conceptuel original, permettant d'approcher la notion de qualité des publications en SHS (sciences humaines et sociales) et en sciences de la communication de façon à la fois holistique et dynamique, en tant qu'elle fait l'objet de descriptions et de jugements multiples, émis par une diversité de parties prenantes, au sein et en dehors des milieux académiques. Pour ce faire, il s'agira de considérer la qualité dans ses différentes dimensions constitutives (approche holistique) tout en l'inscrivant dans le cadre d'évolutions tendancielles en matière de publication scientifique (approche dynamique) et en tenant compte de la qualité telle qu'elle est prescrite, souhaitée et mise en oeuvre par les différentes parties prenantes (chercheurs et entités prescriptrices, aux niveaux politique et managérial). En croisant de façon systématique ces trois approches - approche multidimensionnelle, rapport aux prescrits et aux souhaits, et étude des évolutions tendancielles -, il s’avérera possible d'évaluer l'incidence des différentes tendances en matière de publication scientifique – i.e. tendances à la massification, à l'internationalisation, à l' « exotérisation » (i.e. à l'ouverture vers le monde extérieur, au-delà des pairs), à la « gestionnarisation » (i.e. à l'usage des publications dans la gestion dela recherche et des chercheurs, en particulier en situation d'évaluation), à la commercialisation et à l' « enlignement » (i.e. à la mise en ligne, sur Internet) – ainsi que des prescriptions managériales et politiques qui les initient, les stimulent ou les prolongent à des degrés divers, sur la qualité de l'activité même de publier, et sur celle des différents types génériques et spécifiques d'objets publiés.2. En appliquant cette triple approche aux SHS et, plus particulièrement, au cas des sciences de la communication, nous montrerons comment la plupart des évolutions tendancielles qui sont discutées ici ainsi que des prescrits politiques et managériaux qui y affèrent aboutissent à valoriser principalement, en situation d'évaluation de la recherche et des chercheurs, la publication d'un grand nombre d'articles dans des revues savantes internationales de premier plan, destinés avant tout aux pairs, et à dévaloriser les publications, ouvertes à des publics plus locaux, rédigées en langue vernaculaire, ou qui se consacreraient à la résolution de problèmes de société. En particulier, à la faveur de la tendance à la « gestionnarisation » des publications, l'article de revue savante internationale de premier plan, ainsi que les citations qui lui sont faites par les seuls pairs, sont posés en indicateurs de performance de tout premier plan, « fixant » ainsi les pratiques de recherche et de publication des chercheurs. Cette « fixion » sera d'autant plus marquée que les indicateurs bibliométriques, à l'échelon national, seront intégrés à des processus de financement public de la recherche fondés sur les performances, et que, à l'échelon international, les indicateurs joueront un rôle prépondérant dans l'établissement des rankings des universités ainsi que des benchmarks des systèmes nationaux et régionaux de recherche. Pour autant, des prescriptions politiques sont également édictées, principalement au niveau européen, dans l'optique de la mise en oeuvre, au sein de l'Espace européen de la recherche et, dans une moindre mesure, de l'Espace européen de l'enseignement supérieur, d'une économie de la connaissance compétitive à l'échelon global et, plus particulièrement, d'un « mode 2 » de production des connaissances, qui insistent sur l'importance de davantage valoriser les résultats de la recherche, interdisciplinaire et coopérative, auprès de parties prenantes extra-académiques. En résulte une relation paradoxale entre la tendance à l'exotérisation de la recherche et des publications, et les prescrits de gestionnarisation des publications, ainsi qu'entre les prescriptions qui les sous-tendent respectivement.3. Or l'enquête que nous avons menée auprès des membres de trois sociétés savantes internationales en sciences de la communication montre combien les chercheurs de cette discipline ont désormais bien intégré les critères de qualité promus par les prescrits politiques et managériaux soutenant l'instauration d'une nouvelle « culture de la publication », à la croisée des tendances à la massification, à l'internationalisation et à la gestionnarisation des publications. Pour autant, des entretiens approfondis menés auprès de chercheurs en sciences de la communication actifs en Belgique francophone et néerlandophone n'en révèlent pas moins que ces derniers développent une attitude foncièrement ambivalente envers la culture du « publish or perish » et à l'égard de prescriptions qui sur-valorisent les revues savantes internationales de premier plan, en situation d'évaluation de la recherche et des chercheurs. D'une part, en effet, les chercheurs avec qui nous nous sommes entretenus estiment que la nouvelle culture de la publication joue un rôle bénéfique dans la professionnalisation et dans le développement d'une culture véritablement scientifique dans les sciences de la communication. Partant, la plupart d'entre eux développent des stratégies visant à aligner leurs pratiques de publication sur les prescrits. D'autre part, plusieurs répondants n'en regrettent pas moins le caractère réducteur de la survalorisation des revues savantes internationales de premier plan dans l'évaluation, et souhaitent qu'une plus grande diversité de types de publication soit prise en compte par les évaluateurs. Afin de concilier « qualité prescrite » et « qualité souhaitée » dans la qualité de leur activité effective de publication et dans celle des objets effectivement publiés (« qualité réelle »), il arrive dès lors à ces chercheurs de « bricoler » avec les prescriptions. Par ailleurs, la plupart des répondants, davantage cependant en FédérationWallonie-Bruxelles qu'en Flandre, où le financement public de la recherche est d'ores et déjà fondé en partie sur des indicateurs bibliométriques et revue-métriques, regrettent le manque d'explicite dans la formulation des prescriptions – ces dernières prenant régulièrement la forme de « scripts » plus indirects et/ou implicites, plutôt que de normes et de règles stricto sensu –, ainsi que l'absence de seuil quantitatif minimal à atteindre.4. Il nous semble par conséquent, dans une optique plus normative, que le dépôt systématique des différents types de publication produits par les chercheurs en SHS et en sciences de la communication sur des répertoires numériques institutionnels (Open Access Green) serait de nature à (contribuer à) résoudre le paradoxe des prescriptions en matière de « qualité prescrite », ainsi que l'ambivalence des perceptions des chercheurs en matière de « qualité souhaitée ». En effet, le dépôt des publications sur des répertoires institutionnels ouvre des opportunités inédites de renouveler la conversation savante qui se structure autour des objets publiés, au sein de la communauté argumentative (Kommunikationsgemeinschaft) des pairs, par le biais notamment de la revue par les pairs ouverte et grâce à la possibilité de commenter ad libitum les publications disséminées en Open Access. mais également en rendant les résultats de la recherche aisément accessibles et ré-utilisables par des parties prenantes extra-académiques. Les opportunités liées au dépôt des publications sur des répertoires Open Access (Green), en termes de qualité tant épistémique que pragmatiquede ces dernières, seront d'autant plus fécondes que le dépôt des travaux sur les répertoires institutionnels s'articulera à l'usage, par le chercheur, des instruments idoines, génériques ou dédiés, du Web participatif (Wikis, blogues, micro-blogues, réseaux sociaux, outils de partage de signets et de listes bibliographiques). Par ailleurs, les dépôts numériques fonctionnent désormais en tant qu'« outils de transparence », susceptibles de donner davantage de visibilité à des productions de recherche et des types de publication diversifiés. En situation d'évaluation de la recherche et des chercheurs, le recours aux dépôts institutionnels - pour autant qu'un mandat prescrive le dépôt de tous les travaux produits par les chercheurs de l'institution – permettrait aux évaluateurs de fonder leur jugement sur une gamme plus large et plus représentative de types de publication et de formes de communication en SHS et en sciences de la communication. De plus, grâce à la dissémination en Open Access, en conjonction avec l'usage d'une diversité d'outils du Web participatif, il devient mieux possible de soumettre les différents types de publication archivés et publiés en libre accès à des indicateurs de performance eux-mêmes diversifiés – bibliométriques, mais également « webométriques » et « altmétriques » -, fondés sur les articles plutôt que sur les revues et mieux adaptés à la diversité de leurs impacts, tant au sein qu'en dehors du cercle des pairs.5. Partant, l'Open Access (Green) nous apparaît in fine comme étant doté d'un potentiel important, en matière d'intégration de la recherche et des chercheurs en SHS et en sciences de la communication à la mise en place – au-delà d'une économie de la connaissance - d'une véritable société de la connaissance, ainsi qu'aux processus d'innovation techno-industrielle, sociale et intellectuelle qui la sous-tendent.
Resumo:
Les communes suisses sont largement souveraines pour financer leurs activités. Leurs ressources proviennent avant tout de l'impôt sur le revenu et de l'impôt foncier prélevés auprès des ménages et des entreprises. Une crise, comme celle de 2008, qui touche la sphère financière et l'économie en général risque d'avoir des répercussions directes sur les budgets locaux. Dans le présent article, nous examinons la manière dont les communes perçoivent ce risque et y réagissent. Dans une enquête menée à l'échelle nationale fin 2009 dans les 2596 communes suisses, nous avons demandé aux secrétaires municipaux quelles mesures avaient été prises face aux pertes fiscales attendues et à la hausse possible des dépenses sociales suite à la crise de 2008. Des mesures keynésiennes ont-elles été prises, en augmentant les dépenses et en acceptant des déficits plus importants, ou y a-t-il eu tentative de limiter les déficits par des mesures d'austérité, notamment en restreignant les investissements prévus ? Nos résultats indiquent que quelques communes seulement (essentiellement les plus grandes) s'attendaient à être durement touchées par la crise. On n'observe cependant pas de tendance systématique et conforme à la théorie. Certes des mesures d'austérité ont été mises en place ou un déficit budgétaire a été provoqué, mais bon nombre de communes ont appliqué simultanément des mesures relevant des deux théories. L'impact perçu de la crise au niveau local et l'appartenance de la commune à la partie francophone du pays sont les principaux facteurs expliquant la réaction des communes et les raisons de cette réaction. La taille de la commune joue aussi un rôle. Mais l'influence du parti social-démocrate est négligeable. Le type de mesures que les communes sont susceptibles de prendre est plus difficile à expliquer. Cependant, plus une commune se sent touchée, plus elle s'orientera vers des mesures d'austérité.
Resumo:
L’idée selon laquelle les enfants sont des sujets à part entière de considérations de justice n’est pas très contestée. Les enfants ont des intérêts qui leur sont propres et ont un statut moral indépendant de leurs parents : ils ne sont ni la propriété de ces derniers ni une simple extension de leur personne. Pourtant, les travaux des plus grands théoriciens de la justice en philosophie politique contemporaine ne contiennent pas de discussion systématique du statut moral et politique des enfants et du contenu de nos obligations à leur égard. Cette thèse contribue à remédier à cette omission à travers l’examen de quatre grandes questions principales. (1) Quelles sont les obligations de justice de l’état libéral envers les enfants ? (2) Quels types de politiques publiques en matière d’éducation des enfants sont moralement légitimes ? (3) Jusqu’à quel point est-il moralement acceptable pour les parents de délibérément forger la vision du monde de leurs enfants ? (4) Quels critères moraux devraient guider l’élaboration de politiques en matière d’éducation morale dans les écoles ? Cette thèse est constituée de quatre articles. Le premier, « Political Liberalism and Children’s Education », aborde les questions du fondement normatif et des implications du principe de ‘neutralité éducative’ ou ‘anti-perfectionnisme éducatif’. Selon ce principe, il n’est pas légitime pour l’État libéral de délibérément promouvoir, à travers ses politiques publiques en éducation, une conception particulière de la vie bonne. L’article défend les idées suivantes. D’abord, ledit principe est exclusivement fondé sur des raisons de justice envers les parents. Ensuite, l’anti-perfectionnisme libéral n’est pas, pour autant, ‘mauvais pour les enfants’, puisqu’une vaste gamme d’interventions politiques dans la vie familiale et l’éducation des enfants sont, de manière surprenante, justifiables dans ce cadre théorique. Le deuxième article, « On the Permissibility of Shaping Children’s Values », examine la question de savoir si les parents ont un droit moral de forger délibérément l’identité, la conception du monde et les valeurs de leurs enfants. L’article développe une critique de la conception anti-perfectionniste des devoirs parentaux et propose un nouvel argument libéral à l’appui d’un droit parental conditionnel de forger l’identité de leurs enfants. L’article introduit également une distinction importante entre les notions d’éducation compréhensive et d’« enrôlement » compréhensif. Le troisième article, « Common Education and the Practice of Liberal Neutrality: The Loyola High School Case », défend trois thèses principales à travers une analyse normative de l’affaire juridique de l’école Loyola. Premièrement, il est légitime pour l’État libéral d’adopter un modèle d’éducation commune fort. Deuxièmement, la thèse selon laquelle la neutralité comme approche éducative serait impossible est injustifiée. Troisièmement, il existe néanmoins de bonnes raisons pour l’État libéral d’accommoder plusieurs écoles religieuses qui rejettent le modèle de la neutralité. Le quatrième article, « Which Moral Issues Should be Taught as Controversial? », critique à la fois le critère ‘épistémique’ dominant pour déterminer quels enjeux moraux devraient être enseignés aux jeunes comme ‘controversés’, et à la fois la manière dont le débat sur l’enseignement des enjeux controversés fut construit au cours des dernières années, d’un point de vue substantiel et méthodologique. L’article propose une manière alternative d’aborder le débat, laquelle prend adéquatement en compte la pluralité des objectifs de l’éducation et un ensemble d’autres considérations morales pertinentes.
Resumo:
Tese (doutorado)—Universidade de Brasília, Centro de Desenvolvimento Sustentável, 2015.
Resumo:
Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée de certains documents visuels et audio-visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal. To respect the reproduction rights and copyrights, the electronic version of this thesis was stripped of images and audiovisuals. The integral version has been left with Documents Management and Archives Service at the University of Montreal.
Resumo:
La fraction d’éjection du ventricule gauche est un excellent marqueur de la fonction cardiaque. Plusieurs techniques invasives ou non sont utilisées pour son calcul : l’angiographie, l’échocardiographie, la résonnance magnétique nucléaire cardiaque, le scanner cardiaque, la ventriculographie radioisotopique et l’étude de perfusion myocardique en médecine nucléaire. Plus de 40 ans de publications scientifiques encensent la ventriculographie radioisotopique pour sa rapidité d’exécution, sa disponibilité, son faible coût et sa reproductibilité intra-observateur et inter-observateur. La fraction d’éjection du ventricule gauche a été calculée chez 47 patients à deux reprises, par deux technologues, sur deux acquisitions distinctes selon trois méthodes : manuelle, automatique et semi-automatique. Les méthodes automatique et semi-automatique montrent dans l’ensemble une meilleure reproductibilité, une plus petite erreur standard de mesure et une plus petite différence minimale détectable. La méthode manuelle quant à elle fournit un résultat systématiquement et significativement inférieur aux deux autres méthodes. C’est la seule technique qui a montré une différence significative lors de l’analyse intra-observateur. Son erreur standard de mesure est de 40 à 50 % plus importante qu’avec les autres techniques, tout comme l’est sa différence minimale détectable. Bien que les trois méthodes soient d’excellentes techniques reproductibles pour l’évaluation de la fraction d’éjection du ventricule gauche, les estimations de la fiabilité des méthodes automatique et semi-automatique sont supérieures à celles de la méthode manuelle.
Resumo:
Les arthroplasties totales de la hanche (ATH) et du genou (ATG) sont souvent offertes aux patients atteints de dégénérescence articulaire sévère. Bien qu’efficace chez la majorité des patients, ces interventions mènent à des résultats sous-optimaux dans de nombreux cas. Il demeure difficile d’identifier les patients à risque de résultats sous-optimaux à l’heure actuelle. L’identification de ces patients avant la chirurgie pourrait permettre d’optimiser la gamme de soins et de services offerts et de possiblement améliorer les résultats de leur chirurgie. Ce mémoire a comme objectifs : 1) de réaliser une revue systématique des déterminants associés à la douleur et aux incapacités fonctionnelles rapportées par les patients à moyen-terme suivant ces deux types d’arthroplastie et 2) de développer des modèles de prédiction clinique permettant l’identification des patients à risque de mauvais résultats en terme de douleur et d’incapacités fonctionnelles suivant l’ATH et l’ATG. Une revue systématique de la littérature identifiant les déterminants de la douleur et de la fonction suivant l’ATH et l’ATG a été réalisée dans quatre bases de données jusqu’en avril 2015 et octobre 2014, respectivement. Afin de développer un algorithme de prédiction pouvant identifier les patients à risque de résultats sous-optimaux, nous avons aussi utilisé des données rétrospectives provenant de 265 patients ayant subi une ATH à l’Hôpital Maisonneuve-Rosemont (HMR) de 2004 à 2010. Finalement, des données prospectives sur 141 patients recrutés au moment de leur inclusion sur une liste d’attente pour une ATG dans trois hôpitaux universitaires à Québec, Canada et suivis jusqu’à six mois après la chirurgie ont permis l’élaboration d’une règle de prédiction clinique permettant l’identification des patients à risque de mauvais résultats en terme de douleur et d’incapacités fonctionnelles. Vingt-deux (22) études d’une qualité méthodologique moyenne à excellente ont été incluses dans la revue. Les principaux déterminants de douleur et d’incapacités fonctionnelles après l’ATH incluaient: le niveau préopératoire de douleur et de fonction, un indice de la masse corporelle plus élevé, des comorbidités médicales plus importantes, un état de santé générale diminué, une scolarité plus faible, une arthrose radiographique moins sévère et la présence d’arthrose à la hanche controlatérale. Trente-quatre (34) études évaluant les déterminants de douleur et d’incapacités fonctionnelles après l’ATG avec une qualité méthodologique moyenne à excellente ont été évaluées et les déterminants suivant ont été identifiés: le niveau préopératoire de douleur et de fonction, des comorbidités médicales plus importantes, un état de santé générale diminué, un plus grands niveau d’anxiété et/ou de symptômes dépressifs, la présence de douleur au dos, plus de pensées catastrophiques ou un faible niveau socioéconomique. Pour la création d’une règle de prédiction clinique, un algorithme préliminaire composé de l’âge, du sexe, de l’indice de masse corporelle ainsi que de trois questions du WOMAC préopératoire a permis l’identification des patients à risque de résultats chirurgicaux sous-optimaux (pire quartile du WOMAC postopératoire et percevant leur hanche opérée comme artificielle avec des limitations fonctionnelles mineures ou majeures) à une durée moyenne ±écart type de 446±171 jours après une ATH avec une sensibilité de 75.0% (95% IC: 59.8 – 85.8), une spécificité de 77.8% (95% IC: 71.9 – 82.7) et un rapport de vraisemblance positif de 3.38 (98% IC: 2.49 – 4.57). Une règle de prédiction clinique formée de cinq items du questionnaire WOMAC préopratoire a permis l’identification des patients en attente d’une ATG à risque de mauvais résultats (pire quintile du WOMAC postopératoire) six mois après l’ATG avec une sensibilité de 82.1 % (95% IC: 66.7 – 95.8), une spécificité de 71.7% (95% IC: 62.8 – 79.8) et un rapport de vraisemblance positif de 2.9 (95% IC: 1.8 – 4.7). Les résultats de ce mémoire ont permis d’identifier, à partir de la littérature, une liste de déterminants de douleur et d’incapacités fonctionnelles après l’ATH et l’ATG avec le plus haut niveau d’évidence à ce jour. De plus, deux modèles de prédiction avec de très bonnes capacités prédictives ont été développés afin d’identifier les patients à risque de mauvais résultats chirurgicaux après l’ATH et l’ATG. L’identification de ces patients avant la chirurgie pourrait permettre d’optimiser leur prise en charge et de possiblement améliorer les résultats de leur chirurgie.