936 resultados para Stratégie compensatoire


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alan Garcia, l’actuel président du Pérou, est un des politiciens les plus controversés dans l’histoire péruvienne. Le succès de sa carrière comme candidat est fort opposé aux résultats catastrophiques de sa première gestion présidentielle. Dans la culture populaire, les compétences discursives de Garcia, ainsi que le contraste entre son succès et ses pauvres performances en tant que président, l’ont élevé au rang de mythe. Ce travail de recherche présente une analyse pragmatique linguistique des stratégies discursives utilisées par le président Garcia dans son deuxième mandat (2001-2006). L’analyse sera centrée sur le rapport établi par Steven Pinker (2007) entre politesse positive et solidarité communale. Les travaux de Brown et Levinson (1978, 1987) et d’Alan Fiske (1991) sont notre base théorique. L’exclusion sociale d’une partie de la population électorale péruvienne, selon le point de vue de Vergara (2007), est l’élément clé pour mieux comprendre le succès de la stratégie discursive de Garcia. Vegara présente une analyse diachronique multi-variable de la situation politique péruvienne pour expliquer la rationalité de la population électorale péruvienne. À partir de cet encadrement théorique, nous procéderons à l’analyse lexicométrique qui nous permettra d’identifier les stratégies discursives utilisées dans le corpus des discours de Garcia qui a été choisi pour l’analyse. D’après le schéma de Pinker, les données obtenues seront classifiées selon la définition de politesse positive de Brown et Levinson. Finalement, nous évaluerons le rapport entre les résultats classifiés et le modèle de solidarité communale de Fiske. L’objectif est de démontrer que le style discursif de Garcia est structuré à partir d’une rationalité dont l’objet est de fermer la brèche sociale entre le politicien et l’électorat.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur les problèmes de tournées de véhicules avec fenêtres de temps où un gain est associé à chaque client et où l'objectif est de maximiser la somme des gains recueillis moins les coûts de transport. De plus, un même véhicule peut effectuer plusieurs tournées durant l'horizon de planification. Ce problème a été relativement peu étudié en dépit de son importance en pratique. Par exemple, dans le domaine de la livraison de denrées périssables, plusieurs tournées de courte durée doivent être combinées afin de former des journées complètes de travail. Nous croyons que ce type de problème aura une importance de plus en plus grande dans le futur avec l'avènement du commerce électronique, comme les épiceries électroniques, où les clients peuvent commander des produits par internet pour la livraison à domicile. Dans le premier chapitre de cette thèse, nous présentons d'abord une revue de la littérature consacrée aux problèmes de tournées de véhicules avec gains ainsi qu'aux problèmes permettant une réutilisation des véhicules. Nous présentons les méthodologies générales adoptées pour les résoudre, soit les méthodes exactes, les méthodes heuristiques et les méta-heuristiques. Nous discutons enfin des problèmes de tournées dynamiques où certaines données sur le problème ne sont pas connues à l'avance. Dans le second chapitre, nous décrivons un algorithme exact pour résoudre un problème de tournées avec fenêtres de temps et réutilisation de véhicules où l'objectif premier est de maximiser le nombre de clients desservis. Pour ce faire, le problème est modélisé comme un problème de tournées avec gains. L'algorithme exact est basé sur une méthode de génération de colonnes couplée avec un algorithme de plus court chemin élémentaire avec contraintes de ressources. Pour résoudre des instances de taille réaliste dans des temps de calcul raisonnables, une approche de résolution de nature heuristique est requise. Le troisième chapitre propose donc une méthode de recherche adaptative à grand voisinage qui exploite les différents niveaux hiérarchiques du problème (soit les journées complètes de travail des véhicules, les routes qui composent ces journées et les clients qui composent les routes). Dans le quatrième chapitre, qui traite du cas dynamique, une stratégie d'acceptation et de refus des nouvelles requêtes de service est proposée, basée sur une anticipation des requêtes à venir. L'approche repose sur la génération de scénarios pour différentes réalisations possibles des requêtes futures. Le coût d'opportunité de servir une nouvelle requête est basé sur une évaluation des scénarios avec et sans cette nouvelle requête. Enfin, le dernier chapitre résume les contributions de cette thèse et propose quelques avenues de recherche future.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Parmi les blessures sportives reliées au genou, 20 % impliquent le ligament croisé antérieur (LCA). Le LCA étant le principal stabilisateur du genou, une lésion à cette structure engendre une importante instabilité articulaire influençant considérablement la fonction du genou. L’évaluation clinique actuelle des patients ayant une atteinte au LCA présente malheureusement des limitations importantes à la fois dans l’investigation de l’impact de la blessure et dans le processus diagnostic. Une évaluation biomécanique tridimensionnelle (3D) du genou pourrait s’avérer une avenue innovante afin de pallier à ces limitations. L’objectif général de la thèse est de démontrer la valeur ajoutée du domaine biomécanique dans (1) l’investigation de l’impact de la blessure sur la fonction articulaire du genou et dans (2) l’aide au diagnostic. Pour répondre aux objectifs de recherche un groupe de 29 patients ayant une rupture du LCA (ACLD) et un groupe contrôle de 15 participants sains ont pris part à une évaluation biomécanique 3D du genou lors de tâches de marche sur tapis roulant. L’évaluation des patrons biomécaniques 3D du genou a permis de démontrer que les patients ACLD adoptent un mécanisme compensatoire que nous avons intitulé pivot-shift avoidance gait. Cette adaptation biomécanique a pour objectif d’éviter de positionner le genou dans une condition susceptible de provoquer une instabilité antérolatérale du genou lors de la marche. Par la suite, une méthode de classification a été développée afin d’associer de manière automatique et objective des patrons biomécaniques 3D du genou soit au groupe ACLD ou au groupe contrôle. Pour cela, des paramètres ont été extraits des patrons biomécaniques en utilisant une décomposition en ondelettes et ont ensuite été classifiés par la méthode du plus proche voisin. Notre méthode de classification a obtenu un excellent niveau précision, de sensibilité et de spécificité atteignant respectivement 88%, 90% et 87%. Cette méthode a donc le potentiel de servir d’outil d’aide à la décision clinique. La présente thèse a démontré l’apport considérable d’une évaluation biomécanique 3D du genou dans la prise en charge orthopédique de patients présentant une rupture du LCA; plus spécifiquement dans l’investigation de l’impact de la blessure et dans l’aide au diagnostic.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La littérature décrit certains phénomènes de réorganisation physiologique et fonctionnelle dans le cerveau des aveugles de naissance, notamment en ce qui a trait au traitement de l’information tactile et auditive. Cependant, le système olfactif des aveugles n’a reçu que très peu d’attention de la part des chercheurs. Le but de cette étude est donc de comprendre comment les aveugles traitent l’information olfactive au niveau comportemental et d’investiguer les substrats neuronaux impliqués dans ce processus. Puisque, en règle générale, les aveugles utilisent leurs sens résiduels de façon compensatoire et que le système olfactif est extrêmement plastique, des changements au niveau de l’organisation anatomo-fonctionnelle pourraient en résulter. Par le biais de méthodes psychophysiques et d’imagerie cérébrale (Imagerie par Résonance Magnétique fonctionnelle-IRMf), nous avons investigué les substrats anatomo-fonctionnels sollicités par des stimuli olfactifs. Nous avons trouvé que les aveugles ont un seuil de détection plus bas que les voyants, mais que leur capacité à discriminer et identifier des odeurs est similaire au groupe contrôle. Ils ont aussi plus conscience de l’environnement olfactif. Les résultats d’imagerie révèlent un signal BOLD plus intense dans le cortex orbitofrontal droit, le thalamus, l’hippocampe droit et le cortex occipital lors de l’exécution d’une tâche de détection d’odeur. Nous concluons que les individus aveugles se fient d’avantage à leur sens de l’odorat que les voyants afin d’évoluer dans leur environnement physique et social. Cette étude démontre pour la première fois que le cortex visuel des aveugles peut être recruté par des stimuli olfactifs, ce qui prouve que cette région assume des fonctions multimodales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’application des métaux de transition à la fonctionnalisation directe a ouvert la voie à une nouvelle classe de réactions pour la formation de liens carbone-carbone. De par l'omniprésence des liaisons C–H, l’introduction de nouvelles fonctionnalités chimiques par voie directe et pré-activation minimale s’impose comme une stratégie de synthèse très attrayante. Ainsi, il est envisageable de préparer de manière rapide et efficace des supports complexes menant à des molécules complexes, qui pourraient être utiles dans divers domaines de la chimie. L'objectif principal de la présente thèse vise la fonctionnalisation directe des arènes hétérocycliques et non hétérocycliques et, plus précisément, les techniques d’arylation. Dans un premier temps, nous allons aborder le thème de l’arylation directe tout en mettant l’accent sur les pyridines (Chapitre 1). Ces molécules sont à la base d'une multitude de composés biologiquement actifs et jouent un rôle important dans le domaine des sciences des matériaux, de l’agrochimie et de la synthèse des produits naturels. Dans un deuxième temps, nous discuterons de nos travaux sur l’arylation directe catalysé par un complex de palladium sur des ylures de N-iminopyridinium en soulignant la dérivatisation du sel de pyridinium après une phénylation sp2 (Chapitre 2). L’étude de ce procédé nous a permis de mettre en lumière plusieurs découvertes importantes, que nous expliquerons en détails une à une : l’arylation benzylique directe lorsque des ylures N-iminopyridinium substituées avec un groupement alkyl à la position 2 sont utilisés comme partenaires dans la réaction; les allylations Tsuji-Trost catalysée par un complex de palladium; et l’alkylation directe et sans métal via une catalyse par transfert de phase. Plusieurs défis restent à relever pour le développement de procédés directs utilisant des métaux de transition peu coûteux, d’autant plus que la synthèse par transformation directe des pyridines 2-alcényles, lesquelles sont pertinentes sur le plan pharmacologique, n’a pas encore été rapportée à ce jour. Avec cette problématique en tête, nous avons réussi à mettre au point une alcénylation directe catalysé par un complex de cuivre sur des ylures de N-iminopyridinium. Nous discuterons également d’une nouvelle méthode pour la préparation des iodures de vinyle utilisés dans les couplages. Ces réactions sont non seulement remarquablement chimiosélectives, mais sont aussi applicables à plusieurs substrats (Chapitre 3). En optimisant ce procédé direct, nous avons découvert une façon unique de synthétiser les pyrazolo[1,5-a]pyridines 2-substituées (Chapitre 4). Le mécanisme global met en jeu une séquence tandem de fonctionnalisation-cyclisation directe et un procédé direct en cascade, qui n’avais jamais été rapporté. Cela simplifie ansi la synthèse autrement compliquée de ces substrats en y apportant une solution à un problème de longue date. Dans les deux derniers chapitres, nous examinerons en détail les techniques d’arylation directe qui n'impliquent pas les partenaires de couplage hétérocycliques. Entre autres, au Chapitre 5, nous soulignerons notre découverte d’un umpolung dirigé et catalysé par un complexe de palladium du benzène et de quelques autres dérivés arènes. Il s’agit là du premier cas de fonctionnalisation directe dans laquelle le groupe directeur se trouve sur le partenaire halogène et il s’ajoute à la courte liste d’exemples connus dans la littérature rapportant une arylation directe du benzène. Finalement, au Chapitre 6, nous passerons en revue une nouvelle arylation directe catalysée au fer, qui se veut un procédé peu coûteux, durable et présentant une économie d’atomes. Nous discutons des substrats possibles ainsi des études mécanistiques réalisés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette étude est de proposer une conceptualisation de la résilience familiale en tant que processus au sein de couples dont la femme est atteinte d’insuffisance cardiaque (IC). D’année en année, cette maladie cardiaque chronique afflige non seulement un nombre croissant de femmes mais tout autant leur partenaire de vie. On reconnaît de plus en plus que l’expérience de ces femmes diffère de celle de leur homologue masculin. Quant à l’expérience de leur conjoint et celle en tant que couple, ces dernières demeurent toujours peu abordées dans les écrits. Les couples constitués d’une femme atteinte d’IC doivent affronter de nombreuses difficultés inhérentes à l’IC qui peuvent les amener à faire preuve de résilience familiale. Pour atteindre notre but, une approche par théorisation ancrée a été utilisée. Les données ont été recueillies à l’aide d’entrevues semi-structurées conjointes auprès de 12 couples, d’un questionnaire sociodémographique et de notes de terrain. L’analyse de ces données a permis de proposer cette conceptualisation de la résilience familiale en tant que processus au sein de ces couples. L’IC au féminin est une expérience empreinte de difficultés pour les couples. Ils font face au choc encouru par le lot de bouleversements liés à l’IC qui perturbent à jamais tous les plans de leur vie conjugale. Devant une telle situation de vie aussi déplorable, ils sont appelés à s’engager dans un processus de résilience familiale. Cet engagement s’actualise par la mise en place de maintes stratégies en majorité conjugales, sauf quelques-unes qui relèvent de chaque membre des couples, et ce, selon deux perspectives de la résilience familiale. En effet, les couples rebondissent, selon la première perspective, en faisant face au choc de façons individuelle et conjugale. Sur le plan individuel, les membres tendent à se prendre en main tout en conservant leur propre autonomie. Pour ce faire, les femmes atteintes d’IC prennent, d’une part, le contrôle de l’IC et de ses manifestations et, d’autre part, soin de leur personne sur les plans physique et psychologique. Prendre ce contrôle devient possible en gérant leur énergie, en découvrant des astuces et en se responsabilisant face à l’IC. Parallèlement, les conjoints privilégient une seule et unique stratégie individuelle, soit de s’ouvrir à d’autres façons de faire. Quant au plan conjugal, les couples tendent à préserver à la fois leur autonomie et leur complicité à travers l’expérience liée à l’IC. A cette fin, ils font place à la réciprocité du prendre soin et s’activent à solidifier et réitérer leur autonomie conjugale en s’ouvrant aux ressources familiales et communautaires et en dosant la place laissée à l’IC au sein de leur couple. Selon la seconde perspective, les couples rebondissent, cette fois, en ressortant grandis, et ce, en découvrant de nouvelles façons de faire et en donnant un sens à leur expérience liée à l’IC. Pour découvrir de nouvelles façons, ils s’adonnent ensemble à des activités revisitées. Pour donner un sens, ils relativisent les bouleversements liés à l’IC qui s’actualisent par ces stratégies : dresser un bilan de la vie conjugale/familiale, adopter des leitmotive propices, et finalement, découvrir et se laisser porter par la magie des petits-enfants. À notre avis, les connaissances qui découlent de cette conceptualisation de la résilience familiale en tant que processus contribuent à l’avancement de connaissances dans le domaine des sciences infirmières. Cet apport de connaissances devrait aider les infirmières à mieux comprendre ce processus et contribuer au renouvellement des pratiques infirmières auprès des couples aux prises avec l’IC au féminin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Je reconnais l’aide financière du Centre d’études ethniques des Universités montréalaises (CEETUM), du Ministère de l’Éducation – Aide Financières au Études (AFE), et ainsi que de l’Université de Montréal (Département de psychologie et Faculté des études supérieures) dans la réalisation de ce mémoire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif général de cette recherche doctorale est l’étude des déterminants de l’intégration pédagogique des technologies de l’information et de la communication (TIC) par les professeurs à l’Université de Ouagadougou (UO). Cela nous a conduit à étudier respectivement les compétences technologiques des professeurs, les facteurs de résistance contraignant l’intégration pédagogique des TIC par ces professeurs, l’acceptation et les usages spécifiques des TIC par les professeurs. Ce travail s’est bâti autour des concepts théoriques sur les usages éducatifs des TIC, les compétences technopédagogiques, les facteurs de résistance, l’acceptation des TIC et l’intégration pédagogique des TIC. Ces concepts se sont inscrits dans les cadres d’analyses des modèles d’intégration des TIC par les professeurs et des modèles d’acceptation et d’utilisation d’une nouvelle technologie. La stratégie d’analyse des données s’est construite autour des approches descriptives et analytiques notamment au moyen de l’utilisation de la psychométrie et/ou de l’économétrie des modèles à variables dépendantes limitées. Utilisant la recherche quantitative, le recrutement de 82 professeurs par avis de consentement à participer, a permis de collecter les données sur la base de questionnaires dont la majeure partie est bâtie autour de questions à échelle de Likert. L’étude des compétences technologiques des professeurs a permis d’une part, de dresser un portrait des usages des TIC par les professeurs. En effet, les usages les plus répandus des TIC dans cette université sont les logiciels de bureautique, les logiciels de messagerie électronique et de navigation dans Internet. Elle a aussi permis de faire un portrait des compétences technologiques des professeurs. Ceux-ci utilisent à la fois plusieurs logiciels et reconnaissent l’importance des TIC pour leurs tâches pédagogiques et de recherche même si leur degré de maîtrise perçue sur certaines des applications télématiques reste à des niveaux très bas. Par rapport à certaines compétences comme celles destinées à exploiter les TIC dans des situations de communication et de collaboration et celles destinée à rechercher et à traiter des informations à l’aide des TIC, les niveaux de maîtrise par les professeurs de ces compétences ont été très élevés. Les professeurs ont eu des niveaux de maîtrise très faibles sur les compétences destinées à créer des situations d’apprentissage à l’aide des TIC et sur celles destinées à développer et à diffuser des ressources d’apprentissage à l’aide des TIC malgré la grande importance que ceux-ci ont accordée à ces compétences avancées essentielles pour une intégration efficace et efficiente des TIC à leurs pratiques pédagogiques. L’étude des facteurs de résistance a permis d’ériger une typologie de ces facteurs. Ces facteurs vont des contraintes matérielles et infrastructurelles à celles liées aux compétences informatiques et à des contraintes liées à la motivation et à l’engagement personnel des professeurs, facteurs pouvant susciter des comportements de refus de la technologie. Ces facteurs sont entre autres, la compatibilité des TIC d’avec les tâches pédagogiques et de recherche des professeurs, l’utilité perçue des TIC pour les activités pédagogiques et de recherche, les facilités d’utilisation des TIC et la motivation ou l’engagement personnel des professeurs aux usages des TIC. Il y a aussi les coûts engendrés par l’accès aux TIC et le manque de soutien et d’assistance technique au plan institutionnel qui se sont révelés enfreindre le développement de ces usages parmi les professeurs. Les estimations des déterminants de l’acceptation et des usages éducatifs des TIC par les professeurs ont montré que c’est surtout « l’intention comportementale » d’aller aux TIC des professeurs, « l’expérience d’Internet » qui affectent positivement les usages éducatifs des TIC. Les « conditions de facilitation » qui représentent non seulement la qualité de l’infrastructure technologique, mais aussi l’existence d’un soutien institutionnel aux usages des TIC, ont affecté négativement ces usages. Des éléments de recommandation issus de ce travail s’orientent vers la formation des professeurs sur des compétences précises identifiées, l’amélioration de la qualité de l’infrastructure technologique existante, la création d’un logithèque, la mise en œuvre d’incitations institutionnelles adéquates telles que l’assistance technique régulière aux professeurs, l’allègement des volumes horaires statutaires des professeurs novateurs, la reconnaissance des efforts déjà réalisés par ces novateurs en matière d’usages éducatifs des TIC dans leur institution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis 1981, les jeunes du primaire et secondaire sont sensibilisés à la danse par des enseignants qui l’offrent au sein du curriculum de la formation générale des jeunes. Les enseignants de la danse en milieu scolaire (EDMS) du Québec, bénéficient d’une formation universitaire à la fois disciplinaire, pédagogique et pratique qui développe leurs compétences tant artistiques que professionnelles. Au sein de cette formation initiale, commence le développement de l’identité professionnelle de l’enseignant (Lessard et Tardif, 2003) qui continue à se développer durant toute la carrière. Toutefois, la construction identitaire de l’EDMS n’a pas fait l’objet d’une étude approfondie car l’enseignement de la danse en milieu scolaire est une profession relativement nouvelle, non-traditionnelle et méconnue. Ainsi, dans le cadre d’une approche sociologique constructiviste, nous nous penchons sur les tensions et stratégies identitaires inhérentes aux trajectoires biographiques et aux représentations professionnelles de praticiens dans le but de mieux connaître qui ils sont. Nous cherchons à comprendre le sens qu’ils donnent, dans leur construction identitaire, à leur parcours de formation, à leur travail, à leurs relations dans le travail, aux savoirs, et aux institutions en élaborant les rapports qu’ils entretiennent avec autrui ainsi que la perception de leurs rôles, statuts et fonctions artistiques et éducatifs. Un cadre conceptuel nous a permis de faire un portrait sociologique des sphères de négociations identitaires inhérentes à la construction de l’identité professionnelle grâce à l’analyse de la double transaction biographique et relationnelle, un concept de Dubar (1991). Les données de cette étude, recueillies auprès de dix-huit EDMS, proviennent d’un questionnaire sociodémographique ainsi que d’un questionnaire et d’entretiens sur leurs représentations professionnelles, leurs héritages et sur les incidents critiques de leurs trajectoires biographiques. L’analyse inductive des données par l’approche de théorisation ancrée, vérifiée par quinze participantes, a permis de dégager six sphères internes et externes de négociations identitaires communes à la construction de l’identité professionnelle d’EDMS : Devenir, Se réaliser, Se projeter, Faire sa place, Rencontrer l’autre et Agir. Ces sphères se présentent comme des espaces d’identification dans lesquelles l’EDMS construit son identité professionnelle en se positionnant par rapport aux identités héritées, acquises, prescrites, réelles et projetées. Cependant, les écarts entre les logiques opposées, les postures complémentaires et les rôles à jouer pour soi et pour autrui dans la pratique peuvent engendrer des tensions identitaires intrasubjectives et intersubjectives que nous avons identifiées. Pour réduire les écarts entre les représentations polaires et pour apaiser les zones d’incertitudes identitaires, l’EDMS mobilise des stratégies temporelles et spatiales. Neuf ont été relevées: conversion, conciliation, différenciation, implication multiple, maintien identitaire, défense, promotion, alternance des rôles et formation continue. Cette étude expose des façons d’EDMS de se définir pour soi et pour autrui qui permettent d’accéder aux référents identitaires des sphères par des exemples concrets issus des verbalisations de participantes sur le terrain. L’interprétation de nos résultats nous conduit à décrire six profils identitaires provisoires. Nos résultats offrent des retombées possibles en formation initiale et continue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

On s’intéresse ici aux erreurs de modélisation liées à l’usage de modèles de flammelette sous-maille en combustion turbulente non prémélangée. Le but de cette thèse est de développer une stratégie d’estimation d’erreur a posteriori pour déterminer le meilleur modèle parmi une hiérarchie, à un coût numérique similaire à l’utilisation de ces mêmes modèles. Dans un premier temps, une stratégie faisant appel à un estimateur basé sur les résidus pondérés est développée et testée sur un système d’équations d’advection-diffusion-réaction. Dans un deuxième temps, on teste la méthodologie d’estimation d’erreur sur un autre système d’équations, où des effets d’extinction et de réallumage sont ajoutés. Lorsqu’il n’y a pas d’advection, une analyse asymptotique rigoureuse montre l’existence de plusieurs régimes de combustion déjà observés dans les simulations numériques. Nous obtenons une approximation des paramètres de réallumage et d’extinction avec la courbe en «S», un graphe de la température maximale de la flamme en fonction du nombre de Damköhler, composée de trois branches et d’une double courbure. En ajoutant des effets advectifs, on obtient également une courbe en «S» correspondant aux régimes de combustion déjà identifiés. Nous comparons les erreurs de modélisation liées aux approximations asymptotiques dans les deux régimes stables et établissons une nouvelle hiérarchie des modèles en fonction du régime de combustion. Ces erreurs sont comparées aux estimations données par la stratégie d’estimation d’erreur. Si un seul régime stable de combustion existe, l’estimateur d’erreur l’identifie correctement ; si plus d’un régime est possible, on obtient une fac˛on systématique de choisir un régime. Pour les régimes où plus d’un modèle est approprié, la hiérarchie prédite par l’estimateur est correcte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prééclampsie est responsable du quart des mortalités maternelles et est la deuxième cause de décès maternels associés à la grossesse au Canada et dans le monde. L’identification d’une stratégie efficace pour la prévention de la prééclampsie est une priorité et un défi primordial dans les milieux de recherche en obstétrique. Le rôle des éléments nutritifs dans le développement de la prééclampsie a récemment reçu davantage d’attention. Plusieurs études cliniques et épidémiologiques ont été menées pour déterminer les facteurs de risque alimentaires potentiels et examiner les effets d’une supplémentation nutritive dans le développement de troubles hypertensifs de la grossesse. Pour déterminer les effets de suppléments antioxydants pris pendant la grossesse sur le risque d’hypertension gestationnelle (HG) et de prééclampsie, un essai multicentrique contrôlé à double insu a été mené au Canada et au Mexique (An International Trial of Antioxidants in the Prevention of Preeclampsia – INTAPP). Les femmes, stratifiées par risque, étaient assignées au traitement expérimental quotidien (1 gramme de vitamine C et 400 UI de vitamine E) ou au placebo. En raison des effets secondaires potentiels, le recrutement pour l’essai a été arrêté avant que l’échantillon complet ait été constitué. Au total, 2640 femmes éligibles ont accepté d’être recrutées, dont 2363 (89.5%) furent incluses dans les analyses finales. Nous n’avons retrouvé aucune évidence qu’une supplémentation prénatale de vitamines C et E réduisait le risque d’HG et de ses effets secondaires (RR 0,99; IC 95% 0,78-1,26), HG (RR 1,04; IC 95% 0,89-1,22) et prééclampsie (RR 1,04; IC 95% 0,75-1,44). Toutefois, une analyse secondaire a révélé que les vitamines C et E augmentaient le risque de « perte fœtale ou de décès périnatal » (une mesure non spécifiée au préalable) ainsi qu’une rupture prématurée des membranes avant terme. Nous avons mené une étude de cohorte prospective chez les femmes enceintes recrutées dans l’INTAPP afin d’évaluer les relations entre le régime alimentaire maternel en début et fin de grossesse et le risque de prééclampsie et d’HG. Un questionnaire de fréquence alimentaire validé était administré deux fois pendant la grossesse (12-18 semaines, 32-34 semaines). Les analyses furent faites séparément pour les 1537 Canadiennes et les 799 Mexicaines en raison de l’hétérogénéité des régimes alimentaires des deux pays. Parmi les canadiennes, après ajustement pour l’indice de masse corporelle (IMC) précédant la grossesse, le groupe de traitement, le niveau de risque (élevé versus faible) et les autres facteurs de base, nous avons constaté une association significative entre un faible apport alimentaire (quartile inférieur) de potassium (OR 1,79; IC 95% 1,03-3,11) et de zinc (OR 1,90; IC 95% 1,07-3,39) et un risque augmenté de prééclampsie. Toujours chez les Canadiennes, le quartile inférieur de consommation d’acides gras polyinsaturés était associé à un risque augmenté d’HG (OR 1,49; IC 95% 1,09-2,02). Aucun des nutriments analysés n’affectait les risques d’HG ou de prééclampsie chez les Mexicaines. Nous avons entrepris une étude cas-témoins à l’intérieur de la cohorte de l’INTAPP pour établir le lien entre la concentration sérique de vitamines antioxydantes et le risque de prééclampsie. Un total de 115 cas de prééclampsie et 229 témoins ont été inclus. Les concentrations de vitamine E ont été mesurées de façon longitudinale à 12-18 semaines (avant la prise de suppléments), à 24-26 semaines et à 32-34 semaines de grossesse en utilisant la chromatographie liquide de haute performance. Lorsqu’examinée en tant que variable continue et après ajustement multivarié, une concentration de base élevée de gamma-tocophérol était associée à un risque augmenté de prééclampsie (quartile supérieur vs quartile inférieur à 24-26 semaines : OR 2,99, IC 95% 1,13-7,89; à 32-34 semaines : OR 4,37, IC 95% 1,35-14,15). Nous n’avons pas trouvé de lien entre les concentrations de alpha-tocophérol et le risque de prééclampsie. En résumé, nous n’avons pas trouvé d’effets de la supplémentation en vitamines C et E sur le risque de prééclampsie dans l’INTAPP. Nous avons toutefois trouvé, dans la cohorte canadienne, qu’une faible prise de potassium et de zinc, tel qu’estimée par les questionnaires de fréquence alimentaire, était associée à un risque augmenté de prééclampsie. Aussi, une plus grande concentration sérique de gamma-tocophérol pendant la grossesse était associée à un risque augmenté de prééclampsie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le recours à la stratégie du recentrage sur le cœur de métier (core business) par les entreprises fait apparaître, en discours comme en pratique, trois mouvements qui déstabilisent les ensembles bureaucratiques: la réorganisation de la grande firme en « centres de profits », la multiplication des relations inter-firmes et un changement d’ordre qualitatif dans les termes de l’échange. L’avènement et le maintien de ce que nous convenons d’appeler l’« entreprise réseau » demeurent à ce jour problématique : soit cette forme organisationnelle serait le résultat d’une adaptation unilatérale à son environnement; soit la dynamique sociale serait réglée par la confiance entre les acteurs. Notre démarche inductive et exploratoire d’un cas d’entreprise réseau québécoise veut contribuer au démontage de la notion, puis à la compréhension sociologique du phénomène. Nous constatons que cette forme d’entreprise ne peut être comprise que lorsque nous la mettons en perspective avec l’entreprise bureaucratique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis quelques décennies, l'intérêt pour l’étude de la fonction d’évaluation s’est diversifié pour approfondir les principes théoriques (Jenkinson, 1922; Schellenberg, 1956; Samuels, 1992; Cook, 1992b; Eastwood, 1992b; Duranti, 1994; Couture, 1999), les stratégies (Booms, 1972; Samuels, 1986; Cook, 1992b; Eastwood, 1992b; Couture, 1999) et les dispositifs de leur processus d’application (Ham, 1984; Boles & Young, 1991; Cook, 2001a, 2001b). Mais, toutes ces contributions n'ont pas encore étudié la nature des résultats de l'évaluation que sont les archives définitives. Du point de vue patrimonial, l’absence d’études sur la définition et la mesure des qualités des archives définitives ne permet pas de vérifier si ces archives constituent un patrimoine documentaire significatif. Sur le plan administratif, l’état actuel de la pratique de l'évaluation n'a pas encore investi dans l'examen méticuleux de la nature de ses résultats. Au plan économique, le manque de méthodes et d'outils pour la mesure des qualités des archives ne permet pas de juger si ces archives valent l’investissement matériel, technique, financier et humain que leur conservation implique. Du point de vue professionnel, l’absence de méthodes et d’instruments d’évaluation des qualités des archives ne permet pas aux professionnels d’appuyer leur décision en matière d’évaluation des archives. Afin de remédier à cette situation, notre recherche vise à définir et à mesurer les qualités des archives définitives issues de l’évaluation. Pour ce faire, nous privilégions une méthodologie quantitative de nature descriptive, appropriée lorsqu’il s’agit d’étudier un sujet peu abordé (Fortin, 2006) tel que l'opérationnalisation des qualités des archives définitives. La stratégie de la recherche a comporté deux phases. La phase conceptuelle a permis d’identifier et de définir quatre qualités soit l’« Unicité », la « Preuve crédible », l’« Exploitabilité » et la « Représentativité ». La phase empirique consistait à vérifier la mesurabilité, à titre d’exemple, des variables découlant de deux des quatre dimensions de qualité dans le contexte des archives définitives, soit la « Preuve crédible » et l’« Exploitabilité ». Le mode de collecte des données réside dans l’application d’une grille de mesure conçue spécialement aux fins de cette étude. La réalisation de la collecte de données qui s’est déroulée à Bibliothèque et Archives nationales du Québec a permis l’opérationnalisation de 10 indicateurs spécifiques sur 13 appartenant à deux dimensions de qualité : la « Preuve crédible » et l’« Exploitabilité » des archives définitives. Ainsi, trois indicateurs spécifiques sur l’ensemble de 13 sont restés sans mesures à cause d’une certaine faiblesse liée à leur mesure que nous avons pu identifier et vérifier lors des pré-tests de la recherche. Ces trois indicateurs spécifiques sont le « Créateur » dans le cadre de la dimension de la « Preuve crédible », ainsi que la « Compréhensibilité » et la « Repérabilité » dans le cadre de la dimension de l’« Exploitabilité ». Les mesures obtenues pour les 10 indicateurs ont mené à l’identification des avantages et des points à améliorer concernant différentes variables liées au créateur, au service de conservation ou encore à l’état et à la nature du support. Cibler l’amélioration d’un produit ou d’un service représente, comme démontré dans la revue de la littérature, le but ultime d’une étude sur les dimensions de qualité. Trois types de contributions découlent de cette recherche. Au plan théorique, cette recherche offre un cadre conceptuel qui permet de définir le concept de qualité des archives définitives dans une perspective d’évaluation archivistique. Au plan méthodologique, elle propose une méthode de mesure des qualités applicables aux archives définitives ainsi que les instruments et le guide qui expliquent sa réalisation. Au plan professionnel, d'une part, elle permet d’évaluer les résultats de l’exercice de l’évaluation archivistique; d'autre part, elle offre aux professionnels non seulement une grille de mesure des qualités des archives définitives déjà testée, mais aussi le guide de son application.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les antibiotiques aminoglycosidiques sont des agents bactéricides de grande valeur et d’efficacité à large spectre contre les pathogènes Gram-positifs et Gram-négatifs, dont plusieurs membres naturels et semisynthétiques sont importants dans l’histoire clinique depuis 1950. Des travaux crystallographiques sur le ribosome, récompensés par le prix Nobel, ont démontré comment leurs diverses structures polyaminées sont adaptées pour cibler une hélice d’ARN dans le centre de codage de la sous-unité 30S du ribosome bactérien. Leur interférence avec l’affinité et la cinétique des étapes de sélection et vérification des tARN induit la synthèse de protéines à basse fidélité, et l’inhibition de la translocation, établissant un cercle vicieux d’accumulation d’antibiotique et de stress sur la membrane. En réponse à ces pressions, les pathogènes bactériens ont évolué et disséminé une panoplie de mécanismes de résistance enzymatiques et d’expulsion : tels que les N acétyltransférases, les O phosphotransférases et les O nucleotidyltransférases qui ciblent les groupements hydroxyle et amino sur le coeur des aminoglycosides; des méthyl-transférases, qui ciblent le site de liaison ribosomale; et des pompes d’expulsion actives pour l’élimination sélective des aminoglycosides, qui sont utilisés par les souches Gram-négatives. Les pathogènes les plus problématiques, qui présentent aujourd’hui une forte résilience envers la majorité des classes d’antibiotiques sur le bord de la pan-résistance ont été nommés des bactéries ESKAPE, une mnémonique pour Enterococcus faecium, Staphylococcus aureus, Klebsiella pneumoniae, Acinetobacter baumannii, Pseudomonas aeruginosa et Enterobacteriaceae. La distribution globale des souches avec des mécanismes de résistance envers les standards cliniques aminoglycosides, tels que la tobramycine, l’amikacine et la gentamicine, est comprise entre 20 et 60% des isolées cliniques. Ainsi, les aminoglycosides du type 4,6-disubstitués-2-deoxystreptamine sont inadéquats comme thérapies anti-infectieuses à large spectre. Cependant, la famille des aminoglycosides 4,5-disubstitués, incluant la butirosine, la neomycine et la paromomycine, dont la structure plus complexe, pourrait constituter une alternative. Des collègues dans le groupe Hanessian et collaborateurs d’Achaogen Inc. ont démontré que certains analogues de la paraomomycine et neomycine, modifiés par désoxygénation sur les positions 3’ et 4’, et par substitution avec la chaîne N1-α-hydroxy-γ-aminobutyramide (HABA) provenant de la butirosine, pourrait produire des antibiotiques très prometteurs. Le Chapitre 4 de cette dissertation présente la conception et le développement d’une stratégie semi-synthétique pour produire des nouveaux aminoglycosides améliorés du type 4,5 disubstitués, inspiré par des modifications biosynthétiques de la sisomicine, qui frustrent les mécanismes de résistance bactérienne distribuées globalement. Cette voie de synthèse dépend d’une réaction d’hydrogénolyse de type Tsuji catalysée par palladium, d’abord développée sur des modèles monosaccharides puis subséquemment appliquée pour générer un ensemble d’aminoglycosides hybrides entre la neomycine et la sisomicine. Les études structure-activité des divers analogues de cette nouvelle classe ont été évaluées sur une gamme de 26 souches bactériennes exprimant des mécanismes de résistance enzymatique et d’expulsion qui englobe l’ensemble des pathogènes ESKAPE. Deux des antibiotiques hybrides ont une couverture antibacterienne excellente, et cette étude a mis en évidence des candidats prometteurs pour le développement préclinique. La thérapie avec les antibiotiques aminoglycosidiques est toujours associée à une probabilité de complications néphrotoxiques. Le potentiel de toxicité de chaque aminoglycoside peut être largement corrélé avec le nombre de groupements amino et de désoxygénations. Une hypothèse de longue date dans le domaine indique que les interactions principales sont effectuées par des sels des groupements ammonium, donc l’ajustement des paramètres de pKa pourrait provoquer une dissociation plus rapide avec leurs cibles, une clairance plus efficace et globalement des analogues moins néphrotoxiques. Le Chapitre 5 de cette dissertation présente la conception et la synthèse asymétrique de chaînes N1 HABA β substitutées par mono- et bis-fluoration. Des chaînes qui possèdent des γ-N pKa dans l’intervalle entre 10 et 7.5 ont été appliquées sur une neomycine tétra-désoxygénée pour produire des antibiotiques avancés. Malgré la réduction considérable du γ N pKa, le large spectre bactéricide n’a pas été significativement affecté pour les analogues fluorés isosteriques. De plus, des études structure-toxicité évaluées avec une analyse d’apoptose propriétaire d’Achaogen ont démontré que la nouvelle chaîne β,β difluoro-N1-HABA est moins nocive sur un modèle de cellules de rein humain HK2 et elle est prometteuse pour le développement d’antibiotiques du type neomycine avec des propriétés thérapeutiques améliorées. Le chapitre final de cette dissertation présente la proposition et validation d’une synthèse biomimétique par assemblage spontané du aminoglycoside 66-40C, un dimère C2 symétrique bis-imine macrocyclique à 16 membres. La structure proposée du macrocycle a été affinée par spectroscopie nucléaire à un système trans,trans-bis-azadiène anti-parallèle. Des calculs indiquent que l’effet anomérique de la liaison α glycosidique entre les anneaux A et B fournit la pré-organisation pour le monomère 6’ aldéhydo sisomicine et favorise le produit macrocyclique observé. L’assemblage spontané dans l’eau a été étudié par la dimérisation de trois divers analogues et par des expériences d’entre croisement qui ont démontré la généralité et la stabilité du motif macrocyclique de l'aminoglycoside 66-40C.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ciblant la réduction des inégalités sociales de santé, le Québec a établi une stratégie de soutien au développement des communautés en santé publique. Or, un usage ambigu du terme de « communauté » est identifiable dans les documents officiels de santé publique au Québec, ce qui pose des questions d’équité et de justice sociale. D'abord, cette imprécision permet mal l’application du soutien au développement des communautés et laisse présager la même difficulté quant à l’objectif de réduction des inégalités sociales de santé qui s’y rattache. Aussi, cette situation pose un problème d’équité, puisqu’elle mène difficilement à la justification des choix des communautés qui seront soutenues pour leur développement. Le premier Chapitre de ce mémoire confirme alors l’hypothèse selon laquelle on ne s’efforce pas suffisamment pour rendre compréhensible la notion de « communauté » en santé publique, à l’aide d’une analyse de contenu des documents de santé publique québécois. Le deuxième chapitre explore diverses compréhensions du terme à travers les sciences sociales. On propose alors la typologie de Vibert pour démontrer la richesse sociohistorique du concept de « communauté » et ses enjeux et pour permettre d’éclairer les professionnels de santé quant aux choix des communautés qu’ils soutiendront dans leur pratique. Enfin, si plusieurs acceptations du terme de « communauté » sont justifiables en santé publique, alors sous quels critères sont sélectionnées les communautés soutenues? Le troisième chapitre y réfléchit, en s’appuyant sur le modèle de justice procédurale développé par Daniels et Sabin pour répondre équitablement aux désaccords liés aux rationnements en santé.