992 resultados para Éléments réguliers


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l'analyse bayésienne de données fonctionnelles dans un contexte hydrologique. L'objectif principal est de modéliser des données d'écoulements d'eau d'une manière parcimonieuse tout en reproduisant adéquatement les caractéristiques statistiques de celles-ci. L'analyse de données fonctionnelles nous amène à considérer les séries chronologiques d'écoulements d'eau comme des fonctions à modéliser avec une méthode non paramétrique. Dans un premier temps, les fonctions sont rendues plus homogènes en les synchronisant. Ensuite, disposant d'un échantillon de courbes homogènes, nous procédons à la modélisation de leurs caractéristiques statistiques en faisant appel aux splines de régression bayésiennes dans un cadre probabiliste assez général. Plus spécifiquement, nous étudions une famille de distributions continues, qui inclut celles de la famille exponentielle, de laquelle les observations peuvent provenir. De plus, afin d'avoir un outil de modélisation non paramétrique flexible, nous traitons les noeuds intérieurs, qui définissent les éléments de la base des splines de régression, comme des quantités aléatoires. Nous utilisons alors le MCMC avec sauts réversibles afin d'explorer la distribution a posteriori des noeuds intérieurs. Afin de simplifier cette procédure dans notre contexte général de modélisation, nous considérons des approximations de la distribution marginale des observations, nommément une approximation basée sur le critère d'information de Schwarz et une autre qui fait appel à l'approximation de Laplace. En plus de modéliser la tendance centrale d'un échantillon de courbes, nous proposons aussi une méthodologie pour modéliser simultanément la tendance centrale et la dispersion de ces courbes, et ce dans notre cadre probabiliste général. Finalement, puisque nous étudions une diversité de distributions statistiques au niveau des observations, nous mettons de l'avant une approche afin de déterminer les distributions les plus adéquates pour un échantillon de courbes donné.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les recettes de cuisine sont partout de nos jours, dans les livres, à la télévision, sur l’Internet, ainsi que dans les restaurants et les entreprises alimentaires industrielles. Cette grande présence médiatique et économique soulève la question de savoir s’il est possible de les protéger par le droit de la propriété intellectuelle canadien. L’auteure commence par décrire les recettes et les plats, puis examine si ceux de nature traditionnelle et familiale sont des éléments de culture et s’ils peuvent constituer des savoirs traditionnels. Cela amène l’auteure à examiner si les indications géographiques peuvent procurer aux recettes et aux plats une certaine forme de protection contre leur appropriation à l’usage exclusif d’une personne. L’auteure aborde ensuite les régimes usuels de propriété intellectuelle à l’aune de la recette et du plat de chefs ou de l’industrie. Elle examine en premier ceux de la propriété industrielle. Les recettes et les plats peuvent-ils être des marques de commerce? Peuvent-ils être des secrets de commerce? Peuvent-ils constituer des inventions brevetables? Elle se penche ensuite sur le droit d’auteur et examine si les recettes et les plats peuvent être des œuvres protégeables et s’ils se qualifieraient comme œuvres littéraires ou artistiques. Cet examen l’amène à regarder le développement de la protection des œuvres musicales pour mieux cerner les enjeux pour les recettes. Au terme de son analyse, l’auteure fait ressortir quel régime appert le plus approprié selon la nature des recettes et des pratiques des chefs et des entreprises industrielles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Grâce à un grand nombre d’études biochimiques, génétiques et structurales effectuées dans les dernières années, des avancements considérables ont été réalisés et une nouvelle vision du processus par lequel la machinerie transcriptionnelle de l’ARN polymérase II (Pol II) décode l’information génétique a émergé. De nouveaux indices ont été apportés sur la diversité des mécanismes de régulation de la transcription, ainsi que sur le rôle des facteurs généraux de transcription (GTFs) dans cette diversification. Les travaux présentés dans cette thèse amènent de nouvelles connaissances sur le rôle des GTFs humains dans la régulation des différentes étapes de la transcription. Dans la première partie de la thèse, nous avons analysé la fonction de la Pol II et des GTFs humains, en examinant de façon systématique leur localisation génomique. Les patrons obtenus par immunoprécipitation de la chromatine (ChIP) des versions de GTFs portant une étiquette TAP (Tandem-Affinity Purification) indiquent de nouvelles fonctions in vivo pour certains composants de cette machinerie et pour des éléments structuraux de la Pol II. Nos résultats suggèrent que TFIIF et l’hétérodimère Rpb4–Rpb7 ont une fonction spécifique pendant l’étape d’élongation transcriptionnelle in vivo. De plus, notre étude amène une première image globale de la fonction des GTFs pendant la réaction transcriptionnelle dans des cellules mammifères vivantes. Deuxièmement, nous avons identifié une nouvelle fonction de TFIIS dans la régulation de CDK9, la sous-unité kinase du facteur P-TEFb (Positive Transcription Elongation Factor b). Nous avons identifié deux nouveaux partenaires d’interaction pour TFIIS, soit CDK9 et la E3 ubiquitine ligase UBR5. Nous montrons que UBR5 catalyse l’ubiquitination de CDK9 in vitro. De plus, la polyubiquitination de CDK9 dans des cellules humaines est dépendante de UBR5 et TFIIS. Nous montrons aussi que UBR5, CDK9 and TFIIS co-localisent le long du gène  fibrinogen (FBG) et que la surexpression de TFIIS augmente les niveaux d’occupation par CDK9 de régions spécifiques de ce gène, de façon dépendante de UBR5. Nous proposons que TFIIS a une nouvelle fonction dans la transition entre les étapes d’initiation et d’élongation transcriptionnelle, en régulant la stabilité des complexes CDK9-Pol II pendant les étapes précoces de la transcription.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec l’émergence des nouveaux médias, une nouvelle façon de raconter les histoires s’impose. Les structures connues de l’esthétisme classique semblent désuètes par rapport aux dispositions des nouvelles plateformes de diffusion. Mieux encore, ces plateformes propulsent le récit, lui permettent de sortir de la rigidité de la ligne narrative : elles intègrent la technique au logos. L’intermédialité devient omniprésente; la diversité des types médiatiques employés dans une œuvre sont rendus visibles et sont articulés par la mise en récit. Méchoulan dira que dans l’« être-entre », dans l’espace reliant chacune des unités sémantiques, que l’événement de la pensée advient; pour Rodowick c’est le « figural ». Une figure particulière s’impose : le labyrinthe. Multipliant les possibilités narratives spécifiques aux nouveaux médias, le labyrinthe fait converger les composantes intermédiales. Bleeding Through : Layers of Los Angeles 1920-1986, une œuvre dirigée par Norman Klein, pose le labyrinthe comme élément structurel en y tissant un réseau où s’inscrit une pratique intermédiale. On y adresse le temps comme une opération fragmentaire, qui se sectionne, se réorganise en rompant avec la linéarité classique. Il nous faudra alors voir comment le labyrinthe réfléchit dans l’étude du temps certains éléments de la mythologie grecque. Les réflexions de Gervais sur le labyrinthe permettront d’étayer pareille hypothèse. Nous analyserons Bleeding Through à la lumière de ces théories pour ainsi dégager l’essence de cette figure qui a infiltrée la narration contemporaine. En somme, le labyrinthe se présente dans l’écologie médiatique actuelle comme une figure inhérente à la mise en récit.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire porte sur les compétences et les sous-compétences en traduction et en interprétation et vise à dégager les convergences et les divergences entre les compétences requises dans les deux professions. L’étude pose comme hypothèse que la traduction et l’interprétation demandent des compétences et des sous-compétences spécifiques à chacune de ces activités. Sur le plan théorique, l’accent est mis sur la comparaison des éléments suivants : les définitions de traduction et interprétation, les codes d’éthique des associations, les programmes universitaires, les outils utilisés par les traducteurs et les interprètes et le métalangage des deux professions. Sur le plan expérimental, une enquête par questionnaire en ligne a été menée auprès des traducteurs et des interprètes professionnels dans le but de déterminer, dans la pratique, les points communs et les différences entre les deux professions. Les résultats montrent que les différences sont minimes et sont liées à l’aspect pratique de chacune des professions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'éthique du développement se fonde sur une étude de terrain et des réflexions sur les cadres théoriques qui permettent d'orienter les interventions pratiques. Cet article s’attache à présenter un cadre pour l'éthique du développement en articulant deux traditions: celle des économistes Denis Goulet et Amartya Sen ; et la conception de l'éthique appliquée de l’auteur elle-même qui conjugue, à son tour, le concept de pratique de MacIntyre et l'éthique de la discussion créée par Karl-Otto Apel et Jürgen Habermas. À partir de ce cadre, il est possible de distinguer les éléments éthiques du travail pour le développement humain, ce qui constitue l'objectif de l'éthique du développement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le réseau de distribution aérien, ou plus simplement le réseau de poteaux de bois et ses câbles, est encore aujourd’hui omniprésent dans la majorité des villes du Québec. Pour plusieurs, le réseau de poteaux d’utilité publique semble appartenir à une autre époque. Pourtant, les poteaux et câbles ne sont pas près de disparaître, au contraire, ils ne cessent de se transformer. Depuis peu, de plus en plus d’équipements s’ajoutent sur le réseau: boîtiers techniques, nombre de câbles, appareillages au sommet des poteaux, antennes de communication, etc. Bien que les équipements du réseau de distribution aérien soient des éléments produits industriellement, ceux-ci intègrent rarement les services du design industriel au moment de leur conception initiale. Cette recherche étudie le système de distribution aérien sous l’angle de la « pensée design ». L’intention de cette étude est d’analyser les impacts de la présence du réseau aérien en milieux urbains et a pour objectif d’orienter les pratiques de conception de ce type d’équipements. Pour ce faire, dans une optique transdisciplinaire, diverses approches ont été sollicitées dont: l’approche systémique, l’approche paysage et les approches des partenaires des réseaux. Au moyen d’une recherche documentaire et d’observations faites sur le terrain, la recherche vise à dresser un portrait général du réseau de distribution aérien et les défis qui y sont associés. La recherche expose, dans un état des lieux, les résultats issus des questions analytiques de recherche suivantes: de quoi est composé le réseau de distribution aérien, quels sont les intervenants sur le réseau, quelles sont leurs interactions, quels sont les points de vue des différentes catégories d’acteurs en relation avec le réseau, quels sont les impacts reliés à la présence du réseau en milieux urbains et quelle a été son évolution au fil des années. Dans la perspective de l’approche design, chercher à comprendre une problématique de façon plus large permet de s’assurer que l’on répond au bon problème, que l’on considère tous les facteurs en cause visant ainsi à réduire les répercussions négatives sur les contextes de vie actuels et futurs. Les principaux constats de cette recherche démontrent que la composition du réseau de distribution, avant même de considérer les nouveaux usages et l’ajout de nouveaux équipements, présente des lacunes importantes. La gestion entre les divers partenaires du réseau de distribution pose aussi problème. L’ajout de nouveaux équipements sur le réseau, combiné aux multiples équipements apparaissant sur les voies publiques laisse entrevoir l’atteinte d’un niveau de saturation des milieux urbains. Les façons de faire hermétiques et «cristallisées» des partenaires du réseau ne collent pas avec les initiatives et aspirations générales en matière d’aménagement. En étudiant la problématique du réseau de distribution par le biais de la pensée design, l’approche design cherche à déceler, de façon proactive, les opportunités de design qui permettront de mieux gérer l’apparition et l’intégration des nouveaux équipements sur les poteaux. Cette démarche permet d’envisager des solutions qui visent à limiter les répercussions collatérales une fois en contexte et qui, du même coup, adressent des problématiques connexes. Finalement, à la lumière de l’état des lieux, cette recherche propose des critères de conception de futurs réseaux de distribution, élaborés dans l’esprit de l’approche design.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif général de cette recherche doctorale est l’étude des déterminants de l’intégration pédagogique des technologies de l’information et de la communication (TIC) par les professeurs à l’Université de Ouagadougou (UO). Cela nous a conduit à étudier respectivement les compétences technologiques des professeurs, les facteurs de résistance contraignant l’intégration pédagogique des TIC par ces professeurs, l’acceptation et les usages spécifiques des TIC par les professeurs. Ce travail s’est bâti autour des concepts théoriques sur les usages éducatifs des TIC, les compétences technopédagogiques, les facteurs de résistance, l’acceptation des TIC et l’intégration pédagogique des TIC. Ces concepts se sont inscrits dans les cadres d’analyses des modèles d’intégration des TIC par les professeurs et des modèles d’acceptation et d’utilisation d’une nouvelle technologie. La stratégie d’analyse des données s’est construite autour des approches descriptives et analytiques notamment au moyen de l’utilisation de la psychométrie et/ou de l’économétrie des modèles à variables dépendantes limitées. Utilisant la recherche quantitative, le recrutement de 82 professeurs par avis de consentement à participer, a permis de collecter les données sur la base de questionnaires dont la majeure partie est bâtie autour de questions à échelle de Likert. L’étude des compétences technologiques des professeurs a permis d’une part, de dresser un portrait des usages des TIC par les professeurs. En effet, les usages les plus répandus des TIC dans cette université sont les logiciels de bureautique, les logiciels de messagerie électronique et de navigation dans Internet. Elle a aussi permis de faire un portrait des compétences technologiques des professeurs. Ceux-ci utilisent à la fois plusieurs logiciels et reconnaissent l’importance des TIC pour leurs tâches pédagogiques et de recherche même si leur degré de maîtrise perçue sur certaines des applications télématiques reste à des niveaux très bas. Par rapport à certaines compétences comme celles destinées à exploiter les TIC dans des situations de communication et de collaboration et celles destinée à rechercher et à traiter des informations à l’aide des TIC, les niveaux de maîtrise par les professeurs de ces compétences ont été très élevés. Les professeurs ont eu des niveaux de maîtrise très faibles sur les compétences destinées à créer des situations d’apprentissage à l’aide des TIC et sur celles destinées à développer et à diffuser des ressources d’apprentissage à l’aide des TIC malgré la grande importance que ceux-ci ont accordée à ces compétences avancées essentielles pour une intégration efficace et efficiente des TIC à leurs pratiques pédagogiques. L’étude des facteurs de résistance a permis d’ériger une typologie de ces facteurs. Ces facteurs vont des contraintes matérielles et infrastructurelles à celles liées aux compétences informatiques et à des contraintes liées à la motivation et à l’engagement personnel des professeurs, facteurs pouvant susciter des comportements de refus de la technologie. Ces facteurs sont entre autres, la compatibilité des TIC d’avec les tâches pédagogiques et de recherche des professeurs, l’utilité perçue des TIC pour les activités pédagogiques et de recherche, les facilités d’utilisation des TIC et la motivation ou l’engagement personnel des professeurs aux usages des TIC. Il y a aussi les coûts engendrés par l’accès aux TIC et le manque de soutien et d’assistance technique au plan institutionnel qui se sont révelés enfreindre le développement de ces usages parmi les professeurs. Les estimations des déterminants de l’acceptation et des usages éducatifs des TIC par les professeurs ont montré que c’est surtout « l’intention comportementale » d’aller aux TIC des professeurs, « l’expérience d’Internet » qui affectent positivement les usages éducatifs des TIC. Les « conditions de facilitation » qui représentent non seulement la qualité de l’infrastructure technologique, mais aussi l’existence d’un soutien institutionnel aux usages des TIC, ont affecté négativement ces usages. Des éléments de recommandation issus de ce travail s’orientent vers la formation des professeurs sur des compétences précises identifiées, l’amélioration de la qualité de l’infrastructure technologique existante, la création d’un logithèque, la mise en œuvre d’incitations institutionnelles adéquates telles que l’assistance technique régulière aux professeurs, l’allègement des volumes horaires statutaires des professeurs novateurs, la reconnaissance des efforts déjà réalisés par ces novateurs en matière d’usages éducatifs des TIC dans leur institution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette étude est de saisir une image des éléments explicitement reconnaissables de la recherche en communication visibles dans les revues savantes Canadian Journal of Communication et dans Communication de 1974 à 2005. Il s’agit d’une analyse bibliométrique des articles publiés par les chercheurs d’institutions canadiennes et de leurs références bibliographiques. La bibliométrie est « l’application de méthodes statistiques aux livres et aux autres moyens de communication » (Pritchard, 1969: 348-349). C’est la première fois qu’une analyse de ce type est tentée dans ce corpus particulier. Nous nous sommes appuyés sur des postulats théoriques provenant de la sociologie des sciences et des études en communication scientifique. L’idée maîtresse est la suivante : l’activité scientifique est un « continuum de création de nouvelles connaissances » (Vassallo, 1999), dont l’organisation est basée sur l’échange d’information (Price, 1963; Crane, 1972), qui se traduit en reconnaissance sociale, en autorité scientifique, et constitue un investissement pour l’acquisition de crédibilité (Merton, 1938; Hagstrom, 1965; Bourdieu, 1975; Latour et Woolgar, 1986). À partir de l’analyse des articles, nous identifions s’ils sont le résultat de recherches empiriques ou fondamentales, ou le produit d’une réflexion critique. Il s’agit aussi de détecter les approches méthodologiques et les techniques d’investigation utilisées, ainsi que les sujets qui y sont abordés par les chercheurs. Nous détectons également les principaux lieux de recherche (universités et types de départements). Nous analysons aussi les thématiques des articles. Enfin, nous analysons des références bibliographiques des articles afin de cerner les sources d’idées qui y sont décelables. Notre corpus principal comporte 1154 articles et 12 840 titres de documents en référence. L’analyse bibliométrique des articles révèle ainsi une recherche canadienne en communication d’emblée qualitative, intéressée pour les spécificités historiques, le contexte social et la compréhension des interrelations sous-jacentes aux phénomènes de communication, en particulier, au Canada et au Québec. Au cœur de ces études se distingue principalement l’application de l’analyse de contenu qualitative dans les médias en général. Cependant, à partir de 1980, l’exploration du cinéma, de l’audiovisuel, des nouvelles technologies de l’information et de la communication, ainsi que la multiplication des sujets de recherche, annoncent un déplacement dans l’ordre des intérêts. Communication et le CJC, se distinguent cependant par l’origine linguistique des chercheurs qui y publient ainsi que dans les thématiques. L’analyse des références bibliographiques, et de leurs auteurs, met en relief l’intérêt partagé des chercheurs d’institutions universitaires canadiennes pour les agences de réglementation et les politiques gouvernementales canadiennes s’appuyant souvent sur l’analyse de documents législatifs et de rapports de diverses commissions d’enquête du gouvernement canadien. L’analyse révèle aussi les principales inspirations théoriques et méthodologiques des chercheurs. Parmi les plus citées, on voit Innis, McLuhan, Habermas, Tuchman, Bourdieu, Foucault, Raboy, et Rogers. Mais ces références évoluent dans le temps. On voit aussi une distinction relativement claire entre les sources citées par la recherche francophone et la recherche anglophone.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’évolution rapide des technologies de détection et de caractérisation des exoplanètes depuis le début des années 1990 permet de croire que de nouveaux instruments du type Terrestrial Planet Finder (TPF) pourront prendre les premiers spectres d’exoplanètes semblables à la Terre d’ici une ou deux décennies. Dans ce contexte, l’étude du spectre de la seule planète habitée connue, la Terre, est essentielle pour concevoir ces instruments et analyser leurs résultats. Cette recherche présente les spectres de la Terre dans le visible (390-900 nm), acquis lors de 8 nuits d’observation étalées sur plus d’un an. Ces spectres ont été obtenus en observant la lumière cendrée de la Lune avec le télescope de 1.6 m de l’Observatoire du Mont-Mégantic (OMM). La surface de la Lune réfléchissant de manière diffuse la lumière provenant d’une portion de la Terre, ces spectres sont non résolus spatialement. L’évolution de ces spectres en fonction de la lumière réfléchie à différentes phases de Terre est analogue à celle du spectre d’une exoplanète, dont la phase change selon sa position autour de l’étoile. L'eau, l'oxygène et l'ozone de l’atmosphère, détectés dans tous nos spectres, sont des biomarqueurs dont la présence suggère l’habitabilité de la planète et/ou la présence d’une activité biologique. Le Vegetation Red Edge (VRE), une autre biosignature spectrale, dû aux organismes photosynthétiques à la surface, est caractérisé par l’augmentation de la réflectivité autour de 700 nm. Pour les spectres de 5 nuits, cette augmentation a été évaluée entre -5 et 15% ±~5%, après que les contributions de la diffusion de Rayleigh, des aérosols et d’une large bande moléculaire de l’ozone aient été enlevées. Les valeurs mesurées sont cohérentes avec la présence de végétation dans la phase de la Terre contribuant au spectre, mais s’étendent sur une plage de variations plus large que celles trouvées dans la littérature (0-10%). Cela pourrait s’expliquer par des choix faits lors de la réduction des données et du calcul du VRE, ou encore par la présence d’autres éléments de surface ou de l’atmosphère dont la contribution spectrale autour de 700 nm serait variable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quel est le récit d’histoire littéraire québécoise que les étudiants retiennent à la fin de leur parcours collégial? Nous nous sommes intéressé à cette question. Par le biais d’un questionnaire, nous avons interrogé plus de 300 étudiants qui étaient à la fin de leurs études collégiales. Les réponses à ce questionnaire nous ont permis de tracer une ébauche du récit d’histoire littéraire québécoise, de mieux comprendre l’enseignement que les étudiants ont reçu et d’analyser ce récit. La première constatation que nous avons faite est que nous étions en présence d’une multitude de récits. En effet, il n’y a pas deux récits pareils et il y a une grande dispersion des résultats. Ensuite, ce qui a retenu le plus notre attention est l’absence de mise en intrigue. Les étudiants utilisent plusieurs éléments pour faire l’histoire de la littérature québécoise. Les plus importants sont : la Nouvelle-France, la littérature orale, le 19e siècle, le terroir, l’anti-terroir, le roman de la ville, les années 1960, la littérature migrante et la postmodernité. Mais il n’y a pas d’articulation entre ces éléments. Ils sont tous traités de façon autonome; nous avons l’impression d’être en présence d’un mur de briques sans mortier. L’absence de certains éléments semble expliquer la forme du récit : les étudiants font une histoire qui utilise seulement les courants, il y a une absence d’événements tant littéraires qu’historiques. Ils ne font pas de liens avec les autres littératures. Bref, les éléments pouvant servir à articuler un récit sont évincés. Il est donc difficile de considérer le récit des étudiants comme une histoire littéraire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La transformation de modèles consiste à transformer un modèle source en un modèle cible conformément à des méta-modèles source et cible. Nous distinguons deux types de transformations. La première est exogène où les méta-modèles source et cible représentent des formalismes différents et où tous les éléments du modèle source sont transformés. Quand elle concerne un même formalisme, la transformation est endogène. Ce type de transformation nécessite généralement deux étapes : l’identification des éléments du modèle source à transformer, puis la transformation de ces éléments. Dans le cadre de cette thèse, nous proposons trois principales contributions liées à ces problèmes de transformation. La première contribution est l’automatisation des transformations des modèles. Nous proposons de considérer le problème de transformation comme un problème d'optimisation combinatoire où un modèle cible peut être automatiquement généré à partir d'un nombre réduit d'exemples de transformations. Cette première contribution peut être appliquée aux transformations exogènes ou endogènes (après la détection des éléments à transformer). La deuxième contribution est liée à la transformation endogène où les éléments à transformer du modèle source doivent être détectés. Nous proposons une approche pour la détection des défauts de conception comme étape préalable au refactoring. Cette approche est inspirée du principe de la détection des virus par le système immunitaire humain, appelée sélection négative. L’idée consiste à utiliser de bonnes pratiques d’implémentation pour détecter les parties du code à risque. La troisième contribution vise à tester un mécanisme de transformation en utilisant une fonction oracle pour détecter les erreurs. Nous avons adapté le mécanisme de sélection négative qui consiste à considérer comme une erreur toute déviation entre les traces de transformation à évaluer et une base d’exemples contenant des traces de transformation de bonne qualité. La fonction oracle calcule cette dissimilarité et les erreurs sont ordonnées selon ce score. Les différentes contributions ont été évaluées sur d’importants projets et les résultats obtenus montrent leurs efficacités.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les fichiers sons qui accompagne mon document sont au format midi. Le programme que nous avons développés pour ce travail est en language Python.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La prééclampsie est responsable du quart des mortalités maternelles et est la deuxième cause de décès maternels associés à la grossesse au Canada et dans le monde. L’identification d’une stratégie efficace pour la prévention de la prééclampsie est une priorité et un défi primordial dans les milieux de recherche en obstétrique. Le rôle des éléments nutritifs dans le développement de la prééclampsie a récemment reçu davantage d’attention. Plusieurs études cliniques et épidémiologiques ont été menées pour déterminer les facteurs de risque alimentaires potentiels et examiner les effets d’une supplémentation nutritive dans le développement de troubles hypertensifs de la grossesse. Pour déterminer les effets de suppléments antioxydants pris pendant la grossesse sur le risque d’hypertension gestationnelle (HG) et de prééclampsie, un essai multicentrique contrôlé à double insu a été mené au Canada et au Mexique (An International Trial of Antioxidants in the Prevention of Preeclampsia – INTAPP). Les femmes, stratifiées par risque, étaient assignées au traitement expérimental quotidien (1 gramme de vitamine C et 400 UI de vitamine E) ou au placebo. En raison des effets secondaires potentiels, le recrutement pour l’essai a été arrêté avant que l’échantillon complet ait été constitué. Au total, 2640 femmes éligibles ont accepté d’être recrutées, dont 2363 (89.5%) furent incluses dans les analyses finales. Nous n’avons retrouvé aucune évidence qu’une supplémentation prénatale de vitamines C et E réduisait le risque d’HG et de ses effets secondaires (RR 0,99; IC 95% 0,78-1,26), HG (RR 1,04; IC 95% 0,89-1,22) et prééclampsie (RR 1,04; IC 95% 0,75-1,44). Toutefois, une analyse secondaire a révélé que les vitamines C et E augmentaient le risque de « perte fœtale ou de décès périnatal » (une mesure non spécifiée au préalable) ainsi qu’une rupture prématurée des membranes avant terme. Nous avons mené une étude de cohorte prospective chez les femmes enceintes recrutées dans l’INTAPP afin d’évaluer les relations entre le régime alimentaire maternel en début et fin de grossesse et le risque de prééclampsie et d’HG. Un questionnaire de fréquence alimentaire validé était administré deux fois pendant la grossesse (12-18 semaines, 32-34 semaines). Les analyses furent faites séparément pour les 1537 Canadiennes et les 799 Mexicaines en raison de l’hétérogénéité des régimes alimentaires des deux pays. Parmi les canadiennes, après ajustement pour l’indice de masse corporelle (IMC) précédant la grossesse, le groupe de traitement, le niveau de risque (élevé versus faible) et les autres facteurs de base, nous avons constaté une association significative entre un faible apport alimentaire (quartile inférieur) de potassium (OR 1,79; IC 95% 1,03-3,11) et de zinc (OR 1,90; IC 95% 1,07-3,39) et un risque augmenté de prééclampsie. Toujours chez les Canadiennes, le quartile inférieur de consommation d’acides gras polyinsaturés était associé à un risque augmenté d’HG (OR 1,49; IC 95% 1,09-2,02). Aucun des nutriments analysés n’affectait les risques d’HG ou de prééclampsie chez les Mexicaines. Nous avons entrepris une étude cas-témoins à l’intérieur de la cohorte de l’INTAPP pour établir le lien entre la concentration sérique de vitamines antioxydantes et le risque de prééclampsie. Un total de 115 cas de prééclampsie et 229 témoins ont été inclus. Les concentrations de vitamine E ont été mesurées de façon longitudinale à 12-18 semaines (avant la prise de suppléments), à 24-26 semaines et à 32-34 semaines de grossesse en utilisant la chromatographie liquide de haute performance. Lorsqu’examinée en tant que variable continue et après ajustement multivarié, une concentration de base élevée de gamma-tocophérol était associée à un risque augmenté de prééclampsie (quartile supérieur vs quartile inférieur à 24-26 semaines : OR 2,99, IC 95% 1,13-7,89; à 32-34 semaines : OR 4,37, IC 95% 1,35-14,15). Nous n’avons pas trouvé de lien entre les concentrations de alpha-tocophérol et le risque de prééclampsie. En résumé, nous n’avons pas trouvé d’effets de la supplémentation en vitamines C et E sur le risque de prééclampsie dans l’INTAPP. Nous avons toutefois trouvé, dans la cohorte canadienne, qu’une faible prise de potassium et de zinc, tel qu’estimée par les questionnaires de fréquence alimentaire, était associée à un risque augmenté de prééclampsie. Aussi, une plus grande concentration sérique de gamma-tocophérol pendant la grossesse était associée à un risque augmenté de prééclampsie.