382 resultados para Diversité religieuse
Resumo:
Réalisé en cotutelle avec L'Université Bordeaux-Montaigne
Resumo:
Né à Constantine en 1905 É.C., décédé à Alger en 1973 É.C., Malek Bennabi ce penseur algérien et réformateur musulman peu connu, s’est attaché durant sa vie, à étudier et analyser les problèmes liés à la civilisation du Monde arabo-musulman. Ingénieur sorti de l’Ecole Polytechnique de Paris, Malek Bennabi a jumelé deux cultures différentes : la culture islamique et la culture occidentale.C'est pour cette raison que ses analyses sont ornées d'expertise et d'expérience, d'innovation et d'émancipation. Sa réflexion est pleine d'animation, il a plus d'une vingtaine d'ouvrages, traitant des thèmes variés : la civilisation, le dialogue civilisationnel, la culture, l'idéologie, les problèmes de société, l’orientalisme, la démocratie, le système colonial ainsi que de sujets relatifs au phénomène coranique. À travers ses écrits, il s’attache à étudier et à analyser les raisons de la stagnation de la Société arabo-musulmane et les conditions d’une nouvelle renaissance. Malek Bennabi, s’attèle à tenter d’éveiller les consciences pour une renaissance de cette société. Ayant vécu l’expérience coloniale et post – coloniale dans son pays, Malek Bennabi demeurera tourmenté par les obstacles de développement. Pour lui l’accession à l’indépendance et la construction d’un État moderne n’auront pas suffi à arracher la société au sous-développement économique, social et culturel. En effectuant une relecture du patrimoine islamique, tout comme l’ont fait deux penseurs décédés récemment : Al Djâbiri et Mohamed Arkoun. Malek Bennabi cherchait à offrir une énergie sociale capable à arracher les sociétés arabo-musulmanes de leur sous-développement et décadence. C’est sous cet angle, que nous allons, dans ce mémoire, mener notre réflexion en l’articulant autour de la problématique centrale qui traverse la pensée de Malek Bennabi, à savoir celle du renouveau de la société islamique marquée par une grande diversité. Nous allons tenter de répondre à plusieurs questions, dont la principale est la suivante : est-ce que Malek Bennabi a présenté, à travers ses idées, de la nouveauté pour changer la réalité arabo-musulmane?
Resumo:
Thèse présentée en cotutelle en vue de l’obtention des grades de Philosophiae Doctor (Ph.D.) en Sciences des Religions de l’Université de Montréal et de Docteur en Sociologie de l’École Pratique des Hautes Études Paris-Sorbonne
Resumo:
La division cellulaire asymétrique (DCA) consiste en une division pendant laquelle des déterminants cellulaires sont distribués préférentiellement dans une des deux cellules filles. Par l’action de ces déterminants, la DCA générera donc deux cellules filles différentes. Ainsi, la DCA est importante pour générer la diversité cellulaire et pour maintenir l’homéostasie de certaines cellules souches. Pour induire une répartition asymétrique des déterminants cellulaires, le positionnement du fuseau mitotique doit être très bien contrôlé. Fréquemment ceci génère deux cellules filles de tailles différentes, car le fuseau mitotique n’est pas centré pendant la mitose, ce qui induit un positionnement asymétrique du sillon de clivage. Bien qu’un complexe impliquant des GTPases hétérotrimériques et des protéines liant les microtubules au cortex ait été impliqué directement dans le positionnement du fuseau mitotique, le mécanisme exact induisant le positionnement asymétrique du fuseau durant la DCA n'est pas encore compris. Des études récentes suggèrent qu’une régulation asymétrique du cytosquelette d’actine pourrait être responsable de ce positionnement asymétrique du faisceau mitotique. Donc, nous émettons l'hypothèse que des contractions asymétriques d’actine pendant la division cellulaire pourraient déplacer le fuseau mitotique et le sillon de clivage pour créer une asymétrie cellulaire. Nos résultats préliminaires ont démontré que le blebbing cortical, qui est une indication de tension corticale et de contraction, se produit préférentiellement dans la moitié antérieure de cellule précurseur d’organes sensoriels (SOP) pendant le stage de télophase. Nos données soutiennent l'idée que les petites GTPases de la famille Rho pourraient être impliqués dans la régulation du fuseau mitotique et ainsi contrôler la DCA des SOP. Les paramètres expérimentaux développés pour cette thèse, pour étudier la régulation de l’orientation et le positionnement du fuseau mitotique, ouvrirons de nouvelles avenues pour contrôler ce processus, ce qui pourrait être utile pour freiner la progression de cellules cancéreuses. Les résultats préliminaires de ce projet proposeront une manière dont les petites GTPases de la famille Rho peuvent être impliqués dans le contrôle de la division cellulaire asymétrique in vivo dans les SOP. Les modèles théoriques qui sont expliqués dans cette étude pourront servir à améliorer les méthodes quantitatives de biologie cellulaire de la DCA.
Resumo:
Michel Foucault fait remarquer qu’il y a dans la conception des Lumières européennes une tension entre la « croissance de l’autonomie » et la « croissance des capacités » par la science et la technique (Foucault, 1994, p. 83). Or, dans « Qu’est-ce que les Lumières? », Kant privilégie clairement le premier volet, l’autonomie, tel qu’en témoigne sa définition : « sortie de l’homme de l’état de minorité, où il se maintient par sa propre faute ». Force lui est toutefois d’admettre que l’autonomie qui s’exprime dans le « penser par soi-même » nécessite un accès à l’espace public, car la liberté de pensée implique la possibilité de publier ses opinions et de penser avec autrui. Le texte de Kant évoque donc les conditions politiques permettant un libre accès au « public des lecteurs ». Il importe ainsi que le despote éclairé, en l’occurrence Frédéric le Grand, gouverne à tout le moins dans un esprit républicain en maintenant un espace public exempt de censure. Il importe en outre qu’il s’abstienne d’intervenir en matière religieuse. Ce n’est pas un hasard si le thème de la liberté de conscience religieuse occupe une large place dans le texte de Kant, car la tentation est grande pour l’autorité politique de bafouer cette liberté et d’instrumentaliser la religion à des fins politiques.
Resumo:
Dans l’ère post-industrielle, où la densification apparaît comme une solution afin de freiner l’étalement urbain, la question de l’avenir des terrains en friche devient incontournable. En effet, ceux-ci deviennent hautement convoités par les acteurs du redéveloppement urbain puisqu’ils détiennent un potentiel foncier important. Face à ces pressions, cette recherche s’intéresse à la complexité des terrains en friche, puisqu’il existe une diversité de potentiels, outre le foncier. Parmi ces potentiels, les friches peuvent être utilisées comme des espaces verts urbains. Effectivement, il arrive qu’on retrouve sur ces sites des usagers qui les fréquentent, à différents desseins. L’étude tente ainsi de répertorier et de comprendre les pratiques faites par les usagers, pour deux cas étudiés à Montréal : le Boisé Jean-Milot et le Champ des possibles. L’objectif est non seulement de qualifier ces pratiques, mais également de mettre en évidence les facteurs d’influence qui les sous-tendent. La recherche s’inscrit dans les approches personnes-environnement. D’un point de vue méthodologique, des entretiens in situ ont été menés avec les usagers afin qu’ils puissent expliquer leur expérience vécue de la friche. Les facteurs d’influence ont émergé des discours tenus en entrevue. Les cas étudiés montrent que la friche est un espace d’exception en ville : les friches urbaines végétalisées sont le cadre de pratiques exclusives, en plus de faire vivre une variété d’ambiances à l’usager. Les résultats permettent ainsi de placer la friche comme un espace vert complémentaire au parc urbain. La friche fait partie d’un portfolio d’espaces disponibles, utilisés au moment présent. En relevant les facteurs qui influencent les usagers à fréquenter les friches, on met en lumière des qualités qui pourraient être utiles dans la planification des espaces verts urbains et dans le développement d’une vision innovante pour l’avenir des friches.
Resumo:
La microscopie par fluorescence de cellules vivantes produit de grandes quantités de données. Ces données sont composées d’une grande diversité au niveau de la forme des objets d’intérêts et possèdent un ratio signaux/bruit très bas. Pour concevoir un pipeline d’algorithmes efficaces en traitement d’image de microscopie par fluorescence, il est important d’avoir une segmentation robuste et fiable étant donné que celle-ci constitue l’étape initiale du traitement d’image. Dans ce mémoire, je présente MinSeg, un algorithme de segmentation d’image de microscopie par fluorescence qui fait peu d’assomptions sur l’image et utilise des propriétés statistiques pour distinguer le signal par rapport au bruit. MinSeg ne fait pas d’assomption sur la taille ou la forme des objets contenus dans l’image. Par ce fait, il est donc applicable sur une grande variété d’images. Je présente aussi une suite d’algorithmes pour la quantification de petits complexes dans des expériences de microscopie par fluorescence de molécules simples utilisant l’algorithme de segmentation MinSeg. Cette suite d’algorithmes a été utilisée pour la quantification d’une protéine nommée CENP-A qui est une variante de l’histone H3. Par cette technique, nous avons trouvé que CENP-A est principalement présente sous forme de dimère.
Resumo:
This thesis has been realised through a scholarship offered by the Government of Canada to the Government of the Republic of Mauritius under the Programme Canadien de Bourses de la Francophonie
Resumo:
La littérature abordant les enjeux socio-éthiques et réglementaires associés aux médicaments est relativement abondante, ce qui n’est pas le cas des dispositifs médicaux (DM). Ce dernier secteur couvre une très large diversité de produits qui servent à de multiples applications: diagnostic, traitement, gestion des symptômes de certaines conditions physiques ou psychiatriques, restauration d’une fonction débilitante, chirurgie, etc. À tort, on a tendance à croire que les DM sont réglementés de la même manière que les médicaments, que ce soit pour les exigences concernant leur mise en marché ou des pratiques de surveillance après mise en marché. Or, au cours des dernières années, leur usage élargi, leur impact sur les coûts des soins de santé, et les rappels majeurs dont certains ont fait l’objet ont commencé à inquiéter la communauté médicale et de nombreux chercheurs. Ils interpellent les autorités réglementaires à exercer une plus grande vigilance tant au niveau de l’évaluation des nouveaux DM à risque élevé avant leur mise en marché, que dans les pratiques de surveillance après mise en marché. Une stratégie plus rigoureuse d’évaluation des nouveaux DM permettrait d’assurer un meilleur suivi des risques associés à leur utilisation, de saisir la portée des divers enjeux socio-éthiques découlant de l’utilisation de certains DM, et de préserver la confiance du public. D’emblée, il faut savoir que les autorités nationales n’ont pas pour mandat d’évaluer la portée des enjeux socio-éthiques, ou encore les coûts des DM qui font l’objet d’une demande de mise en marché. Cette évaluation est essentiellement basée sur une analyse des rapports risques-bénéfices générés par l’usage du DM pour une indication donnée. L’évaluation des impacts socio-éthiques et l’analyse coûts-bénéfices relèvent des agences d’Évaluation des technologies de santé (ÉTS). Notre recherche montre que les DM sont non seulement peu fréquemment évalués par les agences d’ÉTS, mais l’examen des enjeux socio-éthiques est trop souvent encore incomplet. En fait, les recommandations des rapports d’ÉTS sont surtout fondées sur une analyse coûts-bénéfices. Or, le secteur des DM à risque élevé est particulièrement problématique. Plusieurs sont non seulement porteurs de risques pour les patients, mais leur utilisation élargie comporte des impacts importants pour les systèmes de santé. Nous croyons que le Principisme, au cœur de l’éthique biomédicale, que ce soit au plan de l’éthique de la recherche que de l’éthique clinique, constitue un outil pour faciliter la reconnaissance et l’examen, particulièrement par les agences d’ÉTS, des enjeux socio-éthiques en jeu au niveau des DM à risque élevé. Également, le Principe de Précaution pourrait aussi servir d’outil, particulièrement au sein des agences nationales de réglementation, pour mieux cerner, reconnaître, analyser et gérer les risques associés à l’évaluation et l’utilisation de ce type de DM. Le Principisme et le Principe de Précaution pourraient servir de repères 1) pour définir les mesures nécessaires pour éliminer les lacunes observées dans pratiques associées aux processus de réglementation, et 2) pour mieux cerner et documenter les enjeux socio-éthiques spécifiques aux DM à risque élevé.
Resumo:
Depuis les quatre dernières décennies, des publications célèbres analysent l’histoire, l’art et l’architecture de la psychiatrie de la fin du dix-neuvième siècle afin de dénoncer les aspects négatifs de la science psychiatrique : voyeurisme sur la personne du fou, déshumanisation de l’asile, autoglorification du psychiatre, abus de pouvoir. C’est ce regard à sens unique que j’ai voulu déjouer dans cette thèse en consacrant ma recherche aux œuvres produites en amont de cette période. Leur analyse a permis de prendre conscience de l’autre versant de la science psychiatrique, celui qui est philanthropique, bienveillant et animé d’un réel espoir de guérison. Mon objectif a été de construire, par l’analyse de ce domaine iconographique inédit ou négligé, une nouvelle histoire de la naissance de la psychiatrie, celle de sa culture visuelle. Une histoire qui révèle ses idéaux du début du siècle et les écarts à ses propres aspirations par son besoin de légitimation et de professionnalisation. Ma thèse propose une enquête épistémologique de l’histoire de l’aliénisme français, par le biais du discours porté par les œuvres d’art commandées par ses fondateurs. Le premier chapitre est consacré aux premiers asiles conçus comme le prolongement du corps du psychiatre et ils sont analysés selon les valeurs de la nouvelle science. Je me suis appliquée à y démontrer que le concept même d’asile, agissant sur nos sensations et sur notre cognition, relève autant des théories architecturales des Lumières que des besoins spécifiques de l’aliénisme. Le deuxième chapitre identifie, pour la première fois, un ensemble de portraits de la première génération d’aliénistes et de leurs disciples. J’argumente que ce corpus voulait imposer l’image de l’aliéniste comme modèle de raison et établir sa profession. Pour ce faire, il s’éloigne des premières représentations des aliénistes, paternalistes, et philanthropiques. Le troisième chapitre analyse les représentations des aliénés produites pour les traités fondateurs de la psychiatrie publiés en France. Le vecteur de mon analyse et le grand défi pour l’art et la science viennent de l’éthique des premiers psychiatres : comment représenter la maladie mentale sans réduire le malade à un être essentiellement autre ? Une première phase de production accorde à l’aliéné autonomie et subjectivité. Mais la nécessité d’objectiver le malade pour répondre aux besoins scientifiques de l’aliénisme a, à nouveau, relégué l’aliéné à l’altérité. Le sujet du quatrième et dernier chapitre est le cycle décoratif de la chapelle de l’hospice de Charenton (1844-1846), principal asile parisien de l’époque. J’y interroge comment l’art religieux a pu avoir un rôle face à la psychiatrie, en empruntant à l’iconographie religieuse sa force et sa puissance pour manifester l’autorité de l’aliéniste jusque dans la chapelle de l’asile. Le dix-neuvième siècle a été porteur d’espoirs en la reconnaissance de la liberté des êtres et de l’égalité des droits entre les personnes. Ces espoirs ont pourtant été déçus et les œuvres de l’aliénisme montrent un nouvel aspect de ces promesses non tenues envers les groupes fragilisés de la société, promesses de reconnaissance de leur subjectivité, de leur autonomie et de leur dignité.
Resumo:
Les réchauffements climatiques associés aux activités anthropiques ont soumis les écosystèmes arctiques à des changements rapides qui menacent leur stabilité à court terme. La diminution dramatique de la banquise arctique est une des conséquences les plus concrètes de ce réchauffement. Dans ce contexte, comprendre et prédire comment les systèmes arctiques évolueront est crucial, surtout en considérant comment les flux de carbone (C) de ces écosystèmes - soit des puits nets, soit des sources nettes de CO2 pour l'atmosphère - pourraient avoir des répercussions importantes sur le climat. Le but de cette thèse est de dresser un portrait saisonnier de l’activité bactérienne afin de déterminer l’importance de sa contribution aux flux de carbone en Arctique. Plus spécifiquement, nous caractérisons pour la première fois la respiration et le recours à la photohétérotrophie chez les microorganismes du golfe d’Amundsen. Ces deux composantes du cycle du carbone demeurent peu décrites et souvent omises des modèles actuels, malgré leur rôle déterminant dans les flux de C non seulement de l’Arctique, mais des milieux marins en général. Dans un premier temps, nous caractérisons la respiration des communautés microbiennes (RC) des glaces de mer. La connaissance des taux de respiration est essentielle à l’estimation des flux de C, mais encore limitée pour les milieux polaires. En effet, les études précédentes dans le golfe d’Amundsen n’ont pas mesuré la RC. Par la mesure de la respiration dans les glaces, nos résultats montrent des taux élevés de respiration dans la glace, de 2 à 3 fois supérieurs à la colonne d'eau, et une production bactérienne jusqu’à 25 fois plus importante. Ces résultats démontrent que la respiration microbienne peut consommer une proportion significative de la production primaire (PP) des glaces et pourrait jouer un rôle important dans les flux biogéniques de CO2 entre les glaces de mer et l’atmosphère (Nguyen et Maranger, 2011). Dans un second temps, nous mesurons la respiration des communautés microbiennes pélagiques du golfe d’Amundsen pendant une période de 8 mois consécutif, incluant le couvert de glace hivernal. En mesurant directement la consommation d'O2, nous montrons une RC importante, mesurable tout au long de l’année et dépassant largement les apports en C de la production primaire. Globalement, la forte consommation de C par les communautés microbiennes suggère une forte dépendance sur recyclage interne de la PP locale. Ces observations ont des conséquences importantes sur notre compréhension du potentiel de séquestration de CO2 par les eaux de l’Océan Arctique (Nguyen et al. 2012). Dans un dernier temps, nous déterminons la dynamique saisonnière de présence (ADN) et d’expression (ARN) du gène de la protéorhodopsine (PR), impliqué dans la photohétérotrophie chez les communautés bactérienne. Le gène de la PR, en conjonction avec le chromophore rétinal, permet à certaines bactéries de capturer l’énergie lumineuse à des fins énergétiques ou sensorielles. Cet apport supplémentaire d’énergie pourrait contribuer à la survie et prolifération des communautés qui possèdent la protéorhodopsine. Bien que détectée dans plusieurs océans, notre étude est une des rares à dresser un portrait saisonnier de la distribution et de l’expression du gène en milieu marin. Nous montrons que le gène de la PR est présent toute l’année et distribué dans des communautés diversifiées. Étonnamment, l’expression du gène se poursuit en hiver, en absence de lumière, suggérant soit qu’elle ne dépend pas de la lumière, ou que des sources de photons très localisées justifie l’expression du gène à des fins sensorielles et de détection (Nguyen et al., soumis au journal ISME). Cette thèse contribue à la compréhension du cycle du C en Arctique et innove par la caractérisation de la respiration et de l’efficacité de croissance des communautés microbiennes pélagiques et des glaces de mer. De plus, nous montrons pour la première fois une expression soutenue de la protéorhodopsine en Arctique, qui pourrait moduler la consommation de C par la respiration et justifier son inclusion éventuelle dans les modélisations du cycle du C. Dans le contexte des changements climatiques, il est clair que l'importance de l’activité bactérienne a été sous-estimée et aura un impact important dans le bilan de C de l'Arctique.
Resumo:
La transmission mère-enfant (TME) du virus de l’hépatite C (VHC) est la première cause d’acquisition de l’infection chez les enfants des pays développés. Celle-ci prend place dans <10% des cas. Toutefois, dans le cas d’une coinfection maternelle avec le virus de l’immunodéficience de type 1 (VIH-1), ce taux est accru alors qu’il n’existe aucune intervention préventive de la TME du VHC. Le VHC arbore une diversité importante qui est le résultat d’une réplication exempte de mécanisme de correction. Il est donc retrouvé chez son hôte sous la forme d’un spectre de virions génétiquement apparentés mais différents qu’on appelle quasiespèce. Lorsque le VHC est transmis entre adultes, seulement un nombre limité de variantes sont responsables de l’infection, c’est ce qu’on appelle un goulot d’étranglement génétique. L’existence d’un tel profil de transmission lors de la TME du VHC restait, jusqu’à maintenant, à confirmer. En se basant sur la détection par RT-PCR de la virémie à la naissance, la TME du VHC est réputée prendre place in utero et peripartum, une dynamique de transmission qui reste à démontrer. Ici, nous rapportons une analyse longitudinale de la TME du VHC par séquençage de nouvelle génération chez 5 paires mère-enfant dont 3 mères sont également coinfectées avec le VIH-1. L’analyse de l’identité des variantes virales basée sur la séquence nucléotidique des régions hypervariables 1-2 de la glycoprotéine E2 (positions 1491-1787 de l’isolat H77) révèle qu’un nombre limité de variantes virales sont transmises de la mère à l’enfant lorsque la mère est seulement infectée par le VHC (n = 1-4 variantes transmises). Dans le cas de la coinfection maternelle avec le VIH-1, ce nombre est toutefois drastiquement plus important (n = 111-118). La détection de variantes retrouvées chez la mère au deuxième trimestre et l’enfant mais non détectées subséquemment chez la mère témoigne que la TME du VHC peut prendre place aussi tôt que lors du deuxième trimestre de grossesse. Finalement, nous montrons que la dynamique d’infection chez l’enfant implique une augmentation transitoire de la virémie concomitante avec une perte de diversité de la quasiespèce. Dans l’ensemble ces résultats sont les premiers à démontrer directement l’existence d’un goulot d’étranglement lors de la TME du VHC. Celui-ci serait moins restringent dans le cas de la coinfection maternelle avec le VIH-1. Cette transmission peut prendre place aussi tôt que lors du deuxième trimestre de grossesse et il semblerait qu’un spectre limité de variantes soit responsable pour l’établissement de l’essentiel de la production virale chez le jeune enfant.
Resumo:
Le non-humain et son ontologie sont définis dans ce mémoire en fonction des écrits de Philippe Descola et d’Eduardo Viveiros de Castro, deux figures-clés en anthropologie contemporaine sur l’Amazonie. L’animisme de Descola prête aux non-humains une intériorité humaine et les différencie par leur corps. Le perspectivisme de Viveiros de Castro, quant à lui, suppose que les points de vue différents créent des mondes et établissent ce qui est humain ou non. L’humain correspond au sujet cosmologique à la position pronominale de la première personne du singulier, ou « I », au sein d’une relation. De la sorte, un non-humain se perçoit comme un humain à cette position pronominale « I » et voit l’Autre à la position pronominale « it », position du non-humain. Dans ces deux ontologies, le non-humain est conçu comme une personne capable d’agir dans les mondes. La diversité des êtres inclus dans cette ontologie relationnelle est démontrée par des illustrations provenant de l’ethnographie achuar et araweté de ces deux auteurs. Puis, les relations de parenté, d’alliance et de prédation que les non-humains tissent entre eux et avec les humains exposent l’homologie des rapports non-humains avec les rapports humains. Finalement, l’analyse des méthodes de communication entre le non-humain et l’humain élucide comment la reconnaissance du non-humain dans une communication permet le traitement de ces êtres en tant qu’humains. Le non-humain ne serait donc pas un sujet permanent, mais temporaire le moment de l’interaction.
Resumo:
Plusieurs études ont démontré que la consommation d’un repas à indice glycémique bas (LGI) avant un exercice physique favorisait l’oxydation des lipides, diminuait les épisodes d’hypoglycémie et améliorait la performance. Par contre, d’autres recherches n’ont pas observé ces bénéfices. Le but de cette étude consiste à démontrer l’impact de l’ingestion de déjeuners avec différents indices glycémiques (IG) sur la performance en endurance de cyclistes de haut niveau. Dix cyclistes masculins ont complété trois protocoles attribués de façon aléatoire, séparés par un intervalle minimal de sept jours. Les trois protocoles consistaient en une épreuve contre la montre, soit trois heures après avoir consommé un déjeuner à indice glycémique bas ou élevé contenant 3 grammes de glucides par kg de poids corporel, soit à compléter l’exercice à jeun. Les résultats obtenus pour le temps de course montrent qu’il n’y pas de différence significative entre les protocoles. Par contre, on observe que le nombre de révolutions par minute (RPM) est significativement plus élevé avec le protocole à indice glycémique élevé (HGI) (94,3 ± 9,9 RPM) comparativement au protocole à jeun (87,7 ± 8,9 RPM) (p<0,005). Au niveau de la glycémie capillaire, on observe que durant l’exercice, au temps 30 minutes, la glycémie est significativement supérieure avec le protocole à jeun (5,47 ± 0,76 mmol/L) comparé à HGI (4,99 ± 0,91 mmol/L) (p<0,002). Notre étude n’a pas permis de confirmer que la consommation d’un repas LGI avant un exercice physique améliorait la performance physique de façon significative. Cependant, notre recherche a démontré que la diversité des protocoles utilisés pour évaluer l’impact de l’indice glycémique sur la performance physique pouvait occasionner des variations positives dans les temps de courses. Par conséquent, il s’avère nécessaire de faire d’autres recherches qui reproduisent les situations de compétition de l’athlète soit la course contre la montre.
Resumo:
Thèse réalisée en cotutelle avec Université Paris 11 (Ecole Doctorale 420)