969 resultados para [JEL:C10] Mathématiques et méthodes quantitatives - Économétrie et méthodes statistiques
Resumo:
Cette thèse est une contribution à la modélisation, la planification et l’optimisation du transport pour l’approvisionnement en bois de forêt des industries de première transformation. Dans ce domaine, les aléas climatiques (mise au sol des bois par les tempêtes), sanitaires (attaques bactériologiques et fongiques des bois) et commerciaux (variabilité et exigence croissante des marchés) poussent les divers acteurs du secteur (entrepreneurs et exploitants forestiers, transporteurs) à revoir l’organisation de la filière logistique d’approvisionnement, afin d’améliorer la qualité de service (adéquation offre-demande) et de diminuer les coûts. L’objectif principal de cette thèse était de proposer un modèle de pilotage améliorant la performance du transport forestier, en respectant les contraintes et les pratiques du secteur. Les résultats établissent une démarche de planification hiérarchique des activités de transport à deux niveaux de décision, tactique et opérationnel. Au niveau tactique, une optimisation multi-périodes permet de répondre aux commandes en minimisant l’activité globale de transport, sous contrainte de capacité agrégée des moyens de transport accessibles. Ce niveau permet de mettre en œuvre des politiques de lissage de charge et d’organisation de sous-traitance ou de partenariats entre acteurs de transport. Au niveau opérationnel, les plans tactiques alloués à chaque transporteur sont désagrégés, pour permettre une optimisation des tournées des flottes, sous contrainte des capacités physiques de ces flottes. Les modèles d’optimisation de chaque niveau sont formalisés en programmation linéaire mixte avec variables binaires. L’applicabilité des modèles a été testée en utilisant un jeu de données industrielles en région Aquitaine et a montré des améliorations significatives d’exploitation des capacités de transport par rapport aux pratiques actuelles. Les modèles de décision ont été conçus pour s’adapter à tout contexte organisationnel, partenarial ou non : la production du plan tactique possède un caractère générique sans présomption de l’organisation, celle-ci étant prise en compte, dans un deuxième temps, au niveau de l’optimisation opérationnelle du plan de transport de chaque acteur.
Resumo:
Plusieurs facteurs d’ordre environnemental, social ou individuel peuvent influencer l’adhésion à une saine alimentation. Parmi les déterminants individuels, les connaissances en nutrition ont un rôle à jouer. D’ailleurs, de nombreux programmes de promotion de la saine alimentation se basent sur une amélioration des connaissances en nutrition pour engendrer des changements positifs dans les comportements et les apports alimentaires de la population. Plusieurs études ont associé positivement le niveau de connaissances en nutrition et l’alimentation saine, mais il a été observé que les associations sont plus marquées avec l’utilisation de questionnaires validés sur les connaissances en nutrition. Une validation rigoureuse des questionnaires est donc primordiale pour assurer la validité des résultats obtenus. Au Canada, il n’existe pas d’outil spécifiquement conçu pour mesurer les connaissances en nutrition et plus précisément l’adhésion à la saine alimentation telle que présentée par le Guide alimentaire canadien (GAC), et ce mémoire illustre la pertinence d’un tel instrument pour la population canadienne. Les résultats de la validation ont mené à l’obtention d’un questionnaire valide et fiable pour la population à l’étude. L’usage de documents reconnus dans la littérature pour la conception du questionnaire de même que l’application de plusieurs méthodes de validation telles qu’utilisées par d’autres auteurs dans le domaine ont permis de bien valider l’instrument. Le questionnaire développé pourrait donc permettre la mesure adéquate des connaissances en nutrition dans un contexte canadien-français.
Resumo:
Les jeux de policiers et voleurs sont étudiés depuis une trentaine d’années en informatique et en mathématiques. Comme dans les jeux de poursuite en général, des poursuivants (les policiers) cherchent à capturer des évadés (les voleurs), cependant ici les joueurs agissent tour à tour et sont contraints de se déplacer sur une structure discrète. On suppose toujours que les joueurs connaissent les positions exactes de leurs opposants, autrement dit le jeu se déroule à information parfaite. La première définition d’un jeu de policiers-voleurs remonte à celle de Nowakowski et Winkler [39] et, indépendamment, Quilliot [46]. Cette première définition présente un jeu opposant un seul policier et un seul voleur avec des contraintes sur leurs vitesses de déplacement. Des extensions furent graduellement proposées telles que l’ajout de policiers et l’augmentation des vitesses de mouvement. En 2014, Bonato et MacGillivray [6] proposèrent une généralisation des jeux de policiers-voleurs pour permettre l’étude de ceux-ci dans leur globalité. Cependant, leur modèle ne couvre aucunement les jeux possédant des composantes stochastiques tels que ceux dans lesquels les voleurs peuvent bouger de manière aléatoire. Dans ce mémoire est donc présenté un nouveau modèle incluant des aspects stochastiques. En second lieu, on présente dans ce mémoire une application concrète de l’utilisation de ces jeux sous la forme d’une méthode de résolution d’un problème provenant de la théorie de la recherche. Alors que les jeux de policiers et voleurs utilisent l’hypothèse de l’information parfaite, les problèmes de recherches ne peuvent faire cette supposition. Il appert cependant que le jeu de policiers et voleurs peut être analysé comme une relaxation de contraintes d’un problème de recherche. Ce nouvel angle de vue est exploité pour la conception d’une borne supérieure sur la fonction objectif d’un problème de recherche pouvant être mise à contribution dans une méthode dite de branch and bound.
Resumo:
Le présent rapport constitue une première présentation des résultats de l'Etude pilote des apports en contaminants par la Seine. Il est consacré aux métaux et à l'arsenic et traite de leurs niveaux de concentration, de leurs variations saisonnières et des flux à l'estuaire. Il comporte des fiches-annexes qui contiennent les méthodes de prélèvement, de filtration et de dosage ainsi que des résumés des résultats. A partir des conclusions, des recommandations sont faites quant aux méthodes à privilégier pour tirer les meilleurs enseignements du suivi des contaminants métalliques et de l'arsenic à la limite amont de l'estuaire de la Seine. Les données contenues dans ce rapport ont été produites par la Cellule de lutte contre la pollution (Service de navigation de la Seine), le laboratoire Chimie des contaminants et modélisation (IFREMER) et le Laboratoire municipal et régional de Rouen.
Resumo:
De tout temps, les coopératives ont joué un grand rôle social en s'attaquant à des problèmes pressants. Si les équitables pionniers de Rochdale ont su établir des règles permettant de concilier l'idéal coopératif et une saine gestion, les coopératives vont continuer à poursuivre tout à travers le monde les mêmes objectifs dans le but de satisfaire les besoins de leurs membres et dans la majeure partie des cas des moins nantis. Les coopératives se donnent toujours comme objectifs d'améliorer les conditions de vie et de travail des agriculteurs, des ouvriers, des commerçants et artisans, d'hommes et de femmes par les différentes méthodes de coopération qu'elles proposent. Le mouvement par contre a beaucoup évolué et a donné naissance à d'autres modes d'exploitation de la formule coopérative. La coopérative dans les pays où elle est très développée, ajoute à ses tâches traditionnelles toute une gamme de fonctions sociales supplémentaires: soins aux personnes âgées, aux enfants et aux personnes handicapées, promotion de nouvelles technologies, exploitation des énergies renouvelables, protection de l'environnement, services funéraires à moindres coûts et ajouter à tout cela la création d'emplois pour les catégories sociales défavorisées. Les changements politiques, économiques et sociaux intervenus au cours des dernières années ont influé sur la situation des coopératives dans le monde entier. Si dans les pays en développement et en transition, l'urgence se fait sentir dans la redéfinition du rôle de l'État envers les coopératives, dans les pays industrialisés c'est à cause de l'évolution de la structure des entreprises coopératives et de l'apparition de nouvelles formes de coopératives que la nécessité de nouvelles normes se fait sentir. Les coopératives actuellement et surtout dans les pays industrialisés se sont transformées en de véritables forces économiques et leur apport dans le développement de certaines régions du monde est loin d'être négligeable, c'est le cas de la "Mondragon" en Espagne, de la "Raiffeisen" en Allemagne, de "Desjardins" au Québec, pour ne citer que celles-là. Les coopératives dans le contexte du 21 è siècle se voient obliger de modifier leur structure traditionnelle afin d'être mieux armées pour affronter la concurrence que leur livrent d'autres types d'entreprises. Certainement les coopératives dans les pays en développement pour pouvoir survivre et s'adapter aux conditions du marché doivent obligatoirement mieux se structurer tant au point de vue associatif qu'organisationnel pour enfin parvenir à offrir à leur clientèle membre et non-membre un service de choix. Cette organisation de la coopérative aussi importante soit-elle ne peut se faire sans la planification de bons moyens pouvant permettre à la coopérative d'appliquer l'ensemble des principes qui la régissent dont l'un des plus importants de la coopération demeure: l'éducation, la formation et l'information.
Resumo:
Les protéines existent sous différents états fonctionnels régulés de façon précise par leur environnement afin de maintenir l‘homéostasie de la cellule et de l‘organisme vivant. La prévalence de ces états protéiques est dictée par leur énergie libre de Gibbs alors que la vitesse de transition entre ces états biologiquement pertinents est déterminée par le paysage d‘énergie libre. Ces paramètres sont particulièrement intéressants dans un contexte thérapeutique et biotechnologique, où leur perturbation par la modulation de la séquence protéique par des mutations affecte leur fonction. Bien que des nouvelles approches expérimentales permettent d‘étudier l‘effet de mutations en haut débit pour une protéine, ces méthodes sont laborieuses et ne couvrent qu‘une fraction de l‘ensemble des structures primaires d‘intérêt. L‘utilisation de modèles bio-informatiques permet de tester et générer in silico différentes hypothèses afin d‘orienter les approches expérimentales. Cependant, ces méthodes basées sur la structure se concentrent principalement sur la prédiction de l‘enthalpie d‘un état, alors que plusieurs évidences expérimentales ont démontré l‘importance de la contribution de l‘entropie. De plus, ces approches ignorent l‘importance de l‘espace conformationnel protéique dicté par le paysage énergétique cruciale à son fonctionnement. Une analyse des modes normaux peut être effectuée afin d‘explorer cet espace par l‘approximation que la protéine est dans une conformation d‘équilibre où chaque acide aminé est représenté par une masse régie par un potentiel harmonique. Les approches actuelles ignorent l‘identité des résidus et ne peuvent prédire l‘effet de mutations sur les propriétés dynamiques. Nous avons développé un nouveau modèle appelé ENCoM qui pallie à cette lacune en intégrant de l‘information physique et spécifique sur les contacts entre les atomes des chaînes latérales. Cet ajout permet une meilleure description de changements conformationnels d‘enzymes, la prédiction de l‘effet d‘une mutation allostérique dans la protéine DHFR et également la prédiction de l‘effet de mutations sur la stabilité protéique par une valeur entropique. Comparativement à des approches spécifiquement développées pour cette application, ENCoM est plus constant et prédit mieux l‘effet de mutations stabilisantes. Notre approche a également été en mesure de capturer la pression évolutive qui confère aux protéines d‘organismes thermophiles une thermorésistance accrue.
Resumo:
Introduction : Le syndrome d’aspiration méconiale (SAM) est une pathologie respiratoire du nouveau-né qui, dans les cas les plus sévères, peut rester réfractaire aux traitements couramment utilisés et nécessiter in fine le recours à une oxygénation membranaire extracorporelle. Le développement d’un ventilateur liquidien par l’équipe Inolivent a ouvert une nouvelle voie thérapeutique en rendant possible l’utilisation de la ventilation liquidienne totale (VLT) qui utilise un perfluorocarbone liquide afin d’assurer les échanges gazeux tout en effectuant un lavage pulmonaire thérapeutique. En 2011, l’équipe Inolivent a montré la supériorité de la VLT pour retirer le méconium et assurer les échanges gazeux de façon plus efficace que le traitement contrôle, le lavage thérapeutique avec une solution diluée de surfactant exogène (S-LBA). À ce jour, il n’a jamais été montré la possibilité de ramener des agneaux en respiration spontanée au décours d’une VLT pour le traitement d’un SAM sévère. Les objectifs de cette étude sont i) montrer la possibilité de ramener des agneaux nouveau-nés en respiration spontanée sans aide respiratoire après le traitement d’un SAM sévère par VLT, ii) comparer l’efficacité avec le lavage par S-LBA. Méthodes : 12 agneaux nouveau-nés anesthésiés et curarisés ont été instrumentés chirurgicalement. Après l’induction d’un SAM sévère, les agneaux ont subi un lavage pulmonaire thérapeutique soit par VLT (n = 6) ou par S-LBA (n = 6). Les agneaux ont été sevrés de toute ventilation mécanique et suivit en respiration spontanée durant 36 h. Résultats : Il est possible de ramener en respiration spontanée des agneaux nouveau-nés traités par VLT pour le traitement d’un SAM sévère. Le temps nécessaire au sevrage de la ventilation mécanique conventionelle a été plus court chez le groupe S-LBA. Conclusion : Notre étude met en lumière pour la première fois connue à ce jour, la possibilité de ramener en respiration spontanée des agneaux nouveau-nés suivant une VLT dans le traitement d’un SAM sévère. Ces résultats très importants ouvrent la voie à des études sur l’utilisation de la VLT dans le traitement de détresses respiratoires aigües.
Sur des estimateurs et des tests non-paramétriques pour des distributions et copules conditionnelles
Resumo:
Pour modéliser un vecteur aléatoire en présence d'une co-variable, on peut d'abord faire appel à la fonction de répartition conditionnelle. En effet, cette dernière contient toute l'information ayant trait au comportement du vecteur étant donné une valeur prise par la co-variable. Il peut aussi être commode de séparer l'étude du comportement conjoint du vecteur de celle du comportement individuel de chacune de ses composantes. Pour ce faire, on utilise la copule conditionnelle, qui caractérise complètement la dépendance conditionnelle régissant les différentes associations entre les variables. Dans chacun des cas, la mise en oeuvre d'une stratégie d'estimation et d'inférence s'avère une étape essentielle à leur utilisant en pratique. Lorsqu'aucune information n'est disponible a priori quant à un choix éventuel de modèle, il devient pertinent d'opter pour des méthodes non-paramétriques. Le premier article de cette thèse, co-écrit par Jean-François Quessy et moi-même, propose une façon de ré-échantillonner des estimateurs non-paramétriques pour des distributions conditionnelles. Cet article a été publié dans la revue Statistics and Computing. En autres choses, nous y montrons comment obtenir des intervalles de confiance pour des statistiques s'écrivant en terme de la fonction de répartition conditionnelle. Le second article de cette thèse, co-écrit par Taoufik Bouezmarni, Jean-François Quessy et moi-même, s'affaire à étudier deux estimateurs non-paramétriques de la copule conditionnelles, proposés par Gijbels et coll. en présence de données sérielles. Cet article a été soumis dans la revue Statistics and Probability Letters. Nous identifions la distribution asymptotique de chacun de ces estimateurs pour des données mélangeantes. Le troisième article de cette thèse, co-écrit par Taoufik Bouezmarni, Jean-François Quessy et moi-même, propose une nouvelle façon d'étudier les relations de causalité entre deux séries chronologiques. Cet article a été soumis dans la revue Electronic Journal of Statistics. Dans cet article, nous utilisons la copule conditionnelle pour caractériser une version locale de la causalité au sens de Granger. Puis, nous proposons des mesures de causalité basées sur la copule conditionnelle. Le quatrième article de cette thèse, co-écrit par Taoufik Bouezmarni, Anouar El Ghouch et moi-même, propose une méthode qui permette d'estimer adéquatement la copule conditionnelle en présence de données incomplètes. Cet article a été soumis dans la revue Scandinavian Journal of Statistics. Les propriétés asymptotiques de l'estimateur proposé y sont aussi étudiées. Finalement, la dernière partie de cette thèse contient un travail inédit, qui porte sur la mise en oeuvre de tests statistiques permettant de déterminer si deux copules conditionnelles sont concordantes. En plus d'y présenter des résultats originaux, cette étude illustre l'utilité des techniques de ré-échantillonnage développées dans notre premier article.
Resumo:
Dans le cadre du présent travail, nous examinons les présentations de sensibilisation effectuées à l’ASTROLab, par l’entremise d’une enquête terrain. Nous étudions ces présentations sous divers angles qui s’entrecroisent : les stratégies de communication existantes (tant de vulgarisation que de persuasion ou de communication environnementale), les processus de l’impact persuasif et de la modification comportementale et les caractéristiques du comportement modifiable. Les questions auxquelles nous tentons de répondre avec cette étude concernent les stratégies de vulgarisation scientifique utilisées à l’ASTROLab contribuant efficacement à la modification comportementale ainsi que la corrélation entre la promotion de l’information et l’action. L’observation des groupes ainsi que deux sondages, en deux temps, ont permis de ressortir des résultats qualitatifs et quantitatifs. Nous avons constaté que la principale stratégie de vulgarisation scientifique efficace pour la modification comportementale est celle qui repose sur les caractéristiques du comportement modifiable. L’exemplification semble aussi avoir porté fruit, mais de façon moins évidente. Le visuel et la clarté des termes ainsi que la crédibilité et l’humour ont participé à la compréhension et à la persuasion, tout comme la stratégie de l’appel à l’émotion, qui a aussi contribué à l’attention. Bien sûr, la persuasion, et par ricochet la rétention de l’information, est en grande partie responsable de la modification comportementale. La rétention a été consolidée grâce au visuel, à l’exemplarité et au récit, ainsi qu’un peu grâce à l’appel à l’émotion et à la comparaison. L’humour y a également joué un rôle, en aidant à conserver l’attention. Nos résultats démontrent que seulement 32 % des participantes et participants en sont à l’étape de l’action et qu’environ 90 % des gens étudiés affirment avoir transmis l’information acquise. Ce constat porte à croire que l’étape de la promotion de l’information n’est pas nécessairement précédée d’actions tangibles, mais minimalement d’intention d’action. À partir de l’étude menée, nous formulons cinq recommandations à l’intention des vulgarisateurs afin de pallier les facteurs limitants. Un des principaux facteurs limitants à l’action a été l’impuissance des participantes et participants. Nous constatons aussi que, dans le processus de l’impact persuasif, l’étape de la rétention est celle qui a le plus posé problème. Nos recherches théoriques n’étaient pas précisément tournées vers les stratégies de rétention de l’information, à part pour les méthodes comme le visuel, l’expérience ou l’humour. Il serait pertinent de refaire une étude qui permettrait d’approfondir les assises théoriques reliées à la mémorisation d’information, afin de diriger autrement la méthodologie ou l’analyse des résultats, et d’en arriver à des recommandations utiles à ce sujet.
Resumo:
Le système financier, agricole, économique et social est en crise. Le bilan pessimiste qui se dresse devant nous requiert une attention accrue de la part des dirigeants, mais d’abord et avant tout, de la population. Présentement, les efforts sont mis dans l’atténuation des risques sur l’environnement, dans l’occultation des symptômes et finalement, à dissimuler le problème. Devant la nécessité d’engager une transition vers un nouveau système aux valeurs basées sur le bien commun, l’innovation et les générations futures, où se situe le Québec? L’objectif général de cet essai est de proposer un développement économique alternatif et positif pour pallier les lacunes du système capitaliste actuel. De cette manière, le Québec pourra réellement s’engager dans la voie de la viabilité. Pour ce faire, cet essai convaincra de l’inaptitude du Produit intérieur brut comme seule mesure de progrès des sociétés. Les indicateurs alternatifs permettent de peindre un portrait plus clair et plus fidèle de ce qui se trame en termes de progrès social, économique et naturel. Les bases de l’économie écologique comme les théories de la décroissance et de l’économie stationnaire sont d’une grande aide pour comprendre ce que ces indicateurs essaient de mesurer. C’est pour cela que les indicateurs de développement durable au Québec deviennent un bon champ d’analyse pour la province. Ceux-ci permettent de déterminer où se situe le Québec sur la voie de la viabilité. Les conclusions quantitatives de cette analyse permettent le développement d’une liste d’indicateurs alternatifs qui peuvent réellement dépeindre un portrait adéquat de la société québécoise en terme de viabilité. Les résultats de ces analyses permettent de conclure que le Québec se situe dans la même impasse que beaucoup de sociétés occidentales : l’économie de marché a réussi à empiéter et intégrer des concepts tels que le développement durable pour se transformer en capitalisme vert. C’est ainsi que le pouvoir du changement revient dans les mains de la population qui fait face à cette absorption capitaliste de la politique, de son développement et de la croissance verte. Les nouvelles approches de développement doivent être par le bas, inclusives, positives, collectives, concertées, organisées et par-dessus tout, communiquées et partagées. Il est temps que le Québec fonde son développement sur son capital humain, et le grand potentiel de sa population pour ainsi permettre la croissance de l’économie dite vernaculaire.
Resumo:
Introduction : Un hypométabolisme du glucose au cerveau peut apparaître des décennies avant le diagnostic de maladie d’Alzheimer. Pourtant, le métabolisme des cétones, le carburant alternatif principal au glucose, n’est pas altéré, autant chez les personnes plus âgées que chez les personnes atteintes de la maladie d’Alzheimer. Les méthodes connues (diète cétogène, jeûne, huile de triglycérides de moyennes chaînes) pour augmenter la production de cétones comportent leurs inconvénients. L’objectif de ces projets était de vérifier l’efficacité de produits commerciaux vendus à cet effet et d’évaluer d’autres molécules qui pourraient être utilisées pour leur propriété cétogène. Ce sont des suppléments alimentaires pouvant servir de substrat pour la cétogenèse (butyrate, monoglycéride d’octanoate (O-MAG), leucine) ou de facilitateur du transport des acides gras (carnitine). Méthodes : Pour ce faire, les participants devaient se présenter au laboratoire pour plusieurs demi-journées d’étude d’une durée de 4 heures. Lors de ces journées, un des suppléments leur était servi avec un déjeuner et des prises de sang étaient effectuées toutes les 30 minutes. Résultats : Le produit commercial contenant des MCT, le butyrate, l’O-MAG et la leucine ont permis d’augmenter respectivement les concentrations maximales en cétones plasmatiques de 568, 226, 67 et 70 µmol/L (p≤0,05) par rapport au contrôle. De plus, la concentration plasmatique en octanoate était corrélée significativement avec la concentration sanguine d’acétoacétate (r=0,85 ; p <0,0001) et de β-hydroxybutyrate (r=0,58 ; p=0,01). L’aire sous la courbe par gramme de produit ingéré montre que le butyrate était le supplément cétogène le plus efficace et était plus cétogène que le produit commercial, l’O-MAG et la leucine (p=0,009). Discussion : Le butyrate était 3 fois plus cétogène que tous les autres suppléments testés. Par contre, son ingestion a causé quelques effets secondaires à certains participants. La leucine a été le seul supplément à ne créer aucun inconfort chez les participants. Il faudrait donc étudier la possibilité de combiner plusieurs molécules dans un supplément chimiquement pensé pour être le plus efficace possible et pour être intéressant lors d’une utilisation quotidienne.
Resumo:
Résumé : Introduction: La douleur chronique et les problèmes de sommeil ont un impact significatif sur la qualité de vie. La prévalence de ces deux conditions augmente substantiellement avec l’âge. L’objectif de cette étude était d’évaluer la faisabilité d’une étude randomisée, contrôlée par placebo et de recueillir des données sur l’efficacité de la stimulation transcrânienne par courant direct (tDCS) pour réduire la douleur et améliorer le sommeil chez des aînés souffrant de douleur chronique d’origines musculo-squelettique. Méthodes: Quatorze patients souffrant de douleur chronique et de problèmes de sommeil ont reçu cinq séances quotidiennes consécutives de tDCS anodique appliquée au cortex moteur primaire (2 mA, 20 minutes) ou cinq séances de tDCS simulée de manière randomisée. L’intensité de la douleur était mesurée avec une échelle visuelle analogue et les paramètres de sommeil avec l’actigraphie. Pendant toute la durée de l’étude, des journaux de bord de douleur et de sommeil étaient aussi utilisés afin de mesurer l'effet de la tDCS sur la douleur et le sommeil du quotidien des participants. Résultats: Les résultats indiquent que la tDCS réelle engendre une analgésie de 59 %, alors que la tDCS simulée ne réduit pas la douleur (p < 0,05). Par contre, aucun changement n’a été observé au niveau des paramètres de sommeil (tous les p ≥ 0,18). Conclusion: Il appert que cinq séances de tDCS anodique appliquée au niveau du cortex moteur primaire seraient efficaces pour réduire la douleur des aînés souffrant de douleur chronique, mais pas pour améliorer leur sommeil. De futures études seront nécessaires afin de déterminer si d’autres paramètres de stimulation pourraient avoir un impact sur le sommeil et si ces résultats peuvent être reproduits en utilisant un plus grand nombre de patients.
Resumo:
Pour être performant au plus haut niveau, les athlètes doivent posséder une capacité perceptivo-cognitive supérieure à la moyenne. Cette faculté, reflétée sur le terrain par la vision et l’intelligence de jeu des sportifs, permet d’extraire l’information clé de la scène visuelle. La science du sport a depuis longtemps observé l’expertise perceptivo-cognitive au sein de l’environnement sportif propre aux athlètes. Récemment, des études ont rapporté que l’expertise pouvait également se refléter hors de ce contexte, lors d’activités du quotidien par exemple. De plus, les récentes théories entourant la capacité plastique du cerveau ont amené les chercheurs à développer des outils pour entraîner les capacités perceptivo-cognitives des athlètes afin de les rendre plus performants sur le terrain. Ces méthodes sont la plupart du temps contextuelles à la discipline visée. Cependant, un nouvel outil d’entraînement perceptivo-cognitif, nommé 3-Dimensional Multiple Object Tracking (3D-MOT) et dénué de contexte sportif, a récemment vu le jour et a fait l’objet de nos recherches. Un de nos objectifs visait à mettre en évidence l’expertise perceptivo-cognitive spécifique et non-spécifique chez des athlètes lors d’une même étude. Nous avons évalué la perception du mouvement biologique chez des joueurs de soccer et des non-athlètes dans une salle de réalité virtuelle. Les sportifs étaient systématiquement plus performants en termes d’efficacité et de temps de réaction que les novices pour discriminer la direction du mouvement biologique lors d’un exercice spécifique de soccer (tir) mais également lors d’une action issue du quotidien (marche). Ces résultats signifient que les athlètes possèdent une meilleure capacité à percevoir les mouvements biologiques humains effectués par les autres. La pratique du soccer semble donc conférer un avantage fondamental qui va au-delà des fonctions spécifiques à la pratique d’un sport. Ces découvertes sont à mettre en parallèle avec la performance exceptionnelle des athlètes dans le traitement de scènes visuelles dynamiques et également dénuées de contexte sportif. Des joueurs de soccer ont surpassé des novices dans le test de 3D-MOT qui consiste à suivre des cibles en mouvement et stimule les capacités perceptivo-cognitives. Leur vitesse de suivi visuel ainsi que leur faculté d’apprentissage étaient supérieures. Ces résultats confirmaient des données obtenues précédemment chez des sportifs. Le 3D-MOT est un test de poursuite attentionnelle qui stimule le traitement actif de l’information visuelle dynamique. En particulier, l’attention sélective, dynamique et soutenue ainsi que la mémoire de travail. Cet outil peut être utilisé pour entraîner les fonctions perceptivo-cognitives des athlètes. Des joueurs de soccer entraînés au 3D-MOT durant 30 sessions ont montré une amélioration de la prise de décision dans les passes de 15% sur le terrain comparés à des joueurs de groupes contrôles. Ces données démontrent pour la première fois un transfert perceptivo-cognitif du laboratoire au terrain suivant un entraînement perceptivo-cognitif non-contextuel au sport de l’athlète ciblé. Nos recherches aident à comprendre l’expertise des athlètes par l’approche spécifique et non-spécifique et présentent également les outils d’entraînements perceptivo-cognitifs, en particulier le 3D-MOT, pour améliorer la performance dans le sport de haut-niveau.
Resumo:
Le projet présenté au cours de cette thèse porte sur la formation de centres quaternaires entièrement carbonés. Plusieurs axes d’approche ont été établis, et seront présentés par chapitre : le premier fait état de l’utilisation d’une réaction de Vilsmeier-Haack, le second rapporte la fabrication de nouveaux catalyseurs pour la réaction de condensation de Claisen et le dernier utilise la réaction de Vilsmeier-Haack pour la formation d’acides [béta]-aminés non-racémiques. Lors du premier chapitre, le sujet abordé sera l’utilisation de la réaction de Vilsmeier-Haack pour la formation de composés 1,3-dicarbonylés contenant un centre quaternaire entièrement carboné. D’abord nous verrons comment, théoriquement, la chiralité du centre quaternaire peut être contrôlée par l’utilisation d’amines chirales. Puis nous suivrons le développement d’une méthode d’hydrolyse spécifique à l’obtention de composés 1,3-dicarbonylés avec ses forces et ses limites. La deuxième partie de cette thèse portera sur le développement de nouveaux catalyseurs pour la réaction de condensation de Claisen. Plusieurs avenues seront exposées. Dans un premier temps, nous verrons la rationalisation validant chacune des idées d’avenues envisagées, puis nous aborderons les méthodes de synthèses essayées pour les catalyseurs imaginés dans chacune de ces avenues. Le dernier chapitre portera sur la formation de dérivés d’acides [béta]-aminés non-racémiques via l’utilisation d’une réaction de Vilsmeier-Haack. Dans un premier temps, différentes méthodes de réduction applicables à cette réaction seront présentées, et ensuite, le concept d’un nouveau groupe protecteur spécifique aux ions iminiums sera démontré.
Resumo:
International audience