289 resultados para Courbe de coûts
Resumo:
Réalisé sous la co-direction des Drs Denis Bouchard et Michel Pellerin
Resumo:
Pour analyser les images en tomodensitométrie, une méthode stœchiométrique est gé- néralement utilisée. Une courbe relie les unités Hounsfield d’une image à la densité électronique du milieu. La tomodensitométrie à double énergie permet d’obtenir des informations supplémentaires sur ces images. Une méthode stœchiométrique a été dé- veloppée pour permettre de déterminer les valeurs de densité électronique et de numéro atomique effectif à partir d’une paire d’images d’un tomodensitomètre à double énergie. Le but de cette recherche est de développer une nouvelle méthode d’identification de tissus en utilisant ces paramètres extraits en tomodensitométrie à double énergie. Cette nouvelle méthode est comparée avec la méthode standard de tomodensitométrie à simple énergie. Par ailleurs, l’impact dosimétrique de bien identifier un tissu est déterminé. Des simulations Monte Carlo permettent d’utiliser des fantômes numériques dont tous les paramètres sont connus. Les différents fantômes utilisés permettent d’étalonner les méthodes stœchiométriques, de comparer la polyvalence et la robustesse des méthodes d’identification de tissus double énergie et simple énergie, ainsi que de comparer les distributions de dose dans des fantômes uniformes de mêmes densités, mais de compo- sitions différentes. La méthode utilisant la tomodensitométrie à double énergie fournit des valeurs de densi- tés électroniques plus exactes, quelles que soient les conditions étudiées. Cette méthode s’avère également plus robuste aux variations de densité des tissus. L’impact dosimé- trique d’une bonne identification de tissus devient important pour des traitements aux énergies plus faibles, donc aux énergies d’imagerie et de curiethérapie.
Resumo:
Le suivi thérapeutique est recommandé pour l’ajustement de la dose des agents immunosuppresseurs. La pertinence de l’utilisation de la surface sous la courbe (SSC) comme biomarqueur dans l’exercice du suivi thérapeutique de la cyclosporine (CsA) dans la transplantation des cellules souches hématopoïétiques est soutenue par un nombre croissant d’études. Cependant, pour des raisons intrinsèques à la méthode de calcul de la SSC, son utilisation en milieu clinique n’est pas pratique. Les stratégies d’échantillonnage limitées, basées sur des approches de régression (R-LSS) ou des approches Bayésiennes (B-LSS), représentent des alternatives pratiques pour une estimation satisfaisante de la SSC. Cependant, pour une application efficace de ces méthodologies, leur conception doit accommoder la réalité clinique, notamment en requérant un nombre minimal de concentrations échelonnées sur une courte durée d’échantillonnage. De plus, une attention particulière devrait être accordée à assurer leur développement et validation adéquates. Il est aussi important de mentionner que l’irrégularité dans le temps de la collecte des échantillons sanguins peut avoir un impact non-négligeable sur la performance prédictive des R-LSS. Or, à ce jour, cet impact n’a fait l’objet d’aucune étude. Cette thèse de doctorat se penche sur ces problématiques afin de permettre une estimation précise et pratique de la SSC. Ces études ont été effectuées dans le cadre de l’utilisation de la CsA chez des patients pédiatriques ayant subi une greffe de cellules souches hématopoïétiques. D’abord, des approches de régression multiple ainsi que d’analyse pharmacocinétique de population (Pop-PK) ont été utilisées de façon constructive afin de développer et de valider adéquatement des LSS. Ensuite, plusieurs modèles Pop-PK ont été évalués, tout en gardant à l’esprit leur utilisation prévue dans le contexte de l’estimation de la SSC. Aussi, la performance des B-LSS ciblant différentes versions de SSC a également été étudiée. Enfin, l’impact des écarts entre les temps d’échantillonnage sanguins réels et les temps nominaux planifiés, sur la performance de prédiction des R-LSS a été quantifié en utilisant une approche de simulation qui considère des scénarios diversifiés et réalistes représentant des erreurs potentielles dans la cédule des échantillons sanguins. Ainsi, cette étude a d’abord conduit au développement de R-LSS et B-LSS ayant une performance clinique satisfaisante, et qui sont pratiques puisqu’elles impliquent 4 points d’échantillonnage ou moins obtenus dans les 4 heures post-dose. Une fois l’analyse Pop-PK effectuée, un modèle structural à deux compartiments avec un temps de délai a été retenu. Cependant, le modèle final - notamment avec covariables - n’a pas amélioré la performance des B-LSS comparativement aux modèles structuraux (sans covariables). En outre, nous avons démontré que les B-LSS exhibent une meilleure performance pour la SSC dérivée des concentrations simulées qui excluent les erreurs résiduelles, que nous avons nommée « underlying AUC », comparée à la SSC observée qui est directement calculée à partir des concentrations mesurées. Enfin, nos résultats ont prouvé que l’irrégularité des temps de la collecte des échantillons sanguins a un impact important sur la performance prédictive des R-LSS; cet impact est en fonction du nombre des échantillons requis, mais encore davantage en fonction de la durée du processus d’échantillonnage impliqué. Nous avons aussi mis en évidence que les erreurs d’échantillonnage commises aux moments où la concentration change rapidement sont celles qui affectent le plus le pouvoir prédictif des R-LSS. Plus intéressant, nous avons mis en exergue que même si différentes R-LSS peuvent avoir des performances similaires lorsque basées sur des temps nominaux, leurs tolérances aux erreurs des temps d’échantillonnage peuvent largement différer. En fait, une considération adéquate de l'impact de ces erreurs peut conduire à une sélection et une utilisation plus fiables des R-LSS. Par une investigation approfondie de différents aspects sous-jacents aux stratégies d’échantillonnages limités, cette thèse a pu fournir des améliorations méthodologiques notables, et proposer de nouvelles voies pour assurer leur utilisation de façon fiable et informée, tout en favorisant leur adéquation à la pratique clinique.
Resumo:
Rapport de stage présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maître ès sciences (M.Sc.), sciences infirmières option expertise-conseil en soins infirmiers
Resumo:
Résumé Introduction: Les infections urinaires (IU) sont les infections bactériennes les plus fréquentes chez les patients hospitalisés. Cette étude décrit les tendances temporelles d'admission et de mortalité liées aux hospitalisations pour les IU, ainsi que le fardeau économique associé. Les prédicteurs de mauvaise évolution clinique et de mortalité sont examinés par la suite. Méthodes: Les données ont été extraites à partir de la base de données du NIS entre le 1er janvier 1998 et le 31 décembre 2010. 1,717,181 hospitalisations liées aux IU ont été retenues. L'incidence et la mortalité ont été calculées et stratifiées selon le sexe, l'âge et la présence de sepsis. Les frais médians et totaux pour les hospitalisations sont calculés et ajustés pour l'inflation. Finalement, les prédicteurs d'avoir un sepsis induit par les IU et de mortalité sont examinés avec une analyse par régression logistique multivariée. Résultats: L'incidence globale d'hospitalisation et la mortalité associées aux IU voit une croissance annuel estimé (EAPC) de +4.764 et +4.610 respectivement (p<0.0001). L'augmentation d'incidence est le plus marquée pour les patients âgés de 55 à 64 ans (EAPC = +7.805; p<0.0001). Les frais médians par hospitalisation ont augmenté de $10 313 en 1998 à $21 049 en 2010 (EAPC +9.405; p<0.0001). Les frais globaux pour les hospitalisations des IU ont augmenté de $8.9 milliard en 1998 à $33.7 milliard en 2010 (EAPC +0.251; p<0.0001). Les patients âgés, de sexe masculin, de race afro-américaine, ainsi que les patients assurés par Medicaid ou ceux sans assurance, et les patients soignés à des centres non-académiques sont à risque plus important de mortalité (p<0.0001). Conclusion: L'incidence et la mortalité associées aux IU ont augmenté au cours de la dernière décennie. Les frais médians ajustés pour l'inflation ainsi que les frais globaux ont augmenté progressivement au cours de la période d'étude. Dans la cohorte étudiée, les patients âgés, de sexe masculin, de race afro-américaine, ainsi que les patients assurés par Medicaid ou ceux sans assurance, et les patients soignés à des centres non-académiques sont à risque plus important de mortalité. Ces données représentent des indicateurs de qualité de soins qui pourraient permettre d'adapter certaines politiques de soins de santé aux besoins des sous-populations plus vulnérables.
Resumo:
Cette étude exploratoire vise à examiner le lien entre le contenu verbalisé (nombre et types de détails) par l’enfant victime d’agression sexuelle (AS) lors de la Trauma-Focused Cognitive-Behavioral Therapy et la diminution des symptômes après la thérapie. L’échantillon est composé de 28 enfants âgés entre 6 à 13 ans. Les résultats pré-thérapie et post-thérapie observés à l’aide des versions françaises du Children’s Impact of Traumatic Events Scale-Revised et du Child Behavior Checklist ont permis de répartir les enfants en deux groupes; soit si l’on observe une diminution ou une persistance des symptômes de stress post-traumatique, des symptômes intériorisés et extériorisés après la thérapie. Les verbatims des séances de thérapie concernant les détails associés à l’AS ont été transcrits et cotés en tant que nouveaux détails (divulgués une seule fois) ou détails répétés ainsi qu’en 12 catégories. Les résultats aux tests de Mann-Whitney n’indiquent aucune différence significative entre les groupes pour ce qui est du nombre moyen total de détails nouveaux et répétés divulgués. Toutefois, lorsque comparé au groupe persistance des symptômes, le groupe diminution des symptômes a verbalisé significativement plus de nouveaux détails pour les catégories action et lieu.
Resumo:
Latex a été utilisé pour la redaction de cette thèse.
Resumo:
Le dioxyde de carbone (CO2) est un résidu naturel du métabolisme cellulaire, la troisième substance la plus abondante du sang, et un important agent vasoactif. À la moindre variation de la teneur en CO2 du sang, la résistance du système vasculaire cérébral et la perfusion tissulaire cérébrale subissent des changements globaux. Bien que les mécanismes exacts qui sous-tendent cet effet restent à être élucidés, le phénomène a été largement exploité dans les études de réactivité vasculaire cérébrale (RVC). Une voie prometteuse pour l’évaluation de la fonction vasculaire cérébrale est la cartographie de la RVC de manière non-invasive grâce à l’utilisation de l’Imagerie par Résonance Magnétique fonctionnelle (IRMf). Des mesures quantitatives et non-invasives de de la RVC peuvent être obtenus avec l’utilisation de différentes techniques telles que la manipu- lation du contenu artériel en CO2 (PaCO2) combinée à la technique de marquage de spin artériel (Arterial Spin Labeling, ASL), qui permet de mesurer les changements de la perfusion cérébrale provoqués par les stimuli vasculaires. Toutefois, les préoccupations liées à la sensibilité et la fiabilité des mesures de la RVC limitent de nos jours l’adoption plus large de ces méthodes modernes de IRMf. J’ai considéré qu’une analyse approfondie ainsi que l’amélioration des méthodes disponibles pourraient apporter une contribution précieuse dans le domaine du génie biomédical, de même qu’aider à faire progresser le développement de nouveaux outils d’imagerie de diagnostique. Dans cette thèse je présente une série d’études où j’examine l’impact des méthodes alternatives de stimulation/imagerie vasculaire sur les mesures de la RVC et les moyens d’améliorer la sensibilité et la fiabilité de telles méthodes. J’ai aussi inclus dans cette thèse un manuscrit théorique où j’examine la possible contribution d’un facteur méconnu dans le phénomène de la RVC : les variations de la pression osmotique du sang induites par les produits de la dissolution du CO2. Outre l’introduction générale (Chapitre 1) et les conclusions (Chapitre 6), cette thèse comporte 4 autres chapitres, au long des quels cinq différentes études sont présentées sous forme d’articles scientifiques qui ont été acceptés à des fins de publication dans différentes revues scientifiques. Chaque chapitre débute par sa propre introduction, qui consiste en une description plus détaillée du contexte motivant le(s) manuscrit(s) associé(s) et un bref résumé des résultats transmis. Un compte rendu détaillé des méthodes et des résultats peut être trouvé dans le(s) dit(s) manuscrit(s). Dans l’étude qui compose le Chapitre 2, je compare la sensibilité des deux techniques ASL de pointe et je démontre que la dernière implémentation de l’ASL continue, la pCASL, offre des mesures plus robustes de la RVC en comparaison à d’autres méthodes pulsés plus âgées. Dans le Chapitre 3, je compare les mesures de la RVC obtenues par pCASL avec l’utilisation de quatre méthodes respiratoires différentes pour manipuler le CO2 artérielle (PaCO2) et je démontre que les résultats peuvent varier de manière significative lorsque les manipulations ne sont pas conçues pour fonctionner dans l’intervalle linéaire de la courbe dose-réponse du CO2. Le Chapitre 4 comprend deux études complémentaires visant à déterminer le niveau de reproductibilité qui peut être obtenu en utilisant des méthodes plus récentes pour la mesure de la RVC. La première étude a abouti à la mise au point technique d’un appareil qui permet des manipulations respiratoires du CO2 de manière simple, sécuritaire et robuste. La méthode respiratoire améliorée a été utilisée dans la seconde étude – de neuro-imagerie – où la sensibilité et la reproductibilité de la RVC, mesurée par pCASL, ont été examinées. La technique d’imagerie pCASL a pu détecter des réponses de perfusion induites par la variation du CO2 dans environ 90% du cortex cérébral humain et la reproductibilité de ces mesures était comparable à celle d’autres mesures hémodynamiques déjà adoptées dans la pratique clinique. Enfin, dans le Chapitre 5, je présente un modèle mathématique qui décrit la RVC en termes de changements du PaCO2 liés à l’osmolarité du sang. Les réponses prédites par ce modèle correspondent étroitement aux changements hémodynamiques mesurés avec pCASL ; suggérant une contribution supplémentaire à la réactivité du système vasculaire cérébral en lien avec le CO2.
Resumo:
La pression artérielle est un déterminant potentiellement majeur de l’évolution de pathologies telles que la FA et l’insuffisance cardiaque. Pourtant, il demeure plusieurs incertitudes quant à la prise en charge optimale de la pression artérielle chez ces patients. Le rôle potentiel de la pression artérielle sur l’efficacité du maintien en rythme sinusal est inconnu. De plus, en présence d’insuffisance cardiaque, non seulement une pression artérielle élevée, mais aussi une pression artérielle basse pourrait augmenter la mortalité. Les travaux présentés ont pour but d’évaluer l’impact de la pression artérielle sur l’efficacité du contrôle du rythme et la mortalité ainsi que d’évaluer le rôle potentiel de l’insuffisance cardiaque sur cette interaction. Une étude post-hoc utilisant une banque de données combinant les études AFFIRM et AF-CHF a été réalisée. Les patients ont d’abord été classés selon leur FEVG (>40%, ≤40%), puis nous avons évalué l’impact de la PAS (<120 mmHg, 120-140 mmHg, >140 mmHg) sur les issues. Premièrement, chez les 2715 patients randomisés au contrôle du rythme, nous avons évalué la survie sans récidive de FA. Deuxièmement, chez tous les 5436 patients inclus dans les 2 études sources, nous avons évalué la mortalité et la morbidité. Chez les patients avec FEVG >40%, aucune des issues n’a été affectée par la PAS dans des analyses de régression multivariées de Cox. Par contraste, chez les patients avec FEVG ≤40%, le taux de récidive de FA était plus élevé avec une PAS >140 mmHg et une PAS <120 mmHg, par rapport à une PAS de 120-140 mmHg [HR, 1.47; IC 95% (1.12-1.93)] et [HR 1.15; IC 95% (0.92-1.43)], respectivement. La mortalité s’est également avérée augmentée chez ces patients avec une PAS >140 mmHg et une PAS <120 mmHg [HR 1.75; IC 95% (1.41-2.17)] et [HR 1.40; IC 95% (1.04-1.90)], respectivement. En conclusion, le maintien en rythme sinusal et la survie sont influencés par la PAS chez les patients avec FA et FEVG diminuée, mais non chez les patients avec FEVG normale. Une courbe en forme de U a été identifiée, où les pression plus basses (<120 mmHg) et plus hautes (>140 mmHg) sont associées à un moins bon pronostic.
Resumo:
Dans une société mondialisée, où les relations sont intégrées à une vitesse différente avec l'utilisation des technologies de l'information et des communications, l'accès à la justice gagne de nouveaux concepts, mais elle est encore confrontée à de vieux obstacles. La crise mondiale de l'accès à la justice dans le système judiciaire provoque des débats concernant l'égalité en vertu de la loi, la capacité des individus, la connaissance des droits, l'aide juridique, les coûts et les délais. Les deux derniers ont été les facteurs les plus importants du mécontentement des individus avec le système judiciaire. La présente étude a pour objet d'analyser l'incidence de l'utilisation de la technologie dans l’appareil judiciaire, avec l'accent sur la réalité brésilienne, la voie législative et des expériences antérieures dans le développement de logiciels de cyberjustice. La mise en œuvre de ces instruments innovants exige des investissements et de la planification, avec une attention particulière sur l'incidence qu'ils peuvent avoir sur les routines traditionnelles des tribunaux. De nouveaux défis sont sur la voie de ce processus de transformation et doivent être traités avec professionnalisme afin d'éviter l'échec de projets de qualité. En outre, si la technologie peut faire partie des différents aspects de notre quotidien et l'utilisation de modes alternatifs de résolution des conflits en ligne sont considérés comme un succès, pourquoi serait-il difficile de faire ce changement dans la prestation de la justice par le système judiciaire? Des solutions technologiques adoptées dans d'autres pays ne sont pas facilement transférables à un environnement culturel différent, mais il y a toujours la possibilité d'apprendre des expériences des autres et d’éviter de mauvaises voies qui pourraient compromettre la définition globale de l'accès à la justice.
Resumo:
Réalisé sous la co-direction de Pierre Tremblay
Resumo:
La stimulation électrique transcrânienne à courant direct (tDCS) est une technique non invasive de neuromodulation qui modifie l’excitabilité corticale via deux grosses électrodes de surface. Les effets dépendent de la polarité du courant, anodique = augmentation de l’excitabilité corticale et cathodique = diminution. Chez l’humain, il n’existe pas de consensus sur des effets de la tDCS appliquée au cortex somatosensoriel primaire (S1) sur la perception somesthésique. Nous avons étudié la perception vibrotactile (20 Hz, amplitudes variées) sur le majeur avant, pendant et après la tDCS appliquée au S1 controlatéral (anodale, a; cathodale, c; sham, s). Notre hypothèse « shift-gain » a prédit une diminution des seuils de détection et de discrimination pour la tDCS-a (déplacement vers la gauche de la courbe stimulus-réponse et une augmentation de sa pente). On attendait les effets opposés avec la tDCS-c, soit une augmentation des seuils (déplacement à droite et diminution de la pente). Chez la majorité des participants, des diminutions des seuils ont été observées pendant et immédiatement suivant la tDCS-a (1 mA, 20 min) en comparaison à la stimulation sham. Les effets n’étaient plus présents 30 min plus tard. Une diminution du seuil de discrimination a également été observée pendant, mais non après la tDCS-c (aucun effet pour détection). Nos résultats supportent notre hypothèse, uniquement pour la tDCS-a. Une suite logique serait d’étudier si des séances répétées de tDCS-a mènent à des améliorations durables sur la perception tactile. Ceci serait bénéfique pour la réadaptation sensorielle (ex. suite à un accident vasculaire cérébral).
Resumo:
La théorie de l'information quantique s'est développée à une vitesse fulgurante au cours des vingt dernières années, avec des analogues et extensions des théorèmes de codage de source et de codage sur canal bruité pour la communication unidirectionnelle. Pour la communication interactive, un analogue quantique de la complexité de la communication a été développé, pour lequel les protocoles quantiques peuvent performer exponentiellement mieux que les meilleurs protocoles classiques pour certaines tâches classiques. Cependant, l'information quantique est beaucoup plus sensible au bruit que l'information classique. Il est donc impératif d'utiliser les ressources quantiques à leur plein potentiel. Dans cette thèse, nous étudions les protocoles quantiques interactifs du point de vue de la théorie de l'information et étudions les analogues du codage de source et du codage sur canal bruité. Le cadre considéré est celui de la complexité de la communication: Alice et Bob veulent faire un calcul quantique biparti tout en minimisant la quantité de communication échangée, sans égard au coût des calculs locaux. Nos résultats sont séparés en trois chapitres distincts, qui sont organisés de sorte à ce que chacun puisse être lu indépendamment. Étant donné le rôle central qu'elle occupe dans le contexte de la compression interactive, un chapitre est dédié à l'étude de la tâche de la redistribution d'état quantique. Nous prouvons des bornes inférieures sur les coûts de communication nécessaires dans un contexte interactif. Nous prouvons également des bornes atteignables avec un seul message, dans un contexte d'usage unique. Dans un chapitre subséquent, nous définissons une nouvelle notion de complexité de l'information quantique. Celle-ci caractérise la quantité d'information, plutôt que de communication, qu'Alice et Bob doivent échanger pour calculer une tâche bipartie. Nous prouvons beaucoup de propriétés structurelles pour cette quantité, et nous lui donnons une interprétation opérationnelle en tant que complexité de la communication quantique amortie. Dans le cas particulier d'entrées classiques, nous donnons une autre caractérisation permettant de quantifier le coût encouru par un protocole quantique qui oublie de l'information classique. Deux applications sont présentées: le premier résultat général de somme directe pour la complexité de la communication quantique à plus d'une ronde, ainsi qu'une borne optimale, à un terme polylogarithmique près, pour la complexité de la communication quantique avec un nombre de rondes limité pour la fonction « ensembles disjoints ». Dans un chapitre final, nous initions l'étude de la capacité interactive quantique pour les canaux bruités. Étant donné que les techniques pour distribuer de l'intrication sont bien étudiées, nous nous concentrons sur un modèle avec intrication préalable parfaite et communication classique bruitée. Nous démontrons que dans le cadre plus ardu des erreurs adversarielles, nous pouvons tolérer un taux d'erreur maximal de une demie moins epsilon, avec epsilon plus grand que zéro arbitrairement petit, et ce avec un taux de communication positif. Il s'ensuit que les canaux avec bruit aléatoire ayant une capacité positive pour la transmission unidirectionnelle ont une capacité positive pour la communication interactive quantique. Nous concluons avec une discussion de nos résultats et des directions futures pour ce programme de recherche sur une théorie de l'information quantique interactive.
Resumo:
Un objectif majeur en chimie organique est le développement de méthodes de synthèses générales, simples et peu coûteuses permettant la modification efficace des ressources naturelles en différents produits d’intérêt public. En particulier, la recherche de méthodes chimiosélectives et de méthodes dites « vertes » représente un intérêt croissant pour le secteur industriel (dont le domaine pharmaceutique). En fait, l’application en synthèse sur grande échelle de procédés catalytiques, sélectifs et utilisant des conditions douces permet de réduire le volume de déchets et la demande énergétique, minimisant ainsi les coûts de production et les effets néfastes sur l’environnement. Dans ce contexte, le groupe de recherche du Professeur André B. Charette de l’Université de Montréal s’intéresse au développement de méthodes générales et chimiosélectives permettant la transformation de fonctionnalités aisément accessibles tels que les amides et les alcools. La fonction amide, aussi appelée liaison peptidique dans les protéines, est présente dans diverses familles de molécules naturelles et est couramment employée comme intermédiaire synthétique dans la synthèse de produits d’intérêt pharmaceutique. Le groupement alcool est, quant à lui, l’une des fonctionnalités les plus abondantes dans la nature, intrinsèquement et largement utilisé en chimie de synthèse. Dans le cadre de cette thèse, des transformations simples, générales et chimiosélectives ont été réalisées sur des amides secondaires et tertiaires, ainsi que sur des alcools primaires et secondaires. La première partie de ce manuscrit se penche sur l’activation de la fonction amide par l’anhydride triflique (Tf2O), suivie de l’addition nucléophile de différents réactifs permettant ainsi la formation de plusieurs groupements fonctionnels versatiles, parfois indispensables, couramment employés en chimie organique tels que les aldimines, les aldéhydes, les amines, les cétones, les cétimines et des dérivés de la fonction amidrazone. Cette dernière fonctionnalité a également été utilisée dans des réactions successives vers la formation d’hétérocycles. De ce fait, des 1,2,4-triazoles ont été formés suite à une cyclodéshydratation initiée en conditions thermiques et faiblement acides. D’autre part, des 3-aminoindazoles ont été synthétisés par une fonctionnalisation C–H catalysée par un sel de palladium (II). La deuxième partie de la thèse est consacrée à la réaction de Mitsunobu en conditions acides, permettant ainsi la substitution nucléophile d’alcools en présence de carbamines (ou amines ne possédant pas de groupement électro-attracteurs). Ce type de nucléophile, basique lorsqu’utilisé comme base libre (avec un pKa se situant au-dessus de 13 dans le DMSO), n’est intrinsèquement pas compatible dans les conditions standards de la réaction de Mitsunobu. Contrairement aux conditions usuelles multi-étapes employant la réaction de Mitsunobu, la méthode développée au cours de cette étude permet la formation d’amines substituées en une seule étape et ne requiert pas l’emploi de groupements protecteurs.
Resumo:
The objective of this thesis was to quantify the physiological responses such as O2 uptake (VO2), heart rate (HR) and blood lactate ([LA]) to some types of activities associated with intermittent sports in athletes. Our hypothesis is that the introduction of accelerations and decelerations with or without directional changes results in a significative increase of the oxygen consumption, heart rate and blood lactate. The purpose of the first study was to measure and compare the VO2 and the HR of 6 on-court tennis drills at both high and low displacement speeds. These drills were done with and without striking the ball, over full and half-width court, in attack or in defense mode, using backhand or forehand strokes. Results show that playing an attacking style requires 6.5% more energy than playing a defensive style (p < 0.01) and the backhand stroke required 7% more VO2 at low speed than forehand stroke (p < 0.05) while the additional cost of striking the ball lies between 3.5 and 3.0 mL kg-1 min-1. Finally, while striking the ball, the energy expanded during a shuttle displacement on half-width court is 14% higher than running on full-width court. Studies #2 and #3 focused on different modes of displacement observed in irregular sports. The objective of the second study was to measure and compare VO2, HR and [LA] responses to randomly performed multiple fractioned runs with directional changes (SR) and without directional changes (FR) to those of in-line running (IR) at speeds corresponding to 60, 70 and 80% of the subject’s maximal aerobic speed (MAS). All results show that IR’s VO2 was significantly lower than SR’s and FR’s (p<0.05). SR’s VO2 was greater than FR’s only at speeds corresponding to 80%MAS. On the other hand, HR was similar in SR and FR but significantly higher than IR’s (p<0.05). [LA] varied between 4.2 ± 0.8 and 6.6 ± 0.9 mmol L-1 without significant differences between the 3 displacement modes. Finally, the third study’s objective was to measure and compare VO2 , HR and [LA] responses during directional changes at different angles and at different submaximal running speeds corresponding to 60, 70 and 80% MAS. Subjects randomly performed 4 running protocols 1) a 20-m shuttle running course (180°) (SR), 2) an 8-shaped running course with 90-degree turns every 20 m (90R), 3) a Zigzag running course (ZZR) with multiple close directional changes (~ 5 m) at different angle values of 91.8°, 90° and 38.6°, 4) an In-line run (IR) for comparison purposes. Results show that IR’s was lower (p<0.001) than for 90R’s, SR’s and ZZR’s at all intensities. VO2 obtained at 60 and 70%MAS was 48.7 and 38.1% higher during ZZR when compared to IR while and depending on the intensity, during 90R and SR was between 15.5 and 19.6% higher than during IR. Also, ZZR’s VO2 was 26.1 and 19.5% higher than 90R’s, 26.1 and 15.5% higher than SR’s at 60 and 70%MAS. SR’s and 90R’s VO2 were similar. Changing direction at a 90° angle and at 180° angle seem similar when compared to continuous in-line running. [LA] levels were similar in all modalities. Overall, the studies presented in this thesis allow the quantification of the specific energetic demands of certain types of displacement modes in comparison with conventional forward running. Also, our results confirm that the energy cost varies and increase with the introduction of accelerations and decelerations with and without directional changes.