130 resultados para Vitesse incrémentale
Resumo:
Dans une société mondialisée, où les relations sont intégrées à une vitesse différente avec l'utilisation des technologies de l'information et des communications, l'accès à la justice gagne de nouveaux concepts, mais elle est encore confrontée à de vieux obstacles. La crise mondiale de l'accès à la justice dans le système judiciaire provoque des débats concernant l'égalité en vertu de la loi, la capacité des individus, la connaissance des droits, l'aide juridique, les coûts et les délais. Les deux derniers ont été les facteurs les plus importants du mécontentement des individus avec le système judiciaire. La présente étude a pour objet d'analyser l'incidence de l'utilisation de la technologie dans l’appareil judiciaire, avec l'accent sur la réalité brésilienne, la voie législative et des expériences antérieures dans le développement de logiciels de cyberjustice. La mise en œuvre de ces instruments innovants exige des investissements et de la planification, avec une attention particulière sur l'incidence qu'ils peuvent avoir sur les routines traditionnelles des tribunaux. De nouveaux défis sont sur la voie de ce processus de transformation et doivent être traités avec professionnalisme afin d'éviter l'échec de projets de qualité. En outre, si la technologie peut faire partie des différents aspects de notre quotidien et l'utilisation de modes alternatifs de résolution des conflits en ligne sont considérés comme un succès, pourquoi serait-il difficile de faire ce changement dans la prestation de la justice par le système judiciaire? Des solutions technologiques adoptées dans d'autres pays ne sont pas facilement transférables à un environnement culturel différent, mais il y a toujours la possibilité d'apprendre des expériences des autres et d’éviter de mauvaises voies qui pourraient compromettre la définition globale de l'accès à la justice.
Resumo:
La théorie de l'information quantique s'est développée à une vitesse fulgurante au cours des vingt dernières années, avec des analogues et extensions des théorèmes de codage de source et de codage sur canal bruité pour la communication unidirectionnelle. Pour la communication interactive, un analogue quantique de la complexité de la communication a été développé, pour lequel les protocoles quantiques peuvent performer exponentiellement mieux que les meilleurs protocoles classiques pour certaines tâches classiques. Cependant, l'information quantique est beaucoup plus sensible au bruit que l'information classique. Il est donc impératif d'utiliser les ressources quantiques à leur plein potentiel. Dans cette thèse, nous étudions les protocoles quantiques interactifs du point de vue de la théorie de l'information et étudions les analogues du codage de source et du codage sur canal bruité. Le cadre considéré est celui de la complexité de la communication: Alice et Bob veulent faire un calcul quantique biparti tout en minimisant la quantité de communication échangée, sans égard au coût des calculs locaux. Nos résultats sont séparés en trois chapitres distincts, qui sont organisés de sorte à ce que chacun puisse être lu indépendamment. Étant donné le rôle central qu'elle occupe dans le contexte de la compression interactive, un chapitre est dédié à l'étude de la tâche de la redistribution d'état quantique. Nous prouvons des bornes inférieures sur les coûts de communication nécessaires dans un contexte interactif. Nous prouvons également des bornes atteignables avec un seul message, dans un contexte d'usage unique. Dans un chapitre subséquent, nous définissons une nouvelle notion de complexité de l'information quantique. Celle-ci caractérise la quantité d'information, plutôt que de communication, qu'Alice et Bob doivent échanger pour calculer une tâche bipartie. Nous prouvons beaucoup de propriétés structurelles pour cette quantité, et nous lui donnons une interprétation opérationnelle en tant que complexité de la communication quantique amortie. Dans le cas particulier d'entrées classiques, nous donnons une autre caractérisation permettant de quantifier le coût encouru par un protocole quantique qui oublie de l'information classique. Deux applications sont présentées: le premier résultat général de somme directe pour la complexité de la communication quantique à plus d'une ronde, ainsi qu'une borne optimale, à un terme polylogarithmique près, pour la complexité de la communication quantique avec un nombre de rondes limité pour la fonction « ensembles disjoints ». Dans un chapitre final, nous initions l'étude de la capacité interactive quantique pour les canaux bruités. Étant donné que les techniques pour distribuer de l'intrication sont bien étudiées, nous nous concentrons sur un modèle avec intrication préalable parfaite et communication classique bruitée. Nous démontrons que dans le cadre plus ardu des erreurs adversarielles, nous pouvons tolérer un taux d'erreur maximal de une demie moins epsilon, avec epsilon plus grand que zéro arbitrairement petit, et ce avec un taux de communication positif. Il s'ensuit que les canaux avec bruit aléatoire ayant une capacité positive pour la transmission unidirectionnelle ont une capacité positive pour la communication interactive quantique. Nous concluons avec une discussion de nos résultats et des directions futures pour ce programme de recherche sur une théorie de l'information quantique interactive.
Resumo:
Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.
Resumo:
Ce mémoire propose que l’origine d’un cyberdélinquant soit un facteur explicatif du phénomène de la cybercriminalité. Il comporte deux objectifs : premièrement, décrire les profils des cybercriminels recensés dans les médias internationaux; deuxièmement, vérifier si ces profils varient selon le lieu d’origine du cyberdélinquant. Une base de données, comportant 90 cas de cybercriminels répertoriés à travers le monde, fut créée. Quinze (15) cybercriminels par territoire ont été sélectionnés, les régions ciblées allant comme suit : Amérique du Nord, Amérique latine, Australasie, Europe de l’Ouest, Eurasie et Afrique/péninsule Arabique. En premier lieu, des analyses descriptives ont été exécutées afin de dresser un portrait de ce phénomène. En second lieu, des analyses de tableaux de contingence ont été effectuées entre les variables à l’étude afin de voir si des relations existaient. Enfin, d’autres analyses de tableaux de contingence ont été réalisées afin d’établir les différences des paramètres en fonction de l’origine. Les résultats de ces divers tests démontrent que ce sont généralement de jeunes hommes âgés en moyenne de 25 ans qui seront susceptibles de commettre des délits informatiques. Quelques profils types se sont dégagés des analyses et peuvent s’expliquer par l’accès au matériel informatique, les inégalités économiques entre classes sociales, tout comme la vitesse d’Internet, et ce, en fonction de l’origine du cyberdélinquant.
Resumo:
Le but de cette thèse était d’étudier la dynamique de croissance par pulvérisation par plasma RF magnétron des couches minces à base d’oxyde de zinc destinées à des applications électroniques, optoélectroniques et photoniques de pointe. Dans ce contexte, nous avons mis au point plusieurs diagnostics permettant de caractériser les espèces neutres et chargées dans ce type de plasmas, notamment la sonde électrostatique, la spectroscopie optique d’émission et d’absorption, ainsi que la spectrométrie de masse. Par la suite, nous avons tenté de corréler certaines caractéristiques physiques de croissance des couches de ZnO, en particulier la vitesse de dépôt, aux propriétés fondamentales du plasma. Nos résultats ont montré que l’éjection d’atomes de Zn, In et O au cours de la pulvérisation RF magnétron de cibles de Zn, ZnO et In2O3 n’influence que très peu la densité d’ions positifs (et donc la densité d’électrons en supposant la quasi-neutralité) ainsi que la fonction de distribution en énergie des électrons (populations de basse et haute énergie). Cependant, le rapport entre la densité d’atomes d’argon métastables (3P2) sur la densité électronique décroît lorsque la densité d’atomes de Zn augmente, un effet pouvant être attribué à l’ionisation des atomes de Zn par effet Penning. De plus, dans les conditions opératoires étudiées (plasmas de basse pression, < 100 mTorr), la thermalisation des atomes pulvérisés par collisions avec les atomes en phase gazeuse demeure incomplète. Nous avons montré que l’une des conséquences de ce résultat est la présence d’ions Zn+ suprathermiques près du substrat. Finalement, nous avons corrélé la quantité d’atomes de Zn pulvérisés déterminée par spectroscopie d’émission avec la vitesse de dépôt d’une couche mince de ZnO mesurée par ellipsométrie spectroscopique. Ces travaux ont permis de mettre en évidence que ce sont majoritairement les atomes de Zn (et non les espèces excitées et/ou ioniques) qui gouvernent la dynamique de croissance par pulvérisation RF magnétron des couches minces de ZnO.
Resumo:
The objective of this thesis was to quantify the physiological responses such as O2 uptake (VO2), heart rate (HR) and blood lactate ([LA]) to some types of activities associated with intermittent sports in athletes. Our hypothesis is that the introduction of accelerations and decelerations with or without directional changes results in a significative increase of the oxygen consumption, heart rate and blood lactate. The purpose of the first study was to measure and compare the VO2 and the HR of 6 on-court tennis drills at both high and low displacement speeds. These drills were done with and without striking the ball, over full and half-width court, in attack or in defense mode, using backhand or forehand strokes. Results show that playing an attacking style requires 6.5% more energy than playing a defensive style (p < 0.01) and the backhand stroke required 7% more VO2 at low speed than forehand stroke (p < 0.05) while the additional cost of striking the ball lies between 3.5 and 3.0 mL kg-1 min-1. Finally, while striking the ball, the energy expanded during a shuttle displacement on half-width court is 14% higher than running on full-width court. Studies #2 and #3 focused on different modes of displacement observed in irregular sports. The objective of the second study was to measure and compare VO2, HR and [LA] responses to randomly performed multiple fractioned runs with directional changes (SR) and without directional changes (FR) to those of in-line running (IR) at speeds corresponding to 60, 70 and 80% of the subject’s maximal aerobic speed (MAS). All results show that IR’s VO2 was significantly lower than SR’s and FR’s (p<0.05). SR’s VO2 was greater than FR’s only at speeds corresponding to 80%MAS. On the other hand, HR was similar in SR and FR but significantly higher than IR’s (p<0.05). [LA] varied between 4.2 ± 0.8 and 6.6 ± 0.9 mmol L-1 without significant differences between the 3 displacement modes. Finally, the third study’s objective was to measure and compare VO2 , HR and [LA] responses during directional changes at different angles and at different submaximal running speeds corresponding to 60, 70 and 80% MAS. Subjects randomly performed 4 running protocols 1) a 20-m shuttle running course (180°) (SR), 2) an 8-shaped running course with 90-degree turns every 20 m (90R), 3) a Zigzag running course (ZZR) with multiple close directional changes (~ 5 m) at different angle values of 91.8°, 90° and 38.6°, 4) an In-line run (IR) for comparison purposes. Results show that IR’s was lower (p<0.001) than for 90R’s, SR’s and ZZR’s at all intensities. VO2 obtained at 60 and 70%MAS was 48.7 and 38.1% higher during ZZR when compared to IR while and depending on the intensity, during 90R and SR was between 15.5 and 19.6% higher than during IR. Also, ZZR’s VO2 was 26.1 and 19.5% higher than 90R’s, 26.1 and 15.5% higher than SR’s at 60 and 70%MAS. SR’s and 90R’s VO2 were similar. Changing direction at a 90° angle and at 180° angle seem similar when compared to continuous in-line running. [LA] levels were similar in all modalities. Overall, the studies presented in this thesis allow the quantification of the specific energetic demands of certain types of displacement modes in comparison with conventional forward running. Also, our results confirm that the energy cost varies and increase with the introduction of accelerations and decelerations with and without directional changes.
Resumo:
Cette thèse est divisée en trois chapitres. Le premier explique comment utiliser la méthode «level-set» de manière rigoureuse pour faire la simulation de feux de forêt en utilisant comme modèle physique pour la propagation le modèle de l'ellipse de Richards. Le second présente un nouveau schéma semi-implicite avec une preuve de convergence pour la solution d'une équation de type Hamilton-Jacobi anisotrope. L'avantage principal de cette méthode est qu'elle permet de réutiliser des solutions à des problèmes «proches» pour accélérer le calcul. Une autre application de ce schéma est l'homogénéisation. Le troisième chapitre montre comment utiliser les méthodes numériques des deux premiers chapitres pour étudier l'influence de variations à petites échelles dans la vitesse du vent sur la propagation d'un feu de forêt à l'aide de la théorie de l'homogénéisation.
Resumo:
L’ablation laser de verres métalliques de CuxZr1−x (x = 0.33, 0.50 et 0.67) et d’un alliage métallique cristallin de CuZr2 dans la structure C11b a été étudiée par dynamique moléculaire (DM) combinée à un modèle à deux températures (TTM). Le seuil d’ablation (Fth) a été déterminé pour chacun des 4 échantillons et s'est avéré plus bas pour les échantillons plus riches en Cu étant donné que la cohésion du Cu est plus faible que celle du Zr dans tous les échantillons. Pour x=0.33, Fth est plus bas pour le cristal que pour l’amorphe car le couplage électron-phonon est plus faible dans ce dernier, ce qui implique que l’énergie est transférée plus lentement du système électronique vers le système ionique pour le a-CuZr2 que le c-CuZr2. La vitesse de l’onde de pression créée par l’impact du laser croît avec la fluence dans l’échantillon cristallin, contrairement aux échantillons amorphes dans lesquels sa vitesse moyenne est relativement constante avec la fluence. Ceci est expliqué par le fait que le module de cisaillement croît avec la pression pour le cristal, ce qui n’est pas le cas pour les verres métalliques étudiés. Finalement, la zone affectée par la chaleur (HAZ) a été étudiée via la profondeur de fusion et les déformations plastiques. La plus faible température de fusion des échantillons amorphes implique que la profondeur de fusion est plus importante dans ceux-ci que dans l’échantillon cristallin. Dans les verres métalliques, les déformations plastiques ont été identifiées sous forme de zones de transformation par cisaillement (STZ) qui diffusent et fusionnent à plus haute fluence. Aucune déformation plastique importante n’a été identifiée dans le c-CuZr2 mis à part de légères déformations près du front de fusion causées par les contraintes résiduelles. Ce travail a ainsi permis d’améliorer notre compréhension de l’ablation laser sur les verres métalliques et de l’étendue des dommages qu’elle peut entraîner.
Resumo:
La technique de trempage («dip-coating») est un procédé rapide et efficace pour former des films minces de copolymères à blocs (CPB) d’épaisseur et de nano-morphologies variées. Très peu d’études ont toutefois porté sur le trempage des CPB supramoléculaires et/ou photosensibles. Le trempage du CPB poly(styrène-b-4-vinyl pyridine) (PS-P4VP) a premièrement été étudié avec des petites molécules (PM) d’acide 1-naphtoïque (NCOOH) et de 1-naphtol (NOH) capables de former des ponts hydrogène (ponts H) avec le bloc P4VP dans 4 solvants (tétrahydrofurane (THF), p-dioxane, toluène et chloroforme). Le ratio d’incorporation (RI) molaire PM/VP dans les films trempés augmente avec la vitesse de retrait mais sa variation dépend fortement du solvant et de la PM utilisés. Le RI et la morphologie des films minces dépendent de la possibilité (ou non) du solvant à former des ponts H avec la PM et de sa sélectivité au bloc de PS menant (ou non) à des micelles de P4VP/PM en solution dont la rigidité influence l’état cinétique du système en film mince. La dépendance en une courbe en V de l’épaisseur des films en fonction la vitesse de retrait définit deux régimes, nommés régimes capillaire et de drainage. Ces régimes influencent différemment le RI et la morphologie finale. Nous nous sommes ensuite intéressés aux complexes de PS-P4VP avec des azobenzènes (AB) photosensibles, le 4-hydroxy-4’-butyl-azobenzène (BHAB) et le 4-hydroxy-4’-cyano-azobenzène (CHAB). Ces AB peuvent non seulement former des ponts H avec le bloc P4VP mais aussi s'isomériser entre les formes trans et cis sous illumination. Les expériences avec PS-P4VP/BHAB dans le THF et le toluène ont révélé que l'irradiation pendant le trempage permet de provoquer une transition entre les morphologies sphérique et cylindrique à basses vitesses de retrait. Ces transitions sont expliquées par l’augmentation du ratio molaire BHAB/VP pris dans les films sous illumination et par le plus grand volume des isomères BHAB-cis par rapport aux BHAB-trans. L'irradiation permet également de moduler l'épaisseur des films sans égard à la présence des AB. Finalement, des solutions de PS-P4VP/CHAB et PS-P4VP/BHAB dans le THF avec un CPB de masse molaire plus élevée ont été étudiées afin de comprendre l’effet d'un temps de demi-vie plus court de l’AB et de la présence de micelles en solution. Le photocontrôle morphologique perd de son efficacité avec le CHAB car l’augmentation du RI de CHAB dans les films illuminés par rapport aux films non irradiés est moins prononcée que pour les complexes de BHAB. Le choix du PS-P4VP est également important puisque la présence de micelles dans les solutions de THF du PS-P4VP(36,5k-16k), même si elle n’influence pas les RI BHAB/VP, fige davantage la morphologie sphérique en solution par rapport à une solution non-micellaire de PS-P4VP(24k-9,5k), limitant les possibilités de transition morphologique.
Resumo:
Grâce à son accessibilité, sa polyvalence et sa sécurité, l'échocardiographie est devenue la technique d'imagerie la plus utilisée pour évaluer la fonction cardiaque. Au vu du succès de l'échographie ultrarapide par ondes planes des techniques similaires pour augmenter la résolution temporelle en échocardiographie ont été mise en oeuvre. L’augmentation de la résolution temporelle de l’échographie cardiaque au-delà des valeurs actuellement atteignables (~ 60 à 80 images par secondes), pourrait être utilisé pour améliorer d’autres caractéristiques de l'échocardiographie, comme par exemple élargir la plage de vitesses détectables en imagerie Doppler couleur limitées par la valeur de Nyquist. Nous avons étudié l'échocardiographie ultrarapide en utilisant des fronts d’ondes ultrasonores divergentes. La résolution temporelle atteinte par la méthode d'ondes divergentes a permis d’améliorer les capacités des modes d’échocardiographie en mode B et en Doppler couleur. La résolution temporelle de la méthode mode B a été augmentée jusqu'à 633 images par secondes, tout en gardant une qualité d'image comparable à celle de la méthode d’échocardiographie conventionnelle. La vitesse de Nyquist de la méthode Doppler couleur a été multipliée jusqu'à 6 fois au delà de la limite conventionnelle en utilisant une technique inspirée de l’imagerie radar; l’implémentation de cette méthode n’aurait pas été possible sans l’utilisation de fronts d’ondes divergentes. Les performances avantageuses de la méthode d'échocardiographie ultrarapide sont supportées par plusieurs résultats in vitro et in vivo inclus dans ce manuscrit.
Resumo:
Critique de la pièce de théâtre « Ne blâmez jamais les Bédouins » de René-Daniel Dubois (spectacle solo; texte et interprétation : René-Daniel Dubois; mise en scène et scénographie : Joseph Saint Gelais. Spectacle des Productions Nero Strassenbahn Endstation.)
Resumo:
Tout médicament administré par la voie orale doit être absorbé sans être métabolisé par l’intestin et le foie pour atteindre la circulation systémique. Malgré son impact majeur sur l’effet de premier passage de plusieurs médicaments, le métabolisme intestinal est souvent négligé comparativement au métabolisme hépatique. L’objectif de ces travaux de maîtrise est donc d’utiliser, caractériser et développer différents outils in vitro et in vivo pour mieux comprendre et prédire l’impact du métabolisme intestinal sur l’effet de premier passage des médicaments comparé au métabolisme hépatique. Pour se faire, différents substrats d’enzymes du métabolisme ont été incubés dans des microsomes intestinaux et hépatiques et des différences entre la vitesse de métabolisme et les métabolites produits ont été démontrés. Afin de mieux comprendre l’impact de ces différences in vivo, des études mécanistiques chez des animaux canulés et traités avec des inhibiteurs enzymatiques ont été conduites avec le substrat métoprolol. Ces études ont démontré l’impact du métabolisme intestinal sur le premier passage du métoprolol. De plus, elles ont révélé l’effet sur la vidange gastrique du 1-aminobenzotriazole, un inhibiteur des cytochromes p450, évitant ainsi une mauvaise utilisation de cet outil dans le futur. Ces travaux de maîtrise ont permis d’améliorer les connaissances des différents outils in vitro et in vivo pour étudier le métabolisme intestinal tout en permettant de mieux comprendre les différences entre le rôle de l’intestin et du foie sur l’effet de premier passage.
Resumo:
Les dynorphines sont des neuropeptides importants avec un rôle central dans la nociception et l’atténuation de la douleur. De nombreux mécanismes régulent les concentrations de dynorphine endogènes, y compris la protéolyse. Les Proprotéines convertases (PC) sont largement exprimées dans le système nerveux central et clivent spécifiquement le C-terminale de couple acides aminés basiques, ou un résidu basique unique. Le contrôle protéolytique des concentrations endogènes de Big Dynorphine (BDyn) et dynorphine A (Dyn A) a un effet important sur la perception de la douleur et le rôle de PC reste à être déterminée. L'objectif de cette étude était de décrypter le rôle de PC1 et PC2 dans le contrôle protéolytique de BDyn et Dyn A avec l'aide de fractions cellulaires de la moelle épinière de type sauvage (WT), PC1 -/+ et PC2 -/+ de souris et par la spectrométrie de masse. Nos résultats démontrent clairement que PC1 et PC2 sont impliquées dans la protéolyse de BDyn et Dyn A avec un rôle plus significatif pour PC1. Le traitement en C-terminal de BDyn génère des fragments peptidiques spécifiques incluant dynorphine 1-19, dynorphine 1-13, dynorphine 1-11 et dynorphine 1-7 et Dyn A génère les fragments dynorphine 1-13, dynorphine 1-11 et dynorphine 1-7. Ils sont tous des fragments de peptides associés à PC1 ou PC2. En plus, la protéolyse de BDyn conduit à la formation de Dyn A et Leu-Enk, deux peptides opioïdes importants. La vitesse de formation des deux est réduite de manière significative dans les fractions cellulaires de la moelle épinière de souris mutantes. En conséquence, l'inhibition même partielle de PC1 ou PC2 peut altérer le système opioïde endogène.
Resumo:
Plusieurs décennies de recherche ont permis de mieux comprendre les effets de l’athérosclérose sur le système cardiovasculaire, d’améliorer la prévention et de développer des traitements efficaces. Les effets de l’athéroslérose sur le cerveau demeurent toutefois mal compris même si le lien entre le fonctionnement cognitif et la santé du système vasculaire est maintenant bien établi. La venue de nouvelles méthodes d’imagerie telle la microscopie laser à 2-photons (TPLM) permet d’étudier l’impact de certaines maladies sur la microvasculature cérébrale en mesurant le flux sanguin dans des vaisseaux uniques situés dans des régions cérébrales millimétriques sous la surface. Les résultats des études in vitro peuvent dorénavant être corrélés à ceux obtenus in vivo. En premier lieu, ce mémoire revoit la théorie ayant permis le développement de la TPLM qui permet de prendre des mesures hémodynamiques in vivo dans des vaisseaux de très petits calibres tels des capillaires cérébraux de souris. Par la suite, son utilisation est décrite chez des souris anesthésiées afin de comparer les mesures d’hémodynamie cérébrale tels la vitesse des globules rouges, le flux de globules rouges, le flux sanguin cérébral, l’hématocrite sanguin et le diamètre des vaisseaux. Finalement, nous avons comparé les données hémodynamiques entre des souris de 3 mois normales (WT ; n=6) et des souris atteintes d’athérosclérose précoce (ATX ; n=6). Les résultats obtenus sur un nombre total de 209 capillaires (103 pour les souris WT et 106 pour les souris ATX) démontrent que les souris ATX possèdent une vitesse des globules rouges (+40%) plus grande, un flux de globule rouge plus grand (+12%) et un flux capillaire plus élevé (+14%) sans démontrer pour aucun de ces paramètres, une différence statistiquement significative. L’hématocrite moyen (35±4% vs 33±2% ; p=0.71) et le diamètre moyen des vaisseaux (4.88±0.22μm vs 4.86±0.20μm ; p=0.23) étaient également comparables. La vitesse des globules rouges a démontré une faible corrélation avec le diamètre des vaisseaux (r=0.39) et avec le flux de globules rouges/seconde (r=0.59). En conclusion, les travaux menés dans le cadre de ce mémoire de maîtrise permettent d'envisager, grâce aux nouvelles méthodes d’imagerie cérébrale telle la TPLM, une meilleure compréhension des mécanismes hémodynamiques sous-jacents à la microcirculation cérébrale. L’effet d’une pression pulsée augmentée, tel que proposée dans l’athérosclérose reste cependant à démontrer avec cette méthode d’imagerie.
Resumo:
L'activité électrique du coeur est initiée par la génération spontanée de potentiels d'action venant des cellules pacemaker du noeud sinusal (SN). Toute dysfonction au niveau de cette région entraîne une instabilité électrique du coeur. La majorité des patients souffrant d'un noeud sinusal déficient nécessitent l'implantation chirurgicale d'un pacemaker électronique; cependant, les limitations de cette approche incitent à la recherche d'une alternative thérapeutique. La base moléculaire des courants ioniques jouant un rôle crucial dans l'activité du noeud sinusal sont de plus en plus connues. Une composante importante de l'activité des cellules pacemakers semble être le canal HCN, responsable du courant pacemaker If. Le facteur T-box 3 (Tbx3), un facteur de transcription conservé durant le processus de l'évolution, est nécessaire au développement du système de conduction cardiaque. De précédentes études ont démontré que dans différentes lignées cellulaires le Phorbol 12-myristate 13-acetate (PMA) active l'expression du gène codant Tbx3 via des réactions en cascade partant de la protéine kinase C (PKC). L'objectif principal de cette étude est de tester si le PMA peut augmenter la fréquence et la synchronisation de l'activité spontanée du pacemaker biologique en culture. Plus précisément, nous avons étudié les effets de l'exposition chronique au PMA sur l'expression du facteur de transcription Tbx3, sur HCN4 et l'activité spontanée chez des monocouches de culture de myocytes ventriculaires de rats néonataux (MVRN). Nos résultats démontrent que le PMA augmente significativement le facteur transcription de Tbx3 et l'expression ARNm de HCN4, favorisant ainsi l'augmentation du rythme et de la stabilité de l'activité autonome. De plus, une diminution significative de la vitesse de conduction a été relevée et est attribuée à la diminution du couplage intercellulaire. La diminution de la vitesse de conduction pourrait expliquer l'effet négatif du PMA sur la synchronisation de l'activité autonome du pacemaker biologique. Ces résultats ont été confirmés par un modèle mathématique multicellulaire suggérant que des fréquences et résistances intercellulaires plus élevée pourraient induire une activité plus stable et moins synchrone. Cette étude amène de nouvelles connaissances très importantes destinées à la production d'un pacemaker biologique efficient et robuste.