23 resultados para ALLYL ISO-THIOCYANATE
em Université de Montréal, Canada
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Projet de maîtrise
Resumo:
Full Text / Article complet
Resumo:
Nos études ont démontrées que la formation de la cicatrice et la guérison sont associées avec l’apparition de cellules de type myocytes cardiaques nestine(+) dans la région péri-infarcie. Présentement, l’étude examine le mécanisme, tel que l’hypoxie ou les hormones neuronales, possiblement impliqué dans leur recrutement et de dévoiler leur origine cellulaire. La présence de ces cellules a été détectée dans les coeurs infarcies d’une semaine et maintenue après neuf mois suite à une sujétion coronaire complète. Aussi, ces cellules de type myocytes cardiaques nestine(+) ont été observées dans le coeur infarci humain. L’hypoxie représente un événement prédominant suite à un infarctus de myocarde, mais l’exposition des rats normaux à un environnement hypoxique n’a pas pu promouvoir l’apparition de ces cellules. Autrement, l’infusion de l’agoniste -adrénergique non-sélectif isoprotérénol (ISO) dans les rats adultes Sprague-Dawley a augmenté la protéine nestine dans le ventricule gauche et a été associé avec la réapparition de cellules de type myocytes cardiaques nestine(+). Cela représente possiblement un effet secondaire suite à la nécrose des myocytes cardiaques par l’administration d’isoprotérénol. Dernièrement, on a identifié une sous-population de cellules nestine(+) dans le coeur normal du rat qui co-exprime les marqueurs de cellules cardiaques progénitrices Nkx-2.5 et GATA-4. Cette sous-population de cellules nestine/Nkx-2.5/GATA-4 pourrait représenter des substrats cellulaires qui puissent se différentier en cellules de type myocytes cardiaques nestine(+) suite à une ischémie. Mots clés: nestine, isoprotérénol, nécrose, cellule souche, cellule progénitrice, myocyte cardiaque
Resumo:
Les effets cardiovasculaires des alpha-2 agonistes, particulièrement importants chez les chiens, limitent leur utilisation en pratique vétérinaire. La perfusion à débit constant (PDC) de ces drogues, comme la médétomidine (MED) permettrait un contrôle plus précis de ces effets. Les effets hémodynamiques de plusieurs doses de MED en PDC ont été évalués chez le chien. Lors de cette étude prospective, réalisée en double aveugle, 24 chiens en santé, ont reçu de façon aléatoire une des 6 doses de MED PDC (4 chiens par groupe). Les chiens ont été ventilés mécaniquement pendant une anesthésie minimale standardisée avec de l’isoflurane dans de l’oxygène. Une dose de charge (DC) de médétomidine a été administrée aux doses de 0.2, 0.5, 1.0, 1.7, 4.0 ou 12.0 µg/kg pendant 10 minutes, après laquelle la MED PDC a été injectée à une dose identique à celle de la DC pendant 60 minutes. L’isoflurane a été administré seul pendant une heure après l’administration d’une combinaison d’ISO et de MED PDC pendant 70 minutes. La fréquence cardiaque (FC), la pression artérielle moyenne (PAM) et l’index du débit cardiaque (IC) ont été mesurés. Des prélèvements sanguins ont permis d’évaluer le profil pharmacocinétique. D’après ces études, les effets hémodynamiques de la MED PDC pendant une anesthésie à l’isoflurane ont été doses-dépendants. L’IC a diminué progressivement alors que la dose de MED augmentait avec: 14.9 (12.7), 21.7 (17.9), 27.1 (13.2), 44.2 (9.7), 47.9 (8.1), and 61.2 (14.1) % respectivement. Les quatre doses les plus basses n’ont provoqué que des changements minimes et transitoires de la FC, de la PAM et de l’IC. La pharmacocinétique apparaît clairement dose-dépendante. De nouvelles expériences seront nécessaires afin d’étudier l’utilisation clinique de la MED PDC.
Resumo:
Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.
Resumo:
Les polymères amphiphiles sont largement utilisés pour les applications biomédicales et pharmaceutiques. Afin d’améliorer les chances de biocompatibilité des nouveaux polymères que nous voulons développer, nous avons utilisé des composés naturels, les acides biliaires, comme produits de départ dans la synthèse de ces polymères. De nouveaux polymères anioniques amphiphiles dérivés de l’acide cholique ont été préparés par polymérisation radicalaire par transfert d’atomes. Par un contrôle rigoureux des conditions de polymérisation, des bras de poly(acide acrylique) de différentes longueurs ont été greffés sur le squelette de l’acide cholique. L’architecture moléculaire des polymères a été étudiée par spectroscopie 1H RMN et par spectrométrie de masse. Ces polymères en étoile formés par l’acide biliaire modifié sont capables de s’agréger dans l’eau même si les groupements hydroxyles ont été remplacés par des segments plus volumineux. Il a été observé que les liaisons ester entre le polymère et le cœur d’acide cholique sont sensibles à l’hydrolyse en solution aqueuse. Pour remédier au problème de stabilité en solution aqueuse et pour avoir, en même temps, des bras hydrophiles non ioniques et biocompatibles, de l’oxyde d’éthylène a été polymérisé sur l’acide cholique par polymérisation anionique. Les liaisons éther formées entre le polymère et les groupements hydroxyles de l’acide biliaire sont plus stables que les liaisons ester sur le polymère de poly(acide acrylique). Les conditions de réaction de la polymérisation anionique ont été optimisées et ont donné des polymères aux architectures et aux masses molaires contrôlées. Les nouveaux polymères forment des agrégats sphériques tel qu’observé par microscopie électronique à transmission avec des échantillons préparés par la méthode de fracture à froid. Leur morphologie est différente de celle des agrégats cylindriques formés par les acides biliaires. Avec la méthode optimisée pour la polymérisation anionique, l’éther d’allyle et glycidyle a été polymérisé sur un dérivé d’acide cholique, suivi par une thiolation des liaisons doubles pour introduire l’amine ou l’acide sur la chaîne polymère. Cette addition radicalaire est efficace à plus de 90%. Les polymères qui en résultent sont solubles dans l’eau et s’agrègent à une certaine concentration critique. Il est particulièrement intéressant d’observer la thermosensibilité des polymères ayant des groupements amine, laquelle peut être modulée en acétylant partiellement les amines, donnant des points nuages entre 15 et 48°C.
Resumo:
L'entraînement par intervalles à haute intensité est plus efficace que l'entraînement continu d’intensité modérée pour améliorer la consommation maximale d’oxygène (VO2max) et le profil métabolique des patients coronariens. Cependant, il n’y a pas de publications pour appuyer la prescription d’un type d’exercice intermittent (HIIE) spécifique dans cette population. Nous avons donc comparé les réponses aiguës cardio-pulmonaires de quatre sessions différentes d’exercice intermittent dans le but d’identifier l’exercice optimal chez les patients coronariens. De manière randomisée, les sujets participaient aux sessions d’HIIE, toutes avec des phases d’exercice à 100% de la puissance maximale aérobie (PMA), mais qui variaient selon la durée des phases d’exercice et de récupération (15s ou 1 min) et la nature de la récupération (0% de la PMA ou 50% de la PMA). Chaque session était réalisée sous forme de temps limite et l’exercice était interrompu après 35 minutes. En considérant l’effort perçu, le confort du patient et le temps passé au-dessus de 80% de VO2max, nous avons trouvé que l’exercice optimal consistait à alterner des courtes phases d’exercice de 15s à 100% de la PMA avec des phases de 15s de récupération passive. Ensuite, nous avons comparé les réponses physiologiques de l’HIIE optimisé avec un exercice continu d’intensité modérée (MICE) iso-calorique chez des patients coronariens. En considérant les réponses physiologiques, l’aspect sécuritaire (aucune élévation de Troponin T) et l’effort perçu, le protocole HIIE est apparu mieux toléré et plus efficace chez ces coronariens. Finalement, une simple session d’HIIE n’induit pas d’effets délétères sur la paroi vasculaire, comme démontré avec l’analyse des microparticules endothéliales. En conclusion, l’exercice intermittent à haute intensité est un mode d'entraînement prometteur pour les patients coronariens stables qui devrait faire l’objet d’autres études expérimentales en particulier pour les patients coronariens ischémiques.
Resumo:
Dans ce mémoire, je présente mes études sur une stratégie efficace développée pour la synthèse de cétones homoallyliques substituées à partir de l’addition en cascade de réactifs de Grignard vinyliques substitués sur des α-amino esters catalysée par des sels de cuivre. L’utilisation de ces cétones homoallyliques a permis d’obtenir des mimes peptidiques comprenant un isostère de type hydroxyéthylène du lien amide. L’étape clé de cette stratégie repose sur la synthèse de cétones homoallyliques substituées intermédiaires à partir de la réaction d’additions en cascade catalysée au cuivre, de bromure de β,β-diméthylevinyle magnésium sur des analogues d’esters de la phénylalanine et de la sérine. Les cétones homoallyliques résultantes sont réduites sélectivement en alcool, la liaison double est clivée oxydativement et l’acide carboxylique résultant est couplé à un acide aminé. Afin d’évaluer l’effet qu’ont le remplacement du lien amide central dans un coude β par un hydroxyéthylène et de la présence d’un gem diméthyle sur la chaîne carbonée sur la conformation tridimensionnelle adoptée par les tripeptides générés, des analyses à l’état solide par diffraction aux rayons X, des analyses en solution par la spectroscopie RMN et des expériences de type NOESY ont été réalisées. Ces études ont permis de définir un nouveau type de coude β. La présence de pont hydrogène intramoléculaire et l’effet de restriction de conformation induit par le gem diméthyle, généralement appelé effet Thorpe-Ingold, favorisent la formation d’un coude β.
Resumo:
Les systèmes sensoriels encodent l’information sur notre environnement sous la forme d’impulsions électriques qui se propagent dans des réseaux de neurones. Élucider le code neuronal – les principes par lesquels l’information est représentée dans l’activité des neurones – est une question fondamentale des neurosciences. Cette thèse constituée de 3 études (E) s’intéresse à deux types de codes, la synchronisation et l’adaptation, dans les neurones du cortex visuel primaire (V1) du chat. Au niveau de V1, les neurones sont sélectifs pour des propriétés comme l’orientation des contours, la direction et la vitesse du mouvement. Chaque neurone ayant une combinaison de propriétés pour laquelle sa réponse est maximale, l’information se retrouve distribuée dans différents neurones situés dans diverses colonnes et aires corticales. Un mécanisme potentiel pour relier l’activité de neurones répondant à des items eux-mêmes reliés (e.g. deux contours appartenant au même objet) est la synchronisation de leur activité. Cependant, le type de relations potentiellement encodées par la synchronisation n’est pas entièrement clair (E1). Une autre stratégie de codage consiste en des changements transitoires des propriétés de réponse des neurones en fonction de l’environnement (adaptation). Cette plasticité est présente chez le chat adulte, les neurones de V1 changeant d’orientation préférée après exposition à une orientation non préférée. Cependant, on ignore si des neurones spatialement proches exhibent une plasticité comparable (E2). Finalement, nous avons étudié la dynamique de la relation entre synchronisation et plasticité des propriétés de réponse (E3). Résultats principaux — (E1) Nous avons montré que deux stimuli en mouvement soit convergent soit divergent élicitent plus de synchronisation entre les neurones de V1 que deux stimuli avec la même direction. La fréquence de décharge n’était en revanche pas différente en fonction du type de stimulus. Dans ce cas, la synchronisation semble coder pour la relation de cocircularité dont le mouvement convergent (centripète) et divergent (centrifuge) sont deux cas particuliers, et ainsi pourrait jouer un rôle dans l’intégration des contours. Cela indique que la synchronisation code pour une information qui n’est pas présente dans la fréquence de décharge des neurones. (E2) Après exposition à une orientation non préférée, les neurones changent d’orientation préférée dans la même direction que leurs voisins dans 75% des cas. Plusieurs propriétés de réponse des neurones de V1 dépendent de leur localisation dans la carte fonctionnelle corticale pour l’orientation. Les comportements plus diversifiés des 25% de neurones restants sont le fait de différences fonctionnelles que nous avons observé et qui suggèrent une localisation corticale particulière, les singularités, tandis que la majorité des neurones semblent situés dans les domaines d’iso-orientation. (E3) Après adaptation, les paires de neurones dont les propriétés de réponse deviennent plus similaires montrent une synchronisation accrue. Après récupération, la synchronisation retourne à son niveau initial. Par conséquent, la synchronisation semble refléter de façon dynamique la similarité des propriétés de réponse des neurones. Conclusions — Cette thèse contribue à notre connaissance des capacités d’adaptation de notre système visuel à un environnement changeant. Nous proposons également des données originales liées au rôle potentiel de la synchronisation. En particulier, la synchronisation semble capable de coder des relations entre objets similaires ou dissimilaires, suggérant l’existence d’assemblées neuronales superposées.
Resumo:
Plusieurs analogues de nucléosides thérapeutiques (Ara-C, Clofarabine), utilisés pour le traitement de leucémies, présentent un arrangement 1’,2’-cis entre la nucléobase reliée au centre anomère et le substituant (électroattracteur) en C-2’. Récemment, notre laboratoire a développé une approche synthétique pour former sélectivement des analogues de nucléosides et de thionucléosides 1’,2’-trans et 1’,2’-cis à partir de précurseurs acycliques. Ce mémoire présente une nouvelle méthodologie pour accéder efficacement aux analogues de nucléosides 1’,2’-cis à partir de furanosides. Différents groupements en position anomérique ont été examinés, sous conditions cinétiques en utilisant le bromure de diméthylbore pour générer sélectivement des produits acycliques ou cycliques. Les intermédiaires cinétiques de différents furanosides de méthyle formés en présence de Me2BBr ont été piégés in situ par un thiol pour générer des thioacétals acycliques avec de bonnes voire d’excellentes diastéréosélectivités. Les produits générés sont en accord avec une rétention globale de l’information stéréochimique du centre acétal et deux déplacements SN2 consécutifs ont été suggérés pour rationaliser ces résultats. Toutefois, l’objectif de synthétiser des analogues de nucléosides à partir de furanosides de méthyle a échoué. Tel que démontré par le Dr Michel Prévost, l’activation par Me2BBr des lactols des quatres différents furanosides suivie d’une addition in situ d’une base silylée a permis de former diastéréosélectivement les analogues de nucléosides 1’,2’-cis correspondants avec d’excellents rendements. Nous avons démontré que d’autres substrats peuvent être employés et que l’induction stéréochimique est sous contrôle du substituant électroattracteur en C-2. D’autres acides de Lewis, tel que TMSBr, peuvent également être utilisés. Cette méthodologie a également été étendue à d’autres nucléophiles tels que des Grignards ou des éthers d’énols silylés, conduisant à de bonnes sélectivités.
Resumo:
La méthode de projection et l'approche variationnelle de Sasaki sont deux techniques permettant d'obtenir un champ vectoriel à divergence nulle à partir d'un champ initial quelconque. Pour une vitesse d'un vent en haute altitude, un champ de vitesse sur une grille décalée est généré au-dessus d'une topographie donnée par une fonction analytique. L'approche cartésienne nommée Embedded Boundary Method est utilisée pour résoudre une équation de Poisson découlant de la projection sur un domaine irrégulier avec des conditions aux limites mixtes. La solution obtenue permet de corriger le champ initial afin d'obtenir un champ respectant la loi de conservation de la masse et prenant également en compte les effets dûs à la géométrie du terrain. Le champ de vitesse ainsi généré permettra de propager un feu de forêt sur la topographie à l'aide de la méthode iso-niveaux. L'algorithme est décrit pour le cas en deux et trois dimensions et des tests de convergence sont effectués.
Resumo:
Les résultats du processus de normalisation du commerce équitable – demandé par les associations de consommateurs agréées – peuvent être approchés, au moins, de deux manières complémentaires. Une première chercherait à comprendre pourquoi les acteurs impliqués n’ont pas réussi à obtenir le consensus utile pour la publication d’une norme. La seconde argumentant que l’intentionnalité des acteurs est primordiale dans tout changement économique. Aussi, en mobilisant la théorie de la dépendance au sentier cet article montre comment l’association, désormais, établie entre le commerce équitable, et des « systèmes plus vastes et plus complexes » comme la responsabilité sociétale des entreprises et le développement durable a contribué, partiellement, à rendre improbable la normalisation du commerce équitable dans le court terme, en France (AFNOR) et à un niveau international (ISO).
Resumo:
Les résultats du processus de normalisation du commerce équitable – demandé par les associations de consommateurs agréées – peuvent être approchés, au moins, de deux manières complémentaires. Une première chercherait à comprendre pourquoi les acteurs impliqués n’ont pas réussi à obtenir le consensus utile pour la publication d’une norme. La seconde argumentant que l’intentionnalité des acteurs est primordiale dans tout changement économique. Aussi, en mobilisant la théorie de la dépendance au sentier cet article montre comment l’association, désormais, établie entre le commerce équitable, et des « systèmes plus vastes et plus complexes » comme la responsabilité sociétale des entreprises et le développement durable a contribué, partiellement, à rendre improbable la normalisation du commerce équitable dans le court terme, en France (AFNOR) et à un niveau international (ISO).
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.