31 resultados para Énigme du taux sans risque

em Université de Montréal


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les informations sensorielles sont traitées dans le cortex par des réseaux de neurones co-activés qui forment des assemblées neuronales fonctionnelles. Le traitement visuel dans le cortex est régit par différents aspects des caractéristiques neuronales tels que l’aspect anatomique, électrophysiologique et moléculaire. Au sein du cortex visuel primaire, les neurones sont sélectifs à divers attributs des stimuli tels que l’orientation, la direction, le mouvement et la fréquence spatiale. Chacun de ces attributs conduit à une activité de décharge maximale pour une population neuronale spécifique. Les neurones du cortex visuel ont cependant la capacité de changer leur sélectivité en réponse à une exposition prolongée d’un stimulus approprié appelée apprentissage visuel ou adaptation visuelle à un stimulus non préférentiel. De ce fait, l’objectif principal de cette thèse est d’investiguer les mécanismes neuronaux qui régissent le traitement visuel durant une plasticité induite par adaptation chez des animaux adultes. Ces mécanismes sont traités sous différents aspects : la connectivité neuronale, la sélectivité neuronale, les propriétés électrophysiologiques des neurones et les effets des drogues (sérotonine et fluoxétine). Le modèle testé se base sur les colonnes d’orientation du cortex visuel primaire. La présente thèse est subdivisée en quatre principaux chapitres. Le premier chapitre (A) traite de la réorganisation du cortex visuel primaire suite à une plasticité induite par adaptation visuelle. Le second chapitre (B) examine la connectivité neuronale fonctionnelle en se basant sur des corrélations croisées entre paires neuronales ainsi que sur des corrélations d’activités de populations neuronales. Le troisième chapitre (C) met en liaison les aspects cités précédemment (les effets de l’adaptation visuelle et la connectivité fonctionnelle) aux propriétés électrophysiologiques des neurones (deux classes de neurones sont traitées : les neurones à décharge régulière et les neurones à décharge rapide ou burst). Enfin, le dernier chapitre (D) a pour objectif l’étude de l’effet du couplage de l’adaptation visuelle à l’administration de certaines drogues, notamment la sérotonine et la fluoxétine (inhibiteur sélectif de recapture de la sérotonine). Méthodes En utilisant des enregistrements extracellulaires d’activités neuronales dans le cortex visuel primaire (V1) combinés à un processus d’imagerie cérébrale optique intrinsèque, nous enregistrons l’activité de décharge de populations neuronales et nous examinons l’activité de neurones individuels extraite des signaux multi-unitaires. L’analyse de l’activité cérébrale se base sur différents algorithmes : la distinction des propriétés électrophysiologiques des neurones se fait par calcul de l’intervalle de temps entre la vallée et le pic maximal du potentiel d’action (largeur du potentiel d’action), la sélectivité des neurones est basée sur leur taux de décharge à différents stimuli, et la connectivité fonctionnelle utilise des calculs de corrélations croisées. L’utilisation des drogues se fait par administration locale sur la surface du cortex (après une craniotomie et une durotomie). Résultats et conclusions Dans le premier chapitre, nous démontrons la capacité des neurones à modifier leur sélectivité après une période d’adaptation visuelle à un stimulus particulier, ces changements aboutissent à une réorganisation des cartes corticales suivant un patron spécifique. Nous attribuons ce résultat à la flexibilité de groupes fonctionnels de neurones qui étaient longtemps considérés comme des unités anatomiques rigides. En effet, nous observons une restructuration extensive des domaines d’orientation dans le but de remodeler les colonnes d’orientation où chaque stimulus est représenté de façon égale. Ceci est d’autant plus confirmé dans le second chapitre où dans ce cas, les cartes de connectivité fonctionnelle sont investiguées. En accord avec les résultats énumérés précédemment, les cartes de connectivité montrent également une restructuration massive mais de façon intéressante, les neurones utilisent une stratégie de sommation afin de stabiliser leurs poids de connectivité totaux. Ces dynamiques de connectivité sont examinées dans le troisième chapitre en relation avec les propriétés électrophysiologiques des neurones. En effet, deux modes de décharge neuronale permettent la distinction entre deux classes neuronales. Leurs dynamiques de corrélations distinctes suggèrent que ces deux classes jouent des rôles clés différents dans l’encodage et l’intégration des stimuli visuels au sein d’une population neuronale. Enfin, dans le dernier chapitre, l’adaptation visuelle est combinée avec l’administration de certaines substances, notamment la sérotonine (neurotransmetteur) et la fluoxétine (inhibiteur sélectif de recapture de la sérotonine). Ces deux substances produisent un effet similaire en facilitant l’acquisition des stimuli imposés par adaptation. Lorsqu’un stimulus non optimal est présenté en présence de l’une des deux substances, nous observons une augmentation du taux de décharge des neurones en présentant ce stimulus. Nous présentons un modèle neuronal basé sur cette recherche afin d’expliquer les fluctuations du taux de décharge neuronale en présence ou en absence des drogues. Cette thèse présente de nouvelles perspectives quant à la compréhension de l’adaptation des neurones du cortex visuel primaire adulte dans le but de changer leur sélectivité dans un environnement d’apprentissage. Nous montrons qu’il y a un parfait équilibre entre leurs habiletés plastiques et leur dynamique d’homéostasie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire explore la relation qui lie démocratie et légitimité politique, dans une perspective épistémique. La démocratie, dans son acception la plus générale, confère à chacun la possibilité de faire valoir les intérêts qu'il estime être les siens et ceux de sa communauté, en particulier à l’occasion d’un scrutin. Cette procédure décisionnelle qu’est le vote consacre ainsi en quelque sorte la liberté et l’égalité dont profitent chacun des citoyens, et confère une certaine légitimité au processus décisionnel. Cela dit, si le vote n’est pas encadré par des considérations épistémiques, rien ne garantit que le résultat politique qui en découlera sera souhaitable tant pour les individus que pour la collectivité: il est tout à fait permis d’imaginer que des politiques discriminatoires, économiquement néfastes ou simplement inefficaces voient ainsi le jour, et prennent effet au détriment de tous. En réponse à ce problème, différentes théories démocratiques ont vu le jour et se sont succédé, afin de tenter de lier davantage le processus démocratique à l’atteinte d’objectifs politiques bénéfiques pour la collectivité. Au nombre d’entre elles, la démocratie délibérative a proposé de substituer la seule confrontation d’intérêts de la démocratie agrégative par une recherche collective du bien commun, canalisée autour de procédures délibératives appelées à légitimer sur des bases plus solides l’exercice démocratique. À sa suite, la démocratie épistémique s’est inspirée des instances délibératives en mettant davantage l’accent sur la qualité des résultats obtenus que sur les procédures elles-mêmes. Au final, un même dilemme hante chaque fois les différentes théories : est-il préférable de construire les instances décisionnelles en se concentrant prioritairement sur les critères procéduraux eux-mêmes, au risque de voir de mauvaises décisions filtrer malgré tout au travers du processus sans pouvoir rien y faire, ou devons-nous avoir d’entrée de jeu une conception plus substantielle de ce qui constitue une bonne décision, au risque cette fois de sacrifier la liberté de choix qui est supposé caractériser un régime démocratique? La thèse que nous défendrons dans ce mémoire est que le concept d’égalité politique peut servir à dénouer ce dilemme, en prenant aussi bien la forme d’un critère procédural que celle d’un objectif politique préétabli. L’égalité politique devient en ce sens une source normative forte de légitimité politique. En nous appuyant sur le procéduralisme épistémique de David Estlund, nous espérons avoir démontré au terme de ce mémoire que l’atteinte d’une égalité politique substantielle par le moyen de procédures égalitaires n’est pas une tautologie hermétique, mais plutôt un mécanisme réflexif améliorant tantôt la robustesse des procédures décisionnelles, tantôt l’atteinte d’une égalité tangible dans les rapports entre citoyens.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A l’heure actuelle, les biocarburants renouvelables et qui ne nuit pas à l'environnement sont à l'étude intensive en raison de l'augmentation des problèmes de santé et de la diminution des combustibles fossiles. H2 est l'un des candidats les plus prometteurs en raison de ses caractéristiques uniques, telles que la densité d'énergie élevée et la génération faible ou inexistante de polluants. Une façon attrayante pour produire la H2 est par les bactéries photosynthétiques qui peuvent capter l'énergie lumineuse pour actionner la production H2 avec leur système de nitrogénase. L'objectif principal de cette étude était d'améliorer le rendement de H2 des bactéries photosynthétiques pourpres non sulfureuses utilisant une combinaison de génie métabolique et le plan des expériences. Une hypothèse est que le rendement en H2 pourrait être améliorée par la redirection de flux de cycle du Calvin-Benson-Bassham envers du système de nitrogénase qui catalyse la réduction des protons en H2. Ainsi, un PRK, phosphoribulose kinase, mutant « knock-out » de Rhodobacter capsulatus JP91 a été créé. L’analyse de la croissance sur des différentes sources de carbone a montré que ce mutant ne peut croître qu’avec l’acétate, sans toutefois produire d' H2. Un mutant spontané, YL1, a été récupéré qui a retenu l'cbbP (codant pour PRK) mutation d'origine, mais qui avait acquis la capacité de se développer sur le glucose et produire H2. Une étude de la production H2 sous différents niveaux d'éclairage a montré que le rendement d’YL1 était de 20-40% supérieure à la souche type sauvage JP91. Cependant, il n'y avait pas d'amélioration notable du taux de production de H2. Une étude cinétique a montré que la croissance et la production d'hydrogène sont fortement liées avec des électrons à partir du glucose principalement dirigés vers la production de H2 et la formation de la biomasse. Sous des intensités lumineuses faibles à intermédiaires, la production d'acides organiques est importante, ce qui suggère une nouvelle amélioration additionnel du rendement H2 pourrait être possible grâce à l'optimisation des processus. Dans une série d'expériences associées, un autre mutant spontané, YL2, qui a un phénotype similaire à YL1, a été testé pour la croissance dans un milieu contenant de l'ammonium. Les résultats ont montré que YL2 ne peut croître que avec de l'acétate comme source de carbone, encore une fois, sans produire de H2. Une incubation prolongée dans les milieux qui ne supportent pas la croissance de YL2 a permis l'isolement de deux mutants spontanés secondaires intéressants, YL3 et YL4. L'analyse par empreint du pied Western a montré que les deux souches ont, dans une gamme de concentrations d'ammonium, l'expression constitutive de la nitrogénase. Les génomes d’YL2, YL3 et YL4 ont été séquencés afin de trouver les mutations responsables de ce phénomène. Fait intéressant, les mutations de nifA1 et nifA2 ont été trouvés dans les deux YL3 et YL4. Il est probable qu'un changement conformationnel de NifA modifie l'interaction protéine-protéine entre NifA et PII protéines (telles que GlnB ou GlnK), lui permettant d'échapper à la régulation par l'ammonium, et donc d'être capable d'activer la transcription de la nitrogénase en présence d'ammonium. On ignore comment le nitrogénase synthétisé est capable de maintenir son activité parce qu’en théorie, il devrait également être soumis à une régulation post-traductionnelle par ammonium. Une autre preuve pourrait être obtenue par l'étude du transcriptome d’YL3 et YL4. Une première étude sur la production d’ H2 par YL3 et YL4 ont montré qu'ils sont capables d’une beaucoup plus grande production d'hydrogène que JP91 en milieu d'ammonium, qui ouvre la porte pour les études futures avec ces souches en utilisant des déchets contenant de l'ammonium en tant que substrats. Enfin, le reformage biologique de l'éthanol à H2 avec la bactérie photosynthétique, Rhodopseudomonas palustris CGA009 a été examiné. La production d'éthanol avec fermentation utilisant des ressources renouvelables microbiennes a été traitée comme une technique mature. Cependant, la plupart des études du reformage de l'éthanol à H2 se sont concentrés sur le reformage chimique à la vapeur, ce qui nécessite généralement une haute charge énergetique et résultats dans les émissions de gaz toxiques. Ainsi le reformage biologique de l'éthanol à H2 avec des bactéries photosynthétiques, qui peuvent capturer la lumière pour répondre aux besoins énergétiques de cette réaction, semble d’être plus prometteuse. Une étude précédente a démontré la production d'hydrogène à partir d'éthanol, toutefois, le rendement ou la durée de cette réaction n'a pas été examiné. Une analyse RSM (méthode de surface de réponse) a été réalisée dans laquelle les concentrations de trois facteurs principaux, l'intensité lumineuse, de l'éthanol et du glutamate ont été variés. Nos résultats ont montré que près de 2 moles de H2 peuvent être obtenus à partir d'une mole d'éthanol, 33% de ce qui est théoriquement possible.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La voie de signalisation des phosphoinositides joue un rôle clé dans la régulation du tonus vasculaire. Plusieurs études rapportent une production endogène de l’angiotensin II (Ang II) et de l’endothéline-1 (ET-1) par les cellules musculaires lisses vasculaires (CMLVs) de rats spontanément hypertendus (spontaneously hypertensive rats : SHR). De plus, l’Ang II exogène induit son effet prohypertrophique sur les CMLVs selon un mécanisme dépendant de la protéine Gqα et de la PKCẟ. Cependant, le rôle de l’axe Gqα/PLCβ/PKCẟ dans l’hypertrophie des CMLVs provenant d’un modèle animal de l’hypertension artérielle n’est pas encore étudié. L’objectif principal de cette thèse est d’examiner le rôle de l’axe Gqα/PLCβ1 dans les mécanismes moléculaires de l’hypertrophie des CMLVs provenant d’un modèle animal d’hypertension artérielle essentielle (spontaneously hypertensive rats : SHR). Nos premiers résultats indiquent que contrairement aux CMLVs de SHR âgés de 12 semaines (absence d’hypertrophie cardiaque), les CMLVs de SHR âgés de 16 semaines (présence d’hypertrophie cardiaque) présentent une surexpression protéique endogène de Gqα et de PLCβ1 par rapport aux CMLVs de rats WKY appariés pour l’âge. L’inhibition du taux d’expression protéique de Gqα et de PLCβ1 par des siRNAs spécifiques diminue significativement le taux de synthèse protéique élevé dans les CMLVs de SHR. De plus, la surexpression endogène des Gqα et PLCβ1, l’hyperphosphorylation de la molécule ERK1/2 et le taux de synthèse protéique élevé dans les CMLVs de SHR de 16 semaines ont été atténués significativement par des antagonistes des récepteurs AT1 (losartan) et ETA (BQ123), mais pas par l’antagoniste du récepteur ETB (BQ788). L’inhibition pharmacologique des MAPKs par PD98059 diminue significativement la surexpression endogène de Gqα/PLCβ1 et le taux de synthèse protéique élevé dans les CMLVs de SHR. D’un côté, l’inhibition du stress oxydatif (par DPI, inhibiteur de la NAD(P)H oxidase, et NAC , molécule anti-oxydante), de la molécule c-Src (PP2) et des récepteurs de facteurs de croissance (AG1024 (inhibiteur de l’IGF1-R), AG1478 (inhibiteur de l’EGFR) et AG1295 (inhibiteur du PDGFR)) a permis d’atténuer significativement la surexpression endogène élevée de Gqα/PLCβ1 et l’hypertrophie des CMLVs de SHR. D’un autre côté, DPI, NAC et PP2 atténuent significativement l’hyperphosphorylation de la molécule c-Src, des RTKs (récepteurs à activité tyrosine kinase) et de la molécule ERK1/2. Dans une autre étude, nous avons aussi démontré que la PKCẟ montre une hyperphosphorylation en Tyr311 dans les CMLVs de SHR comparées aux CMLVs de WKY. La rottlerin, utilisée comme inhibiteur spécifique de la PKCẟ, inhibe significativement cette hyperphosphorylation en Tyr311 dépendamment de la concentration. L’inhibition de l’activité de la PKCẟ par la rottlerin a été aussi associée à une atténuation significative de la surexpression protéique endogène de Gqα/PLCβ1 et l’hypertrophie des CMLVs de SHR. De plus, l’inhibition pharmacologique de l’activité de la PKCẟ, en amont du stress oxydatif, a permis d’inhiber significativement l’activité de la NADPH, le taux de production élevée de l’ion superoxyde ainsi que l’hyperphosphorylation de la molécule ERK1/2, de la molécule c-Src et des RTKs. À notre surprise, nous avons aussi remarqué une surexpression protéique de l’EGFR et de l’IGF-1R dans les CMLVs de SHR à l’âge de 16 semaines. L’inhibition pharmacologique de l’activité de la PKCẟ, de la molécule c-Src et du stress oxydatif a permis d’inhiber significativement la surexpression protéique endogène de ces RTKs. De plus, l’inhibition de l’expression protéique de l’EGFR et de la molécule c-Src par des siRNA spécifiques atténue significativement le taux d’expression protéique élevé de Gqα et de PLCβ1 ainsi que le taux de synthèse protéique élevé dans les CMLVs de SHR. Des siRNAs spécifiques à la PKCẟ ont permis d’atténuer significativement le taux de synthèse protéique élevé dans les CMLVs de SHR et confirment le rôle important de la PKCẟ dans les mécanismes moléculaires de l’hypertrophie des CMLVs selon une voie dépendante du stress oxydatif. En conclusion, ces résultats suggèrent un rôle important de l’activation endogène de l’axe Gqα-PLCβ-PKCẟ dans le processus d’hypertrophie vasculaire selon un mécanisme impliquant une activation endogène des récepteurs AT1/ETa, de la molécule c-Src, du stress oxidatif, des RTKs et des MAPKs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse se compose en deux parties: Première Partie: La conception et la synthèse d’analogues pyrrolidiniques, utilisés comme agents anticancéreux, dérivés du FTY720. FTY720 est actuellement commercialisé comme médicament (GilenyaTM) pour le traitement de la sclérose en plaques rémittente-récurrente. Il agit comme immunosuppresseur en raison de son effet sur les récepteurs de la sphingosine-1-phosphate. A fortes doses, FTY720 présente un effet antinéoplasique. Cependant, à de telles doses, un des effets secondaires observé est la bradycardie dû à l’activation des récepteurs S1P1 et S1P3. Ceci limite son potentiel d’utilisation lors de chimiothérapie. Nos précédentes études ont montré que des analogues pyrrolidiniques dérivés du FTY720 présentaient une activité anticancéreuse mais aucune sur les récepteurs S1P1 et S1P3. Nous avons soumis l’idée qu’une étude relation structure-activité (SARs) pourrait nous conduire à la découverte de nouveaux agents anti tumoraux. Ainsi, deux séries de composés pyrrolidiniques (O-arylmethyl substitué et C-arylmethyl substitué) ont pu être envisagés et synthétisés (Chapitre 1). Ces analogues ont montré d’excellentes activités cytotoxiques contre diverses cellules cancéreuses humaines (prostate, colon, sein, pancréas et leucémie), plus particulièrement les analogues actifs qui ne peuvent pas être phosphorylés par SphK, présentent un plus grand potentiel pour le traitement du cancer sans effet secondaire comme la bradycardie. Les études mécanistiques suggèrent que ces analogues de déclencheurs de régulation négative sur les transporteurs de nutriments induisent une crise bioénergétique en affamant les cellules cancéreuses. Afin d’approfondir nos connaissances sur les récepteurs cibles, nous avons conçu et synthétisé des sondes diazirine basées sur le marquage d’affinité aux photons (méthode PAL: Photo-Affinity Labeling) (Chapitre 2). En s’appuyant sur la méthode PAL, il est possible de récolter des informations sur les récepteurs cibles à travers l’analyse LC/MS/MS de la protéine. Ces tests sont en cours et les résultats sont prometteurs. Deuxième partie: Coordination métallique et catalyse di fonctionnelle de dérivés β-hydroxy cétones tertiaires. Les réactions de Barbier et de Grignard sont des méthodes classiques pour former des liaisons carbone-carbone, et généralement utilisées pour la préparation d’alcools secondaires et tertiaires. En vue d’améliorer la réaction de Grignard avec le 1-iodobutane dans les conditions « one-pot » de Barbier, nous avons obtenu comme produit majoritaire la β-hydroxy cétone provenant de l’auto aldolisation de la 5-hexen-2-one, plutôt que le produit attendu d’addition de l’alcool (Chapitre 3). La formation inattendue de la β-hydroxy cétone a également été observée en utilisant d’autres dérivés méthyl cétone. Étonnement dans la réaction intramoléculaire d’une tricétone, connue pour former la cétone Hajos-Parrish, le produit majoritaire est rarement la β-hydroxy cétone présentant la fonction alcool en position axiale. Intrigué par ces résultats et après l’étude systématique des conditions de réaction, nous avons développé deux nouvelles méthodes à travers la synthèse sélective et catalytique de β-hydroxy cétones spécifiques par cyclisation intramoléculaire avec des rendements élevés (Chapitre 4). La réaction peut être catalysée soit par une base adaptée et du bromure de lithium comme additif en passant par un état de transition coordonné au lithium, ou bien soit à l’aide d’un catalyseur TBD di fonctionnel, via un état de transition médiée par une coordination bidenté au TBD. Les mécanismes proposés ont été corroborés par calcul DFT. Ces réactions catalytiques ont également été appliquées à d’autres substrats comme les tricétones et les dicétones. Bien que les efforts préliminaires afin d’obtenir une enantioselectivité se sont révélés sans succès, la synthèse et la recherche de nouveaux catalyseurs chiraux sont en cours.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse est une collection de trois articles en macroéconomie et finances publiques. Elle développe des modèles d'Equilibre Général Dynamique et Stochastique pour analyser les implications macroéconomiques des politiques d'imposition des entreprises en présence de marchés financiers imparfaits. Le premier chapitre analyse les mécanismes de transmission à l'économie, des effets d'un ré-échelonnement de l'impôt sur le profit des entreprises. Dans une économie constituée d'un gouvernement, d'une firme représentative et d'un ménage représentatif, j'élabore un théorème de l'équivalence ricardienne avec l'impôt sur le profit des entreprises. Plus particulièrement, j'établis que si les marchés financiers sont parfaits, un ré-échelonnement de l'impôt sur le profit des entreprises qui ne change pas la valeur présente de l'impôt total auquel l'entreprise est assujettie sur toute sa durée de vie n'a aucun effet réel sur l'économie si l'état utilise un impôt forfaitaire. Ensuite, en présence de marchés financiers imparfaits, je montre qu'une une baisse temporaire de l'impôt forfaitaire sur le profit des entreprises stimule l'investissement parce qu'il réduit temporairement le coût marginal de l'investissement. Enfin, mes résultats indiquent que si l'impôt est proportionnel au profit des entreprises, l'anticipation de taxes élevées dans le futur réduit le rendement espéré de l'investissement et atténue la stimulation de l'investissement engendrée par la réduction d'impôt. Le deuxième chapitre est écrit en collaboration avec Rui Castro. Dans cet article, nous avons quantifié les effets sur les décisions individuelles d'investis-sement et de production des entreprises ainsi que sur les agrégats macroéconomiques, d'une baisse temporaire de l'impôt sur le profit des entreprises en présence de marchés financiers imparfaits. Dans un modèle où les entreprises sont sujettes à des chocs de productivité idiosyncratiques, nous avons d'abord établi que le rationnement de crédit affecte plus les petites (jeunes) entreprises que les grandes entreprises. Pour des entreprises de même taille, les entreprises les plus productives sont celles qui souffrent le plus du manque de liquidité résultant des imperfections du marché financier. Ensuite, nous montré que pour une baisse de 1 dollar du revenu de l'impôt, l'investissement et la production augmentent respectivement de 26 et 3,5 centimes. L'effet cumulatif indique une augmentation de l'investissement et de la production agrégés respectivement de 4,6 et 7,2 centimes. Au niveau individuel, nos résultats indiquent que la politique stimule l'investissement des petites entreprises, initialement en manque de liquidité, alors qu'elle réduit l'investissement des grandes entreprises, initialement non contraintes. Le troisième chapitre est consacré à l'analyse des effets de la réforme de l'imposition des revenus d'entreprise proposée par le Trésor américain en 1992. La proposition de réforme recommande l'élimination des impôts sur les dividendes et les gains en capital et l'imposition d'une seule taxe sur le revenu des entreprises. Pour ce faire, j'ai eu recours à un modèle dynamique stochastique d'équilibre général avec marchés financiers imparfaits dans lequel les entreprises sont sujettes à des chocs idiosyncratiques de productivité. Les résultats indiquent que l'abolition des impôts sur les dividendes et les gains en capital réduisent les distorsions dans les choix d'investissement des entreprises, stimule l'investissement et entraîne une meilleure allocation du capital. Mais pour être financièrement soutenable, la réforme nécessite un relèvement du taux de l'impôt sur le profit des entreprises de 34\% à 42\%. Cette hausse du taux d'imposition décourage l'accumulation du capital. En somme, la réforme engendre une baisse de l'accumulation du capital et de la production respectivement de 8\% et 1\%. Néanmoins, elle améliore l'allocation du capital de 20\%, engendrant des gains de productivité de 1.41\% et une modeste augmentation du bien être des consommateurs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans ce texte, nous soumettons à examen la conception de l'autisme avancée par Laurent Mottron dans son ouvrage L'autisme : une autre intelligence (Mottron, 2004). Le texte comprend quatre parties. Dans la première partie, nous présentons le cadre paradigmatique de l'auteur en matière de troubles envahissants et l'emphase mise sur une catégorie qu'il tient pour majoritaire bien que négligée dans la littérature scientifique et dans les réseaux de services : les troubles envahissants du développement sans déficienceintellectuelle (TEDSDI). Il assimile ce groupe à un nouvel autisme dominant. Dans la deuxième partie, nous montronsque souscrire à l'idée de l'autisme comme une autre forme d'intelligence ne permet pas une conceptualisation adéquate des capacités ni des déficits des personnes concernées. La troisième partie, aborde le problème du traitement de l'autisme. À l'encontre des propos de Mottron, nous défendons la pertinence de traiter l'autisme, notamment par I'intervention comportementale intensive (lCI) et l'analyse appliquée du comportement et jugeons sa position anachronique. D'autre part, la prépondérance et quasiexclusivité qu'il accorde à TEACCH comme réponse sociopsycho-pédagogique apparaît injustifiée. La quatrième partie constitue une critique de l'analyse des émotions chez les personnes autistes que fait l'auteur à partir d'écrits autobiographiques, un retour vers l'introspection comme méthode de recherche. En conclusion, nous déplorons le ton général du propos, trop dialectique, notamment dans sa dichotomisation entre autistes et non autistes. Le militantisme de Mottron pour les « autistes » sans déficience intellectuelle déçoit, de même que le débordement idéologique de sa théorie en faveur de la reconnaissance d'une culture autistique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Contexte La connectomique, ou la cartographie des connexions neuronales, est un champ de recherche des neurosciences évoluant rapidement, promettant des avancées majeures en ce qui concerne la compréhension du fonctionnement cérébral. La formation de circuits neuronaux en réponse à des stimuli environnementaux est une propriété émergente du cerveau. Cependant, la connaissance que nous avons de la nature précise de ces réseaux est encore limitée. Au niveau du cortex visuel, qui est l’aire cérébrale la plus étudiée, la manière dont les informations se transmettent de neurone en neurone est une question qui reste encore inexplorée. Cela nous invite à étudier l’émergence des microcircuits en réponse aux stimuli visuels. Autrement dit, comment l’interaction entre un stimulus et une assemblée cellulaire est-elle mise en place et modulée? Méthodes En réponse à la présentation de grilles sinusoïdales en mouvement, des ensembles neuronaux ont été enregistrés dans la couche II/III (aire 17) du cortex visuel primaire de chats anesthésiés, à l’aide de multi-électrodes en tungstène. Des corrélations croisées ont été effectuées entre l’activité de chacun des neurones enregistrés simultanément pour mettre en évidence les liens fonctionnels de quasi-synchronie (fenêtre de ± 5 ms sur les corrélogrammes croisés corrigés). Ces liens fonctionnels dévoilés indiquent des connexions synaptiques putatives entre les neurones. Par la suite, les histogrammes peri-stimulus (PSTH) des neurones ont été comparés afin de mettre en évidence la collaboration synergique temporelle dans les réseaux fonctionnels révélés. Enfin, des spectrogrammes dépendants du taux de décharges entre neurones ou stimulus-dépendants ont été calculés pour observer les oscillations gamma dans les microcircuits émergents. Un indice de corrélation (Rsc) a également été calculé pour les neurones connectés et non connectés. Résultats Les neurones liés fonctionnellement ont une activité accrue durant une période de 50 ms contrairement aux neurones fonctionnellement non connectés. Cela suggère que les connexions entre neurones mènent à une synergie de leur inter-excitabilité. En outre, l’analyse du spectrogramme dépendant du taux de décharge entre neurones révèle que les neurones connectés ont une plus forte activité gamma que les neurones non connectés durant une fenêtre d’opportunité de 50ms. L’activité gamma de basse-fréquence (20-40 Hz) a été associée aux neurones à décharge régulière (RS) et l’activité de haute fréquence (60-80 Hz) aux neurones à décharge rapide (FS). Aussi, les neurones fonctionnellement connectés ont systématiquement un Rsc plus élevé que les neurones non connectés. Finalement, l’analyse des corrélogrammes croisés révèle que dans une assemblée neuronale, le réseau fonctionnel change selon l’orientation de la grille. Nous démontrons ainsi que l’intensité des relations fonctionnelles dépend de l’orientation de la grille sinusoïdale. Cette relation nous a amené à proposer l’hypothèse suivante : outre la sélectivité des neurones aux caractères spécifiques du stimulus, il y a aussi une sélectivité du connectome. En bref, les réseaux fonctionnels «signature » sont activés dans une assemblée qui est strictement associée à l’orientation présentée et plus généralement aux propriétés des stimuli. Conclusion Cette étude souligne le fait que l’assemblée cellulaire, plutôt que le neurone, est l'unité fonctionnelle fondamentale du cerveau. Cela dilue l'importance du travail isolé de chaque neurone, c’est à dire le paradigme classique du taux de décharge qui a été traditionnellement utilisé pour étudier l'encodage des stimuli. Cette étude contribue aussi à faire avancer le débat sur les oscillations gamma, en ce qu'elles surviennent systématiquement entre neurones connectés dans les assemblées, en conséquence d’un ajout de cohérence. Bien que la taille des assemblées enregistrées soit relativement faible, cette étude suggère néanmoins une intrigante spécificité fonctionnelle entre neurones interagissant dans une assemblée en réponse à une stimulation visuelle. Cette étude peut être considérée comme une prémisse à la modélisation informatique à grande échelle de connectomes fonctionnels.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’utilisation de nanovecteurs pour la livraison contrôlée de principes actifs est un concept commun de nous jours. Les systèmes de livraison actuels présentent encore cependant des limites au niveau du taux de relargage des principes actifs ainsi que de la stabilité des transporteurs. Les systèmes composés à la fois de nanovecteurs (liposomes, microgels et nanogels) et d’hydrogels peuvent cependant permettre de résoudre ces problèmes. Dans cette étude, nous avons développé un système de livraison contrôlé se basant sur l’incorporation d’un nanovecteur dans une matrice hydrogel dans le but de combler les lacunes des systèmes se basant sur un vecteur uniquement. Une telle combinaison pourrait permettre un contrôle accru du relargage par stabilisation réciproque. Plus spécifiquement, nous avons développé un hydrogel structuré intégrant des liposomes, microgels et nanogels séparément chargés en principes actifs modèles potentiellement relargués de manière contrôlé. Ce contrôle a été obtenu par la modification de différents paramètres tels que la température ainsi que la composition et la concentration en nanovecteurs. Nous avons comparé la capacité de chargement et la cinétique de relargage de la sulforhodamine B et de la rhodamine 6G en utilisant des liposomes de DOPC et DPPC à différents ratios, des nanogels de chitosan/acide hyaluronique et des microgels de N-isopropylacrylamide (NIPAM) à différents ratios d’acide méthacrylique, incorporés dans un hydrogel modèle d’acrylamide. Les liposomes présentaient des capacités de chargement modérés avec un relargage prolongé sur plus de dix jours alors que les nanogels présentaient des capacités de chargement plus élevées mais une cinétique de relargage plus rapide avec un épuisement de la cargaison en deux jours. Comparativement, les microgels relarguaient complétement leur contenu en un jour. Malgré une cinétique de relargage plus rapide, les microgels ont démontré la possibilité de contrôler finement le chargement en principe actif. Ce contrôle peut être atteint par la modification des propriétés structurelles ou en changeant le milieu d’incubation, comme l’a montré la corrélation avec les isothermes de Langmuir. Chaque système développé a démontré un potentiel contrôle du taux de relargage, ce qui en fait des candidats pour des investigations futures.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’utilisation de méthodes d’investigation cérébrale avancées a permis de mettre en évidence la présence d’altérations à court et à long terme à la suite d’une commotion cérébrale. Plus spécifiquement, des altérations affectant l’intégrité de la matière blanche et le métabolisme cellulaire ont récemment été révélées par l’utilisation de l’imagerie du tenseur de diffusion (DTI) et la spectroscopie par résonance magnétique (SRM), respectivement. Ces atteintes cérébrales ont été observées chez des athlètes masculins quelques jours après la blessure à la tête et demeuraient détectables lorsque les athlètes étaient à nouveau évalués six mois post-commotion. En revanche, aucune étude n’a évalué les effets neurométaboliques et microstructuraux dans la phase aigüe et chronique d’une commotion cérébrale chez les athlètes féminines, malgré le fait qu’elles présentent une susceptibilité accrue de subir ce type de blessure, ainsi qu’un nombre plus élevé de symptômes post-commotionnels et un temps de réhabilitation plus long. Ainsi, les études composant le présent ouvrage visent globalement à établir le profil d’atteintes microstructurales et neurométaboliques chez des athlètes féminines par l’utilisation du DTI et de la SRM. La première étude visait à évaluer les changements neurométaboliques au sein du corps calleux chez des joueurs et joueuses de hockey au cours d’une saison universitaire. Les athlètes ayant subi une commotion cérébrale pendant la saison ont été évalués 72 heures, 2 semaines et 2 mois après la blessure à la tête en plus des évaluations pré et post-saison. Les résultats démontrent une absence de différences entre les athlètes ayant subi une commotion cérébrale et les athlètes qui n’en ont pas subie. De plus, aucune différence entre les données pré et post-saison a été observée chez les athlètes masculins alors qu’une diminution du taux de N-acetyl aspartate (NAA) n’a été mise en évidence chez les athlètes féminines, suggérant ainsi un impact des coups d’intensité sous-clinique à la tête. La deuxième étude, qui utilisait le DTI et la SRM, a révélé des atteintes chez des athlètes féminines commotionnées asymptomatiques en moyenne 18 mois post-commotion. Plus spécifiquement, la SRM a révélé une diminution du taux de myo-inositol (mI) au sein de l’hippocampe et du cortex moteur primaire (M1) alors que le DTI a mis en évidence une augmentation de la diffusivité moyenne (DM) dans plusieurs faisceaux de matière blanche. De iii plus, une approche par région d’intérêt a mis en évidence une diminution de la fraction d’anisotropie (FA) dans la partie du corps calleux projetant vers l’aire motrice primaire. Le troisième article évaluait des athlètes ayant subi une commotion cérébrale dans les jours suivant la blessure à la tête (7-10 jours) ainsi que six mois post-commotion avec la SRM. Dans la phase aigüe, des altérations neuropsychologiques combinées à un nombre significativement plus élevé de symptômes post-commotionnels et dépressifs ont été trouvés chez les athlètes féminines commotionnées, qui se résorbaient en phase chronique. En revanche, aucune différence sur le plan neurométabolique n’a été mise en évidence entre les deux groupes dans la phase aigüe. Dans la phase chronique, les athlètes commotionnées démontraient des altérations neurométaboliques au sein du cortex préfrontal dorsolatéral (CPDL) et M1, marquées par une augmentation du taux de glutamate/glutamine (Glx). De plus, une diminution du taux de NAA entre les deux temps de mesure était présente chez les athlètes contrôles. Finalement, le quatrième article documentait les atteintes microstructurales au sein de la voie corticospinale et du corps calleux six mois suivant une commotion cérébrale. Les analyses n’ont démontré aucune différence au sein de la voie corticospinale alors que des différences ont été relevées par segmentation du corps calleux selon les projections des fibres calleuses. En effet, les athlètes commotionnées présentaient une diminution de la DM et de la diffusivité radiale (DR) au sein de la région projetant vers le cortex préfrontal, un volume moindre des fibres de matière blanche dans la région projetant vers l’aire prémotrice et l’aire motrice supplémentaire, ainsi qu’une diminution de la diffusivité axiale (DA) dans la région projetant vers l’aire pariétale et temporale. En somme, les études incluses dans le présent ouvrage ont permis d’approfondir les connaissances sur les effets métaboliques et microstructuraux des commotions cérébrales et démontrent des effets délétères persistants chez des athlètes féminines. Ces données vont de pair avec la littérature scientifique qui suggère que les commotions cérébrales n’entraînent pas seulement des symptômes temporaires.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objectifs: Examiner les tendances temporelles, les déterminants en lien avec le design des études et la qualité des taux de réponse rapportés dans des études cas-témoins sur le cancer publiées lors des 30 dernières années. Méthodes: Une revue des études cas-témoins sur le cancer a été menée. Les critères d'inclusion étaient la publication (i) dans l’un de 15 grands périodiques ciblés et (ii) lors de quatre périodes de publication (1984-1986, 1995, 2005 et 2013) couvrant trois décennies. 370 études ont été sélectionnées et examinées. La méthodologie en lien avec le recrutement des sujets et la collecte de données, les caractéristiques de la population, les taux de participation et les raisons de la non-participation ont été extraites de ces études. Des statistiques descriptives ont été utilisées pour résumer la qualité des taux de réponse rapportés (en fonction de la quantité d’information disponible), les tendances temporelles et les déterminants des taux de réponse; des modèles de régression linéaire ont été utilisés pour analyser les tendances temporelles et les déterminants des taux de participation. Résultats: Dans l'ensemble, les qualités des taux de réponse rapportés et des raisons de non-participation étaient très faible, particulièrement chez les témoins. La participation a diminué au cours des 30 dernières années, et cette baisse est plus marquée dans les études menées après 2000. Lorsque l'on compare les taux de réponse dans les études récentes a ceux des études menées au cours de 1971 à 1980, il y a une plus grande baisse chez les témoins sélectionnés en population générale ( -17,04%, IC 95%: -23,17%, -10,91%) que chez les cas (-5,99%, IC 95%: -11,50%, -0,48%). Les déterminants statistiquement significatifs du taux de réponse chez les cas étaient: le type de cancer examiné, la localisation géographique de la population de l'étude, et le mode de collecte des données. Le seul déterminant statistiquement significatif du taux de réponse chez les témoins hospitaliers était leur localisation géographique. Le seul déterminant statistiquement significatif du taux de participation chez les témoins sélectionnés en population générale était le type de répondant (sujet uniquement ou accompagné d’une tierce personne). Conclusion: Le taux de participation dans les études cas-témoins sur le cancer semble avoir diminué au cours des 30 dernières années et cette baisse serait plus marquée dans les études récentes. Afin d'évaluer le niveau réel de non-participation et ses déterminants, ainsi que l'impact de la non-participation sur la validité des études, il est nécessaire que les études publiées utilisent une approche normalisée pour calculer leurs taux de participation et qu’elles rapportent ceux-ci de façon transparente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Depuis les années 1990, les indicateurs de la santé sexuelle des jeunes de 18 à 25 ans démontrent que ce groupe d’âge est sexuellement vulnérable, ce qui est observable en raison de la hausse du taux d’infections transmises sexuellement, ainsi que des lacunes de connaissances en matière de santé sexuelle. Ce mémoire propose un regard nouveau sur la santé sexuelle des jeunes à partir d’un faisceau de perspectives sociologiques axées sur les déterminants sociaux de la santé pour mieux comprendre la vulnérabilité sexuelle chez les jeunes. Nous faisons appel à trois pistes analytiques en particulier : la perspective matérialiste, la perspective bio-psycho-sociale et la perspective des parcours de vie. Notre démarche de recherche s’inscrit dans une approche issue de la théorisation ancrée, employée au sein d’une clinique jeunesse de Montréal. Nos outils d’investigation consistent en entretiens semi-dirigés réalisés avec des intervenantes de la clinique et des jeunes patients âgés de 18 à 25 ans, ainsi qu’en observations non participantes dans divers lieux de la clinique. Les résultats de cette recherche font ressortir quatre déterminants sociaux : la question des connaissances en matière de santé sexuelle, les scripts sexuels genrés, la période de la jeunesse lors du parcours sexuel et les caractéristiques du quartier du centre-ville de Montréal. En tenant compte des perspectives croisées de ceux qui voient (les intervenantes) et de ceux qui vivent (les jeunes) la vulnérabilité sexuelle, nous pouvons mieux définir ces déterminants, leurs sources et leurs effets. Nous faisons également état de nos résultats au prisme des trois cadres analytiques des déterminants sociaux de la santé. Nous espérons que ces résultats inciteront la poursuite de recherches dans le domaine des déterminants sociaux de la vulnérabilité sexuelle et qu’ils seront utiles dans la formulation des recommandations pratiques pour les interventions en santé sexuelle auprès des jeunes.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Problématique : L'allergie au lait de vache (ALV) est reconnue comme une condition transitoire qui disparaît chez la majorité des enfants avant l’âge de 3-5 ans, mais des données récentes révèlent une persistance de l’ALV. Les enfants souffrant d’une ALV sont à risque d’apports insuffisants en calcium et en vitamine D, deux nutriments impliqués dans la santé osseuse. Une première étude transversale portant sur la santé osseuse d’enfants prépubères ALV a observé que la densité osseuse (DMO) lombaire était significativement inférieure à celle d’enfants sans allergie au lait de vache (SALV). Objectifs : Sur la base de ces résultats, nous désirons documenter l’évolution longitudinale de la santé osseuse, du statut en vitamine D, des apports en calcium et en vitamine D et de l’adhérence à la supplémentation des enfants ALV (n=36) et de comparer ces données aux enfants SALV (n=19). Résultats : Le gain annualisé de la DMO lombaire est similaire entre les enfants ALV et SALV. Bien qu’il n’y ait pas de différence significative entre les deux groupes, la DMO lombaire des enfants ALV demeure cependant inférieure à celle des témoins. Qui plus est, le score-Z de la DMO du corps entier tend à être inférieur chez les enfants-cas comparé aux témoins. Au suivi, la concentration de 25OHD et le taux d’insuffisance en vitamine D sont similaires entre les deux groupes tout comme les apports en calcium et en vitamine D. Davantage d’enfants ALV prennent un supplément de calcium au suivi comparativement au temps initial (42% vs. 49%, p<0,05), mais le taux d’adhérence à la supplémentation a diminué à 4 jours/semaine. Conclusion : Une évaluation plus précoce ainsi qu’une prise en charge de la santé osseuse des enfants ALV pourraient être indiquées afin de modifier l’évolution naturelle de leur santé osseuse. Les résultats justifient aussi le suivi étroit des apports en calcium et vitamine D par une nutritionniste et la nécessité d'intégrer la supplémentation dans le plan de traitement de ces enfants et d’assurer une surveillance de l’adhérence à la supplémentation.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Rapport présenté en vue de l’obtention du grade de M.Sc.A génie biomédical option génie clinique