960 resultados para coeur foetal


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les travaux effectués dans le cadre de cette thèse de doctorat avaient pour but de mettre au point des nouvelles formulations d’antifongiques sous forme de nanoparticules polymériques (NP) en vue d’améliorer l’efficacité et la spécificité des traitements antifongiques sur des souches sensibles ou résistantes de Candida spp, d’Aspergillus spp et des souches de Candida albicans formant du biofilm. Dans la première partie de ce travail, nous avons synthétisé et caractérisé un polymère à base de polyester-co-polyéther branché avec du poly(éthylène glycol) (PEG-g-PLA). En plus d’être original et innovant, ce co-polymère a l’avantage d’être non-toxique et de posséder des caractéristiques de libération prolongée. Trois antifongiques couramment utilisés en clinique et présentant une biodisponibilité non optimale ont été choisis, soient deux azolés, le voriconazole (VRZ) et l’itraconazole (ITZ) et un polyène, l’amphotéricine B (AMB). Ces principes actifs (PA), en plus des problèmes d’administration, présentent aussi d’importants problèmes de toxicité. Des NP polymériques encapsulant ces PA ont été préparées par une technique d’émulsion huile-dans-l’eau (H/E) suivie d’évaporation de solvant. Une fois fabriquées, les NP ont été caractérisées et des particules de d’environ 200 nm de diamètre ont été obtenues. Les NP ont été conçues pour avoir une structure coeur/couronne avec un coeur constitué de polymère hydrophobe (PLA) et une couronne hydrophile de PEG. Une faible efficacité de chargement (1,3% m/m) a été obtenue pour la formulation VRZ encapsulé dans des NP (NP/VRZ). Toutefois, la formulation AMB encapsulée dans des NP (NP/AMB) a montré des taux de chargement satisfaisants (25,3% m/m). En effet, le caractère hydrophobe du PLA a assuré une bonne affinité avec les PA hydrophobes, particulièrement l’AMB qui est le plus hydrophobe des agents sélectionnés. Les études de libération contrôlée ont montré un relargage des PA sur plusieurs jours. La formulation NP/AMB a été testée sur un impacteur en cascade, un modèle in vitro de poumon et a permis de démontrer le potentiel de cette formulation à être administrée efficacement par voie pulmonaire. En effet, les résultats sur l’impacteur en cascade ont montré que la majorité de la formulation s’est retrouvée à l’étage de collecte correspondant au niveau bronchique, endroit où se situent majoritairement les infections fongiques pulmonaires. Dans la deuxième partie de ces travaux, nous avons testé les nouvelles formulations d’antifongiques sur des souches planctoniques de Candida spp., d’Aspergillus spp. et des souches de Candida albicans formant du biofilm selon les procédures standardisées du National Committee for Clinical Laboratory Standards (NCCLS). Les souches choisies ont démontré des résistances aux azolés et aux polyènes. Les études d’efficacité in vitro ont permis de prouver hors de tout doute que les nouvelles formulations offrent une efficacité nettement améliorée comparée à l’agent antifongique libre. Pour mettre en lumière si l’amélioration de l’efficacité antifongique était due à une internalisation des NP, nous avons évalué le comportement des NP avec les cellules de champignons. Nous avons procédé à des études qualitatives de microscopie de fluorescence sur des NP marquées avec de la rhodamine (Rh). Tel qu’attendu, les NP ont montré une localisation intracellulaire. Pour exclure la possibilité d’une simple adhésion des NP à la surface des levures, nous avons aussi confirmé leur internalisation en microscopie confocale de fluorescence. Il est important de noter que peu d’études à ce jour ont mis l’accent sur l’élaboration de nouvelles formulations d’antifongiques à base de polymères non toxiques destinées aux traitements des mycoses, donnant ainsi une grande valeur et originalité aux travaux effectués dans cette thèse. Les résultats probants obtenus ouvrent la voie vers une nouvelle approche pour contourner les problèmes de résistances fongiques, un problème de plus en plus important dans le domaine de l’infectiologie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des sciences infirmières en vue de l'obtention du grade de Maître ès sciences (M.Sc.) en sciences infirmières option formation en soins infirmiers

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Manifestation du processus de rationalisation capitaliste contemporain, la gestion des ressources humaines s’est largement développée et diffusée comme paradigme d’organisation des relations sociales au sein de l’entreprise, mais aussi à l’extérieur de celle-ci. En m’appuyant sur l’étude Les employés de Siegfried Kracauer (2004 [1931]) ayant mis en lumière les effets de la rationalisation de l’entreprise moderne sur les traits de mentalités des employés dans les années 1920, je propose de me pencher sur les employés en gestion des ressources humaines aujourd’hui. Plus précisément, c’est la tension dont ils sont à la fois les porteurs et les objets qui constitue le coeur de ce mémoire. Cette tension lie la fonction particulière que ces employés sont appelés à jouer dans l’entreprise et leur propre condition comme employé. Ainsi, c’est par la constitution de rapports à la tension sous une forme idéaltypique— propre à l’approche wébérienne — que ce mémoire propose d’appréhender la condition des employés en gestion des ressources humaines. L’interprétation des rapports à la tension et à la pratique professionnelle de ces employés, à l’aune de quatre idéaltypes construits à cette fin (le sous-officier comptable, le sous-officier sportif, celle qui prend sur soi et le synthétique), permet de mettre en lumière des dilemmes qu’ils sont enclins à vivre, dilemmes inhérents à leur condition d’employés dans le monde rationalisé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec la mise en place dans les dernières années d'une grappe d'ordinateurs (CALYS) dédiés aux calculs de modèles stellaires pour notre groupe de recherche, il nous est désormais possible d'exploiter à leur plein potentiel les modèles d'atmosphères hors équilibre thermodynamique local (HETL) en y incluant des éléments métalliques. Ce type de modèles, plutôt exigeant en temps de calcul, est toutefois essentiel pour analyser correctement les spectres d'étoiles chaudes comme les sous-naines de type O (sdO). Les travaux effectués dans le cadre de cette thèse ont comme point commun l'utilisation de tels modèles d'atmosphères pour faire l'analyse spectroscopique d'étoiles sous-naines chaudes dans des contextes variés. Le coeur de cette thèse porte sur Bd+28 4211, une étoile standard de type sdO très chaude, dans laquelle le problème des raies de Balmer, qui empêche de reproduire ces dernières avec une unique, et réaliste, combinaison de paramètres atmosphériques, est bien présent. Dans un premier temps nous présentons une analyse approfondie de son spectre ultraviolet (UV). Cela nous permet de déterminer les abondances de métaux dans l'atmosphère de l'étoile et de contraindre sa température effective et sa gravité de surface. Par la suite, ces résultats servent de point de départ à l'analyse du spectre optique de l'étoile, dans lequel le problème des raies de Balmer se fait sentir. Cette analyse nous permet de conclure que l'inclusion des abondances métalliques propres à l'étoile dans les modèles d'atmosphères HETL n'est pas suffisant pour surmonter le problème des raies de Balmer. Toutefois, en y incluant des abondances dix fois solaires, nous arrivons à reproduire correctement les raies de Balmer et d'hélium présentes dans les spectres visibles lors d'un ajustement de paramètres. De plus, les paramètres résultants concordent avec ceux indiqués par le spectre UV. Nous concluons que des sources d'opacité encore inconnues ou mal modélisées sont à la source de ce problème endémique aux étoiles chaudes. Par la suite nous faisons une étude spectroscopique de Feige 48, une étoile de type sdB pulsante particulièrement importante. Nous arrivons à reproduire très bien le spectre visible de cette étoile, incluant les nombreuses raies métalliques qui s'y trouvent. Les paramètres fondamentaux obtenus pour Feige 48 corroborent ceux déjà présents dans la littérature, qui ont été obtenus avec des types de modèles d'atmosphères moins sophistiqués, ce qui implique que les effets HETL couplés à la présence de métaux ne sont pas importants dans l'atmosphère de cette étoile particulière. Nous pouvons donc affirmer que les paramètres de cette étoile sont fiables et peuvent servir de base à une future étude astérosismologique quantitative. Finalement, 38 étoiles sous-naines chaudes appartenant à l'amas globulaire omega Centauri ont été analysées afin de déterminer, outre leur température et gravité de surface, leurs abondances d'hélium et de carbone. Nous montrons qu'il existe une corrélation entre les abondances photosphériques de ces deux éléments. Nous trouvons aussi des différences entre les étoiles riches en hélium de l'amas du celles du champ. Dans leur ensemble, nos résultats remettent en question notre compréhension du mécanisme de formation des sous-naines riches en hélium.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire de maîtrise vise à comprendre comment la question de l'accessibilité aux soins de santé mentale se pose dans l'univers des jeunes adultes en difficulté. Plus précisément, le but de l'étude est de documenter les barrières à l'accès aux soins de santé mentale, d'analyser les logiques sous-jacentes à ces barrières et finalement d'évaluer l'impact de l'expérience d'être jeune adulte en difficulté sur celles-ci. L'approche de l'anthropologie médicale et le concept de souffrance sociale, sensibles aux facteurs culturels, socio-économiques et politiques, servent de contexte d'analyse aux 12 entretiens semi-dirigés réalisés auprès de jeunes adultes fréquentant des Auberges du cœur à Montréal. L'identification de barrières à l'accès a, dans un premier temps, permis d'observer que les obstacles dans l'expérience de recours aux soins de santé mentale peuvent provenir autant des institutions que des jeunes adultes eux-mêmes. Dans un deuxième temps, l'analyse qualitative a servi à dégager trois principales logiques qui sous-tendent ces barrières : le parti pris positiviste, la logique marchande, et la tendance à la psychologisation. Les données récoltées tendent à montrer que des influences politiques et économiques sont déterminantes dans le maintien de différents types de barrières à l'accès et qu'une pleine reconnaissance de ces enjeux profonds est essentielle pour agir positivement sur l'accessibilité aux soins de santé mentale de la population en général, et plus particulièrement des jeunes adultes en difficulté dont les besoins se font criants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’imagerie médicale a longtemps été limitée à cause des performances médiocres des fluorophores organiques. Récemment la recherche sur les nanocristaux semi-conducteurs a grandement contribué à l’élargissement de la gamme d’applications de la luminescence dans les domaines de l’imagerie et du diagnostic. Les points quantiques (QDs) sont des nanocristaux de taille similaire aux protéines (2-10 nm) dont la longueur d’onde d’émission dépend de leur taille et de leur composition. Le fait que leur surface peut être fonctionnalisée facilement avec des biomolécules rend leur application particulièrement attrayante dans le milieu biologique. Des QDs de structure « coeur-coquille » ont été synthétisés selon nos besoins en longueur d’onde d’émission. Dans un premier article nous avons modifié la surface des QDs avec des petites molécules bi-fonctionnelles portant des groupes amines, carboxyles ou zwitterions. L’effet de la charge a été analysé sur le mode d’entrée des QDs dans deux types cellulaires. À l’aide d’inhibiteurs pharmacologiques spécifiques à certains modes d’internalisation, nous avons déterminé le mode d’internalisation prédominant. L’endocytose par les radeaux lipidiques représente le mode d’entrée le plus employé pour ces QDs de tailles similaires. D’autres modes participent également, mais à des degrés moindres. Des disparités dans les modes d’entrée ont été observées selon le ligand de surface. Nous avons ensuite analysé l’effet de l’agglomération de différents QDs sur leur internalisation dans des cellules microgliales. La caractérisation des agglomérats dans le milieu de culture cellulaire a été faite par la technique de fractionnement par couplage flux-force (AF4) associé à un détecteur de diffusion de la lumière. En fonction du ligand de surface et de la présence ou non de protéines du sérum, chacun des types de QDs se sont agglomérés de façon différente. À l'aide d’inhibiteur des modes d’internalisation, nous avons corrélé les données de tailles d’agglomérats avec leur mode d’entrée cellulaire. Les cellules microgliales sont les cellules immunitaires du système nerveux central (CNS). Elles répondent aux blessures ou à la présence d’inflammagènes en relâchant des cytokines pro-inflammatoires. Une inflammation non contrôlée du CNS peut conduire à la neurodégénérescence neuronale et est souvent observée dans les cas de maladies chroniques. Nous nous sommes intéressés au développement d’un nanosenseur pour mesurer des biomarqueurs du début de l’inflammation. Les méthodes classiques pour étudier l’inflammation consistent à mesurer le niveau de protéines ou molécules relâchées par les cellules stressées (par exemple monoxyde d’azote, IL-1β). Bien que précises, ces méthodes ne mesurent qu’indirectement l’activité de la caspase-1, responsable de la libération du l’IL-1β. De plus ces méthode ne peuvent pas être utilisées avec des cellules vivantes. Nous avons construit un nanosenseur basé sur le FRET entre un QD et un fluorophore organique reliés entre eux par un peptide qui est spécifiquement clivé par la caspase-1. Pour induire l’inflammation, nous avons utilisé des molécules de lipopolysaccharides (LPS). La molécule de LPS est amphiphile. Dans l’eau le LPS forme des nanoparticules, avec des régions hydrophobes à l’intérieure. Nous avons incorporé des QDs dans ces régions ce qui nous a permis de suivre le cheminement du LPS dans les cellules microgliales. Les LPS-QDs sont internalisés spécifiquement par les récepteurs TLR-4 à la surface des microglies. Le nanosenseur s’est montré fonctionnel dans la détermination de l’activité de la caspase-1 dans cellules microgliales activées par le LPS. Éventuellement, le senseur permettrait d’observer en temps réel l’effet de thérapies ciblant l’inflammation, sur l’activité de la caspase-1.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire s’inscrit dans une approche émergente en urbanisme qui cherche à mettre en dialogue les théories et les pratiques de l’urbanisme et la pensée du philosophe français Gilles Deleuze. Depuis quelques années, la pensée de Gilles Deleuze (surtout ses travaux coécrits avec Félix Guattari 1972; 1980) commence à s’immiscer dans les débats contemporains en urbanisme. Les travaux de Kim Dovey (2010; 2012), Jean Hillier (2005; 2007; 2011) et Colin McFarlane (2011a; 2011b) constituent les exemples les plus achevés d’une réflexion deleuzienne sur l’urbanisme. À degrés divers, ces auteurs mobilisent surtout cette pensée pour sa capacité à appréhender la complexité, le changement et l’instabilité (assemblage thinking). Pourtant, cette mobilisation de la pensée deleuzienne en urbanisme laisse largement intouchée le projet éthique et politique au coeur de la pensée de Gilles Deleuze. Le projet qui anime ce mémoire est d’explorer ce qu’une éthique deleuzienne peut apporter aux théories et pratiques de l’urbanisme. Cette éthique implique notamment un questionnement radical du cadre étatique dans lequel l’urbanisme s’insère, ce que ce mémoire appelle le «devenir- imperceptible » de l’urbanisme. Un travail empirique, constitué de 14 récits de ville prenant pour objet le territoire du pont Jacques-Cartier à Montréal, accompagne et poursuit cette réflexion théorique. Ces différents récits révèlent le pont Jacques-Cartier comme un lieu producteur de territoires, de mémoires et d’affects. Cette démarche terrain allie certains éléments de l’assemblage thinking et une éthique professionnelle deleuzienne. Elle explore la possibilité d’un rapport réellement sensible entre le territoire, l’urbaniste et les personnes concernées par une entreprise urbanistique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le diabète est une maladie chronique dont la principale caractéristique est un niveau plasmatique élevé de glucose, qui est causé soit par un défaut dans la production d’insuline, l’action de l’insuline, ou les deux à la fois. Plusieurs études ont démontré que l’hyperglycémie chronique peut mener à la dysfonction et même la défaillance de plusieurs organes, dont le coeur, le système vasculaire, les yeux et les reins, se traduisant par des infarctus du myocarde, des accidents cérébro-vasculaires et des complications rétinales et rénales, respectivement. La néphropathie diabétique (DN) est la principale cause de déficience rénale et affecte près de 25-40% des patients diabétiques. La DN est invariablement associée à un risque élevé d’accident cérébrovasculaire et de dysfonction cardivasculaire. L’angiotensinogène (Agt) est l’unique précurseur de tous les types d’angiotensines. En plus du système rénine-angiotensine (RAS) sytémique, le rein possède son propre système intrarénal et exprime tous les composants du RAS. L’Agt est fortement exprimé dans les cellules du tubule proximal rénal (RPTC) et y est converti en angiotensine II (AngII), le peptide biologiquement actif du RAS. Les patients diabétiques présentent de hauts niveaux d’AngII et une augmentation de l’expression des gènes du RAS, suggérant que l’activation du RAS intrarénal joue un rôle important dans la progression de la DN. Les mécanismes qui contrôlent la régulation du niveau rénal d’Agt par l’hyperglycémie et l’insuline demeurent mal compris. Le but global de cette thèse est de mieux comprendre les mécanismes moléculaires qui contrôlent l’expression du gène Agt chez la souris Akita (un modèle murin de diabète de type 1). Dans cette optique, la première partie de la thèse se concentre sur deux facteurs de transcription de la famille des ribonucléoprotéines nucléaires hétérogènes (hnRNP). Chan et collaborateurs ont déjà identifié 2 protéines nucléaires hnRNP F et hnRNP K, de 48kD et 70kD respectivement. HnRNP F et hnRNP K forment un hétérodimère et se lient à l’élément de réponse à l’insuline (IRE) présent dans le promoteur du gène Agt du rat et inhibent la transcription du gène Agt in vitro. Afin de déterminer si hnRNP F / K sont responsables de l’inhibition de l’expression rénale de Agt par l’insuline in vivo, nous avons étudié des souris Akita males traités ou non avec des implants d’insuline pour une période de 4 semaines. Des souris non-Akita males ont été employées comme contrôles. Les souris Akita développent de l’hypertension et de l’hypertrophie rénale. Le traitement à l’insuline rétablit les niveaux de glucose plasmatiques et la pression systolique (SBP), et atténue l’hypertrophie rénale, l’albuminurie (ratio albumine/créatinine urinaire, ACR) et les niveaux urinaires d’Agt et AngII chez les souris Akita. De plus, le traitement à l’insuline inhibe l’expression rénale du gène Agt, tout en augmentant l’expression des gènes hnRNP F, hnRNP K et ACE2 (enzyme de conversion de l’angiotensine-2). Dans des RPTC in vitro, l’insuline inhibe Agt, mais stimule l’expression de hnRNP F et hnRNP K en présence de hautes concentrations de glucose, et ce via la voie de signalisation MAPK p44/42 (protéine kinase activée par un mitogène). La transfection avec des petits ARN interférents (siRNA) contre hnRNP F et hnRNP K prévient l’inhibition de l’expression d’Agt par l’insuline dans les RPTC. Cette étude démontre bien que l’insuline prévient l’hypertension et atténue les dommages rénaux observés chez les souris Akita diabétiques, en partie grâce à la suppression de la transcription rénale de Agt, via une augmentation de l’expression de hnRNP F et hnRNP K. La seconde partie de cette thèse change de focus et se tourne vers le facteur Nrf2 (nuclear factor erythroid 2-related factor 2). Nrf2 est un facteur de transcription qui contrôle les gènes de la réponse antioxydante cellulaire en réponse au stress oxydant ou aux électrophiles. Le but de cette étude est d’examiner l’impact de la surexpression de la catalase (Cat) dans les RPTC sur l’expression du gène Agt via Nrf2 et sur le développement de l’hypertension et des dommages rénaux résultants chez les souris diabétiques Akita transgéniques (Tg). Nos études ont démontré que la surexpression de Cat dans les souris Akita Cat-Tg normalise la SBP, atténue les dommages rénaux et inhibe l’expression des gènes Nrf2 et Agt dans les RPTC. In vitro, le glucose élevé (HG) et l’oltipraz (un activateur de Nrf2) stimulent l’expression de Nrf2 et Agt, et cet effet peut être bloqué par la trigonelline (inhibiteur de Nrf2), des siRNA contre Nrf2, des antioxydants ou des inhibiteurs pharmacologiques NF-κB et MAPK p38. La suppression de sites de réponse à Nrf2 présents dans le promoteur du gène Agt du rat abolit la stimulation par l’oltipraz. Finalement, des souris males adultes non-transgéniques traitées avec l’oltipraz montrent une augmentation de l’expression de Nrf2 et Agt dans leurs RPTC et cette augmentation peut être normalisée par la trigonelline. Ces données permettent d’identifier un nouveau mécanisme d’action de Nrf2, par la stimulation du gène Agt intrarénal et l’activation du RAS, qui induisent l’hypertension et les dommages rénaux par le glucose élevé et les espèces réactives de l’oxygène chez les souris diabétiques. Nos conclusions permettent de démontrer que l’insuline induit l’expression de hnRNP F et hnRNP K, qui jouent ensuite un rôle protecteur en prévenant l’hypertension. La surexpression de la catalase dans les RPTC vient quant à elle atténuer l’activation de Nrf2 et ainsi réduit la SBP chez les souris Akita.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nouvelles molécules électrochromes à base de thiophène et comportant des liaisons azométhine ont été synthétisées et caractérisées afin d’étudier les relations entre leur structure et leurs propriétés. Le but premier de cette étude a été d’obtenir plus d’information pouvant guider le développement de nouvelles molécules électrochromes performantes à l’aide d’une meilleure compréhension de ce qui influence leurs caractéristiques. La synthèse a été réalisée en évitant l’emploi de conditions réactionnelles difficiles et les quantités d’éléments de transition ont été minimisées. Les nouvelles structures ont permis de vérifier l’effet de la variation de l’unité centrale sur les propriétés finales. Les modifications ont principalement porté sur la longueur effective de conjugaison par l’ajout d’unités de thiophène, ainsi que l’incorporation d’une liaison vinylique. L’effet de la présence de chaînes alkyles sur les positions C3 et C4 des thiophènes du coeur de chaque molécule a également été étudié. Les propriétés telles le potentiel d’oxydation, le nombre d’électrons échangés, la réversibilité des phénomènes d’oxydoréduction, l’absorbance, ainsi que l’électrochromisme chimique et électrochimique ont été étudiées, principalement par voltampérométrie cyclique et spectrométrie UV-visible en solution. De plus, des calculs théoriques ont été effectués afin d’appuyer les résultats obtenus expérimentalement. La modification du coeur de la molécule par ajout de thiophènes voisins n’a pas entraîné de grand déplacement bathochrome du λAbs, et dans le cas des thiophènes dialkylés, un déplacement hypsochrome d’au moins 66 nm a eu lieu causé par la torsion du squelette. L’étude des structures à l’état solide a même révélé l’obtention d’un nouveau composé possédant des propriétés vapochromiques prononcées. Les nouveaux composés électrochromes possèdent des valeurs de λAbs allant de 431 à 513 nm, et des potentiels d’oxydation de 0,8 à 1,2 V.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au coeur de la crise du IIIe siècle, l’Empire subit de toutes parts les assauts de Barbares soudainement plus nombreux et plus virulents. Parmi ces peuples se trouvaient les Goths, nouvellement arrivés, qui tinrent les Romains et leurs armées en échecs pendant vingt longues années. Face aux multiples défaites, parfois catastrophiques, et aux très nombreuses villes capturées et saccagées par les envahisseurs, ce mémoire se propose d’apporter une nouvelle approche à la compréhension des échecs dont les Romains firent l’expérience, mais aussi des solutions militaires qu’ils mirent en oeuvre face aux Goths au IIIe siècle. Les défaites majeures subies durant la décennie 250 sur le bas-Danube puis dans la région de la Mer Noire semblent pouvoir s’expliquer en partie par l’absence de connaissance qu’avaient Romains des Goths. Les premières victoires romaines significatives contre les Goths sous les règnes de Gallien puis Claude II ont été rendues possibles grâce à une évolution de la stratégie romaine face à cet ennemi, privilégiant l’emploi de la cavalerie et anticipant les schémas d’attaques des envahisseurs. Les décisions politiques et militaires d’Aurélien dans la région montrent que les Romains se sont enfin adaptés à la menace en modifiant leur perception des Goths, désormais mieux connus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent mémoire aborde les problématiques morales de la scission corps-esprit chez les soldats de la guerre du Việt Nam telles que représentées à travers certains films traitant de cette guerre. Notre démarche sera centrée sur le travail individuel que propose le film Apocalypse Now, plutôt que sur la representation de la guerre. Nous postulons que ce film met les individus devant les contradictions inhérentes d'une société qui prétend justement pacifier le monde en faisant la guerre, et qui plus est, comme ce fut le cas au Việt Nam, au moyen d’un déchainement de violence qui dépasse l'entendement (torture, massacre de masses, napalm et Agent Orange). Notre hypothèse est que le film, à travers son personnage central, nous propose une « voie » qui n’empêche pas la guerre, certes, mais permet du moins d'entreprendre une demarche de distanciation et de redefinition morale individuelle permettant de survivre au(x) temps de guerre(s). Cette mutation morale, chez le personnage principal, s'acquiert au bout d'un voyage réflexif à tout point de vue « au coeur des ténèbres » – de la jungle, tout autant que de son être.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail d'intégration présenté à la Faculté de médecine en vue de l’obtention du grade de maîtrise professionnelle en physiothérapie

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il y a des problemes qui semblent impossible a resoudre sans l'utilisation d'un tiers parti honnete. Comment est-ce que deux millionnaires peuvent savoir qui est le plus riche sans dire a l'autre la valeur de ses biens ? Que peut-on faire pour prevenir les collisions de satellites quand les trajectoires sont secretes ? Comment est-ce que les chercheurs peuvent apprendre les liens entre des medicaments et des maladies sans compromettre les droits prives du patient ? Comment est-ce qu'une organisation peut ecmpecher le gouvernement d'abuser de l'information dont il dispose en sachant que l'organisation doit n'avoir aucun acces a cette information ? Le Calcul multiparti, une branche de la cryptographie, etudie comment creer des protocoles pour realiser de telles taches sans l'utilisation d'un tiers parti honnete. Les protocoles doivent etre prives, corrects, efficaces et robustes. Un protocole est prive si un adversaire n'apprend rien de plus que ce que lui donnerait un tiers parti honnete. Un protocole est correct si un joueur honnete recoit ce que lui donnerait un tiers parti honnete. Un protocole devrait bien sur etre efficace. Etre robuste correspond au fait qu'un protocole marche meme si un petit ensemble des joueurs triche. On demontre que sous l'hypothese d'un canal de diusion simultane on peut echanger la robustesse pour la validite et le fait d'etre prive contre certains ensembles d'adversaires. Le calcul multiparti a quatre outils de base : le transfert inconscient, la mise en gage, le partage de secret et le brouillage de circuit. Les protocoles du calcul multiparti peuvent etre construits avec uniquements ces outils. On peut aussi construire les protocoles a partir d'hypoth eses calculatoires. Les protocoles construits a partir de ces outils sont souples et peuvent resister aux changements technologiques et a des ameliorations algorithmiques. Nous nous demandons si l'efficacite necessite des hypotheses de calcul. Nous demontrons que ce n'est pas le cas en construisant des protocoles efficaces a partir de ces outils de base. Cette these est constitue de quatre articles rediges en collaboration avec d'autres chercheurs. Ceci constitue la partie mature de ma recherche et sont mes contributions principales au cours de cette periode de temps. Dans le premier ouvrage presente dans cette these, nous etudions la capacite de mise en gage des canaux bruites. Nous demontrons tout d'abord une limite inferieure stricte qui implique que contrairement au transfert inconscient, il n'existe aucun protocole de taux constant pour les mises en gage de bit. Nous demontrons ensuite que, en limitant la facon dont les engagements peuvent etre ouverts, nous pouvons faire mieux et meme un taux constant dans certains cas. Ceci est fait en exploitant la notion de cover-free families . Dans le second article, nous demontrons que pour certains problemes, il existe un echange entre robustesse, la validite et le prive. Il s'effectue en utilisant le partage de secret veriable, une preuve a divulgation nulle, le concept de fantomes et une technique que nous appelons les balles et les bacs. Dans notre troisieme contribution, nous demontrons qu'un grand nombre de protocoles dans la litterature basee sur des hypotheses de calcul peuvent etre instancies a partir d'une primitive appelee Transfert Inconscient Veriable, via le concept de Transfert Inconscient Generalise. Le protocole utilise le partage de secret comme outils de base. Dans la derniere publication, nous counstruisons un protocole efficace avec un nombre constant de rondes pour le calcul a deux parties. L'efficacite du protocole derive du fait qu'on remplace le coeur d'un protocole standard par une primitive qui fonctionne plus ou moins bien mais qui est tres peu couteux. On protege le protocole contre les defauts en utilisant le concept de privacy amplication .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse consiste en une étude comparative du métier d’intendant au Canada et dans les généralités de Bretagne et de Tours dans la première moitié du 18e siècle (1700-1750). Elle s’appuie sur l’intendant pour s’interroger sur l’existence de spécificités dans l’exercice du pouvoir en contexte colonial par rapport au contexte métropolitain. Considéré par la plupart des historiens de la France d’Ancien Régime comme le personnage clé de l’évolution politique qui aurait fait passer la monarchie de sa phase judiciaire jusqu’à sa phase dite « administrative », l’intendant de justice, police et finance ou commissaire départi est au coeur des débats sur l’absolutisme et son rôle de première ligne dans l’oeuvre de centralisation monarchique en fait le sujet idéal pour observer la portée réelle de ce régime sur le terrain. L’examen du fonctionnement de l’intendance est un préalable obligé pour qui veut comprendre les rapports entre administrateurs et administrés et mieux cerner la capacité de régulation de l’État. Dans le cadre des attributions définies par sa commission, quelles sont les tâches qui l’occupent concrètement ? Cette thèse s’intéresse à l’intendant du point de vue de sa pratique, en s’appuyant sur la description interne des sources produites par l’intendant pour décortiquer ses mécanismes d’intervention. Deux types de documents sont analysés successivement, soit la correspondance, incluant les pièces jointes et les documents de travail, et les actes de portée réglementaire, incluant les ordonnances et les arrêts du Conseil d’État. Chemin faisant, nous avons fait la rencontre des individus et groupes qui sollicitent l’intervention de l’intendant, levant le voile sur les rapports de pouvoir et les interactions qui le lient à ses supérieurs, aux justiciables et aux institutions locales. L’exercice permet de poser en des termes nouveaux l’action de ce personnage dont on connaissait les attributions et principales décisions, mais beaucoup moins leur logique sous-jacente.