225 resultados para Utilité différentielle stochastique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La notion de chez-soi est porteuse d’un imaginaire foisonnant et génère un grand intérêt dans notre culture et société. Bien qu’elle soit une considération importante pour la plupart d’entre nous, l’architecte occupe une position privilégiée qui lui permette d’agir sur le chez-soi de manière significative et tangible. La présente recherche explore le concept du chez-soi tel qu’étudié par les architectes et non-architectes de manière à comprendre son impact sur la création du lieu et sur la construction des environnements domestiques en Amérique du nord. Un regard porté sur les connotations entre espace et lieu, à travers la temporalité, les comportements et les perspectives sociales, supporte l’épistémologie du chez-soi comme un élément important des théories et pratiques de design contemporain. Le démantèlement hypothétique d’un espace en ses composantes suppose que les dispositifs architecturaux peuvent être modelés de manière à ce qu’ils opèrent un transfert depuis la maison, en tant qu’élément physique, vers le domaine psychologique du chez-soi. Afin d’élargir la maniabilité des éléments constitutifs du bâtiment et de son environnement, six thèmes sont appliqués à trois champs de données. Les six thèmes, qui incluent l’entre-deux, la limite, la voie, le nœud, le détail et la représentation, illustrent des moments architecturaux déterminants, potentiellement présents à l’intérieur et à l’extérieur du projet domestique et qui transforment les comportements physiques et psychiques. Depuis la pratique normalisée du logement social et abordable au Canada, une analyse de photographies de maisons abordables existantes, du discours critique sur cette typologie et de projets de recherche-création conduits par des étudiants en architecture, révèle le caractère opérationnel de la notion de chez-soi et consolide les valeurs de communauté et de frontière. L’objectif premier de la recherche est d’avancer la production de connaissances en architecture par l’exploration de la notion de chez­soi dans l’enseignement, la recherche et le design. L’approche fonctionnaliste vis-à-vis le < penser > en design, place l’usager au centre de l’environnement domestique, soutient la proposition que le chez­soi donne sens et utilité au logement, et renforce la responsabilité éthique de l’architecte à faire de cette notion une partie intégrante de la réalité quotidienne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La spectrométrie de masse mesure la masse des ions selon leur rapport masse sur charge. Cette technique est employée dans plusieurs domaines et peut analyser des mélanges complexes. L’imagerie par spectrométrie de masse (Imaging Mass Spectrometry en anglais, IMS), une branche de la spectrométrie de masse, permet l’analyse des ions sur une surface, tout en conservant l’organisation spatiale des ions détectés. Jusqu’à présent, les échantillons les plus étudiés en IMS sont des sections tissulaires végétales ou animales. Parmi les molécules couramment analysées par l’IMS, les lipides ont suscité beaucoup d'intérêt. Les lipides sont impliqués dans les maladies et le fonctionnement normal des cellules; ils forment la membrane cellulaire et ont plusieurs rôles, comme celui de réguler des événements cellulaires. Considérant l’implication des lipides dans la biologie et la capacité du MALDI IMS à les analyser, nous avons développé des stratégies analytiques pour la manipulation des échantillons et l’analyse de larges ensembles de données lipidiques. La dégradation des lipides est très importante dans l’industrie alimentaire. De la même façon, les lipides des sections tissulaires risquent de se dégrader. Leurs produits de dégradation peuvent donc introduire des artefacts dans l’analyse IMS ainsi que la perte d’espèces lipidiques pouvant nuire à la précision des mesures d’abondance. Puisque les lipides oxydés sont aussi des médiateurs importants dans le développement de plusieurs maladies, leur réelle préservation devient donc critique. Dans les études multi-institutionnelles où les échantillons sont souvent transportés d’un emplacement à l’autre, des protocoles adaptés et validés, et des mesures de dégradation sont nécessaires. Nos principaux résultats sont les suivants : un accroissement en fonction du temps des phospholipides oxydés et des lysophospholipides dans des conditions ambiantes, une diminution de la présence des lipides ayant des acides gras insaturés et un effet inhibitoire sur ses phénomènes de la conservation des sections au froid sous N2. A température et atmosphère ambiantes, les phospholipides sont oxydés sur une échelle de temps typique d’une préparation IMS normale (~30 minutes). Les phospholipides sont aussi décomposés en lysophospholipides sur une échelle de temps de plusieurs jours. La validation d’une méthode de manipulation d’échantillon est d’autant plus importante lorsqu’il s’agit d’analyser un plus grand nombre d’échantillons. L’athérosclérose est une maladie cardiovasculaire induite par l’accumulation de matériel cellulaire sur la paroi artérielle. Puisque l’athérosclérose est un phénomène en trois dimension (3D), l'IMS 3D en série devient donc utile, d'une part, car elle a la capacité à localiser les molécules sur la longueur totale d’une plaque athéromateuse et, d'autre part, car elle peut identifier des mécanismes moléculaires du développement ou de la rupture des plaques. l'IMS 3D en série fait face à certains défis spécifiques, dont beaucoup se rapportent simplement à la reconstruction en 3D et à l’interprétation de la reconstruction moléculaire en temps réel. En tenant compte de ces objectifs et en utilisant l’IMS des lipides pour l’étude des plaques d’athérosclérose d’une carotide humaine et d’un modèle murin d’athérosclérose, nous avons élaboré des méthodes «open-source» pour la reconstruction des données de l’IMS en 3D. Notre méthodologie fournit un moyen d’obtenir des visualisations de haute qualité et démontre une stratégie pour l’interprétation rapide des données de l’IMS 3D par la segmentation multivariée. L’analyse d’aortes d’un modèle murin a été le point de départ pour le développement des méthodes car ce sont des échantillons mieux contrôlés. En corrélant les données acquises en mode d’ionisation positive et négative, l’IMS en 3D a permis de démontrer une accumulation des phospholipides dans les sinus aortiques. De plus, l’IMS par AgLDI a mis en évidence une localisation différentielle des acides gras libres, du cholestérol, des esters du cholestérol et des triglycérides. La segmentation multivariée des signaux lipidiques suite à l’analyse par IMS d’une carotide humaine démontre une histologie moléculaire corrélée avec le degré de sténose de l’artère. Ces recherches aident à mieux comprendre la complexité biologique de l’athérosclérose et peuvent possiblement prédire le développement de certains cas cliniques. La métastase au foie du cancer colorectal (Colorectal cancer liver metastasis en anglais, CRCLM) est la maladie métastatique du cancer colorectal primaire, un des cancers le plus fréquent au monde. L’évaluation et le pronostic des tumeurs CRCLM sont effectués avec l’histopathologie avec une marge d’erreur. Nous avons utilisé l’IMS des lipides pour identifier les compartiments histologiques du CRCLM et extraire leurs signatures lipidiques. En exploitant ces signatures moléculaires, nous avons pu déterminer un score histopathologique quantitatif et objectif et qui corrèle avec le pronostic. De plus, par la dissection des signatures lipidiques, nous avons identifié des espèces lipidiques individuelles qui sont discriminants des différentes histologies du CRCLM et qui peuvent potentiellement être utilisées comme des biomarqueurs pour la détermination de la réponse à la thérapie. Plus spécifiquement, nous avons trouvé une série de plasmalogènes et sphingolipides qui permettent de distinguer deux différents types de nécrose (infarct-like necrosis et usual necrosis en anglais, ILN et UN, respectivement). L’ILN est associé avec la réponse aux traitements chimiothérapiques, alors que l’UN est associé au fonctionnement normal de la tumeur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les cellules endothéliales forment une couche semi-perméable entre le sang et les organes. La prolifération, la migration et la polarisation des cellules endothéliales sont essentielles à la formation de nouveaux vaisseaux à partir de vaisseaux préexistants, soit l’angiogenèse. Le facteur de croissance de l’endothélium vasculaire (VEGF) peut activer la synthase endothéliale du monoxyde d’azote (eNOS) et induire la production de monoxyde d’azote (NO) nécessaire pour la régulation de la perméabilité vasculaire et l’angiogenèse. β- caténine est une composante essentielle du complexe des jonctions d’ancrage ainsi qu’un régulateur majeur de la voie de signalisation de Wnt/β-caténine dans laquelle elle se joint au facteur de transcription TCF/LEF et module l’expression de nombreux gènes, dont certains sont impliqués dans l’angiogenèse. La S-nitrosylation (SNO) est un mécanisme de régulation posttraductionnel des protéines par l’ajout d’un groupement nitroso au niveau de résidus cystéines. Le NO produit par eNOS peut induire la S-nitrosylation de la β−caténine au niveau des jonctions intercellulaires et moduler la perméabilité de l’endothélium. Il a d’ailleurs été montré que le NO peut contrôler l’expression génique par la transcription. Le but de cette thèse est d’établir le rôle du NO au sein de la transcription des cellules endothéliales, spécifiquement au niveau de l’activité de β-caténine. Le premier objectif était de déterminer si la SNO de la β-caténine affecte son activité transcriptionnelle. Nous avons montré que le NO inhibe l’activité transcriptionnelle de β- caténine ainsi que la prolifération des cellules endothéliales induites par l’activation de la voie Wnt/β-caténine. Il est intéressant de constater que le VEGF, qui induit la production de NO via eNOS, réprime l’expression de AXIN2 qui est un gène cible de Wnt s’exprimant suite à la i i stimulation par Wnt3a et ce, dépendamment de eNOS. Nous avons identifié que la cystéine 466 de la β-caténine est un résidu essentiel à la modulation répressive de son activité transcriptionnelle par le NO. Lorsqu’il est nitrosylé, ce résidu est responsable de la perturbation du complexe de transcription formé de β-caténine et TCF-4 ce qui inhibe la prolifération des cellules endothéliales induite par la stimulation par Wnt3a. Puisque le NO affecte la transcription, nous avons réalisé l’analyse du transcriptome afin d’obtenir une vue d’ensemble du rôle du NO dans l’activité transcriptionnelle des cellules endothéliales. L’analyse différentielle de l’expression des gènes de cellules endothéliales montre que la répression de eNOS par siRNA augmente l’expression de gènes impliqués au niveau de la polarisation tels que : PARD3A, PARD3B, PKCZ, CRB1 et TJ3. Cette analyse suggère que le NO peut réguler la polarisation des cellules et a permis d’identifier des gènes responsables de l’intégrité des cellules endothéliales et de la réponse immunitaire. De plus, l’analyse de voies de signalisation par KEGG montre que certains gènes modulés par l’ablation de eNOS sont enrichis dans de nombreuses voies de signalisation, notamment Ras et Notch qui sont importantes lors de la migration cellulaire et la différenciation des cellules de têtes et de tronc (tip/stalk). Le regroupement des gènes exprimés chez les cellules traitées au VEGF (déplétées de eNOS ou non) révèle que le NO peut affecter l’expression de gènes contribuant au processus angiogénique, dont l’attraction chimiotactique. Notre étude montre que le NO module la transcription des cellules endothéliales et régule l’expression des gènes impliqués dans l’angiogenèse et la fonction endothéliale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les parents à travers le monde chantent et parlent à leurs bébés. Ces deux types de vocalisations aux enfants préverbaux partagent plusieurs similarités de même que des différences, mais leurs conséquences sur les bébés demeurent méconnues. L’objectif de cette thèse était de documenter l’efficacité relative du chant et de la parole à capter l’attention des bébés sur de courtes périodes de temps (Étude 1) ainsi qu’à réguler l’affect des bébés en maintenant un état de satisfaction sur une période de temps prolongée (Étude 2). La première étude a exploré les réactions attentionnelles des bébés exposés à des enregistrements audio non familiers de chant et de parole. Lors de l’expérience 1, des bébés de 4 à 13 mois ont été exposés à de la parole joyeuse s’adressant au bébé (séquences de syllabes) et des berceuses fredonnées par la même femme. Ils ont écouté significativement plus longtemps la parole, qui contenait beaucoup plus de variabilité acoustique et d’expressivité que les berceuses. Dans l’expérience 2, des bébés d’âges comparables n’ont montré aucune écoute différentielle face à une version parlée ou chantée d’une chanson pour enfant turque, les deux versions étant exprimées de façon joyeuse / heureuse. Les bébés de l’expérience 3, ayant entendu la version chantée de la chanson turque ainsi qu’une version parlée de façon affectivement neutre ou s’adressant à l’adulte, ont écouté significativement plus longtemps la version chantée. Dans l’ensemble, la caractéristique vocale joyeuse plutôt que le mode vocal (chanté versus parlé) était le principal déterminant de l’attention du bébé, indépendamment de son âge. Dans la seconde étude, la régulation affective des bébés a été explorée selon l’exposition à des enregistrements audio non familiers de chant ou de parole. Les bébés ont été exposés à du chant ou de la parole jusqu’à ce qu’ils rencontrent un critère d’insatisfaction exprimée dans le visage. Lors de l’expérience 1, des bébés de 7 à 10 mois ont écouté des enregistrements de paroles s’adressant au bébé, de paroles s’adressant à l’adulte ou du chant dans une langue non familière (turque). Les bébés ont écouté le chant près de deux fois plus longtemps que les paroles avant de manifester de l’insatisfaction. Lors de l’expérience 2, des bébés ont été exposés à des enregistrements de paroles ou de chants issus d’interactions naturelles entre la mère et son bébé, dans une langue familière. Comme dans l’expérience 1, le chant s’adressant au bébé était considérablement plus efficace que les paroles pour retarder l’apparition du mécontentement. La construction temporelle du chant, avec notamment son rythme régulier, son tempo stable et ses répétitions, pourrait jouer un rôle important dans la régulation affective, afin de soutenir l’attention, rehausser la familiarité ou promouvoir l’écoute prédictive et l’entraînement. En somme, les études présentées dans cette thèse révèlent, pour la première fois, que le chant est un outil parental puissant, tout aussi efficace que la parole pour capter l’attention et plus efficace que la parole pour maintenir les bébés dans un état paisible. Ces découvertes soulignent l’utilité du chant dans la vie quotidienne et l’utilité potentielle du chant dans des contextes thérapeutiques variés impliquant des bébés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les accidents sont la cause la plus fréquente de décès chez l’enfant, la plupart du temps à cause d’un traumatisme cranio-cérébrale (TCC) sévère ou d’un choc hémorragique. Malgré cela, la prise en charge de ces patients est souvent basée sur la littérature adulte. Le mannitol et le salin hypertonique (3%) sont des traitements standards dans la gestion de l’hypertension intracrânienne, mais il existe très peu d’évidence sur leur utilité en pédiatrie. Nous avons entrepris une revue rétrospective des traumatismes crâniens sévères admis dans les sept dernières années, pour décrire l’utilisation de ces agents hyperosmolaires et leurs effets sur la pression intracrânienne. Nous avons établi que le salin hypertonique est plus fréquemment utilisé que le mannitol, qu’il ne semble pas y avoir de facteurs associés à l’utilisation de l’un ou l’autre, et que l’effet sur la pression intracrânienne est difficile à évaluer en raison de multiples co-interventions. Il faudra mettre en place un protocole de gestion du patient avec TCC sévère avant d’entreprendre des études prospectives. La transfusion sanguine est employée de façon courante dans la prise en charge du patient traumatisé. De nombreuses études soulignent les effets néfastes des transfusions sanguines suggérant des seuils transfusionnels plus restrictifs. Malgré cela, il n’y a pas de données sur les transfusions chez l’enfant atteint de traumatismes graves. Nous avons donc entrepris une analyse post-hoc d’une grosse étude prospective multicentrique sur les pratiques transfusionnelles des enfants traumatisés. Nous avons conclu que les enfants traumatisés sont transfusés de manière importante avant et après l’admission aux soins intensifs. Un jeune âge, un PELOD élevé et le recours à la ventilation mécanique sont des facteurs associés à recevoir une transfusion sanguine aux soins intensifs. Le facteur le plus prédicteur, demeure le fait de recevoir une transfusion avant l’admission aux soins, élément qui suggère probablement un saignement continu. Il demeure qu’une étude prospective spécifique des patients traumatisés doit être effectuée pour évaluer si une prise en charge basée sur un seuil transfusionnel restrictif serait sécuritaire dans cette population.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une approche classique pour traiter les problèmes d’optimisation avec incertitude à deux- et multi-étapes est d’utiliser l’analyse par scénario. Pour ce faire, l’incertitude de certaines données du problème est modélisée par vecteurs aléatoires avec des supports finis spécifiques aux étapes. Chacune de ces réalisations représente un scénario. En utilisant des scénarios, il est possible d’étudier des versions plus simples (sous-problèmes) du problème original. Comme technique de décomposition par scénario, l’algorithme de recouvrement progressif est une des méthodes les plus populaires pour résoudre les problèmes de programmation stochastique multi-étapes. Malgré la décomposition complète par scénario, l’efficacité de la méthode du recouvrement progressif est très sensible à certains aspects pratiques, tels que le choix du paramètre de pénalisation et la manipulation du terme quadratique dans la fonction objectif du lagrangien augmenté. Pour le choix du paramètre de pénalisation, nous examinons quelques-unes des méthodes populaires, et nous proposons une nouvelle stratégie adaptive qui vise à mieux suivre le processus de l’algorithme. Des expériences numériques sur des exemples de problèmes stochastiques linéaires multi-étapes suggèrent que la plupart des techniques existantes peuvent présenter une convergence prématurée à une solution sous-optimale ou converger vers la solution optimale, mais avec un taux très lent. En revanche, la nouvelle stratégie paraît robuste et efficace. Elle a convergé vers l’optimalité dans toutes nos expériences et a été la plus rapide dans la plupart des cas. Pour la question de la manipulation du terme quadratique, nous faisons une revue des techniques existantes et nous proposons l’idée de remplacer le terme quadratique par un terme linéaire. Bien que qu’il nous reste encore à tester notre méthode, nous avons l’intuition qu’elle réduira certaines difficultés numériques et théoriques de la méthode de recouvrement progressif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les stérosomes, des vésicules artificielles composées d’amphiphiles monoalkylés et d’un grand pourcentage de stérols, sont prometteurs dans plusieurs domaines comme les industries pharmaceutiques et alimentaires. Il existe des stérosomes chargés négativement, positivement et neutres. Dans ce mémoire, nous avons approfondi nos connaissances sur les propriétés physico-chimiques des stérosomes chargés : acide palmitique (PA)/stérol et stéarylamine (SA)/cholestérol (Chol). Premièrement, afin de mesurer la diffusion latérale de PA dans les membranes PA/stérol (30/70 mol/mol) par RMN à gradients pulsés, nous avons tenté de former des bicouches liquide-ordonnées (lo) orientées magnétiquement avec ce mélange. En s'inspirant de l’idée que l’ajout de 1,2-dihexanoyl-sn-glycéro-3-phosphocholine (DHPC), un lipide à courtes chaînes, dans le système 1,2-dimyristoyl-sn-glycéro-3-phosphocholine (DMPC) mène à la formation de bicouches orientées, nous avons étudié la formulation PA perdeutéré/acide hexanoïque (HA)/Chol avec une proportion molaire de 25/18/57 à plusieurs températures; aucune formation de bicouches orientées n’a été observée. Ce résultat pourrait être expliqué par la solubilisation partielle de HA en milieu aqueux. Alors, une quantité insuffisante serait insérée dans la bicouche pour induire son orientation. La formulation PA perdeutéré/DHPC/Chol n’a pas conduit, elle non plus, à des bicouches orientées magnétiquement à des températures et concentrations lipidiques variées. En étudiant le mélange DMPC/DHPC/Chol (67/17/14), nous avons remarqué que la présence de Chol inhibait l'orientation magnétique des bicouches. Tandis que le mélange DMPC/DHPC/stigmastérol (SS) avec les proportions molaires 67/19/14 et 72/21/7 conduisait à des bicouches orientées avec leur normale (n) perpendiculaire au champ magnétique à 40 °C et 50 °C. Ces résultats suggèrent que le mélange PA/SS avec une proportion de lipide à courtes chaînes, HA et DHPC, pourrait mener à des bicouches orientées magnétiquement. Le mélange PA/Chol avec un lipide à courtes chaînes pourrait aussi être étudié en présence des lanthanides. Deuxièmement, nous avons examiné la possibilité de moduler la libération de matériel encapsulé dans des liposomes essentiellement composés de PA et d’un stérol. Il est connu que le mélange PA/Chol (30/70) à pH ≥ 7,5 forme des liposomes très peu perméables. Il est avantageux de pouvoir moduler la perméabilité pour avoir un contrôle sur le temps de libération de leur contenu, qui est un paramètre de grande importance pour les formulations liposomales de médicaments. D’abord, il a été montré que l’acide oléique (OA)/Chol (30/70) est capable de former des vésicules, ce qui n’avait jamais été prouvé auparavant. Par contre, les bicouches OA/Chol (30/70) ne sont pas plus perméables que les bicouches PA/Chol (30/70). L’ajout de 1-palmitoyl-2-oléoyl-sn-glycéro-3-phosphatidylcholine (POPC) dans le mélange PA/Chol n’augmente pas plus la perméabilité. En effet, les cinétiques de relargage de calcéine des vésicules PA/POPC/Chol (15/27.5/57.5), POPC/Chol (40/60) et POPC étaient très semblables à celle de PA/Chol (30/70). Il a été remarqué que les études littéraires se contredisent à propos de la perméabilité à la calcéine des bicouches de phosphatidylcholine (PC). L’explication de ces divergences est inconnue pour le moment. En remplaçant la moitié de la proportion molaire de Chol par le cholate de sodium (SC) dans le mélange PA/Chol (30/70), la membrane n’était pas plus apte à libérer son contenu. Il se pourrait que le SC se retrouvant dans la bicouche n’induit pas une diminution d’empilement. Il est aussi possible que le SC ne s'insère pas dans la membrane à cause de son hydrophilie considérable et il pourrait alors former seul des micelles. En remplaçant complètement le Chol par le sulfate de cholestérol (SChol), un stérol chargé négativement, et en préparant les vésicules à un bas pH, la formulation PA/SChol (30/70) mène à une très grande perméabilité à pH 7.5; le relargage est provoqué par un saut de pH. Nos travaux suggèrent qu'il serait possible de moduler la perméabilité des liposomes en les préparant avec le mélange PA/SChol/Chol en variant les proportions entre 30/63/7 à 30/70/0. Le diagramme pH-composition du mélange PA/SChol/Chol indique que ces proportions conduisent, à pH 7.4, à la coexistence de phases solide et lo en différentes proportions, ce qui pourrait moduler la perméabilité membranaire. Troisièmement, les résultats de perméabilité obtenus avec la calcéine et les difficultés survenues lors de l’extrusion des vésicules encapsulant cette sonde nous ont amené à nous demander si la calcéine interagit avec les bicouches chargées. L’impact de certains anions, dont la calcéine, a été examiné sur les bicouches chargées positivement SA/Chol (50/50). La calorimétrie différentielle à balayage (DSC, de l’anglais differential scanning calorimetry), indique qu’il n’y a aucune transition entre 25 et 90 °C pour les liposomes SA/Chol (50/50) à pH = 7.4. L’ajout de chlorure de sodim (375 mM) n’a pas mené à la formation d’agrégats et aucune transition n’a été observée sur le thermogramme. La formation d’agrégats macroscopiques instantanément après l’ajout d’hydrogénophosphate de sodium (125 mM), de sulfate de sodium (125 mM) et de calcéine (3 mM) a été observée. Une transition a été observée sur les thermogrammes en présence de ces sels. Les agrégats observés pourraient être associés à la transition de phase. L’effet des anions sur la température et l’enthalpie de transition suivent le même ordre que la série d’Hofmeister : sulfate > hydrogénophosphate > chlorure (pas de pic). La calcéine avait l’impact le plus prononcé sur l’agrégation; ceci illustre que la calcéine n’est pas une sonde fluorescente inerte avec le mélange SA/Chol. Elle pourrait être un chaotrope volumineux. De plus, les interactions SA-calcéine plus fortes, menant à l’agrégation des vésicules, que les interactions PC-calcéine pourraient s’expliquer par le fait que la SA est chargée positivement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les métaheuristiques sont très utilisées dans le domaine de l'optimisation discrète. Elles permettent d’obtenir une solution de bonne qualité en un temps raisonnable, pour des problèmes qui sont de grande taille, complexes, et difficiles à résoudre. Souvent, les métaheuristiques ont beaucoup de paramètres que l’utilisateur doit ajuster manuellement pour un problème donné. L'objectif d'une métaheuristique adaptative est de permettre l'ajustement automatique de certains paramètres par la méthode, en se basant sur l’instance à résoudre. La métaheuristique adaptative, en utilisant les connaissances préalables dans la compréhension du problème, des notions de l'apprentissage machine et des domaines associés, crée une méthode plus générale et automatique pour résoudre des problèmes. L’optimisation globale des complexes miniers vise à établir les mouvements des matériaux dans les mines et les flux de traitement afin de maximiser la valeur économique du système. Souvent, en raison du grand nombre de variables entières dans le modèle, de la présence de contraintes complexes et de contraintes non-linéaires, il devient prohibitif de résoudre ces modèles en utilisant les optimiseurs disponibles dans l’industrie. Par conséquent, les métaheuristiques sont souvent utilisées pour l’optimisation de complexes miniers. Ce mémoire améliore un procédé de recuit simulé développé par Goodfellow & Dimitrakopoulos (2016) pour l’optimisation stochastique des complexes miniers stochastiques. La méthode développée par les auteurs nécessite beaucoup de paramètres pour fonctionner. Un de ceux-ci est de savoir comment la méthode de recuit simulé cherche dans le voisinage local de solutions. Ce mémoire implémente une méthode adaptative de recherche dans le voisinage pour améliorer la qualité d'une solution. Les résultats numériques montrent une augmentation jusqu'à 10% de la valeur de la fonction économique.