386 resultados para Théorie non-linéaire des poutres
Resumo:
Rapport de projet
Resumo:
La présente thèse porte sur différentes questions émanant de la géométrie spectrale. Ce domaine des mathématiques fondamentales a pour objet d'établir des liens entre la géométrie et le spectre d'une variété riemannienne. Le spectre d'une variété compacte fermée M munie d'une métrique riemannienne $g$ associée à l'opérateur de Laplace-Beltrami est une suite de nombres non négatifs croissante qui tend vers l’infini. La racine carrée de ces derniers représente une fréquence de vibration de la variété. Cette thèse présente quatre articles touchant divers aspects de la géométrie spectrale. Le premier article, présenté au Chapitre 1 et intitulé « Superlevel sets and nodal extrema of Laplace eigenfunctions », porte sur la géométrie nodale d'opérateurs elliptiques. L’objectif de mes travaux a été de généraliser un résultat de L. Polterovich et de M. Sodin qui établit une borne sur la distribution des extrema nodaux sur une surface riemannienne pour une assez vaste classe de fonctions, incluant, entre autres, les fonctions propres associées à l'opérateur de Laplace-Beltrami. La preuve fournie par ces auteurs n'étant valable que pour les surfaces riemanniennes, je prouve dans ce chapitre une approche indépendante pour les fonctions propres de l’opérateur de Laplace-Beltrami dans le cas des variétés riemanniennes de dimension arbitraire. Les deuxième et troisième articles traitent d'un autre opérateur elliptique, le p-laplacien. Sa particularité réside dans le fait qu'il est non linéaire. Au Chapitre 2, l'article « Principal frequency of the p-laplacian and the inradius of Euclidean domains » se penche sur l'étude de bornes inférieures sur la première valeur propre du problème de Dirichlet du p-laplacien en termes du rayon inscrit d’un domaine euclidien. Plus particulièrement, je prouve que, si p est supérieur à la dimension du domaine, il est possible d'établir une borne inférieure sans aucune hypothèse sur la topologie de ce dernier. L'étude de telles bornes a fait l'objet de nombreux articles par des chercheurs connus, tels que W. K. Haymann, E. Lieb, R. Banuelos et T. Carroll, principalement pour le cas de l'opérateur de Laplace. L'adaptation de ce type de bornes au cas du p-laplacien est abordée dans mon troisième article, « Bounds on the Principal Frequency of the p-Laplacian », présenté au Chapitre 3 de cet ouvrage. Mon quatrième article, « Wolf-Keller theorem for Neumann Eigenvalues », est le fruit d'une collaboration avec Guillaume Roy-Fortin. Le thème central de ce travail gravite autour de l'optimisation de formes dans le contexte du problème aux valeurs limites de Neumann. Le résultat principal de cet article est que les valeurs propres de Neumann ne sont pas toujours maximisées par l'union disjointe de disques arbitraires pour les domaines planaires d'aire fixée. Le tout est présenté au Chapitre 4 de cette thèse.
Resumo:
Ce texte de mémoire est accompagné du webdocumentaire interactif : De la chaise à la mer, disponible à l'adresse http://www.delachaisealamer.net.
Resumo:
Afin de mieux cerner les enjeux de la transition entre le secondaire et le postsecondaire, nous proposons un examen du passage de la notion de fonction à celle de dérivée. À la lumière de plusieurs travaux mettant en évidence des difficultés inhérentes à ce passage, et nous basant sur les recherches de Carlson et ses collègues (Carlson, 2002; Carlson, Jacobs, Coe, Larsen et Hsu, 2002; Carlson, Larsen et Jacobs, 2001; Oehrtman, Carlson et Thompson, 2008) sur le raisonnement covariationnel, nous présentons une analyse de la dynamique du développement de ce raisonnement chez des petits groupes d’élèves de la fin du secondaire et du début du collégial dans quatre situations-problèmes différentes. L’analyse des raisonnements de ces groupes d’élèves nous a permis, d’une part, de raffiner la grille proposée par Carlson en mettant en évidence, non seulement des unités de processus de modélisation (ou unités de raisonnement) mises en action par ces élèves lors des activités proposées, mais aussi leurs rôles au sein de la dynamique du raisonnement. D’autre part, cette analyse révèle l’influence de certaines caractéristiques des situations sur les interactions non linéaires entre ces unités.
Resumo:
La prévalence du tabagisme a diminué dans les dernières décennies, mais les inégalités sociales reliées au tabagisme s’accentuent. Les stratégies de dénormalisation du tabagisme ont amené la stigmatisation des fumeurs. Le lien entre celle-ci et la défavorisation de quartier est mal compris. Cette étude qualitative a comparé les expériences de stigmatisation de quinze jeunes femmes fumeuses dont la moitié vivait dans des quartiers très défavorisés de Montréal et l’autre moitié résidait dans les quartiers les moins défavorisés. Dans ces derniers, stigmatiser les fumeurs fait partie de la norme. Le tabagisme est vu comme un symbole de pauvreté, entraînant l’utilisation de stratégies pour se distancer du stigma. Dans les quartiers défavorisés, les participantes rapportaient une stigmatisation basée sur le genre et elles tentaient d’y échapper en se cachant pour fumer. Les résultats mettent en lumière les effets non attendus des politiques anti-tabac et pourraient contribuer au développement de politiques plus équitables.
Resumo:
L'exposition aux mélanges de contaminants (environnementaux, alimentaires ou thérapeutiques) soulève de nombreuses interrogations et inquiétudes vis-à-vis des probabilités d'interactions toxicocinétiques et toxicodynamiques. Une telle coexposition peut influencer le mode d’action des composants du cocktail et donc de leur toxicité, suite à un accroissement de leurs concentrations internes. Le bisphénol A (4 dihydroxy-2,2-diphenylpropane) est un contaminant chimique répandu de manière ubiquitaire dans notre environnement, largement utilisé dans la fabrication des plastiques avec l’un des plus grands volumes de production à l’échelle mondiale. Il est un perturbateur endocrinien par excellence de type œstrogèno-mimétique. Cette molécule est biotransformée en métabolites non toxiques par un processus de glucuronidation. L'exposition concomitante à plusieurs xénobiotiques peut induire à la baisse le taux de glucuronidation du polluant chimique d'intérêt, entre autres la co-exposition avec des médicaments. Puisque la consommation de produits thérapeutiques est un phénomène grandissant dans la population, la possibilité d’une exposition simultanée est d’autant plus grande et forte. Sachant que l'inhibition métabolique est le mécanisme d'interaction le plus plausible pouvant aboutir à une hausse des niveaux internes ainsi qu’à une modulation de la toxicité prévue, la présente étude visait d'abord à confirmer et caractériser ce type d'interactions métaboliques entre le bisphénol A et le naproxène, qui est un anti-inflammatoire non stéroïdiennes (AINS), sur l'ensemble d'un organe intact en utilisant le système de foie de rat isolé et perfusé (IPRL). Elle visait ensuite à déterminer la cinétique enzymatique de chacune de ces deux substances, seule puis en mélange binaire. Dans un second temps, nous avons évalué aussi l’influence de la présence d'albumine sur la cinétique métabolique et le comportement de ces deux substances étudiées en suivant le même modèle de perfusion in vivo au niveau du foie de rat. Les constantes métaboliques ont été déterminées par régression non linéaire. Les métabolismes du BPA et du NAP seuls ont montré une cinétique saturable avec une vélocité maximale (Vmax) de 8.9 nmol/min/ mg prot de foie et une constante d'affinité de l'enzyme pour le substrat (Km) de 51.6 μM pour le BPA et de 3 nmol/min/mg prot de foie et 149.2 μM pour le NAP. L'analyse des expositions combinées suggère une inhibition compétitive partielle du métabolisme du BPA par le NAP avec une valeur de Ki estimée à 0.3542 μM. Les résultats obtenus montrent que l’analyse de risque pour les polluants environnementaux doit donc prendre en considération la consommation des produits pharmaceutiques comme facteur pouvant accroitre le niveau interne lors d’une exposition donnée. Ces données in vivo sur les interactions métaboliques pourraient être intégrées dans un modèle pharmacocinétique à base physiologique (PBPK) pour prédire les conséquences toxicococinétique (TK) de l'exposition d'un individu à ces mélanges chimiques.
Resumo:
Comprendre ce qui amène un leader à émettre des comportements de leadership transformationnel fascine les chercheurs et praticiens depuis plusieurs années (Bommer, Rubin, & Baldwin, 2004; Bono & Judge, 2004; Shamir & Howell, 1999 ; Stogdill, 1948; Yukl, 1999). Or, jusqu’à présent, ces facteurs sont encore bien peu étudiés et compris comparativement aux conséquences de ce style de leadership. Dans cette lignée, la présente thèse répond à différents enjeux soulevés par les auteurs à ce sujet (Dinh & Lord, 2012; Zaccaro, 2007) en cherchant à préciser le rôle joué par différents antécédents individuels et contextuels du leadership transformationnel. Cet objectif sera poursuivi par l’adoption d’une perspective interactionniste qui intègre des antécédents de personnalité et de contexte ainsi par l’évaluation de la personnalité à l’aide d’une modélisation de la personnalité orientée vers le critère à prédire (variable composite). La présente thèse est composée de trois articles poursuivant les objectifs suivant : 1) Effectuer une synthèse de la littérature empirique portant sur les antécédents individuels et contextuels du leadership transformationnel; 2) Vérifier les liens empiriques entre la personnalité mesurée à l’aide de variables composites, plus précisément le modèle des Great Eight de Bartram (2005), et le leadership transformationnel; 3) Tester empiriquement l’effet d’interaction entre les variables de personnalité et les variables contextuelles pour prédire le leadership transformationnel. Le premier article vise d’abord à circonscrire et organiser les connaissances empiriques actuelles provenant d’une quarantaine d’articles concernant les antécédents du leadership transformationnel. L’article s’organise en trois thèmes principaux : les antécédents individuels de personnalité, les antécédents contextuels et l’étude des interactions entre le volet individuel et contextuel. Plusieurs constats et pistes de recherches sont discutés et mettent la table pour les deux articles subséquents. Ainsi, le second article s’intéresse au potentiel explicatif d’un modèle de personnalité orienté vers le critère pour prédire le leadership. Plus spécifiquement, le modèle des Great Eight proposé par Bartram (2005) est mis en relation avec les comportements de leadership transformationnel et de récompense contingente. Les résultats, obtenus auprès de 113 gestionnaires et de leurs 799 subordonnés, donnent peu d’appui à la valeur ajoutée du modèle utilisé, mais indiquent que certaines tendances de personnalité sont associées au leadership. Des analyses supplémentaires permettent de nuancer la compréhension des effets observés dans la documentation scientifique et offrent quelques pistes de groupements de traits pouvant prédire les différents comportements de leadership. Le troisième article s’inspire de la théorie de l’activation des traits (Tett & Burnett, 2003) pour vérifier l’effet combiné de la personnalité du gestionnaire et du contexte dans lequel il évolue en vue de prédire le leadership transformationnel. Les résultats (ngestionnaires = 89; nsubordonnés = 643) n’offrent qu’un appui modéré au rationnel sous-jacent du modèle de l’activation des traits. Toutefois, il en ressort que l’aspect relationnel du gestionnaire (opérationnalisé par le composite de personnalité « soutien et coopération ») est associé à l’émergence du leadership transformationnel uniquement lorsque les facteurs contextuels (considération organisationnelle, latitude décisionnelle) sont perçus positivement par le gestionnaire. L’étude permet donc d’éclaircir une part de la variabilité observée dans les études antérieures concernant la tendance relationnelle du gestionnaire, en soulignant sa sensibilité à des facteurs contextuels positifs.
Resumo:
L’industrie de la publicité doit se renouveler sans cesse pour suivre la réalité en constante évolution des entreprises et de leurs consommateurs, afin de produire des messages qui toucheront, séduiront, puis convaincront les publics visés. Différents facteurs socioéconomiques, politiques mais également technologiques incitent les annonceurs à orchestrer de vastes campagnes multilingues et multiculturelles, où est présentée une idée unique, conforme à l’identité de la marque, qui sera adaptée dans différents marchés. Il s’agit d’une stratégie très différente de celle de la création de campagnes propres à chaque culture, par des agences locales. Le choix de l’adaptation, motivé par des raisons économiques bien sûr, mais également stratégiques, entraîne une évolution de la perception de l’acte traduisant et de ses acteurs au sein du milieu du marketing et de la publicité. Alors que nous assistons à un rapprochement des industries du marketing et de la traduction, principalement dans les marchés secondaires comme le Québec, ce projet doctoral propose une réflexion traductologique sur la place que peut occuper l’adaptation dans une stratégie en publicité marketing, et sur les différentes fonctions que peut remplir un traducteur intégré à une équipe de spécialistes de la communication. Par ailleurs, de la réception du mandat d’adaptation à l’agence de marketing jusqu’à la diffusion du message dans la culture cible, nous explorons dans notre travail les différentes avenues que peut prendre le processus d’adaptation publicitaire. Cette thèse par articles comprend six publications en traductologie, publiées ou acceptées par des comités scientifiques, qui étudient la question de l’adaptation publicitaire sous un angle traductologique, mais ce travail multidisciplinaire s’inspire aussi des contributions des experts des études sur l’adaptation, la culture ainsi que la communication publicitaire. D’abord, le premier chapitre définit les notions de traduction, d’adaptation et d’appropriation auxquelles nous référerons tout au long de la thèse, et les situe dans le contexte de la communication promotionnelle internationale, notamment. Le deuxième chapitre dresse un portrait pratique et théorique de l’adaptation publicitaire, et porte sur les relations de travail entre le traducteur et les autres professionnels de l’agence. Nous y énumérons notamment les raisons de la progression du marché mondial de l’adaptation, comparativement à celui des multiples créations locales. Ensuite, le chapitre 3 définit les défis variés de l’adaptation publicitaire, et en présente une classification inspirée par la taxonomie de la théorie fonctionnaliste en traductologie, formée de quatre problèmes et deux difficultés traductionnels. Le chapitre 4 présente une réflexion sur les mécanismes intellectuels de l’adaptation publicitaire et sur les différentes lectures que le traducteur doit faire du texte source pour produire un message efficace, respectivement la lecture analytique (rationnelle et raisonnée), puis la lecture empathique, où il anticipe la réaction émotive des cibles. Le cinquième chapitre se concentre sur un aspect de la traduction audiovisuelle presque exclusive à l’industrie publicitaire : la double version, où le traducteur traduit non pas des dialogues apposés à l’image originale, mais plutôt le scénario dans son entièreté, afin de produire un nouveau message vidéo avec des acteurs appartenant à la culture cible. Enfin, notre sixième chapitre est une étude de cas menée en agence de publicité, qui analyse la pratique professionnelle de traducteurs dans leur environnement de travail, les mandats qui leur sont confiés ainsi que les ressources dont ils disposent. Ensemble, ces six chapitres visent à mieux faire connaître la démarche intellectuelle de l’adaptation publicitaire, à comprendre comment différents facteurs influencent le rôle du traducteur au sein d’une agence, à déterminer comment mieux préparer les professionnels de demain à exceller dans le marché très prometteur du marketing international, et à contribuer à l’avancement de la réflexion traductologique par l’étude d’un type de traduction spécialisée qui se démarque par ses pratiques et ses défis aussi intéressants qu’uniques.
Resumo:
People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.
Resumo:
Rapport de stage présenté à la Faculté des arts et des sciences en vue de l’obtention du grade de Maître ès sciences (M.Sc.) en criminologie, option intervention
Resumo:
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
L’adversité tôt dans la vie est associée au développement de symptômes anxieux pouvant perdurer jusqu’à l’âge adulte (Casey et el, 2010, Pine 2003). Des études chez l’adulte suggèrent que ces liens pourraient être associés à des altérations du « circuit de la peur » qui inclut l’amygdale, l’hippocampe antérieur, l’insula et le cortex préfrontal (Marek, 2013, Etkin & Wager, 2007). Ceci a cependant peu été étudié chez les jeunes. L’objectif principal de cette thèse était de définir les corrélats comportementaux, physiologiques, biologiques et neuronaux du traitement de la peur chez les jeunes en bonne santé, en lien ou non avec un historique d’adversité -- sous la forme de pratiques parentales coercitives -- et d’anxiété. D’abord, puisque nous nous intéressions aux pratiques parentales coercitives chroniques, nous avons examiné leur évolution et facteurs de risque, en nous concentrant sur la période de 17 à 72 mois. Un total de 2045 dyades mère-enfant ont été incluses dans une analyse de courbe de croissance latente. Nous avons démontré que la coercition maternelle suit une évolution non linéaire durant cette période et atteint un sommet à 42 mois. Les facteurs de risque relatifs à l’enfant et à la mère, mesurés à 17 mois, permettent de prédire les niveaux de coercition à 42 mois. Finalement, les prédicteurs relatifs à l’enfant et l’efficacité maternelle prédisent l’évolution des pratiques parentales coercitives entre 17 et 72 mois. Ensuite, afin de définir une méthodologie solide pour étudier le traitement de la peur chez des jeunes, nous avons adapté une tâche développée par Lau et ses collaborateurs (2008), employant des visages féminins comme stimuli. Le sexe des participants et des visages employés comme stimuli pouvant potentiellement moduler le traitement de la peur (Kret & de Gelder, 2012; McClure, 2000), nous avons étudié leurs influences respectives sur les réponses électrodermales et subjectives de peur durant le conditionnement et l’extinction de la peur chez 117 jeunes. Nous avons démontré que les stimuli féminins suscitent des réponses davantage comparables entre les garçons et les filles que les stimuli masculins. De plus, nous avons observé un effet du « même sexe », caractérisé par un conditionnement différentiel uniquement face aux stimuli du même sexe que le participant. Finalement, nous avons exploré les différences individuelles et conjointes associées aux différents niveaux de pratiques parentales coercitives et d’anxiété en termes de réponses de peur et d’activité cérébrale, durant le conditionnement et l’extinction de la peur chez 84 jeunes. Nous avons démontré que la coercition est spécifiquement associée au fonctionnement du lobe temporal médian et aux interactions entre l’amygdale et l’insula, durant le conditionnement. Durant l’extinction, les niveaux d’anxiété étaient associés à des différences spécifiques d’activation du gyrus cingulaire antérieur (GCA) dorsal. Enfin, les pratiques parentales coercitives et l’anxiété interagissent et viennent moduler la connectivité fonctionnelle amygdale - GCA rostral, l’activation d’une sous-région du GCA dorsal et les réponses subjectives de peur. Ces résultats ajoutent une pièce au casse-tête des neurosciences développementales et fournissent des pistes intéressantes pour le développement d’interventions futures.
Resumo:
Les stérosomes, des vésicules artificielles composées d’amphiphiles monoalkylés et d’un grand pourcentage de stérols, sont prometteurs dans plusieurs domaines comme les industries pharmaceutiques et alimentaires. Il existe des stérosomes chargés négativement, positivement et neutres. Dans ce mémoire, nous avons approfondi nos connaissances sur les propriétés physico-chimiques des stérosomes chargés : acide palmitique (PA)/stérol et stéarylamine (SA)/cholestérol (Chol). Premièrement, afin de mesurer la diffusion latérale de PA dans les membranes PA/stérol (30/70 mol/mol) par RMN à gradients pulsés, nous avons tenté de former des bicouches liquide-ordonnées (lo) orientées magnétiquement avec ce mélange. En s'inspirant de l’idée que l’ajout de 1,2-dihexanoyl-sn-glycéro-3-phosphocholine (DHPC), un lipide à courtes chaînes, dans le système 1,2-dimyristoyl-sn-glycéro-3-phosphocholine (DMPC) mène à la formation de bicouches orientées, nous avons étudié la formulation PA perdeutéré/acide hexanoïque (HA)/Chol avec une proportion molaire de 25/18/57 à plusieurs températures; aucune formation de bicouches orientées n’a été observée. Ce résultat pourrait être expliqué par la solubilisation partielle de HA en milieu aqueux. Alors, une quantité insuffisante serait insérée dans la bicouche pour induire son orientation. La formulation PA perdeutéré/DHPC/Chol n’a pas conduit, elle non plus, à des bicouches orientées magnétiquement à des températures et concentrations lipidiques variées. En étudiant le mélange DMPC/DHPC/Chol (67/17/14), nous avons remarqué que la présence de Chol inhibait l'orientation magnétique des bicouches. Tandis que le mélange DMPC/DHPC/stigmastérol (SS) avec les proportions molaires 67/19/14 et 72/21/7 conduisait à des bicouches orientées avec leur normale (n) perpendiculaire au champ magnétique à 40 °C et 50 °C. Ces résultats suggèrent que le mélange PA/SS avec une proportion de lipide à courtes chaînes, HA et DHPC, pourrait mener à des bicouches orientées magnétiquement. Le mélange PA/Chol avec un lipide à courtes chaînes pourrait aussi être étudié en présence des lanthanides. Deuxièmement, nous avons examiné la possibilité de moduler la libération de matériel encapsulé dans des liposomes essentiellement composés de PA et d’un stérol. Il est connu que le mélange PA/Chol (30/70) à pH ≥ 7,5 forme des liposomes très peu perméables. Il est avantageux de pouvoir moduler la perméabilité pour avoir un contrôle sur le temps de libération de leur contenu, qui est un paramètre de grande importance pour les formulations liposomales de médicaments. D’abord, il a été montré que l’acide oléique (OA)/Chol (30/70) est capable de former des vésicules, ce qui n’avait jamais été prouvé auparavant. Par contre, les bicouches OA/Chol (30/70) ne sont pas plus perméables que les bicouches PA/Chol (30/70). L’ajout de 1-palmitoyl-2-oléoyl-sn-glycéro-3-phosphatidylcholine (POPC) dans le mélange PA/Chol n’augmente pas plus la perméabilité. En effet, les cinétiques de relargage de calcéine des vésicules PA/POPC/Chol (15/27.5/57.5), POPC/Chol (40/60) et POPC étaient très semblables à celle de PA/Chol (30/70). Il a été remarqué que les études littéraires se contredisent à propos de la perméabilité à la calcéine des bicouches de phosphatidylcholine (PC). L’explication de ces divergences est inconnue pour le moment. En remplaçant la moitié de la proportion molaire de Chol par le cholate de sodium (SC) dans le mélange PA/Chol (30/70), la membrane n’était pas plus apte à libérer son contenu. Il se pourrait que le SC se retrouvant dans la bicouche n’induit pas une diminution d’empilement. Il est aussi possible que le SC ne s'insère pas dans la membrane à cause de son hydrophilie considérable et il pourrait alors former seul des micelles. En remplaçant complètement le Chol par le sulfate de cholestérol (SChol), un stérol chargé négativement, et en préparant les vésicules à un bas pH, la formulation PA/SChol (30/70) mène à une très grande perméabilité à pH 7.5; le relargage est provoqué par un saut de pH. Nos travaux suggèrent qu'il serait possible de moduler la perméabilité des liposomes en les préparant avec le mélange PA/SChol/Chol en variant les proportions entre 30/63/7 à 30/70/0. Le diagramme pH-composition du mélange PA/SChol/Chol indique que ces proportions conduisent, à pH 7.4, à la coexistence de phases solide et lo en différentes proportions, ce qui pourrait moduler la perméabilité membranaire. Troisièmement, les résultats de perméabilité obtenus avec la calcéine et les difficultés survenues lors de l’extrusion des vésicules encapsulant cette sonde nous ont amené à nous demander si la calcéine interagit avec les bicouches chargées. L’impact de certains anions, dont la calcéine, a été examiné sur les bicouches chargées positivement SA/Chol (50/50). La calorimétrie différentielle à balayage (DSC, de l’anglais differential scanning calorimetry), indique qu’il n’y a aucune transition entre 25 et 90 °C pour les liposomes SA/Chol (50/50) à pH = 7.4. L’ajout de chlorure de sodim (375 mM) n’a pas mené à la formation d’agrégats et aucune transition n’a été observée sur le thermogramme. La formation d’agrégats macroscopiques instantanément après l’ajout d’hydrogénophosphate de sodium (125 mM), de sulfate de sodium (125 mM) et de calcéine (3 mM) a été observée. Une transition a été observée sur les thermogrammes en présence de ces sels. Les agrégats observés pourraient être associés à la transition de phase. L’effet des anions sur la température et l’enthalpie de transition suivent le même ordre que la série d’Hofmeister : sulfate > hydrogénophosphate > chlorure (pas de pic). La calcéine avait l’impact le plus prononcé sur l’agrégation; ceci illustre que la calcéine n’est pas une sonde fluorescente inerte avec le mélange SA/Chol. Elle pourrait être un chaotrope volumineux. De plus, les interactions SA-calcéine plus fortes, menant à l’agrégation des vésicules, que les interactions PC-calcéine pourraient s’expliquer par le fait que la SA est chargée positivement.
Resumo:
This paper proposes and investigates a metaheuristic tabu search algorithm (TSA) that generates optimal or near optimal solutions sequences for the feedback length minimization problem (FLMP) associated to a design structure matrix (DSM). The FLMP is a non-linear combinatorial optimization problem, belonging to the NP-hard class, and therefore finding an exact optimal solution is very hard and time consuming, especially on medium and large problem instances. First, we introduce the subject and provide a review of the related literature and problem definitions. Using the tabu search method (TSM) paradigm, this paper presents a new tabu search algorithm that generates optimal or sub-optimal solutions for the feedback length minimization problem, using two different neighborhoods based on swaps of two activities and shifting an activity to a different position. Furthermore, this paper includes numerical results for analyzing the performance of the proposed TSA and for fixing the proper values of its parameters. Then we compare our results on benchmarked problems with those already published in the literature. We conclude that the proposed tabu search algorithm is very promising because it outperforms the existing methods, and because no other tabu search method for the FLMP is reported in the literature. The proposed tabu search algorithm applied to the process layer of the multidimensional design structure matrices proves to be a key optimization method for an optimal product development.
Resumo:
This paper analyzes the dynamics of wages and workers' mobility within firms with a hierarchical structure of job levels. The theoretical model proposed by Gibbons and Waldman (1999), that combines the notions of human capital accumulation, job rank assignments based on comparative advantage and learning about workers' abilities, is implemented empirically to measure the importance of these elements in explaining the wage policy of firms. Survey data from the GSOEP (German Socio-Economic Panel) are used to draw conclusions on the common features characterizing the wage policy of firms from a large sample of firms. The GSOEP survey also provides information on the worker's rank within his firm which is usually not available in other surveys. The results are consistent with non-random selection of workers onto the rungs of a job ladder. There is no direct evidence of learning about workers' unobserved abilities but the analysis reveals that unmeasured ability is an important factor driving wage dynamics. Finally, job rank effects remain significant even after controlling for measured and unmeasured characteristics.