32 resultados para entropy measure-valued solutions

em Université de Montréal, Canada


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse porte sur les questions d'évaluation et de couverture des options dans un modèle exponentiel-Lévy avec changements de régime. Un tel modèle est construit sur un processus additif markovien un peu comme le modèle de Black- Scholes est basé sur un mouvement Brownien. Du fait de l'existence de plusieurs sources d'aléa, nous sommes en présence d'un marché incomplet et ce fait rend inopérant les développements théoriques initiés par Black et Scholes et Merton dans le cadre d'un marché complet. Nous montrons dans cette thèse que l'utilisation de certains résultats de la théorie des processus additifs markoviens permet d'apporter des solutions aux problèmes d'évaluation et de couverture des options. Notamment, nous arrivons à caracté- riser la mesure martingale qui minimise l'entropie relative à la mesure de probabilit é historique ; aussi nous dérivons explicitement sous certaines conditions, le portefeuille optimal qui permet à un agent de minimiser localement le risque quadratique associé. Par ailleurs, dans une perspective plus pratique nous caract érisons le prix d'une option Européenne comme l'unique solution de viscosité d'un système d'équations intégro-di érentielles non-linéaires. Il s'agit là d'un premier pas pour la construction des schémas numériques pour approcher ledit prix.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Réalisé en majeure partie sous la tutelle de feu le Professeur Paul Arminjon. Après sa disparition, le Docteur Aziz Madrane a pris la relève de la direction de mes travaux.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Grâce à leur flexibilité et à leur facilité d’installation, les réseaux maillés sans fil (WMNs) permettent un déploiement d’une infrastructure à faible coût. Ces réseaux étendent la couverture des réseaux filaires permettant, ainsi, une connexion n’importe quand et n’importe où. Toutefois, leur performance est dégradée par les interférences et la congestion. Ces derniers causent des pertes de paquets et une augmentation du délai de transmission d’une façon drastique. Dans cette thèse, nous nous intéressons au routage adaptatif et à la stabilité dans ce type de réseaux. Dans une première partie de la thèse, nous nous intéressons à la conception d’une métrique de routage et à la sélection des passerelles permettant d’améliorer la performance des WMNs. Dans ce contexte nous proposons un protocole de routage à la source basé sur une nouvelle métrique. Cette métrique permet non seulement de capturer certaines caractéristiques des liens tels que les interférences inter-flux et intra-flux, le taux de perte des paquets mais également la surcharge des passerelles. Les résultats numériques montrent que la performance de cette métrique est meilleure que celle des solutions proposées dans la littérature. Dans une deuxième partie de la thèse, nous nous intéressons à certaines zones critiques dans les WMNs. Ces zones se trouvent autour des passerelles qui connaissent une concentration plus élevé du trafic ; elles risquent de provoquer des interférences et des congestions. À cet égard, nous proposons un protocole de routage proactif et adaptatif basé sur l’apprentissage par renforcement et qui pénalise les liens de mauvaise qualité lorsqu’on s’approche des passerelles. Un chemin dont la qualité des liens autour d’une passerelle est meilleure sera plus favorisé que les autres chemins de moindre qualité. Nous utilisons l’algorithme de Q-learning pour mettre à jour dynamiquement les coûts des chemins, sélectionner les prochains nœuds pour faire suivre les paquets vers les passerelles choisies et explorer d’autres nœuds voisins. Les résultats numériques montrent que notre protocole distribué, présente de meilleurs résultats comparativement aux protocoles présentés dans la littérature. Dans une troisième partie de cette thèse, nous nous intéressons aux problèmes d’instabilité des réseaux maillés sans fil. En effet, l’instabilité se produit à cause des changements fréquents des routes qui sont causés par les variations instantanées des qualités des liens dues à la présence des interférences et de la congestion. Ainsi, après une analyse de l’instabilité, nous proposons d’utiliser le nombre de variations des chemins dans une table de routage comme indicateur de perturbation des réseaux et nous utilisons la fonction d’entropie, connue dans les mesures de l’incertitude et du désordre des systèmes, pour sélectionner les routes stables. Les résultats numériques montrent de meilleures performances de notre protocole en comparaison avec d’autres protocoles dans la littérature en termes de débit, délai, taux de perte des paquets et l’indice de Gini.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We Use Survey Data on the Well-Being of Individuals to Measure Attitude Toward Risk. Risk Neutrality Cannot Be Rejected by the Data.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En janvier 2007, à 28 ans, Louise Brown est devenue maman. Trente ans, c'est le temps qu'il faut à une génération pour se renouveler. C'est aussi le temps, si bref à l'échelle de l'histoire, pour que les bouleversements induits par la science et les moeurs au ~e siècle modifient profondément le visage de la famille et de son ciment le plus intime, la filiation. Ce travail rend compte de la manière dont le droit appréhende ces changements dans des sociétés occidentales de plus en plus tiraillées entre leurs racines judéo-chrétiennes et leurs aspirations technologiques. Il cherche à comprendre la place du droit dans les nouveaux édifices familiaux et à évaluer la qualité des solutions que celui-ci propose face aux enjeux multiples et complexes de la procréation assistée. Il s'attache pour ce faire à l'examen de deux juridictions partageant un héritage commun à bien des égards, mais suivant des voies normatives différentes : la Suisse et le Québec. À ce titre, il définit des outils conceptuels nécessaires à la compréhension de la notion de filiation; il rend compte de la façon dont le droit a manipulé ces outils en régissant l'établissement de la filiation, la preuve de la filiation et la procréation assistée à proprement parler; et il conclut par une évaluation critique des solutions envisagées dans les deux systèmes étudiés. Il met ainsi en exergue les enjeux de la procréation assistée pour le droit de la filiation et la grande palette de solutions législatives envisageables. Il démontre que deux systèmes de droit peuvent traduire des préoccupations partagées par des dispositions diamétralement opposées. En particulier, l'égalité, la liberté et le bien de l'enfant se concrétisent selon des conceptions distinctes. L'attachement aux institutions se manifeste à des degrés variables. Les innovations scientifiques sont accueillies avec un enthousiasme plus ou moins soutenu. Tous ces facteurs sont les détenninants des familles suisse et québécoise, qui, pour s'être longtemps ressemblées, prennent aujourd'hui des chemins différents...mais pas irrémédiablement irréconciliables.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introduction : Chez les nouveau-nés prématurés, l’hyper-alimentation intraveineuse (HAIV) contribue à leur survie, mais elle est aussi une source importante de molécules oxydantes. L’absence d’une protection adéquate contre la lumière ambiante génère in vitro, via la photo-excitation de la riboflavine, du H2O2, des peroxydes organiques et un dérivé peroxydé de la vitamine C, l’ascorbylperoxyde (AscOOH). Plusieurs données du laboratoire associent l’infusion d’HAIV à des désordres lipidiques dans notre modèle animal. L’hypothèse est donc que l’AscOOH a un pouvoir oxydant et est responsable de certains des effets biologiques observés. Mes objectifs sont les suivants : 1) développer une méthode de dosage de l’AscOOH; 2) démontrer, à l’aide du modèle animal bien établi au laboratoire, des relations entre la concentration tissulaire de cette molécule et des paramètres métaboliques et l’état redox au foie et dans la circulation; et 3) confirmer l’effet physiologique de l’AscOOH dans un modèle cellulaire. Méthode : Différents étalons internes potentiels ont été testés pour le dosage de l’AscOOH par spectrométrie de masse après séparation sur HPLC (LC-MS). Les phases mobiles et conditions chromatographiques ont été optimisées. Pour l’objectif 2, des cobayes de 3 jours de vie (n=11) ont reçu par voie intraveineuse une dose d’AscOOH (entre 0 et 3,3mM). Les animaux ont été sacrifiés au 4e jour de traitement pour le prélèvement de tissus. Les concentrations tissulaires d’AscOOH ont été déterminées au LC-MS. La triglycéridémie et la cholestérolémie ont été mesurées à l’aide d’un kit commercial par spectrophotométrie. Le glutathion oxydé et réduit ont été mesurés par électrophorèse capillaire. Les relations linéaires obtenues sont exprimées par le ratio des carrés (r2), et traitées par ANOVA. Résultats : La validation du dosage de l’AscOOH par LC-MS a été réalisée. Chez les animaux, la concentration urinaire d’AscOOH par créatinine corrèle positivement avec la dose reçue, négativement avec la lipidémie, et négativement avec le redox sanguin et érythrocytaire, indiquant un milieu moins oxydé. Conclusion : La concentration urinaire d’AscOOH peut donc être un reflet de l’oxydation de l’HAIV en clinique. Nos données chez l’animal suggèrent une interaction de l’AscOOH avec le métabolisme hépatique produisant une chute de la concentration plasmatique de cholestérol et de triglycérides. Le modèle cellulaire n’a pas permis d’élucider le mécanisme moléculaire de l’action de l’AscOOH sur le métabolisme.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le présent mémoire a pour objet les formes, les caractéristiques et les défis de la gouvernance des déchets électroniques. L’auteure explore les impactes socioéconomiques et environnementales de divers types d’instruments conçus pour mitiger les risques à la santé humaine et à l’environnement que présentent les produits électroniques en fin de vie, notamment: les traités multilatéraux qui visent à prohiber le transfert des déchets hasardeux au pays en développement, les législations régionales, nationales et provinciales mettant en vigueur des systèmes de recyclage obligatoire des déchets électroniques, ainsi que d’autres initiatives, publics et privées, basées sur le principe de la responsabilité élargie des producteurs (REP). L’objectif de ce travail est de comprendre comment les acteurs impliqués dans le commerce de l’équipement électronique peuvent modeler les systèmes de production, d’usage et du traitement fin de vie des technologies contemporaines pour que ces dernières puissent continuer à faire élever les standards de vie et à avancer le développement des communautés humaines, en respectant simultanément le principe international de l’équité globale, l’environnement naturel et la qualité de vie des générations futures.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les récents progrès en neuroimagerie ont permis, au cours des dernières années, de faire avancer les connaissances sur les maladies neurologiques et psychiatriques en offrant la possibilité de mieux comprendre l’évolution des maladies neurodégénératives et la nature du comportement, des émotions, de la personnalité, et de la cognition. Plusieurs défis éthiques ont émergés suite à l’utilisation de ces nouvelles technologies d’imagerie cérébrale. La perspective des chercheurs concernant les pratiques d’évaluation des protocoles de recherche en neuroimagerie ainsi que les défis éthiques, sociaux et légaux auxquels font face les chercheurs n'ont pas encore été étudiés, même s’ils constituent des acteurs clés. Nous avons entrepris une étude empirique sur les perspectives des chercheurs quant au processus d'évaluation par les comités d’éthique de la recherche (CÉR) afin d’examiner les enjeux éthiques, légaux et sociaux liés à la pratique de la neuroimagerie au Canada. Pour ce faire, nous avons expédié un questionnaire en ligne et réalisé des entrevues semi-structurées avec des chercheurs en neuroimagerie et des présidents des CÉR. Les entrevues ont été transcrites et analysées à l'aide du logiciel d'analyse qualitative Nvivo. Nos résultats ont mis en lumière plusieurs aspects éthiques légaux et sociaux suscitant une attention particulière afin de remédier aux défis actuels dans la recherche en neuroimagerie ainsi qu’au processus d’évaluation de la recherche par les CÉR. Nos données comportent également des recommandations provenant des chercheurs eux-mêmes afin d'améliorer le processus d'évaluation. Finalement, notre propre expérience avec cette étude multicentrique nous a permis de constater plusieurs des défis mentionnés par les chercheurs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Réalisée en milieux défavorisés, cette étude porte sur l’engagement scolaire des élèves de troisième cycle du primaire (5e et 6e années au Québec) dans un contexte d’utilisation pédagogique des technologies de l’information et de la communication (TIC). L’objectif de cette recherche est d’analyser l’engagement d’élèves utilisant les TIC. Elle vise à décrire les pratiques pédagogiques d’intégration des TIC de dix enseignants, de relater la qualité de l’engagement de leurs 230 élèves lors de tâches TIC et de mesurer l’évolution et la qualité de leur engagement scolaire selon le degré de défavorisation de leur école. Pour ce faire, cette recherche s’est inspirée d’un cadre de référence traitant l’engagement scolaire selon les dimensions affective, comportementale et cognitive. De plus, cette étude multicas essentiellement de nature interprétative et descriptive a utilisé une méthodologie mixte de collecte et d’analyse des données. Les résultats montrent notamment que les enseignants accordent une valeur pédagogique importante aux TIC tant dans la fréquence de leur utilisation, dans les usages valorisés que dans la façon de les intégrer en classe. Les enseignants privilégient largement le traitement de texte et la recherche sur Internet, mais très peu d’autres usages pertinents sont mis de l’avant de manière soutenue. La majorité des enseignants interrogés préférerait se servir de quatre ordinateurs en classe pour utiliser les TIC plus facilement que d’avoir uniquement accès au laboratoire de leur école. De plus, ils perçoivent de manière unanime que l’utilisation des TIC exerce une influence importante sur la dimension affective de leurs élèves lors d’activités préparées, assez bonne sur la dimension comportementale et plus discutable sur la dimension cognitive. Plus globalement, les élèves eux-mêmes affichent en général un engagement scolaire relativement élevé. En six mois, la qualité de l’engagement affectif des élèves est restée stable, leur engagement comportemental a progressé, mais leur engagement cognitif a baissé légèrement. Les résultats montrent aussi que la qualité de l’engagement des élèves de milieux défavorisés évolue différemment selon le degré de défavorisation de leur école. Dans cette recherche, l’importance de l’utilisation des TIC sur la qualité de l’engagement est marquante et s’avère parfois meilleure que dans d’autres types de tâches. Sans pouvoir généraliser, cette étude permet aussi de saisir davantage la qualité et l’évolution de l’engagement scolaire des élèves de la fin du primaire en milieux défavorisés. Des recommandations pour le milieu et des pistes de recherches futures sont présentées en tenant compte des limites et des forces de cette thèse inédite réalisée par articles.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

À l'aide des tout derniers modèles narratologiques développés entre autres par Ansgar Nünning, nous nous penchons sur l'oeuvre d'Eveline Hasler, une voix phare de la littérature alémanique contemporaine. À partir d’un corpus de six romans, nous examinons de façon systématique sa poétique du roman historique au regard 1) des techniques narratives, 2) de la marginalité de ses personnages en société, 3) de la conception de l’Histoire, 4) de l'image critique qu'elle présente de la Suisse. Il en ressort un portrait très nuancé de l'oeuvre de Hasler, puisqu’elle allie un récit principalement réaliste, plutôt traditionnel, mais aussi inspiré du langage cinématographique, à des passages métahistoriographiques postmodernes, où une narratrice assimilable à l’auteure fait part au « je » de ses réflexions sur l'Histoire. Même si ces brefs passages relativement rares rappellent sans contredit la posture de l’historien, ils s’inscrivent toutefois dans la fiction, laquelle actualise le passé dans la perspective historique d’un lecteur contemporain. De fait, l’œuvre de Hasler se présente comme un jeu habile avec la liberté poétique et le souci de véracité historique, ce à quoi concourt l’imbrication de documents originaux en italique dans le roman. Par ailleurs, la question de la marginalité en société joue un rôle prépondérant chez Hasler, car tous ses personnages principaux sont autant de marginaux, de Außenseiter. Cette problématique montre entre autres les limites de l’Aufklärung, étant donné que ses tenants, les adversaires des marginaux, se targuent le plus souvent d’être motivés par la pensée éclairante pour mieux la pervertir. Il en résulte la mise à l’écart des individus dérangeants — la prétendue sorcière, le géant et les femmes qui remettent en cause l’organisation patriarcale. Or, certains marginaux de Hasler parviennent à s’arracher un espace de liberté dans la marge, au prix de leurs racines helvétiques. Ainsi, ces marginaux peinent à s’inscrire dans l’Histoire dite officielle, ce que Hasler tente de rectifier en leur redonnant une voix. Sur le plan individuel, la plupart d’entre eux expérimentent une évolution circulaire, puisqu’ils ne parviennent pas à sortir de la marge (sauf peut-être Henry Dunant). Cette impression de tourner en rond s’oppose à une conception de l’Histoire humaine qui se déroule en continuum, puisque les exclusions d’hier préfigurent celles d’aujourd’hui. Au-delà de cette mesure humaine du temps, l’horizon temporel de la nature s’inscrit pour sa part dans la permanence. Ainsi, Hasler développe une conception historique qui varie selon des points de vue coexistants. Cet amalgame est le plus souvent marqué par un certain pessimisme, comme le dénote la vie d’Emily Kempin associée au mythe d’Icare. Finalement, tous les acteurs historiques de Hasler appartiennent au contexte helvétique et en présentent une image assez rétrograde, laquelle se dévoile non seulement à travers la fictionnalisation des lieux, mais aussi par des références à trois symboles nationaux : les Alpes, le réduit helvétique et la légende de Guillaume Tell. Hasler fait le procès de ces mythes, associés à la liberté et à la sauvegarde de ce « peuple de bergers », en montrant que la Suisse n’apporte pas de solution originale aux défis de l’Occident.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans ce travail, nous adaptons la méthode des symétries conditionnelles afin de construire des solutions exprimées en termes des invariants de Riemann. Dans ce contexte, nous considérons des systèmes non elliptiques quasilinéaires homogènes (de type hydrodynamique) du premier ordre d'équations aux dérivées partielles multidimensionnelles. Nous décrivons en détail les conditions nécessaires et suffisantes pour garantir l'existence locale de ce type de solution. Nous étudions les relations entre la structure des éléments intégraux et la possibilité de construire certaines classes de solutions de rang k. Ces classes de solutions incluent les superpositions non linéaires d'ondes de Riemann ainsi que les solutions multisolitoniques. Nous généralisons cette méthode aux systèmes non homogènes quasilinéaires et non elliptiques du premier ordre. Ces méthodes sont appliquées aux équations de la dynamique des fluides en (3+1) dimensions modélisant le flot d'un fluide isentropique. De nouvelles classes de solutions de rang 2 et 3 sont construites et elles incluent des solutions double- et triple-solitoniques. De nouveaux phénomènes non linéaires et linéaires sont établis pour la superposition des ondes de Riemann. Finalement, nous discutons de certains aspects concernant la construction de solutions de rang 2 pour l'équation de Kadomtsev-Petviashvili sans dispersion.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Afin d'étudier la diffusion et la libération de molécules de tailles inférieures dans un gel polymère, les coefficients d'auto-diffusion d'une série de polymères en étoile avec un noyau d'acide cholique et quatre branches de poly(éthylène glycol) (PEG) ont été déterminés par spectroscopie RMN à gradient de champ pulsé dans des solutions aqueuses et des gels de poly(alcool vinylique). Les coefficients de diffusion obtenus ont été comparés avec ceux des PEGs linéaires et dendritiques pour étudier l'effet de l'architecture des polymères. Les polymères en étoile amphiphiles ont des profils de diffusion en fonction de la concentration similaires à leurs homologues linéaires dans le régime dilué. Ils diffusent plus lentement dans le régime semi-dilué en raison de leur noyau hydrophobe. Leurs conformations en solution ont été étudiées par des mesures de temps de relaxation spin-réseau T1 du noyau et des branches. L'imagerie RMN a été utilisée pour étudier le gonflement des comprimés polymères et la diffusion dans la matrice polymère. Les comprimés étaient constitués d'amidon à haute teneur en amylose et chargés avec de l'acétaminophène (de 10 à 40% en poids). Le gonflement des comprimés, ainsi que l'absorption et la diffusion de l'eau, augmentent avec la teneur en médicament, tandis que le pourcentage de libération du médicament est similaire pour tous les comprimés. Le gonflement in vitro des comprimés d'un complexe polyélectrolyte à base d'amidon carboxyméthylé et de chitosane a également été étudié par imagerie RMN. Ces comprimés sont sensibles au pH : ils gonflent beaucoup plus dans les milieux acides que dans les milieux neutres en raison de la dissociation des deux composants et de la protonation des chaînes du chitosane. La comparaison des résultats avec ceux d'amidon à haute teneur en amylose indique que les deux matrices ont des gonflements et des profils de libération du médicament semblables dans les milieux neutres, alors que les comprimés complexes gonflent plus dans les milieux acides en raison de la dissociation du chitosane et de l'amidon.