92 resultados para TRANSFORMED MIGRAINE

em Université de Montréal, Canada


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper : a) the consumer’s problem is studied over two periods, the second one involving S states, and the consumer being endowed with S+1 incomes and having access to N financial assets; b) the consumer is then representable by a continuously differentiable system of demands, commodity demands, asset demands and desirabilities of incomes (the S+1 Lagrange multiplier of the S+1 constraints); c) the multipliers can be transformed into subjective Arrow prices; d) the effects of the various incomes on these Arrow prices decompose into a compensation effect (an Antonelli matrix) and a wealth effect; e) the Antonelli matrix has rank S-N, the dimension of incompleteness, if the consumer can financially adjust himself when facing income shocks; f) the matrix has rank S, if not; g) in the first case, the matrix represents a residual aversion; in the second case, a fundamental aversion; the difference between them is an aversion to illiquidity; this last relation corresponds to the Drèze-Modigliani decomposition (1972); h) the fundamental aversion decomposes also into an aversion to impatience and a risk aversion; i) the above decompositions span a third decomposition; if there exists a sure asset (to be defined, the usual definition being too specific), the fundamental aversion admits a three-component decomposition, an aversion to impatience, a residual aversion and an aversion to the illiquidity of risky assets; j) the formulas of the corresponding financial premiums are also presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce texte propose des méthodes d’inférence exactes (tests et régions de confiance) sur des modèles de régression linéaires avec erreurs autocorrélées suivant un processus autorégressif d’ordre deux [AR(2)], qui peut être non stationnaire. L’approche proposée est une généralisation de celle décrite dans Dufour (1990) pour un modèle de régression avec erreurs AR(1) et comporte trois étapes. Premièrement, on construit une région de confiance exacte pour le vecteur des coefficients du processus autorégressif (φ). Cette région est obtenue par inversion de tests d’indépendance des erreurs sur une forme transformée du modèle contre des alternatives de dépendance aux délais un et deux. Deuxièmement, en exploitant la dualité entre tests et régions de confiance (inversion de tests), on détermine une région de confiance conjointe pour le vecteur φ et un vecteur d’intérêt M de combinaisons linéaires des coefficients de régression du modèle. Troisièmement, par une méthode de projection, on obtient des intervalles de confiance «marginaux» ainsi que des tests à bornes exacts pour les composantes de M. Ces méthodes sont appliquées à des modèles du stock de monnaie (M2) et du niveau des prix (indice implicite du PNB) américains

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La « critique sociale » doit être comprise comme étant la capacité d’exprimer, d’afficher et d’exercer sa différence. Par ailleurs, la capacité d’exprimer sa différence est étroitement liée à l’état d’égalité. En revanche, ce sont les inégalités sociales qui poussent à l’homogénéisation. Alors, comment les personnes qui subissent les inégalités sociales peuvent-elle échapper à l’homogénéisation et devenir agents de critique sociale et moteurs de changement ? Autrement dit, faut-il donner raison à Marcuse sur le fait qu’une véritable remise en question du modèle dominant ne peut qu’émerger à la marge ? On peut penser que c’est là le rôle des organismes communautaires, même s’il arrive que le modèle dominant les récupère pour en faire un organe d’intégration des forces en opposition. Notre premier objectif de recherche est donc de voir s’il existe une critique concernent le travail chez les personnes interviewées. En outre, notre second objectif est de voir si le fait d’être à la marge permet de développer un rapport contestataire au modèle dominant de travail.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Salmonella enterica sérovar Typhi (Typhi) est une bactérie pathogène spécifique à l’homme. Typhi est l’agent étiologique de la fièvre typhoïde chez l’humain, causant plus de 16 millions de nouveaux cas par année et plus de 600 000 morts. Il a été démontré que pour causer une infection systémique, Salmonella doit nécessairement survivre dans les macrophages de l'hôte. Paradoxalement, S. enterica sérovar Typhimurium, très apparenté à Typhi (près de 90 % d’homologie), n’a pas la capacité de se disséminer dans l’organisme humain et peut infecter plusieurs espèces animales. Nous avons antérieurement identifié 36 gènes uniques à Typhi (absents chez Typhimurium) situés sur 15 régions différentes et exprimés sélectivement lors de l’infection de macrophages humains. Ainsi, l’une de ces régions a suscité notre attention, soit la région sty4217-4222 et plus particulièrement le produit du gène sty4221, une aminotransférase hypothétique. Ce dernier gène est d’intérêt dû à l’homologie qu’il détient avec une hémolysine connue (Hly) produite par Treponema denticola, possédant elle-même une activité d’aminotransférase. Chez T. denticola, Hly dégrade la cystéine et produit du H2S qui est toxique pour l’hôte. Notre hypothèse est que la spécificité d’hôte et la capacité de produire une infection systémique de Typhi sont dues à l’expression de gènes qui ne se retrouvent pas chez d’autres salmonelles. Le but de cette étude était donc de caractériser le gène sty4221 quant à son activité hémolytique, cytotoxique et tenter de déterminer son rôle dans la virulence de cette bactérie. Le gène sty4221 a été cloné sous le contrôle d’un promoteur inductible à l’arabinose et exprimé par E. coli. L’activité hémolytique du clone a été déterminée par simple observation sur gélose sang. Ce clone a également permis d’observer l’effet cytotoxique du surnageant de culture sur différentes lignées cellulaires, par quantification de la relâche de LDH. Le gène sty4221 a été muté chez la souche sauvage de Typhi, ISP1820, l’implication pathogénique du gène a ainsi pu être étudiée. Des tests de phagocytose, d’invasion et de survie dans des macrophages humains ont été effectués, ainsi que des tests d’adhésion et d’invasion sur des cellules HeLa. Par ailleurs, une première tentative de purification de la protéine a été entreprise. En somme, nous savons maintenant que STY4221 a des propriétés hémolytiques, augmentées par la présence de cystéine. De plus, STY4221 a un effet cytotoxique sur les macrophages THP-I, mais aucun effet sur les HeLa. Or, sty4221 ne semble pas impliqué dans les étapes d’adhésion, d’invasion, de phagocytose ou de survie. La caractérisation de sty4221 permettra sans doute d’approfondir nos connaissances sur les toxines trouvées uniquement chez Typhi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Différentes translocations génomiques sont fréquemment associées à l'apparition de leucémies myéloïdes aiguës (LMA). Ces translocations génomiques résultent de l’assemblage de deux gènes conduisant à la production d'une protéine de fusion. C'est le cas de la translocation t (3; 5) (q25.1; q34) impliquant le suppresseur tumoral NPM et l'oncogène MLF1 donnant naissance à la protéine de fusion NPM-MLF1. Généralement, les gènes impliqués dans ces translocations contrôlent la croissance cellulaire, la différenciation ou la survie cellulaire. Cependant, pour NPM-MLF1 les causes du gain ou de la perte de fonction associée à la translocation demeurent inconnues car nous ne savons pas comment cette translocation peut favoriser ou participer à l'avènement de la LMA. Le but de ce travail est d’analyser le rôle de NPM-MLF1 dans le cancer et d’examiner comment son activité contribue à la leucémie en faisant des études d’interactions protéine/protéine. En effet, l’étude de la fonction d’une protéine implique souvent de connaître ses partenaires d’interactions. Pour ce faire, la technique de double hybride dans la souche de levure AH109 a été utilisée. Tout d’abord, les ADN complémentaires (ADNc) de MLF1, NPM1 et de NPM-MLF1, MLF1-Like (une partie de MLF1 de l’acide aminé 94 à 157) normaux et mutés du domaine MTG8-Like constitué des acides aminés (a.a.) 151 à 164 de MLF1 (excepté NPM) ont été clonés dans un vecteur d'expression de levure pGBKT7. Les ADNc de GFI-1, mSin3A, PLZF, HDAC1 et HDAC3 ont été clonés dans le plasmide pGADT7 de façon à créer des protéines de fusion synthétiques avec le domaine de liaison à l'ADN et de trans-activation de la protéine GAL4. Le plasmide pGBKT7 possède un gène TRP1 et pGADT7 un gène LEU2 qui permettent la sélection des clones insérés dans la levure. Aussi, le pGBKT7 a un épitope c-myc et pGADT7 un épitope HA qui permet de voir l’expression des protéines par buvardage de type Western. Après la transformation des levures les interactions protéine/protéine ont été observées en vérifiant l’expression des gènes rapporteurs HIS3, LacZ, MEL1, ADE2 de la levure en utilisant des milieux de sélection YPD/-Leu/-Trp, YPD/-Leu/-Trp/-His, YPD/-Leu/-Trp/-His/-Ade, YPD/-Leu/-Trp/+ X-Gal, YPD/-Leu/-Trp/ + X-α-Gal. Ensuite, les interactions trouvées par double-hybride ont été vérifiées dans les cellules érythroleucémiques K562 par immuno-précipitation (IP) de protéines suivies de buvardages Westerns avec les anticorps appropriés. NPM-MLF1, MLF1, MTG8, MLF1-Like surexprimés dans les cellules K562 ont été clonés dans le plasmide pOZ-FH-N. pOZ-FH-N possède un récepteur IL-2 qui permet de sélectionner les cellules qui l’expriment ainsi qu’un tag Flag-HA qui permet de voir l’expression des protéines par buvardage-Western. Les résultats du double-hybride suggèrent une interaction faible de NPM-MLF1 avec HDAC1, HDAC3 et mSin3A ainsi qu’une interaction qui semble plus évidente entre NPM-MLF1 et PLZF, GFI-1. NPM interagit avec GFI-1 et mSin3A. Aussi, MLF1 et MLF1-Like interagissent avec HDAC1, HDAC3, GFI-1, PLZF mais pas avec mSin3A. Les IP suggèrent que NPM-MLF1 interagit avec HDAC1, HDAC3, mSin3A et PLZF. MLF1 et MLF1-Like interagissent avec HDAC1, HDAC3 et mSin3A. L’interaction de NPM-MLF1 avec GFI-1, MLF1 et MLF1-Like avec PLZF et GFI-1 n’a pas encore été vérifiée par IP. Ainsi, nos observations permettent de suggérer que NPM-MF1, MLF1 et NPM pourraient jouer un rôle dans la transcription et la régulation de l’expression de certains gènes importants dans l’hématopoïèse et une variété de processus cellulaires parce qu’ils interagissent avec différents corépresseurs. En déterminant les partenaires protéiques de MLF1, NPM et NPM-MLF1, leurs fonctions et comment NPM-MLF1 influence et modifie le fonctionnement cellulaire normal; il sera possible de renverser le processus de LMA favorisé par la t (3; 5) NPM-MLF1 par la technologie d’interférence à l’ARN.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La spécialisation des techniques agricoles que nous connaissons ces dernières décennies, particulièrement dans les régions rurales, est à l’origine de l’abus de fertilisants. Ces derniers sont actuellement reconnus comme étant les causes principales de la contamination de l’eau souterraine par les nitrates. Suite à leur ingestion via l’eau potable, les nitrates sont transformés en nitrites par la flore buccale. Une fois dans l’estomac les nitrites réagissent avec certaines amines provenant de l’alimentation pour générer des nitrosamines cancérogènes. L’objectif de notre étude était d’estimer quantitativement l’excès de risque de cancer (ER) pour les populations de sept régions rurales du Québec qui consomme l’eau potable provenant de réseaux municipaux alimentés en eau souterraine. Le territoire à l’étude était caractérisé par une agriculture intensive d’élevage. Les médianes (et 95e centiles) régionales des concentrations de nitrates mesurées dans les réseaux de ces régions étaient de : 0,18 (2,74); 0,48 (10,35); 0,15 (1,28); 0,32 (11); 0,05 (0,76); 0,10 (4,69); 0,09 (2,13) mg N-NO3-/l. Nous avons envisagé un scénario de transformation complète des nitrites et de certaines amines (diméthylamine, diéthylamine, n-butylamine, méthyléthylamine) en nitrosamines spécifiques : N-diméthylnitrosamine (NDMA), N-diéthylnitrosamine (NDEA), N-n-dibutylnitrosamine (NDBA) et N-méthyléthylnitrosamine (NMEA). Pour estimer la concentration de nitrites formés dans l’estomac, nous avons considéré une consommation définie d’eau potable, le volume de l’estomac et un taux de transformation des nitrates en nitrites. Supposant les quantités de nitrites et de chaque amine constantes pendant 1h, nous avons considéré la constante de nitrosation spécifique à chaque amine pour évaluer la dose d’exposition journalière à chaque nitrosamine équivalente formée. Par la suite, la combinaison de cette dose à un estimateur de potentiel cancérogène qhumain spécifique à chaque nitrosamine, nous a permis d’évaluer l’ER associé à chacune d’elles. Globalement l’analyse a démontré que les ER les plus élevés, estimés pour le NDBA, étaient de l’ordre de 10-6, ne contribuant pas de façon significative à une augmentation du risque de cancer pour ces populations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Toujours en évolution le droit maritime est constamment en train de se moderniser. Depuis ses débuts Ie droit maritime essaie de s'adapter aux réalités de son temps. Le changement fut lent et difficile à atteindre. Au départ la pratique voulait qu'un transporteur maritime puisse échapper à presque toute responsabilité. L'application des coutumes du domaine et du droit contractuel avait laissé place aux abus et aux inégalités de pouvoir entre transporteurs maritimes et chargeurs/propriétaires de marchandises. La venue du vingtième siècle changea tout. L'adoption des Règles de la Haye, Haye / Nisby et Hambourg a transforme Ie système de transport de marchandise par mer tel qu'on Ie connaissait jusqu'à date. Ainsi une évolution graduelle marqua l'industrie maritime, parallèlement Ie droit maritime se développa considérablement avec une participation judiciaire plus active. De nos jours, les transporteurs maritimes sont plus responsables, or cela n'empêche pas qu'ils ne sont pas toujours capables de livrer leurs cargaisons en bonne condition. Chaque fois qu'un bateau quitte Ie port lui et sa cargaison sont en danger. De par ce fait, des biens sont perdus ou endommages en cours de route sous la responsabilité du transporteur. Malgré les changements et l'évolution dans les opérations marines et l'administration du domaine la réalité demeure telle que Ie transport de marchandise par mer n' est pas garanti it. cent pour cent. Dans les premiers temps, un transporteur maritime encourait toutes sortes de périls durant son voyage. Conséquemment les marchandises étaient exposées aux pertes et dangers en cours de route. Chaque année un grand nombre de navires sont perdu en mer et avec eux la cargaison qu'ils transportent. Toute la modernisation au monde ne peut éliminer les hauts risques auxquels sont exposes les transporteurs et leurs marchandises. Vers la fin des années soixante-dix avec la venue de la convention de Hambourg on pouvait encore constater que Ie nombre de navires qui sont perdus en mer était en croissance. Ainsi même en temps moderne on n'échappe pas aux problèmes du passe. "En moyenne chaque jour un navire de plus de 100 tonneaux se perd corps et biens (ceci veut dire: navire et cargaison) et Ie chiffre croit: 473 en 1978. Aces sinistres majeurs viennent s'ajouter les multiples avaries dues au mauvais temps et les pertes pour de multiples raisons (marquage insuffisant, erreurs de destination...). Ces périls expliquent : (1) le système de responsabilité des transporteurs ; (2) la limitation de responsabilité des propriétaires de navires; ... " L'historique légal du système de responsabilité et d'indemnité des armateurs démontre la difficulté encourue par les cours en essayant d'atteindre un consensus et uniformité en traitant ses notions. Pour mieux comprendre les différentes facettes du commerce maritime il faut avoir une compréhension du rôle des armateurs dans ce domaine. Les armateurs représentent Ie moyen par lequel le transport de marchandises par mer est possible. Leur rôle est d'une importance centrale. Par conséquent, le droit maritime se retrouve face à des questions complexes de responsabilités et d'indemnités. En particulier, la validité de l'insertion de clauses d'exonérations par les transporteurs pour se libérer d'une partie ou de toutes leurs responsabilités. A travers les années cette pratique a atteint un tel point d'injustice et de flagrant abus qu'il n'est plus possible d'ignorer Ie problème. L'industrie en crise se trouve obliger d'affronter ces questions et promouvoir Ie changement. En droit commun, l'armateur pouvait modifier son obligation prima facie autant qu'il le voulait. Au cours des ans, ces clauses d'exception augmentaient en nombre et en complexité au point qu'il devenait difficile de percevoir quel droit on pouvait avoir contre Ie transporteur. Les propriétaires de marchandise, exportateurs et importateurs de marchandises i.e. chargeurs, transporteurs, juristes et auteurs sont d'avis qu'il faut trouver une solution relative aux questions des clauses d'exonérations insérées dans les contrats de transport sous connaissement. Plus précisément ces clauses qui favorisent beaucoup plus les armateurs que les chargeurs. De plus, depuis longtemps la notion du fardeau de preuve était obscure. Il était primordial pour les pays de chargeurs d'atteindre une solution concernant cette question, citant qu'en pratique un fardeau très lourd leur était impose. Leur désir était de trouver une solution juste et équitable pour toutes les parties concernées, et non une solution favorisant les intérêts d’un coté seulement. Le transport par mer étant en grande partie international il était évident qu'une solution viable ne pouvait être laissée aux mains d'un pays. La solution idéale devait inclure toutes les parties concernées. Malgré le désir de trouver une solution globale, le consensus général fut long à atteindre. Le besoin urgent d'uniformité entre les pays donna naissance à plusieurs essais au niveau prive, national et international. Au cours des ans, on tint un grand nombre de conférences traitant des questions de responsabilités et d'indemnités des transporteurs maritimes. Aucun succès n'est atteint dans la poursuite de l'uniformité. Conséquemment, en 1893 les États Unis prennent la situation en mains pour régler le problème et adopte une loi nationale. Ainsi: «Les réactions sont venues des États Unis, pays de chargeurs qui supportent mal un système qui les désavantage au profit des armateurs traditionnels, anglais, norvégiens, grecs... Le Harter Act de 1893 établit un système transactionnel, mais impératif... »2 On constate qu'aux États Unis la question des clauses d'exonérations était enfin régie et par conséquent en grande partie leur application limitée. L'application du Harter Act n'étant pas au niveau international son degré de succès avait des limites. Sur Ie plan international la situation demeure la même et Ie besoin de trouver une solution acceptable pour tous persiste. Au début du vingtième siècle, I'utilisation des contrats de transport sous connaissement pour Ie transport de marchandise par mer est pratique courante. Au coeur du problème les contrats de transport sous connaissement dans lesquels les armateurs insèrent toutes sortes de clauses d'exonérations controversées. II devient évident qu'une solution au problème des clauses d'exonérations abusives tourne autour d'une règlementation de l'utilisation des contrats de transport sous connaissement. Ainsi, tout compromis qu'on peut envisager doit nécessairement régir la pratique des armateurs dans leurs utilisations des contrats de transport sous connaissement. Les années antérieures et postérieures à la première guerre mondiale furent marquées par I'utilisation croissante et injuste des contrats de transport sous connaissement. Le besoin de standardiser la pratique devenait alors pressant et les pays chargeurs s'impatientaient et réclamaient l'adoption d'une législation semblable au Harter Act des États Unis. Une chose était certaine, tous les intérêts en cause aspiraient au même objectif, atteindre une acceptation, certitude et unanimité dans les pratiques courantes et légales. Les Règles de la Haye furent la solution tant recherchée. Ils représentaient un nouveau régime pour gouverner les obligations et responsabilités des transporteurs. Leur but était de promouvoir un système bien balance entre les parties en cause. De plus elles visaient à partager équitablement la responsabilité entre transporteurs et chargeurs pour toute perte ou dommage causes aux biens transportes. Par conséquent, l'applicabilité des Règles de la Haye était limitée aux contrats de transport sous connaissement. Avec le temps on a reconnu aux Règles un caractère international et on a accepte leur place centrale sur Ie plan global en tant que base des relations entre chargeurs et transporteurs. Au départ, la réception du nouveau régime ne fut pas chaleureuse. La convention de la Haye de 1924 fut ainsi sujette à une opposition massive de la part des transporteurs maritimes, qui refusaient l'imposition d'un compromis affectant l'utilisation des clauses d'exonérations. Finalement Ie besoin d'uniformité sur Ie plan international stimula son adoption en grand nombre. Les règles de la Haye furent pour leur temps une vraie innovation une catalyse pour les reformes futures et un modèle de réussite globale. Pour la première fois dans 1'histoire du droit maritime une convention internationale régira et limitera les pratiques abusives des transporteurs maritimes. Les règles ne laissent pas place aux incertitudes ils stipulent clairement que les clauses d'exonération contraire aux règles de la Haye seront nulles et sans valeur. De plus les règles énoncent sans équivoque les droits, obligations et responsabilités des transporteurs. Néanmoins, Ie commerce maritime suivant son cours est marque par le modernisme de son temps. La pratique courante exige des reformes pour s'adapter aux changements de l'industrie mettant ainsi fin à la période d'harmonisation. Les règles de la Haye sous leur forme originale ne répondent plus aux besoins de l'industrie maritime. Par conséquent à la fin des années soixante on adopte les Règles de Visby. Malgré leur succès les règles n'ont pu échapper aux nombreuses critiques exprimant l'opinion, qu'elles étaient plutôt favorables aux intérêts des transporteurs et au détriment des chargeurs. Répondant aux pressions montantes on amende les Règles de la Haye, et Ie 23 février 1968 elles sont modifiées par Ie protocole de Visby. Essayant de complaire à l'insatisfaction des pays chargeurs, l'adoption des Règles de Visby est loin d'être une réussite. Leur adoption ne remplace pas le régime de la Haye mais simplement met en place un supplément pour combler les lacunes du système existant. Les changements qu'on retrouve dans Visby n'étant pas d'une grande envergure, la reforme fut critiquée par tous. Donnant naissance à des nouveaux débats et enfin à une nouvelle convention. Visby étant un échec, en 1978 la réponse arrive avec l'instauration d'un nouveau régime, différent de son prédécesseur (Hay/Haye-Visby). Les Règles de XI Hambourg sont Ie résultat de beaucoup d'efforts sur Ie plan international. Sous une pression croissante des pays chargeurs et plus particulièrement des pays en voie de développement la venue d'un nouveau régime était inévitables. Le bon fonctionnement de l'industrie et la satisfaction de toutes les parties intéressées nécessitaient un compromis qui répond aux intérêts de tous. Avec l'aide des Nations Unis et la participation de toutes les parties concernées les Règles de Hambourg furent adoptées. Accepter ce nouveau régime impliqua le début d'un nouveau système et la fin d'une époque centrée autour des règles de la Haye. II n'y a aucun doute que les nouvelles règles coupent les liens avec Ie passe et changent Ie système de responsabilité qui gouverne les transporteurs maritimes. L'article 4(2) de la Haye et sa liste d'exception est éliminé. Un demi-siècle de pratique est mis de coté, on tourne la page sur les expériences du passe et on se tourne vers une nouvelle future. Il est clair que les deux systèmes régissant Ie droit maritime visent Ie même but, une conformité internationale. Cette thèse traitera la notion de responsabilité, obligation et indemnisation des transporteurs maritimes sous les règles de la Haye et Hambourg. En particulier les difficultés face aux questions d'exonérations et d'indemnités. Chaque régime a une approche distincte pour résoudre les questions et les inquiétudes du domaine. D’un coté, la thèse démontrera les différentes facettes de chaque système, par la suite on mettra l'accent sur les points faibles et les points forts de chaque régime. Chaque pays fait face au dilemme de savoir quel régime devrait gouverner son transport maritime. La question primordiale est de savoir comment briser les liens du passe et laisser les Règles de la Haye dans leur place, comme prédécesseur et modèle pour Ie nouveau système. Il est sûr qu'un grand nombre de pays ne veulent pas se départir des règles de la Haye et continuent de les appliquer. Un grand nombre d'auteurs expriment leurs désaccords et indiquent qu'il serait regrettable de tourner le dos à tant d'années de travail. Pour se départir des Règles de la Haye, il serait une erreur ainsi qu'une perte de temps et d'argent. Pendant plus de 50 ans les cours à travers Ie monde ont réussi à instaurer une certaine certitude et harmonisation sur Ie plan juridique. Tout changer maintenant ne semble pas logique. Tout de même l'évident ne peut être ignorer, les Règles de la Haye ne répondent plus aux besoins du domaine maritime moderne. Les questions de responsabilité, immunité, fardeau de preuve et conflit juridictionnel demeurent floues. La législation internationale nécessite des reformes qui vont avec les changements qui marque l'évolution du domaine. Les précurseurs du changement décrivent les Règles de la Haye comme archaïques, injustes et non conforme au progrès. Elles sont connues comme Ie produit des pays industrialises sans l'accord ou la participation des pays chargeurs ou en voie de développement. Ainsi I'adoption des Règles de Hambourg signifie Ie remplacement du système précédent et non pas sa reforme. L'article 5(1) du nouveau système décrit un régime de responsabilité base sur la présomption de faute sans recours à une liste d'exonération, de plus les nouvelles règles étendent la période de responsabilité du transporteur. Les Règles de Hambourg ne sont peut être pas la solution idéale mais pour la première fois elle représente les intérêts de toutes les parties concernées et mieux encore un compromis accepte par tous. Cela dit, il est vrai que Ie futur prochain demeure incertain. II est clair que la plupart des pays ne sont pas presses de joindre ce nouveau régime aussi merveilleux soit-il. Le débat demeure ouvert Ie verdict délibère encore. Une chose demeure sure, l'analyse détaillée du fonctionnement de Hambourg avec ses défauts et mérites est loin d'être achevée. Seulement avec Ie recul on peut chanter les louanges, la réussite ou I'insuccès d'un nouveau système. Par conséquent, Ie nombre restreint des parties y adhérents rend l'analyse difficile et seulement théorique. Néanmoins il y'a de l'espoir qu'avec Ie temps l'objectif recherche sera atteint et qu'un commerce maritime régi par des règles et coutumes uniformes it. travers Ie globe sera pratique courante. Entre temps la réalité du domaine nous expose it. un monde divise et régi par deux systèmes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’intérêt marqué porté actuellement aux recherches NBIC (nano-bio-info-cognitivo technologies) visant l’optimisation des capacités humaines augure d’un profond bouleversement dans nos représentations du corps humain et du rapport humain-machine. Tour à tour, des travaux issus des domaines du génie génétique, de la pharmacologie, des biotechnologies ou des nanotechnologies nous promettent un corps moins sujet à la maladie, mieux « adapté » et surtout plus malléable. Cette construction en laboratoire d’un corps amélioré fait amplement écho aux préoccupations contemporaines concernant la santé parfaite, le processus de vieillissement, l’inaptitude, l’apparence, la performance, etc. En vue d’analyser les transformations qu’induisent ces recherches sur les représentations du corps, nous avons construit un modèle théorique appuyé, d’une part, sur des travaux en sociologie du corps et, d’autre part, sur des travaux en épistémologie des sciences. Puis, en scrutant différents textes de vulgarisation scientifique produits par des chercheurs transhumanistes – militant ouvertement en faveur d’une optimisation radicale des capacités humaines par le biais des technosciences –, il a été observé que les représentations du corps s’organisent autour de trois principaux noyaux. Le corps humain est présenté, dans ce discours, comme étant à la fois informationnel, technologiquement perfectible et obsolète. Cette représentation tripartite du corps permet aux transhumanistes d’ériger leur modèle d’action (i.e. amélioration des capacités physiques, intellectuelles, sensitives, émotionnelles, etc.) à titre de nécessité anthropologique. À leurs yeux, l’amélioration des conditions humaines doit passer par une mutation contrôlée de la biologie (i.e. une hybridation avec la machine) du fait que le corps serait « inadapté » au monde contemporain. Ainsi, les promesses NBIC, une fois récupérées par les chercheurs transhumanistes, se voient exacerbées et prennent une tonalité péremptoire. Ceci contribue vivement à la promotion du posthumain ou du cyborg, soit d’un individu transformé dans l’optique d’être plus robuste et intelligent, de moduler sa sensitivité et ses états émotifs et de vivre plus longtemps, voire indéfiniment. Enfin, situé à mi-chemin entre la science et la science-fiction, ce projet est qualifié de techno-prophétie en ce qu’il produit d’innombrables prévisions basées sur les avancées technoscientifiques actuelles et potentielles. Afin d’accroître l’acceptabilité sociale de leur modèle d’action, les transhumanistes ne font pas uniquement appel à la (potentielle) faisabilité technique; ils s’appuient également sur des valeurs socialement partagées, telles que l’autodétermination, la perfectibilité humaine, l’égalité, la liberté ou la dignité. Néanmoins, la lecture qu’ils en font est parfois surprenante et rompt très souvent avec les conceptions issues de la modernité. À leur avis, le perfectionnement humain doit s’opérer par le biais des technosciences (non des institutions sociales), sur le corps même des individus (non sur l’environnement) et en vertu de leur « droit » à l’autodétermination compris comme un droit individuel d’optimiser ses capacités. De même, les technosciences doivent, disent-ils, être démocratisées afin d’en garantir l’accessibilité, de réduire les inégalités biologiques et de permettre à chacun de renforcer son sentiment d’identité et d’accomplissement. L’analyse du discours transhumaniste nous a donc permis d’observer leurs représentations du corps de même que la résonance culturelle du projet qu’ils proposent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but premier de cette étude sera de comprendre le rôle de l’écriture de voyage telle qu’elle est pratiquée dans l’œuvre d’Henri Michaux et d’expliquer le parcours qui mène ce dernier du voyage réel au voyage imaginaire. Les trois ouvrages principaux qui constitueront notre objet d’analyse, c’est-à-dire Ecuador (1929), Un Barbare en Asie (1933), ainsi que le récit imaginaire d’Ailleurs (1946), transforment chacun à leur façon le genre de la relation de voyage en mettant de l’avant non pas une écriture de l’Autre mais une écriture de soi. Il semble en effet que, chez Michaux, l’écriture de l’ailleurs n’a de valeur que dans l’affirmation de la position du sujet face à un réel angoissant, réel devant impérativement être tenu à distance par le biais du langage. Incidemment, dans sa volonté d’expatriation, le voyageur est pris entre deux temps bien distincts, celui du désir d’adéquation et celui du repli sur soi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les systèmes de gestion intégrée en environnement et en santé et sécurité du travail (SGI) sont un nouveau paradigme de gestion dans les organisations modernes. Ces systèmes sont construits à partir des normes ISO 14001 et d’OHSAS 18001, basées sur la prévention des risques et le principe de précaution. La littérature sur les SGI témoigne d’un marasme conceptuel prédominant depuis plus de 10 ans; elle insiste sur l’urgence d’un consensus taxinomique et conceptuel afin de définir les systèmes de gestion intégrée et de différencier le mécanisme d’intégration de celui de l’implantation. Cette lacune conceptuelle enlise les connaissances dans un fossé épistémologique, retardant ainsi le débat dans ce nouveau champ d’études. Les rares connaissances dont nous disposons dans ce domaine proviennent de quelques études théoriques et de six études empiriques, toutes préoccupées par la compatibilité des multiples systèmes et des avantages économiques de leur intégration. Les évidences engendrées par ces études sont insuffisantes pour appréhender la dynamique du nouveau paradigme dont les effets demeurent peu connus. Cette situation révèle l’urgence d’agir dans un contexte où l’utilisation des SGI se multiplie, et où leur tendance à minimiser l’importance des risques devient de plus en plus préoccupante. Aucune étude ne s’est encore penchée sur l’implantation d’un SGI en environnement et en santé et sécurité du travail construit uniquement à partir des normes ISO 14001 et d’OHSAS 18001. Cette connaissance est importante pour expliquer les effets de tels systèmes. C’est dans cette perspective que nous avons réalisé cette première étude empirique d’un SGI selon les normes ISO 14001 et d’OHSAS 18001. Nos questions de recherche portent sur le mode, le degré d’implantation, les effets du SGI, ainsi que sur les facteurs contextuels qui interviennent pour expliquer les variations dans le degré d’implantation et les effets du SGI. Il s’agit d’une recherche à prélèvement qualitatif qui repose sur un devis d’étude de cas, avec des niveaux d’analyse imbriqués, et comportant une double visée descriptive et explicative. Notre échantillon, de type raisonné, regroupait trente-cinq intervenants provenant de différentes instances hiérarchiques ; il incluait également des représentants syndicaux. Notre échantillon était composé de 7 usines, accréditées aux normes ISO 14001, OHSAS 18001, et dispersées dans différentes villes du Québec. Ces usines différaient tant par leur technologie, leur âge, leur taille, et leurs types de production. Nos données ont été recueillies en 2004; elles sont basées sur des entrevues semi dirigées, sur des observations directes lors de la visite des lieux; elles s’appuient aussi sur des consultations de documents internes et sur des outils électroniques implantés. La transcription des entrevues effectuée, le contenu des discours a été catégorisé selon les cinq dimensions du SGI: engagement, planification, mise en opération, contrôle et revue de la direction. Une condensation horizontale avait précédé l’analyse de chaque cas et l’analyse transversale des cas selon une approche à la fois inductive et déductive. Les résultats de notre recherche ont révélé deux modes d’implantation : le mode d’enrichissement et le mode de fusion. Ces modes dépendaient de la nature des structures fonctionnelles en place. La visée d’amélioration continue à la base du SGI n’avait pas réussi à concilier les approches traditionnelles bottom up et top down qui ont dominé cette implantation; son mécanisme était guidé par 4 types de stratégies : l’économie des ressources, le contrôle des forces d’influences, la stratégie des fruits faciles à cueillir et la stratégie à petits pas. Pour analyser le degré d’implantation, nous avons tenu compte de l’effort de structuration du SGI et de la force d’utilisation des processus implantés à chacune des cinq dimensions du SGI. Les résultats de notre recherche révèlent une variabilité certaine du degré d’implantation entre les usines d’une part, et entre les processus associés aux cinq dimensions du SGI d’autre part. L’analyse des discours a permis de produire cinq hypothèses qui soutiennent l’effort de structuration et la force d’utilisation du SGI: (i) l’hypothèse de la force de cohésion, (ii) l’hypothèse de la spécificité du processus, (iii) l’hypothèse de la portée du processus, (iv) l’hypothèse de la capacité organisationnelle, (v) l’hypothèse de l’acceptation du changement. L’implantation du SGI était soumise à l’influence de multiples facteurs; ils étaient de nature politique, structurelle et organisationnelle. Ces facteurs avaient agi sur le processus d’implantation en amorçant une cascade d’interactions au cours desquelles leurs forces d’influences se renforçaient, se neutralisaient ou s’additionnaient pour affecter le degré d’implantation. Les facteurs facilitant touchaient surtout l’effort de structuration ; ils incluaient : l’expérience des systèmes de gestion, l’implication de la direction, celle du syndicat ou du CSS, la structure organisationnelle, le niveau d’éducation, l’âge et la taille de l’usine. Quant aux facteurs contraignants, ils agissaient sur la force d’utilisation ; ils incluaient : la lourdeur procédurale, le manque de temps, le manque de formation, le manque de ressources, la culture organisationnelle, la structure organisationnelle, le fossé intergénérationnel, l’absence du syndicat et l’âge de l’usine. Trois effets proximaux escomptés par l’entreprise ont été observés. (i) La rigueur de la gestion était associée à l’application des exigences du SGI; elle touchait la gouvernance en environnement et en santé et sécurité du travail, les mécanismes de gestion et les procédés de production. (ii) La standardisation était reliée au mode d’implantation du SGI; elle concernait les pratiques, les outils, les méthodes de travail et l’organisation des ressources. (iii) La rupture des silos est un effet relié au mode d’implantation du SGI; elle touchait les structures départementales, les frontières professionnelles, les relations et climat de travail. Ces effets proximaux avaient provoqué plusieurs effets émergents, plus distaux: une augmentation du pouvoir de contrôle syndical, un renforcement de la légitimité des recommandations soumises par les spécialistes professionnels, la création de réseaux inter organisationnels et le transfert du savoir. L’implantation du SGI avait transformé la gouvernance et les pratiques en environnement et en santé et sécurité du travail dans les sept usines. Toutefois, elle ne semblait pas garantir l’immunité du processus de gestion des risques à l’environnement ni à la santé et sécurité du travail. Sa capacité à diluer les risques devait retenir l’attention des politiques de santé publiques et des programmes de prévention des risques à l’environnement et à la santé et sécurité du travail. L’amélioration de la gestion des risques demeurait un effet attendu non observé et soumis à des facteurs contextuels qui pourraient l’empêcher de se concrétiser. À cet égard, le transfert du savoir, renforcé par l’émergence des réseaux inter organisationnels, semblait offrir une avenue beaucoup plus prometteuse et accessible. C’est l’une des contributions de cette recherche. Elle a aussi (i) proposé une typologie des modes d’implantation et des effets du SGI (ii) préconisé une méthode détaillée d’une meilleure appréciation du degré d’implantation (iii) précisé le rôle des facteurs contextuels dans l’explication des variations du degré d’implantation et dans la production des effets, (iv) proposé des hypothèses sur la structuration et l’utilisation du SGI (v) offert une perspective plurielle et approfondie de la dynamique de l’implantation du SGI grâce à la variété de l’échantillon des répondants et des usines. Il s’agit de la première étude de terrain dans le domaine. À notre connaissance, aucune autre étude n’a eu de tels résultats. Mots Clés : ISO 14001, OHSAS 18001, gestion intégrée, environnement, santé et sécurité du travail, risques environnementaux, risques en santé et sécurité du travail, analyse d’implantation, degré d’implantation, SGI, transfert du savoir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette étude était de déterminer l’impact d’une infection intra-mammaire (IIM) subclinique causée par staphylocoque coagulase-négative (SCN) ou Staphylococcus aureus diagnostiquée durant le premier mois de lactation chez les taures sur le comptage de cellules somatiques (CCS), la production laitière et le risque de réforme durant la lactation en cours. Des données bactériologiques provenant d’échantillons de lait composites de 2 273 taures Holstein parmi 50 troupeaux ont été interprétées selon les recommandations du National Mastitis Council. Parmi 1 691 taures rencontrant les critères de sélection, 90 (5%) étaient positives à S. aureus, 168 (10%) étaient positives à SCN et 153 (9%) étaient négatives (aucun agent pathogène isolé). Le CCS transformé en logarithme népérien (lnCCS) a été modélisé via une régression linéaire avec le troupeau comme effet aléatoire. Le lnCCS chez les groupes S. aureus et SCN était significativement plus élevé que dans le groupe témoin de 40 à 300 jours en lait (JEL) (P < 0.0001 pour tous les contrastes). La valeur journalière du lnSCC chez les groupes S. aureus et SCN était en moyenne 1.2 et 0.6 plus élevé que le groupe témoin respectivement. Un modèle similaire a été réalisé pour la production laitière avec l’âge au vêlage, le trait génétique lié aux parents pour la production laitière et le logarithme népérien du JEL de la pesée inclus. La production laitière n’était pas statistiquement différente entre les 3 groupes de culture de 40 à 300 JEL (P ≥ 0.12). Les modèles de survie de Cox ont révélé que le risque de réforme n’était pas statistiquement différent entre le groupe S. aureus ou SCN et le groupe témoin (P ≥ 0.16). La prévention des IIM causées par SCN et S. aureus en début de lactation demeure importante étant donné leur association avec le CCS durant la lactation en cours.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette étude, l’auteure décrit les relations entre des catholiques et des hindous chez les Tamouls originaires du Sri Lanka qui ont immigré à Montréal. Ce faisant, elle accentuera son étude sur les perspectives des catholiques tamouls, et ce particulièrement au cours de pèlerinages et à travers la dévotion mariale. Les relations entre catholiques et hindous sont ainsi codifiées par des normes sociales et culturelles. De plus, l’auteure démontre que la migration, de même que la société d’accueil, influence les interactions entre ces deux groupes. Dans ce contexte, la notion de syncrétisme devient un concept secondaire qui est principalement étudié en lien avec les normes sociales tamoules. Finalement, l’auteure démontre, à travers les pèlerinages et la dévotion mariale, que les catholiques entretiennent des rapports contradictoires avec les hindous.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les hydrogels de polysaccharide sont des biomatériaux utilisés comme matrices à libération contrôlée de médicaments et comme structures modèles pour l’étude de nombreux systèmes biologiques dont les biofilms bactériens et les mucus. Dans tous les cas, le transport de médicaments ou de nutriments à l’intérieur d’une matrice d’hydrogel joue un rôle de premier plan. Ainsi, l’étude des propriétés de transport dans les hydrogels s’avère un enjeu très important au niveau de plusieurs applications. Dans cet ouvrage, le curdlan, un polysaccharide neutre d’origine bactérienne et formé d’unités répétitives β-D-(1→3) glucose, est utilisé comme hydrogel modèle. Le curdlan a la propriété de former des thermogels de différentes conformations selon la température à laquelle une suspension aqueuse est incubée. La caractérisation in situ de la formation des hydrogels de curdlan thermoréversibles et thermo-irréversibles a tout d’abord été réalisée par spectroscopie infrarouge à transformée de Fourier (FT-IR) en mode réflexion totale atténuée à température variable. Les résultats ont permis d’optimiser les conditions de gélation, menant ainsi à la formation reproductible des hydrogels. Les caractérisations structurales des hydrogels hydratés, réalisées par imagerie FT-IR, par microscopie électronique à balayage en mode environnemental (eSEM) et par microscopie à force atomique (AFM), ont permis de visualiser les différentes morphologies susceptibles d’influencer la diffusion d’analytes dans les gels. Nos résultats montrent que les deux types d’hydrogels de curdlan ont des architectures distinctes à l’échelle microscopique. La combinaison de la spectroscopie de résonance magnétique nucléaire (RMN) à gradients pulsés et de l’imagerie RMN a permis d’étudier l’autodiffusion et la diffusion mutuelle sur un même système dans des conditions expérimentales similaires. Nous avons observé que la diffusion des molécules dans les gels est ralentie par rapport à celle mesurée en solution aqueuse. Les mesures d’autodiffusion, effectuées sur une série d’analytes de diverses tailles dans les deux types d’hydrogels de curdlan, montrent que le coefficient d’autodiffusion relatif décroit en fonction de la taille de l’analyte. De plus, nos résultats suggèrent que l’équivalence entre les coefficients d’autodiffusion et de diffusion mutuelle dans les hydrogels de curdlan thermo-irréversibles est principalement due au fait que l’environnement sondé par les analytes durant une expérience d’autodiffusion est représentatif de celui exploré durant une expérience de diffusion mutuelle. Dans de telles conditions, nos résultats montrent que la RMN à gradients pulsés peut s’avérer une approche très avantageuse afin de caractériser des systèmes à libération contrôlée de médicaments. D’autres expériences de diffusion mutuelle, menées sur une macromolécule de dextran, montrent un coefficient de diffusion mutuelle inférieur au coefficient d’autodiffusion sur un même gel de curdlan. L’écart mesuré entre les deux modes de transport est attribué au volume différent de l’environnement sondé durant les deux mesures. Les coefficients d’autodiffusion et de diffusion mutuelle similaires, mesurés dans les deux types de gels de curdlan pour les différents analytes étudiés, suggèrent une influence limitée de l’architecture microscopique de ces gels sur leurs propriétés de transport. Il est conclu que les interactions affectant la diffusion des analytes étudiés dans les hydrogels de curdlan se situent à l’échelle moléculaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec l'Université Paris-Sorbonne (Paris IV), sous la direction de M. Michel Delon.