934 resultados para Théorie non-linéaire des poutres
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.
Resumo:
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.
Resumo:
Le domaine des systèmes de référence quantiques, dont les dernière avancées sont brièvement présentées au chapitre 1, est extrêmement pertinent à la compréhension de la dégradation des états quantiques et de l’évolution d’instruments de mesures quantiques. Toutefois, pour arriver à comprendre formellement ces avancées et à apporter une contribution originale au domaine, il faut s’approprier un certain nombre de concepts physiques et mathématiques, in- troduits au chapitre 2. La dégradation des états quantiques est très présente dans le contrôle d’états utiles à l’informatique quantique. Étant donné que ce dernier tente de contrôler des sys- tèmes à deux états, le plus souvent des moments cinétiques, l’analyse des systèmes de référence quantiques qui les mesurent s’avère opportune. Puisque, parmi les plus petits moments ciné- tiques, le plus connu est de s = 1 et que son état le plus simple est l’état non polarisé, l’étude 2 du comportement d’un système de référence mesurant successivement ce type de moments ci- nétiques constitue le premier pas à franchir. C’est dans le chapitre 3 qu’est fait ce premier pas et il aborde les questions les plus intéressantes, soit celles concernant l’efficacité du système de référence, sa longévité et leur maximum. La prochaine étape est de considérer des états de moments cinétiques polarisés et généraux, étape qui est abordée dans le chapitre 4. Cette fois, l’analyse de la dégradation du système de référence est un peu plus complexe et nous pouvons l’inspecter approximativement par l’évolution de certains paramètres pour une certaine classe d’états de système de référence. De plus, il existe une interaction entre le système de référence et le moment cinétique qui peut avoir un effet sur le système de référence tout à fait comparable à l’effet de la mesure. C’est cette même interaction qui est étudiée dans le chapitre 5, mais, cette fois, pour des moments cinétiques de s = 1. Après une comparaison avec la mesure, il devient manifeste que les ressemblances entre les deux processus sont beaucoup moins apparentes, voire inexistantes. Ainsi, cette ressemblance ne semble pas générale et semble accidentelle lorsqu’elle apparaît.
Resumo:
Les modèles sur réseau comme ceux de la percolation, d’Ising et de Potts servent à décrire les transitions de phase en deux dimensions. La recherche de leur solution analytique passe par le calcul de la fonction de partition et la diagonalisation de matrices de transfert. Au point critique, ces modèles statistiques bidimensionnels sont invariants sous les transformations conformes et la construction de théories des champs conformes rationnelles, limites continues des modèles statistiques, permet un calcul de la fonction de partition au point critique. Plusieurs chercheurs pensent cependant que le paradigme des théories des champs conformes rationnelles peut être élargi pour inclure les modèles statistiques avec des matrices de transfert non diagonalisables. Ces modèles seraient alors décrits, dans la limite d’échelle, par des théories des champs logarithmiques et les représentations de l’algèbre de Virasoro intervenant dans la description des observables physiques seraient indécomposables. La matrice de transfert de boucles D_N(λ, u), un élément de l’algèbre de Temperley- Lieb, se manifeste dans les théories physiques à l’aide des représentations de connectivités ρ (link modules). L’espace vectoriel sur lequel agit cette représentation se décompose en secteurs étiquetés par un paramètre physique, le nombre d de défauts. L’action de cette représentation ne peut que diminuer ce nombre ou le laisser constant. La thèse est consacrée à l’identification de la structure de Jordan de D_N(λ, u) dans ces représentations. Le paramètre β = 2 cos λ = −(q + 1/q) fixe la théorie : β = 1 pour la percolation et √2 pour le modèle d’Ising, par exemple. Sur la géométrie du ruban, nous montrons que D_N(λ, u) possède les mêmes blocs de Jordan que F_N, son plus haut coefficient de Fourier. Nous étudions la non diagonalisabilité de F_N à l’aide des divergences de certaines composantes de ses vecteurs propres, qui apparaissent aux valeurs critiques de λ. Nous prouvons dans ρ(D_N(λ, u)) l’existence de cellules de Jordan intersectorielles, de rang 2 et couplant des secteurs d, d′ lorsque certaines contraintes sur λ, d, d′ et N sont satisfaites. Pour le modèle de polymères denses critique (β = 0) sur le ruban, les valeurs propres de ρ(D_N(λ, u)) étaient connues, mais les dégénérescences conjecturées. En construisant un isomorphisme entre les modules de connectivités et un sous-espace des modules de spins du modèle XXZ en q = i, nous prouvons cette conjecture. Nous montrons aussi que la restriction de l’hamiltonien de boucles à un secteur donné est diagonalisable et trouvons la forme de Jordan exacte de l’hamiltonien XX, non triviale pour N pair seulement. Enfin nous étudions la structure de Jordan de la matrice de transfert T_N(λ, ν) pour des conditions aux frontières périodiques. La matrice T_N(λ, ν) a des blocs de Jordan intrasectoriels et intersectoriels lorsque λ = πa/b, et a, b ∈ Z×. L’approche par F_N admet une généralisation qui permet de diagnostiquer des cellules intersectorielles dont le rang excède 2 dans certains cas et peut croître indéfiniment avec N. Pour les blocs de Jordan intrasectoriels, nous montrons que les représentations de connectivités sur le cylindre et celles du modèle XXZ sont isomorphes sauf pour certaines valeurs précises de q et du paramètre de torsion v. En utilisant le comportement de la transformation i_N^d dans un voisinage des valeurs critiques (q_c, v_c), nous construisons explicitement des vecteurs généralisés de Jordan de rang 2 et discutons l’existence de blocs de Jordan intrasectoriels de plus haut rang.
Resumo:
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.
Resumo:
Il a été démontré en laboratoire que l’équilibre de Nash n’était pas toujours un bon indicateur du comportement humain. Différentes théories alternatives (aversion à l’inégalité, réciprocité et norme sociale) ont vu le jour pour combler les lacunes de la théorie classique, mais aucune d’elles ne permet d’expliquer la totalité des phénomènes observés en laboratoire. Après avoir identifié les lacunes de ces modèles, ce mémoire développe un modèle qui synthétise dans un tout cohérent les avancées de ceux-ci à l’aide de préférences hétérogènes. Afin d’augmenter la portée du modèle, une nouvelle notion d’équilibre, dite comportementale, est ajoutée au modèle. En appliquant le nouveau modèle à des jeux simples, nous pouvons voir comment il élargit le nombre de comportements pouvant être modélisé par la théorie des jeux.
Resumo:
Le but de cette thèse est d étendre la théorie du bootstrap aux modèles de données de panel. Les données de panel s obtiennent en observant plusieurs unités statistiques sur plusieurs périodes de temps. Leur double dimension individuelle et temporelle permet de contrôler l 'hétérogénéité non observable entre individus et entre les périodes de temps et donc de faire des études plus riches que les séries chronologiques ou les données en coupe instantanée. L 'avantage du bootstrap est de permettre d obtenir une inférence plus précise que celle avec la théorie asymptotique classique ou une inférence impossible en cas de paramètre de nuisance. La méthode consiste à tirer des échantillons aléatoires qui ressemblent le plus possible à l échantillon d analyse. L 'objet statitstique d intérêt est estimé sur chacun de ses échantillons aléatoires et on utilise l ensemble des valeurs estimées pour faire de l inférence. Il existe dans la littérature certaines application du bootstrap aux données de panels sans justi cation théorique rigoureuse ou sous de fortes hypothèses. Cette thèse propose une méthode de bootstrap plus appropriée aux données de panels. Les trois chapitres analysent sa validité et son application. Le premier chapitre postule un modèle simple avec un seul paramètre et s 'attaque aux propriétés théoriques de l estimateur de la moyenne. Nous montrons que le double rééchantillonnage que nous proposons et qui tient compte à la fois de la dimension individuelle et la dimension temporelle est valide avec ces modèles. Le rééchantillonnage seulement dans la dimension individuelle n est pas valide en présence d hétérogénéité temporelle. Le ré-échantillonnage dans la dimension temporelle n est pas valide en présence d'hétérogénéité individuelle. Le deuxième chapitre étend le précédent au modèle panel de régression. linéaire. Trois types de régresseurs sont considérés : les caractéristiques individuelles, les caractéristiques temporelles et les régresseurs qui évoluent dans le temps et par individu. En utilisant un modèle à erreurs composées doubles, l'estimateur des moindres carrés ordinaires et la méthode de bootstrap des résidus, on montre que le rééchantillonnage dans la seule dimension individuelle est valide pour l'inférence sur les coe¢ cients associés aux régresseurs qui changent uniquement par individu. Le rééchantillonnage dans la dimen- sion temporelle est valide seulement pour le sous vecteur des paramètres associés aux régresseurs qui évoluent uniquement dans le temps. Le double rééchantillonnage est quand à lui est valide pour faire de l inférence pour tout le vecteur des paramètres. Le troisième chapitre re-examine l exercice de l estimateur de différence en di¤érence de Bertrand, Duflo et Mullainathan (2004). Cet estimateur est couramment utilisé dans la littérature pour évaluer l impact de certaines poli- tiques publiques. L exercice empirique utilise des données de panel provenant du Current Population Survey sur le salaire des femmes dans les 50 états des Etats-Unis d Amérique de 1979 à 1999. Des variables de pseudo-interventions publiques au niveau des états sont générées et on s attend à ce que les tests arrivent à la conclusion qu il n y a pas d e¤et de ces politiques placebos sur le salaire des femmes. Bertrand, Du o et Mullainathan (2004) montre que la non-prise en compte de l hétérogénéité et de la dépendance temporelle entraîne d importantes distorsions de niveau de test lorsqu'on évalue l'impact de politiques publiques en utilisant des données de panel. Une des solutions préconisées est d utiliser la méthode de bootstrap. La méthode de double ré-échantillonnage développée dans cette thèse permet de corriger le problème de niveau de test et donc d'évaluer correctement l'impact des politiques publiques.
Resumo:
Le Mali est devenu un milieu attractif pour les essais cliniques. Cependant, le cadre de réglementation pour leur surveillance y est très limité. Le pays manque de l’expertise, de l’infrastructure et des ressources nécessaires pour mettre en œuvre pleinement la régulation. Ceci représente un risque pour la sécurité des sujets de recherche et l’intégrité des résultats scientifiques. Il ne permet pas non plus de s’aligner sur les normes internationales en vigueur, telles que la déclaration d’Helsinki, les directives éthiques internationales du Conseil des organisations internationales des sciences médicales (CIOMS) ou les réglementations de pays industrialisés comme les États-Unis, le Canada ou l’Union Européenne. Pour améliorer la situation, la présente étude vise à comprendre les enjeux de la régulation des essais cliniques au Mali afin de suggérer des pistes de solutions et des recommandations. L’étude a été réalisée à l’aide de méthodes qualitatives, soit l’examen de documents officiels et des entrevues semi-dirigées avec les principaux acteurs impliqués dans les essais cliniques. La théorie néo-institutionnelle a servi de toile de fond à l’analyse des données. L’approche néo-institutionnelle consiste à expliquer l’influence de l’environnement sur les organisations. Selon cette approche, l’environnement s’assimile à des champs organisationnels incluant les connexions locales ou non, les liens horizontaux et verticaux, les influences culturelles et politiques ainsi que les échanges techniques. Les résultats présentés dans un premier article montrent l’existence de nombreux enjeux reflétant la carence du système de régulation au Mali. La coexistence de quatre scénarios d’approbation des essais cliniques illustre bien l’inconsistance des mécanismes. Tout comme l’absence d’inspection, l’inconsistance des mécanismes traduit également l’intervention limitée des pouvoirs publics dans la surveillance réglementaire. Ces enjeux résultent d’une double influence subie par les autorités réglementaires et les comités d’éthique. Ceux-ci sont, d’une part, influencés par l’environnement institutionnel sous pressions réglementaires, cognitives et normatives. D’autre part, les pouvoirs publics subissent l’influence des chercheurs qui opèrent comme des entrepreneurs institutionnels en occupant un rôle central dans le champ de la régulation. Dans un second article, l’étude propose une analyse détaillée des facteurs influençant la régulation des essais cliniques. Ces facteurs sont synthétisés en cinq groupes répartis entre deux sphères d’influence. L’analyse montre combien ces facteurs influencent négativement la régulation, notamment : 1) la structuration inachevée du champ de régulation due à un faible degré d’interactions, une absence de structure de coordination, d’informations mutuelles et de conscience dans la constitution des interdépendances; et 2) les positions relatives des acteurs impliqués dans la construction du champ de régulation se manifestant par une faible autorité des pouvoirs publics et l’ascendance des groupes de recherche. Enfin, dans un troisième article nous proposons quelques mécanismes qui, s’ils sont mis en œuvre, pourraient améliorer la régulation des essais cliniques au Mali. Ces mécanismes sont présentés, en référence au cadre théorique, sous trois types de vecteurs d’influence, notamment réglementaires, normatifs et cognitifs-culturels. En guise de conclusion, l’étude envoie un signal fort pour la nécessité d’une régulation appropriée des essais cliniques au Mali. Elle montre que la plupart des problèmes de fond en matière de régulation relèvent d’un besoin de restructuration du champ organisationnel et de renforcement de la position des pouvoirs publics.
Resumo:
La reconnaissance du pluralisme du système de santé, et donc des interdépendances unissant l’État aux acteurs participant à l’offre des services de santé, pose non seulement la question de la capacité de l’État à gouverner selon ses objectifs, mais aussi celle de la forme des interventions entreprises à cette fin. Cette thèse vise à comprendre comment se développe la participation de l’État à la gouverne d’un secteur de services de santé, et plus particulièrement comment ses interactions avec les acteurs impliqués dans l’offre des services affectent, au fil du temps, les possibilités d’actions étatiques sous-jacentes à la sélection d’instruments de gouverne spécifiques. Elle propose pour ce faire un modèle théorique qui s’inspire de la littérature traitant des instruments de gouverne ainsi que de la théorie de la pratique (Bourdieu). La participation de l’État à la gouverne y est conçue comme le résultat d’un processus historique évolutif, marqué alternativement par des périodes de stabilité et de changement en regard des instruments mobilisés, qui se succèdent selon l’articulation des interactions et des contextes affectant les possibilités d’action que les acteurs perçoivent avoir. Ce modèle a été appliqué dans le cadre d’une étude de cas portant sur le secteur génétique québécois (1969-2010). Cette étude a impliqué l’analyse processuelle et interprétative de données provenant de sources documentaires et d’entrevues réalisées auprès de représentants du ministère de la Santé et des Services sociaux ainsi que de médecins et chercheurs œuvrant dans le secteur de la génétique. Ces analyses font émerger quatre périodes de stabilité en regard des instruments de gouverne mobilisés, entrecoupées de périodes de transition au cours desquelles le Ministère opère une hybridation entre les instruments jusque là employés et les nouvelles modalités d’intervention envisagées. Ces résultats révèlent également que l’efficacité de ces instruments - c’est-à-dire la convergence entre les résultats attendus et produits par ceux-ci - perçue par le Ministère constitue un facteur de première importance au regard de la stabilisation et du changement des modalités de sa participation à la gouverne de ce secteur. En effet, lorsque les instruments mobilisés conduisent les médecins et chercheurs composant le secteur de la génétique à agir et interagir de manière à répondre aux attentes du Ministère, les interventions ministérielles tendent à se stabiliser autour de certains patterns de gouverne. À l’inverse, le Ministère tend à modifier ses modes d’intervention lorsque ses interactions avec ces médecins et chercheurs le conduisent à remettre en cause l’efficacité de ces patterns. On note cependant que ces changements sont étroitement liés à une évolution particulière du contexte, amenant une modification des possibilités d’action dont disposent les acteurs. Ces résultats révèlent enfin certaines conditions permettant au Ministère de rencontrer ses objectifs concernant la gouverne du secteur de la génétique. Les instruments qui impliquent fortement les médecins et chercheurs et qui s’appuient sur des expertises qu’ils considèrent légitimes semblent plus susceptibles d’amener ces derniers à agir dans le sens des objectifs ministériels. L’utilisation de tels instruments suppose néanmoins que le Ministère reconnaisse sa propre dépendance vis-à-vis de ces médecins et chercheurs.
Resumo:
Cette étude vise à comprendre et à expliquer la résilience des familles endeuillées par le suicide d’un adolescent . Lorsque le suicide d’un adolescent survient, comme il s’agit d’une mort violente, inattendue, auto-infligée et qu’elle ne s’inscrit pas dans l’ordre normal de la vie, la famille est confrontée à une situation de crise qui nécessite, de sa part, une mobilisation importante d’énergie. On remarque que, malgré cette épreuve, la plupart des familles continuent à fonctionner. Le concept de résilience familiale qui fait référence à la capacité d’une famille de rebondir face à une situation de crise peut expliquer ce phénomène. C’est pourquoi le but de cette étude a été de proposer une théorie du processus de résilience à partir de ce que vivent les familles endeuillées par le suicide de leur adolescent. Le modèle McGill en soins infirmiers constitue la toile de fond théorique compte tenu de sa vision familiale, de sa croyance dans les forces de la famille et de l’importance du rôle de collaboration des infirmières. Pour atteindre le but de notre étude, une approche par théorisation ancrée, inspirée de la vision straussienne, a été choisie. L’échantillonnage théorique a été constitué de données obtenues à l’aide : d’entrevues semi structurées (13) avec les membres de sept familles rencontrés soit de façon individuelle, en couple ou en groupe (n=17 participants); de documents personnels remis par les participants (journal intime, homélie …); d’un questionnaire sociodémographique; et de notes de terrain. Une analyse comparative continue des données à travers une triple codification a permis de proposer une théorisation en profondeur du processus de résilience familiale suite au suicide d’un adolescent. Les principaux résultats indiquent que, dans un premier temps, la famille est confrontée à un cataclysme engendré par le suicide lui-même et influencé par le contexte familial, le contexte social et les émotions vécues. S’ensuit une période de naufrage plus ou moins importante compte tenu des bouées de sauvetage présentes au sein et dans l’entourage des familles. La présence de ces bouées intra et extrafamiliales permet un rebondissement plus ou moins rapide des familles. Par la suite, différentes actions intra et extrafamiliales permettent aux familles d’émerger malgré cette blessure indélébile, c’est-à-dire apprendre et grandir à travers cette expérience. L’analyse a également permis de dégager quatre types de résilience familiale selon que le rebondissement est rapide ou tardif et que l’émergence est continue ou non, soit le processus de résilience des familles énergiques centrifuge et centripète, de la famille stupéfaite, de la famille combattante et de la famille tenace. Cette étude permet d’approfondir la compréhension du vécu des familles endeuillées par le suicide d’un adolescent et d’aider les professionnels de la santé à mieux adapter leurs interventions en fonction des besoins des familles, des bouées de sauvetage présentes et des actions susceptibles de favoriser leur émergence.
Resumo:
Dans cette étude, la stabilité de préparations intraveineuses de cyclosporine (0.2 et 2.5 mg/mL dans NaCl 0.9% ou dextrose 5%) entreposées dans des seringues de polypropylène, des sacs de polypropylène-polyoléfine et des sacs de vinyle acétate d’éthylène a été évaluée. Une méthode HPLC indicatrice de la stabilité à base de méthanol a été développée et validée suite a des études de dégradation forcée. Les solutions évaluées ont été préparées de façon aseptique, puis entreposées à 25°C. La stabilité chimique a été évaluée par HPLC et la stabilité physique a été évaluée par inspection visuelle et aussi par diffusion dynamique de la lumière (DLS). Tous les échantillons sont demeurés stables chimiquement et physiquement dans des sacs de polypropylène-polyoléfine (>98% de cyclosporine récupérée après 14 jours). Lorsqu’entreposés dans des seringues de polypropylène, des contaminants ont été extraits des composantes de la seringue. Toutefois, aucune contamination n’a été observée après 10 min de contact entre la préparation de cyclosporine non-diluée et ces mêmes seringues. Les préparations de 2.5 mg/mL entreposées dans des sacs de vinyle acétate d’éthylène sont demeurés stables chimiquement et physiquement (>98% de cyclosporine récupérée après 14 jours). Toutefois, une adsorption significative a été observée avec les échantillons 0.2 mg/mL entreposés dans des sacs de vinyle acétate d’éthylène (<90% de cyclosporine récupéré après 14 jours). Une étude cinétique a démontré une bonne corrélation linéaire entre la quantité adsorbée et la racine carrée du temps de contact (r2 > 0.97). Un nouveou modèle de diffusion a été établi. En conclusion, les sacs de polypropylène-polyoléfine sont le meilleur choix; les seringues de polypropylène présentent un risque de contamination, mais sont acceptables pour un transfert rapide. Les sacs de vinyle acétate d’éthylène ne peuvent être recommandés à cause d’un problème d’adsorption.
Resumo:
Doctorat réalisé en cotutelle avec l’Université Paris I- Panthéon Sorbonne.