933 resultados para formulations


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle entre l'Université de Montréal et l'Université de Technologie de Troyes

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'étude porte sur une norme juridique déterminée, identifiée par sa valeur ­ constitutionnelle ­ et par son objet ­ qui est de protéger l'animal pour lui-même. La recherche a été conduite sans délimitation a priori du champ des pays étudiés. Il n'y a pas eu à proprement parler de choix des pays puisque tous ont été intégrés à la présente étude, sans critère d'exclusion ou de discrimination (tel que le niveau de développement ou le type de système juridique dont ils relèvent). Les Constitutions actuellement en vigueur de tous les Etats unitaires ou fédéraux ont été passées au crible de l'analyse. En revanche, les Constitutions des entités fédérées n'ont pas fait l'objet d'une analyse systématique mais seulement d'une étude sélective. L'objectif de la recherche était de réaliser une étude générale en apportant des réponses aux interrogations suivantes : quelles sont les normes constitutionnelles de protection de l'animal ? Pourquoi et comment ont-elles été adoptées ? Quelle est leur portée dans les ordres juridiques concernés ? De cette recherche ressortent principalement trois enseignements. Premièrement, le phénomène de la consécration de normes constitutionnelles de protection de l'animal est récent et en plein développement. Deuxièmement, ces normes présentent des formulations différentes et procèdent de deux considérations distinctes : le respect de l'animal en Inde, la prise en compte de sa sensibilité dans les autres pays (essentiellement les pays occidentaux). Troisièmement, ces normes revêtent le plus souvent la nature d'objectif constitutionnel, ce qui leur permet de justifier au nom du respect, du bien-être ou de la protection de l'animal les limitations apportées aux droits constitutionnels, notamment la liberté du commerce, la liberté artistique et la liberté de la recherche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Faculté de Pharmacie

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat a été réalisée en cotutelle internationale entre l'Université de Montréal (Canada) et l'Université Sorbonne Nouvelle Paris 3 (France).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La vectorisation des médicaments est une approche très prometteuse tant sur le plan médical qu’économique pour la livraison des substances actives ayant une faible biodisponibilité. Dans ce contexte, les polymères en étoile et les dendrimères, macromolécules symétriques et branchées, semblent être les solutions de vectorisation les plus attrayantes. En effet, ces structures peuvent combiner efficacement une stabilité élevée dans les milieux biologiques à une capacité d’encapsulation des principes actifs. Grâce à leur architecture bien définie, ils permettent d’atteindre un très haut niveau de reproductibilité de résultats, tout en évitant le problème de polydispersité. Bien que des nombreuses structures dendritiques aient été proposées ces dernières années, il est cependant à noter que la conception de nouveaux nanovecteurs dendritiques efficaces est toujours d’actualité. Ceci s’explique par des nombreuses raisons telles que celles liées à la biocompatibilité, l’efficacité d’encapsulation des agents thérapeutiques, ainsi que par des raisons économiques. Dans ce projet, de nouvelles macromolécules branchées biocompatibles ont été conçues, synthétisées et évaluées. Pour augmenter leur efficacité en tant qu’agents d’encapsulations des principes actifs hydrophobes, les structures de ces macromolécules incluent un coeur central hydrophobe à base de porphyrine, décanediol ou trioléine modifié et, également, une couche externe hydrophile à base d’acide succinique et de polyéthylène glycol. Le choix des éléments structuraux de futures dendrimères a été basé sur les données de biocompatibilité, les résultats de nos travaux de synthèse préliminaires, ainsi que les résultats de simulation in silico réalisée par une méthode de mécanique moléculaire. Ces travaux ont permis de choisir des composés les plus prometteurs pour former efficacement et d’une manière bien contrôlable des macromolécules polyesters. Ils ont aussi permis d’évaluer au préalable la capacité de futurs dendrimères de capter une molécule médicamenteuse (itraconazole). Durant cette étape, plusieurs nouveaux composés intermédiaires ont été obtenus. L’optimisation des conditions menant à des rendements réactionnels élevés a été réalisée. En se basant sur les travaux préliminaires, l’assemblage de nouveaux dendrimères de première et de deuxième génération a été effectué, en utilisant les approches de synthèse divergente et convergente. La structure de nouveaux composés a été prouvée par les techniques RMN du proton et du carbone 13C, spectroscopie FTIR, UV-Vis, analyse élémentaire, spectrométrie de masse et GPC. La biocompatibilité de produits a été évaluée par les tests de cytotoxicité avec le MTT sur les macrophages murins RAW-262.7. La capacité d’encapsuler les principes actifs hydrophobes a été étudiée par les tests avec l’itraconazole, un antifongique puissant mais peu biodisponible. La taille de nanoparticules formées dans les solutions aqueuses a été mesurée par la technique DLS. Ces mesures ont montré que toutes les structures dendritiques ont tendance à former des micelles, ce qui exclue leurs applications en tant que nanocapsules unimoléculaires. L’activité antifongique des formulations d’itraconazole encapsulé avec les dendrimères a été étudiée sur une espèce d’un champignon pathogène Candida albicans. Ces tests ont permis de conclure que pour assurer l’efficacité du traitement, un meilleur contrôle sur le relargage du principe actif était nécessaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les centres d’appels sont des éléments clés de presque n’importe quelle grande organisation. Le problème de gestion du travail a reçu beaucoup d’attention dans la littérature. Une formulation typique se base sur des mesures de performance sur un horizon infini, et le problème d’affectation d’agents est habituellement résolu en combinant des méthodes d’optimisation et de simulation. Dans cette thèse, nous considérons un problème d’affection d’agents pour des centres d’appels soumis a des contraintes en probabilité. Nous introduisons une formulation qui exige que les contraintes de qualité de service (QoS) soient satisfaites avec une forte probabilité, et définissons une approximation de ce problème par moyenne échantillonnale dans un cadre de compétences multiples. Nous établissons la convergence de la solution du problème approximatif vers celle du problème initial quand la taille de l’échantillon croit. Pour le cas particulier où tous les agents ont toutes les compétences (un seul groupe d’agents), nous concevons trois méthodes d’optimisation basées sur la simulation pour le problème de moyenne échantillonnale. Étant donné un niveau initial de personnel, nous augmentons le nombre d’agents pour les périodes où les contraintes sont violées, et nous diminuons le nombre d’agents pour les périodes telles que les contraintes soient toujours satisfaites après cette réduction. Des expériences numériques sont menées sur plusieurs modèles de centre d’appels à faible occupation, au cours desquelles les algorithmes donnent de bonnes solutions, i.e. la plupart des contraintes en probabilité sont satisfaites, et nous ne pouvons pas réduire le personnel dans une période donnée sont introduire de violation de contraintes. Un avantage de ces algorithmes, par rapport à d’autres méthodes, est la facilité d’implémentation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les amidons non modifiées et modifiés représentent un groupe d’excipients biodégradables et abondants particulièrement intéressant. Ils ont été largement utilisés en tant qu’excipients à des fins diverses dans des formulations de comprimés, tels que liants et/ou agents de délitement. Le carboxyméthylamidon sodique à haute teneur en amylose atomisé (SD HASCA) a été récemment proposé comme un excipient hydrophile à libération prolongée innovant dans les formes posologiques orales solides. Le carboxyméthylamidon sodique à haute teneur en amylose amorphe (HASCA) a d'abord été produit par l'éthérification de l'amidon de maïs à haute teneur en amylose avec le chloroacétate. HASCA a été par la suite séché par atomisation pour obtenir le SD HASCA. Ce nouvel excipient a montré des propriétés présentant certains avantages dans la production de formes galéniques à libération prolongée. Les comprimés matriciels produits à partir de SD HASCA sont peu coûteux, simples à formuler et faciles à produire par compression directe. Le principal objectif de cette recherche était de poursuivre le développement et l'optimisation des comprimés matriciels utilisant SD HASCA comme excipient pour des formulations orales à libération prolongée. A cet effet, des tests de dissolution simulant les conditions physiologiques du tractus gastro-intestinal les plus pertinentes, en tenant compte de la nature du polymère à l’étude, ont été utilisés pour évaluer les caractéristiques à libération prolongée et démontrer la performance des formulations SD HASCA. Une étude clinique exploratoire a également été réalisée pour évaluer les propriétés de libération prolongée de cette nouvelle forme galénique dans le tractus gastro-intestinal. Le premier article présenté dans cette thèse a évalué les propriétés de libération prolongée et l'intégrité physique de formulations contenant un mélange comprimé de principe actif, de chlorure de sodium et de SD HASCA, dans des milieux de dissolution biologiquement pertinentes. L'influence de différentes valeurs de pH acide et de temps de séjour dans le milieu acide a été étudiée. Le profil de libération prolongée du principe actif à partir d'une formulation de SD HASCA optimisée n'a pas été significativement affecté ni par la valeur de pH acide ni par le temps de séjour dans le milieu acide. Ces résultats suggèrent une influence limitée de la variabilité intra et interindividuelle du pH gastrique sur la cinétique de libération à partir de matrices de SD HASCA. De plus, la formulation optimisée a gardé son intégrité pendant toute la durée des tests de dissolution. L’étude in vivo exploratoire a démontré une absorption prolongée du principe actif après administration orale des comprimés matriciels de SD HASCA et a montré que les comprimés ne se sont pas désintégrés en passant par l'estomac et qu’ils ont résisté à l’hydrolyse par les α-amylases dans l'intestin. Le deuxième article présente le développement de comprimés SD HASCA pour une administration orale une fois par jour et deux fois par jour contenant du chlorhydrate de tramadol (100 mg et 200 mg). Ces formulations à libération prolongée ont présenté des valeurs de dureté élevées sans nécessiter l'ajout de liants, ce qui facilite la production et la manipulation des comprimés au niveau industriel. La force de compression appliquée pour produire les comprimés n'a pas d'incidence significative sur les profils de libération du principe actif. Le temps de libération totale à partir de comprimés SD HASCA a augmenté de manière significative avec le poids du comprimé et peut, de ce fait, être utilisé pour moduler le temps de libération à partir de ces formulations. Lorsque les comprimés ont été exposés à un gradient de pH et à un milieu à 40% d'éthanol, un gel très rigide s’est formé progressivement sur leur surface amenant à la libération prolongée du principe actif. Ces propriétés ont indiqué que SD HASCA est un excipient robuste pour la production de formes galéniques orales à libération prolongée, pouvant réduire la probabilité d’une libération massive de principe actif et, en conséquence, des effets secondaires, même dans le cas de co-administration avec une forte dose d'alcool. Le troisième article a étudié l'effet de α-amylase sur la libération de principe actif à partir de comprimés SD HASCA contenant de l’acétaminophène et du chlorhydrate de tramadol qui ont été développés dans les premières étapes de cette recherche (Acetaminophen SR et Tramadol SR). La modélisation mathématique a montré qu'une augmentation de la concentration d’α-amylase a entraîné une augmentation de l'érosion de polymère par rapport à la diffusion de principe actif comme étant le principal mécanisme contrôlant la libération de principe actif, pour les deux formulations et les deux temps de résidence en milieu acide. Cependant, même si le mécanisme de libération peut être affecté, des concentrations d’α-amylase allant de 0 UI/L à 20000 UI/L n'ont pas eu d'incidence significative sur les profils de libération prolongée à partir de comprimés SD HASCA, indépendamment de la durée de séjour en milieu acide, le principe actif utilisé, la teneur en polymère et la différente composition de chaque formulation. Le travail présenté dans cette thèse démontre clairement l'utilité de SD HASCA en tant qu'un excipient à libération prolongée efficace.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La programmation linéaire en nombres entiers est une approche robuste qui permet de résoudre rapidement de grandes instances de problèmes d'optimisation discrète. Toutefois, les problèmes gagnent constamment en complexité et imposent parfois de fortes limites sur le temps de calcul. Il devient alors nécessaire de développer des méthodes spécialisées afin de résoudre approximativement ces problèmes, tout en calculant des bornes sur leurs valeurs optimales afin de prouver la qualité des solutions obtenues. Nous proposons d'explorer une approche de reformulation en nombres entiers guidée par la relaxation lagrangienne. Après l'identification d'une forte relaxation lagrangienne, un processus systématique permet d'obtenir une seconde formulation en nombres entiers. Cette reformulation, plus compacte que celle de Dantzig et Wolfe, comporte exactement les mêmes solutions entières que la formulation initiale, mais en améliore la borne linéaire: elle devient égale à la borne lagrangienne. L'approche de reformulation permet d'unifier et de généraliser des formulations et des méthodes de borne connues. De plus, elle offre une manière simple d'obtenir des reformulations de moins grandes tailles en contrepartie de bornes plus faibles. Ces reformulations demeurent de grandes tailles. C'est pourquoi nous décrivons aussi des méthodes spécialisées pour en résoudre les relaxations linéaires. Finalement, nous appliquons l'approche de reformulation à deux problèmes de localisation. Cela nous mène à de nouvelles formulations pour ces problèmes; certaines sont de très grandes tailles, mais nos méthodes de résolution spécialisées les rendent pratiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La gestion des ressources, équipements, équipes de travail, et autres, devrait être prise en compte lors de la conception de tout plan réalisable pour le problème de conception de réseaux de services. Cependant, les travaux de recherche portant sur la gestion des ressources et la conception de réseaux de services restent limités. La présente thèse a pour objectif de combler cette lacune en faisant l’examen de problèmes de conception de réseaux de services prenant en compte la gestion des ressources. Pour ce faire, cette thèse se décline en trois études portant sur la conception de réseaux. La première étude considère le problème de capacitated multi-commodity fixed cost network design with design-balance constraints(DBCMND). La structure multi-produits avec capacité sur les arcs du DBCMND, de même que ses contraintes design-balance, font qu’il apparaît comme sous-problème dans de nombreux problèmes reliés à la conception de réseaux de services, d’où l’intérêt d’étudier le DBCMND dans le contexte de cette thèse. Nous proposons une nouvelle approche pour résoudre ce problème combinant la recherche tabou, la recomposition de chemin, et une procédure d’intensification de la recherche dans une région particulière de l’espace de solutions. Dans un premier temps la recherche tabou identifie de bonnes solutions réalisables. Ensuite la recomposition de chemin est utilisée pour augmenter le nombre de solutions réalisables. Les solutions trouvées par ces deux méta-heuristiques permettent d’identifier un sous-ensemble d’arcs qui ont de bonnes chances d’avoir un statut ouvert ou fermé dans une solution optimale. Le statut de ces arcs est alors fixé selon la valeur qui prédomine dans les solutions trouvées préalablement. Enfin, nous utilisons la puissance d’un solveur de programmation mixte en nombres entiers pour intensifier la recherche sur le problème restreint par le statut fixé ouvert/fermé de certains arcs. Les tests montrent que cette approche est capable de trouver de bonnes solutions aux problèmes de grandes tailles dans des temps raisonnables. Cette recherche est publiée dans la revue scientifique Journal of heuristics. La deuxième étude introduit la gestion des ressources au niveau de la conception de réseaux de services en prenant en compte explicitement le nombre fini de véhicules utilisés à chaque terminal pour le transport de produits. Une approche de solution faisant appel au slope-scaling, la génération de colonnes et des heuristiques basées sur une formulation en cycles est ainsi proposée. La génération de colonnes résout une relaxation linéaire du problème de conception de réseaux, générant des colonnes qui sont ensuite utilisées par le slope-scaling. Le slope-scaling résout une approximation linéaire du problème de conception de réseaux, d’où l’utilisation d’une heuristique pour convertir les solutions obtenues par le slope-scaling en solutions réalisables pour le problème original. L’algorithme se termine avec une procédure de perturbation qui améliore les solutions réalisables. Les tests montrent que l’algorithme proposé est capable de trouver de bonnes solutions au problème de conception de réseaux de services avec un nombre fixe des ressources à chaque terminal. Les résultats de cette recherche seront publiés dans la revue scientifique Transportation Science. La troisième étude élargie nos considérations sur la gestion des ressources en prenant en compte l’achat ou la location de nouvelles ressources de même que le repositionnement de ressources existantes. Nous faisons les hypothèses suivantes: une unité de ressource est nécessaire pour faire fonctionner un service, chaque ressource doit retourner à son terminal d’origine, il existe un nombre fixe de ressources à chaque terminal, et la longueur du circuit des ressources est limitée. Nous considérons les alternatives suivantes dans la gestion des ressources: 1) repositionnement de ressources entre les terminaux pour tenir compte des changements de la demande, 2) achat et/ou location de nouvelles ressources et leur distribution à différents terminaux, 3) externalisation de certains services. Nous présentons une formulation intégrée combinant les décisions reliées à la gestion des ressources avec les décisions reliées à la conception des réseaux de services. Nous présentons également une méthode de résolution matheuristique combinant le slope-scaling et la génération de colonnes. Nous discutons des performances de cette méthode de résolution, et nous faisons une analyse de l’impact de différentes décisions de gestion des ressources dans le contexte de la conception de réseaux de services. Cette étude sera présentée au XII International Symposium On Locational Decision, en conjonction avec XXI Meeting of EURO Working Group on Locational Analysis, Naples/Capri (Italy), 2014. En résumé, trois études différentes sont considérées dans la présente thèse. La première porte sur une nouvelle méthode de solution pour le "capacitated multi-commodity fixed cost network design with design-balance constraints". Nous y proposons une matheuristique comprenant la recherche tabou, la recomposition de chemin, et l’optimisation exacte. Dans la deuxième étude, nous présentons un nouveau modèle de conception de réseaux de services prenant en compte un nombre fini de ressources à chaque terminal. Nous y proposons une matheuristique avancée basée sur la formulation en cycles comprenant le slope-scaling, la génération de colonnes, des heuristiques et l’optimisation exacte. Enfin, nous étudions l’allocation des ressources dans la conception de réseaux de services en introduisant des formulations qui modèlent le repositionnement, l’acquisition et la location de ressources, et l’externalisation de certains services. À cet égard, un cadre de solution slope-scaling développé à partir d’une formulation en cycles est proposé. Ce dernier comporte la génération de colonnes et une heuristique. Les méthodes proposées dans ces trois études ont montré leur capacité à trouver de bonnes solutions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les décisions de localisation sont souvent soumises à des aspects dynamiques comme des changements dans la demande des clients. Pour y répondre, la solution consiste à considérer une flexibilité accrue concernant l’emplacement et la capacité des installations. Même lorsque la demande est prévisible, trouver le planning optimal pour le déploiement et l'ajustement dynamique des capacités reste un défi. Dans cette thèse, nous nous concentrons sur des problèmes de localisation avec périodes multiples, et permettant l'ajustement dynamique des capacités, en particulier ceux avec des structures de coûts complexes. Nous étudions ces problèmes sous différents points de vue de recherche opérationnelle, en présentant et en comparant plusieurs modèles de programmation linéaire en nombres entiers (PLNE), l'évaluation de leur utilisation dans la pratique et en développant des algorithmes de résolution efficaces. Cette thèse est divisée en quatre parties. Tout d’abord, nous présentons le contexte industriel à l’origine de nos travaux: une compagnie forestière qui a besoin de localiser des campements pour accueillir les travailleurs forestiers. Nous présentons un modèle PLNE permettant la construction de nouveaux campements, l’extension, le déplacement et la fermeture temporaire partielle des campements existants. Ce modèle utilise des contraintes de capacité particulières, ainsi qu’une structure de coût à économie d’échelle sur plusieurs niveaux. L'utilité du modèle est évaluée par deux études de cas. La deuxième partie introduit le problème dynamique de localisation avec des capacités modulaires généralisées. Le modèle généralise plusieurs problèmes dynamiques de localisation et fournit de meilleures bornes de la relaxation linéaire que leurs formulations spécialisées. Le modèle peut résoudre des problèmes de localisation où les coûts pour les changements de capacité sont définis pour toutes les paires de niveaux de capacité, comme c'est le cas dans le problème industriel mentionnée ci-dessus. Il est appliqué à trois cas particuliers: l'expansion et la réduction des capacités, la fermeture temporaire des installations, et la combinaison des deux. Nous démontrons des relations de dominance entre notre formulation et les modèles existants pour les cas particuliers. Des expériences de calcul sur un grand nombre d’instances générées aléatoirement jusqu’à 100 installations et 1000 clients, montrent que notre modèle peut obtenir des solutions optimales plus rapidement que les formulations spécialisées existantes. Compte tenu de la complexité des modèles précédents pour les grandes instances, la troisième partie de la thèse propose des heuristiques lagrangiennes. Basées sur les méthodes du sous-gradient et des faisceaux, elles trouvent des solutions de bonne qualité même pour les instances de grande taille comportant jusqu’à 250 installations et 1000 clients. Nous améliorons ensuite la qualité de la solution obtenue en résolvent un modèle PLNE restreint qui tire parti des informations recueillies lors de la résolution du dual lagrangien. Les résultats des calculs montrent que les heuristiques donnent rapidement des solutions de bonne qualité, même pour les instances où les solveurs génériques ne trouvent pas de solutions réalisables. Finalement, nous adaptons les heuristiques précédentes pour résoudre le problème industriel. Deux relaxations différentes sont proposées et comparées. Des extensions des concepts précédents sont présentées afin d'assurer une résolution fiable en un temps raisonnable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Malgré le progrès technologique et nos connaissances pharmaceutiques et médicales croissantes, le développement du médicament demeure un processus difficile, dispendieux, long et très risqué. Ce processus mérite d'être amélioré pour faciliter le développement de nouveaux traitements. À cette fin, cette thèse vise à démontrer l’utilité de principes avancés et d’outils élaborés en pharmacocinétique (PK), actuels et nouveaux. Ces outils serviront à répondre efficacement à des questions importantes lors du développement d’un médicament, sauvant ainsi du temps et des coûts. Le premier volet de la thèse porte sur l’utilisation de la modélisation et des simulations et la création d’un nouveau modèle afin d’établir la bioéquivalence entre deux formulations de complexe de gluconate ferrique de sodium en solution de sucrose pour injection. Comparé aux méthodes courantes, cette nouvelle approche proposée se libère de plusieurs présuppositions, et requiert moins de données. Cette technique bénéficie d’une robustesse scientifique tout en étant associée à des économies de temps et de coûts. Donc, même si développé pour produits génériques, elle pourra également s’avérer utile dans le développement de molécules innovatrices et « biosimilaires ». Le deuxième volet décrit l’emploi de la modélisation pour mieux comprendre et quantifier les facteurs influençant la PK et la pharmacodynamie (PD) d’une nouvelle protéine thérapeutique, la pegloticase. L’analyse a démontré qu’aucun ajustement posologique n’était nécessaire et ces résultats sont inclus dans la monographie officielle du produit. Grâce à la modélisation, on pouvait répondre à des questions importantes concernant le dosage d’un médicament sans passer par des nouvelles études ni d'évaluations supplémentaires sur les patients. Donc, l’utilisation de cet outil a permis de réduire les dépenses sans prolonger le processus de développement. Le modèle développé dans le cadre de cette analyse pourrait servir à mieux comprendre d’autres protéines thérapeutiques, incluant leurs propriétés immunogènes. Le dernier volet démontre l’utilité de la modélisation et des simulations dans le choix des régimes posologiques d’un antibiotique (TP-434) pour une étude de Phase 2. Des données provenant d’études de Phase 1 ont été modélisées au fur et à mesure qu’elles devenaient disponibles, afin de construire un modèle décrivant le profil pharmacocinétique du TP-434. Ce processus de modélisation exemplifiait les cycles exploratoires et confirmatoires décrits par Sheiner. Ainsi, en se basant sur des relations PK/PD d’un antibiotique de classe identique, des simulations ont été effectuées avec le modèle PK final, afin de proposer de nouveaux régimes posologiques susceptibles d’être efficace chez les patients avant même d'effectuer des études. Cette démarche rationnelle a mené à l’utilisation de régimes posologiques avec une possibilité accrue d’efficacité, sans le dosage inutile des patients. Ainsi, on s’est dispensé d’études ou de cohortes supplémentaires coûteuses qui auraient prolongé le processus de développement. Enfin, cette analyse est la première à démontrer l’application de ces techniques dans le choix des doses d’antibiotique pour une étude de Phase 2. En conclusion, cette recherche démontre que des outils de PK avancés comme la modélisation et les simulations ainsi que le développement de nouveaux modèles peuvent répondre efficacement et souvent de manière plus robuste à des questions essentielles lors du processus de développement du médicament, tout en réduisant les coûts et en épargnant du temps.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La production excessive de mucus visqueaux dans les poumons des patients atteints de la fibrose kystique (FK) gêne la diffusion des médicaments et entraîne des infections bactériennes. En effet, l’infection pulmonaire par Pseudomonas aeruginosa (PA) est la principale cause de mortalité. Les travaux effectués dans cette thèse avaient pour but de développer des nouvelles formulations de nanoparticules (NP) et de liposomes (LP) chargées avec des antibiotiques pour erradiquer le PA chez les patients atteints de KF. Tout d’abord, les polymères PEG-g-PLA et PLA-OH ont été synthétisés et caractérisés. Ensuite, l'efficacité d'encapsulation (EE) de la tobramycine, du sulfate de colistine et de la lévofloxacine (lévo) a été testée dans des NP de PEG-g-PLA et / ou PLA-OH. Les premiers essais d'optimisation ont montré que les NP chargées avec la lévo présentaient une augmentation de l’EE. La lévo reste alors le médicament de choix. Cependant, la meilleure charge de médicament obtenue était de 0,02% m/m. Pour cette raison, nous avons décidé d'évaluer l'encapsulation de la lévo dans les LP. En fait, des LP chargés de lévo ont présenté une EE d’environ 8% m/m. De plus, la taille et la charge de ces LP étaient appropriées pour la pénétration du vecteur dans le mucus. Le test de biofilm n'est pas reproductible, mais le test standard a montré que la souche mucoïde de PA était susceptible à la lévo. Ainsi, nous avons comparé les activités des LP fraîchement préparées (vides et chargés ) et de la lévo libre sous la forme planctonique de PA. Les résultats ont montré que des LP vides ne gênent pas la croissance bactérienne. Pour la souche mucoïde (Susceptible à la lévo) les LP chargés et le médicament libre ont présenté la même concentration minimale inhibitrice (CMI). Toutefois, les souches non mucoïdes (résistant à la lévo) ont présenté une CMI deux fois plus faible que celle pour le médicament libre. Finalement, les LP se sont avérés plus appropriés pour encapsuler des médicaments hydrophiles que les NP de PEG-g-PLA. En outre, les LP semblent améliorer le traitement contre la souche résistante de PA. Toutefois, des études complémentaires doivent être effectuées afin d'assurer la capacité des liposomes èa traiter la fibrose kystique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire étudie la dynamique communicationnelle et interactionnelle entre un joueur et un système de jeu par l’entremise des théories de l’énonciation et de la cognition. Par une analyse des jeux vidéo d’horreur en perspective à la première personne, il s’agit de conceptualiser une spirale heuristique de l’énonciation à partir des principes théoriques du Cycle Magique (Arsenault et Perron, 2009). Le propos se focalise sur la manière dont le joueur expérimente et traite les propositions ludiques et les propositions ludodiégétiques. L’intérêt est d’observer comment la valeur réflexive des marques de jeu et des marques de jouabilité sert à départager des relations d’attribution entre des formulations énonciatives (textuelles, verbales, visuelles, sonores ou procédurales) et des agents énonciatifs. Cette recherche rend compte, d’une part, de la gestion cognitive des faits énonciatifs et, d’autre part, de la modulation de leurs valeurs d’immédiateté-hypermédiateté et de leurs rapports de liaison/déliaison avec les agents énonciatifs. Il est expliqué que cette activité cognitive du joueur dirige la schématisation d’attitudes interactionnelles servant à structurer la signification – ludique ou narrative – des propositions ludiques générées au cours de l’activité de jeu. L’analyse cible des processus de mise en phase performative et de mise en phase méta-systémique ludique permettant la détermination de vecteurs d’immersion. En fonction du caractère d’opacité ou de transparence des vecteurs, il est question d’indiquer comment la posture d’expérience du joueur oscille entre un continuum immersif qui polarise une expérience systémique et une expérience diégétisée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le domaine de l’éducation, comme dans d’autres domaines d’intervention auprès des humains, les organismes d’agrément exigent de plus en plus que les pratiques professionnelles s’appuient sur des résultats de recherches qui les valident (des données probantes). Cela conduit certains chercheurs à privilégier des travaux qui suivent une démarche hypothético-déductive avec des dispositifs standardisés et des données étalonnées (quantitatives). D’autres, pour mieux comprendre ce qui se passe, privilégient l’induction analytique recourant à des dispositifs plus souples qui s’adaptent aux variations du terrain et produisent des données qui ne seront étalonnées qu’a posteriori (qualitatives). Enfin, un troisième groupe de chercheur utilise aussi des dispositifs adaptatifs, mais traite leur matériel de manière plus gestaltiste par typicalisation produisant des récits de dynamique professionnelle. Or, aucune de ces trois orientations de recherche ne parvient, comme le remarquait déjà Huberman en en 1982, à combler l’écart entre les recherches et le discours des enseignants-chercheurs d’une part, et leur participation effective à la formation de professionnels de l’intervention dont les pratiques devraient être fondées sur des données probantes. Des facteurs historiques peuvent excuser cette situation dans des départements et formations professionnelles jadis dispensées dans des grandes écoles non universitaires. Cependant, on constate que les pratiques de recherche restent largement inspirées par une image idéalisée de la recherche fondamentale ou expérimentale ou philosophique avec des visées épistémiques. Or, il y a d’autres domaines de savoir, celui de la technique, de la sagesse pratique et de l’art. Corrélativement, on peut dire qu’il y a d’autres métiers de chercheurs que celui qui consiste à développer des connaissances causales ou interprétatives alors que c’est à partir de cette seule sensibilité théorique que la notion de pôle paradigmatique a été développée et que les questions auxquelles les recherches qualitatives devaient répondre ont été établies . Aussi les questions et les réponses aux quatre pôles épistémologiques (ontologique, sémantique, instrumental et rhétorique) auront d’autres exigences de forme et de contenu pour les chercheurs engagés dans des perspectives technologiques, pratiques ou artistiques. L’hypothèse proposée pour tenter de comprendre le hiatus entre les recherches universitaires et l’attitude des praticiens porte sur le glissement opéré par trop de chercheurs entre une formulation de problèmes arrimés aux sensibilités technologiques, pratiques ou artistiques et leur reproblématisation dans la perspective d’une sensibilité théorique. Il en découle que ces recherches privilégient des dispositifs conçus pour vérifier ou découvrir des hypothèses discursives (la sémantique de l’intelligibilité de l’action, selon Barbier ), plutôt que des dispositifs semblables aux conditions de la pratique professionnelle et qui respectent ses contraintes. Or, les professionnels attendent des résultats de la recherche que ceux-ci prennent en compte les contraintes de leurs activités et que leurs conclusions soient formulées dans des formes de présentation qui leur sont appropriées : une sémantique et une rhétorique de l’action intelligente, selon la formule d’Evans qui définit la praxis comme une action pensée et finalisée autant qu’une finalité pensée et agie. Quatre cas de professeurs-chercheurs et d’étudiants illustrent cette tension et les glissements méthodologiques vers l’épistémique au détriment des sensibilités professionnelles et les difficultés qui en découlent, surtout pour les étudiants. Or, il y a moyen de résoudre autrement cette tension, à condition de changer de posture. C’est la piste que nous suggérons avec une méthodologie qui respecte les contraintes de l’activité professionnelle, qui exploite les formulations et les dispositifs propres aux praticiens, et qui utilise les confrontations entre l’activité et les praticiens eux-mêmes comme démarche de la co-construction d’une présentation explicitant l’intelligence de l’action.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet offre une analyse des traductions en langue française du roman d’Aphra Behn, Oronooko, or The Royal Slave (1688). Dans cette œuvre, la première femme à vivre de sa plume présente une des premières formulations du discours abolitionniste de la littérature anglaise et met au défi des idées reçues sur l’esclavage depuis le XVIIe siècle. Le texte a été traduit vers le français pour la première fois par Pierre-Antoine de La Place (Behn, 1745), dont l’interprétation s’inscrit dans la tradition des belles infidèles. Sa version connaît un succès fulgurant jusqu’à la fin du XVIIIe siècle, avec de nombreuses rééditions parues entre 1745 et 1799. En 1990, Bernard Dhuicq publie une retraduction dans le but de faire connaître Behn aux lecteurs français du XXe siècle. En 2008, il contribue à la préparation d’une nouvelle édition de La Place, et une réédition de sa propre traduction parue en 1990. Pour sa part, Guillaume Villeneuve adapte le texte au lectorat francophone d’aujourd’hui avec une édition critique comprenant un important appareil critique publiée dans la collection « GF » des Éditions Flammarion en 2009. Les traductions de La Place, d’Dhuicq et de Villeneuve affichent chacune des variations par rapport à l’original, variations qui reflètent l’intention de ces traducteurs et de leurs éditeurs ainsi que les pratiques traductives et éditoriales de leur époque.. Cette étude montre notamment comment le récit de Behn a contribué à changer la conception occidentale de l’esclavage. Elle analyse la réception des propos idéologiques d’Oroonoko dans la culture littéraire et philosophique française, depuis le XVIIIe siècle jusqu’à nos jours. À travers le cas Oronooko, le présent mémoire offre aussi une réflexion d’ordre méthodologique sur l’étude des retraductions dans une perspective historique. L’étude des retraductions vise aujourd’hui des objectifs plus vastes sur le plan historique que ne l’indique l’hypothèse du progrès en retraduction, selon laquelle un texte est retraduit pour être corrigé ou amélioré. Notre travail montre qu’en associant à l’étude des traductions celle de leur paratexte, de leur péritexte et des sujets (traducteurs et éditeurs) qui les produisent, et ce afin de resituer chaque retraduction dans son contexte historique propre, on parvient à faire entrer ces retraductions dans un dialogue interculturel et « transhistoriciste » (Nouss, 2007).