999 resultados para Pour Thru method


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La thérapie génique représente l'un des défis de la médecine des prochaines décennies dont la réussite dépend de la capacité d'acheminer l'ADN thérapeutique jusqu'à sa cible. Des structures non virales ont été envisagées, dont le chitosane, polymère cationique qui se combine facilement à l’ADN. Une fois le complexe formé, l’ADN est protégé des nucléases qui le dégradent. Le premier objectif de l'étude est de synthétiser et ensuite évaluer différentes nanoparticules de chitosane et choisir la mieux adaptée pour une efficacité de transfection sélective in vitro dans les cellules carcinomes épidermoïdes (KB). Le deuxième objectif de l'étude est d'examiner in vivo les effets protecteurs du gène de l'IL-1Ra (bloqueur naturel de la cytokine inflammatoire, l’Interleukine-1β) complexé aux nanoparticules de chitosane sélectionnées dans un modèle d'arthrite induite par un adjuvant (AIA) chez le rat. Les nanoparticules varient par le poids moléculaire du chitosane (5, 25 et 50 kDa), et la présence ou l’absence de l’acide folique (FA). Des mesures macroscopiques de l’inflammation seront évaluées ainsi que des mesures de concentrations de l’Interleukine-1β, Prostaglandine E2 et IL-1Ra humaine secrétés dans le sérum. Les nanoparticules Chitosane-ADN en présence de l’acide folique et avec du chitosane de poids moléculaire de 25 kDa, permettent une meilleure transfection in vitro. Les effets protecteurs des nanoparticules contenant le gène thérapeutique étaient évidents suite à la détection de l’IL-1Ra dans le sérum, la baisse d'expressions des facteurs inflammatoires, l’Interleukine-1 et la Prostaglandine-E2 ainsi que la diminution macroscopique de l’inflammation. Le but de cette étude est de développer notre méthode de thérapie génique non virale pour des applications cliniques pour traiter l’arthrite rhumatoïde et d’autres maladies humaines.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La transplantation hépatique est le seul traitement définitif des enfants ayant une hépatite fulminante sans résolution spontanée. L’évolution de cette maladie dans la population pédiatrique diffère de celle adulte, particulièrement en regard de l’encéphalopathie. Pour définir les indications de transplantation hépatique, plusieurs indicateurs précoces de pronostic furent étudiés chez les adultes. Ces indicateurs n’ont pu être transposés à la population pédiatrique. Objectif primaire : Déterminer les marqueurs de risque de mortalité des enfants recevant une transplantation hépatique pour une hépatite fulminante, se définissant par une insuffisance hépatique sévère sans antécédent au cours des huit semaines précédentes. Méthode : Il s’agit d’une étude rétrospective incluant tous les enfants ayant reçu une transplantation hépatique pour une hépatite fulminante à l’hôpital Sainte-Justine entre 1985 et 2005. Le score PELOD (Pediatric Logistic Organ Dysfunction) est une mesure de sévérité clinique d’un enfant aux soins intensifs. Il fut calculé à l’admission et avant la transplantation hépatique. Résultats : Quatorze enfants (cinq mois à seize ans) reçurent une transplantation hépatique pour une hépatite fulminante. Neuf enfants (64%) survécurent et cinq (36%) décédèrent. L’utilisation de la ventilation mécanique fut associée à un mauvais pronostic (p = 0,027). Entre l’admission et la transplantation hépatique, 88% des enfants ayant eu une variation du score PELOD inférieure à cinq survécurent. Tous ceux ayant eu une variation supérieure à cinq décédèrent. (p = 0,027) Conclusion : La variation du score PELOD pourrait aider à définir un indicateur précoce de l’évolution d’un enfant après une transplantation hépatique pour une hépatite fulminante.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Depuis plusieurs années, la définition des soins palliatifs a été élargie pour inclure toutes les maladies ayant un pronostic réservé. Le Québec s’est doté d’une politique de soins palliatifs dont l’un des principes directeurs est de maintenir les patients dans leur milieu de vie naturel. Alors que présentement environ 10 % de la population nécessitant des soins palliatifs en reçoit, on peut s’attendre à une augmentation des demandes de soins palliatifs à domicile dans les CSSS du Québec. La présente étude a pour but de décrire et comprendre l’expérience de dispenser des soins palliatifs à domicile pour des infirmières travaillant dans un contexte non spécialisé. Une étude qualitative ayant comme perspective disciplinaire la théorie de l’humain-en-devenir de Parse a été réalisée. Des entrevues ont été effectuées auprès de huit infirmières travaillant au maintien à domicile d’un CSSS de la région de Montréal qui font des soins palliatifs dans un contexte non spécialisé. L’analyse des données a été effectuée selon la méthode d’analyse phénoménologique de Giorgi (1997). Les résultats s’articulent autour de trois thèmes qui décrivent l’expérience de dispenser des soins palliatifs à domicile pour des infirmières qui travaillent dans un contexte non spécialisé. Elles accompagnent les patients et leur famille, en s’engageant à donner des soins humains, et développant une relation d’accompagnement avec le patient et ses proches. Elles doivent composer avec les réactions du patient et de sa famille et doivent parfois informer le patient de la progression de son état de santé. De plus, elles se préoccupent de donner des soins de qualité en composant avec la complexité des soins palliatifs à domicile tout en s’assurant de soulager les symptômes des patients et de tenter de développer leur expertise. Finalement, le fait d’être confrontée à la mort permet de cheminer. Ainsi, les infirmières vivent des émotions, reçoivent du soutien, sont touchées personnellement par la mort, éprouvent de la satisfaction envers les soins qu’elles donnent et apprennent personnellement de leur expérience. L’essence du phénomène à l’étude est que lorsque les infirmières font un véritable accompagnement du patient et de sa famille en s’efforçant de donner des soins de qualité, cela crée des conditions permettant qu’un cheminement personnel et professionnel sur la vie et la mort soit effectué par les infirmières.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les agents anti-infectieux sont utilisés pour traiter ou prévenir les infections chez les humains, les animaux, les insectes et les plantes. L’apparition de traces de ces substances dans les eaux usées, les eaux naturelles et même l’eau potable dans plusieurs pays du monde soulève l’inquiétude de la communauté scientifique surtout à cause de leur activité biologique. Le but de ces travaux de recherche a été d’étudier la présence d’anti-infectieux dans les eaux environnementales contaminées (c.-à-d. eaux usées, eaux naturelles et eau potable) ainsi que de développer de nouvelles méthodes analytiques capables de quantifier et confirmer leur présence dans ces matrices. Une méta-analyse sur l’occurrence des anti-infectieux dans les eaux environnementales contaminées a démontré qu’au moins 68 composés et 10 de leurs produits de transformation ont été quantifiés à ce jour. Les concentrations environnementales varient entre 0.1 ng/L et 1 mg/L, selon le composé, la matrice et la source de contamination. D’après cette étude, les effets nuisibles des anti-infectieux sur le biote aquatique sont possibles et ces substances peuvent aussi avoir un effet indirect sur la santé humaine à cause de sa possible contribution à la dissémination de la résistance aux anti-infecteiux chez les bactéries. Les premiers tests préliminaires de développement d’une méthode de détermination des anti-infectieux dans les eaux usées ont montré les difficultés à surmonter lors de l’extraction sur phase solide (SPE) ainsi que l’importance de la sélectivité du détecteur. On a décrit une nouvelle méthode de quantification des anti-infectieux utilisant la SPE en tandem dans le mode manuel et la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). Les six anti-infectieux ciblés (sulfaméthoxazole, triméthoprime, ciprofloxacin, levofloxacin, clarithromycin et azithromycin) ont été quantifiés à des concentrations entre 39 et 276 ng/L dans les échantillons d’affluent et d’effluent provenant d’une station d’épuration appliquant un traitement primaire et physico- chimique. Les concentrations retrouvées dans les effluents indiquent que la masse moyenne totale de ces substances, déversées hebdomadairement dans le fleuve St. Laurent, était de ~ 2 kg. En vue de réduire le temps total d’analyse et simplifier les manipulations, on a travaillé sur une nouvelle méthode de SPE couplée-LC-MS/MS. Cette méthode a utilisé une technique de permutation de colonnes pour préconcentrer 1.00 mL d’échantillon dans une colonne de SPE couplée. La performance analytique de la méthode a permis la quantification des six anti-infectieux dans les eaux usées municipales et les limites de détection étaient du même ordre de grandeur (13-60 ng/L) que les méthodes basées sur la SPE manuelle. Ensuite, l’application des colonnes de SPE couplée de chromatographie à débit turbulent pour la préconcentration de six anti-infectieux dans les eaux usées a été explorée pour diminuer les effets de matrice. Les résultats obtenus ont indiqué que ces colonnes sont une solution de réchange intéressante aux colonnes de SPE couplée traditionnelles. Finalement, en vue de permettre l’analyse des anti-infectieux dans les eaux de surface et l’eau potable, une méthode SPE couplée-LC-MS/MS utilisant des injections de grand volume (10 mL) a été développée. Le volume de fuite de plusieurs colonnes de SPE couplée a été estimé et la colonne ayant la meilleure rétention a été choisie. Les limites de détection et de confirmation de la méthode ont été entre 1 à 6 ng/L. L’analyse des échantillons réels a démontré que la concentration des trois anti-infectieux ciblés (sulfaméthoxazole, triméthoprime et clarithromycine) était au dessous de la limite de détection de la méthode. La mesure des masses exactes par spectrométrie de masse à temps d’envol et les spectres des ions produits utilisant une pente d’énergie de collision inverse dans un spectromètre de masse à triple quadripôle ont été explorés comme des méthodes de confirmation possibles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La 1-β-D-arabinofuranosylcytosine (ara-C) demeure l’agent anticancéreux principalement utilisé dans le traitement de la leucémie myéloblastique aiguë (LMA), malgré sa dégradation et son élimination rapide après une administration parentérale. Son encapsulation dans des vecteurs pharmaceutiques, majoritairement des liposomes, a permis de surmonter ces inconvénients. L’objectif général de ce projet de doctorat était de développer deux systèmes à libération prolongée, à base de phospholipides, de cholestérol et de poly(éthylène glycol) (PEG) afin d’encapsuler l’ara-C et ultimement, d’améliorer son efficacité dans le traitement de la LMA. Des Sphérulites® (vésicules multilamellaires d’un type particulier) ont d’abord été étudiées pour leur forte capacité d’encapsulation, due à leur mode de préparation. Par la suite, une formulation liposomale capable, d’une part de cibler spécifiquement les cellules leucémiques et, d’autre part, de promouvoir la libération intracellulaire de l’ara-C grâce à sa sensibilité au pH, a été mise au point. Les deux formulations se devaient d’avoir un faible diamètre, une stabilité en présence de fluides biologiques et des temps de circulation prolongés chez l’animal. Une préparation de Sphérulites®, composée de Phospholipon 90G, de Solutol HS15 et de cholestérol, a permis d’obtenir des vésicules de 300 nm de diamètre. Un dérivé lipidique de PEG a pu être fixé à leur surface, sans modifier la disposition concentrique des lamelles, ni changer leur stabilité. Les Sphérulites® PEGylées ont été chargées d’ara-C et injectées chez le rat par la voie intraveineuse. Elles ont démontré des temps de circulation significativement prolongés comparativement aux Sphérulites® sans PEG. Cependant, l’ara-C s’est retrouvée éliminée de la circulation sanguine très rapidement, révélant une libération précoce du principe actif à partir de ces vésicules. Les liposomes sensibles au pH (~150 nm) ont été obtenus suite à l’insertion d’un copolymère à base de dioctadécyle, de N-isopropylacrylamide (NIPAM) et d’acide méthacrylique. L’anticorps anti-CD33, soit complet soit son fragment Fab’, a été fixé à la surface des liposomes afin de cibler les cellules leucémiques. Les essais in vitro ont démontré la spécificité de la formulation pour différentes cellules leucémiques (CD33+), sa stabilité en présence de protéines plasmatiques et la libération intracellulaire d’un marqueur fluorescent et de l’ara-C. Enfin, des études menées chez la souris saine et immunodéprimée inoculée de cellules HL60 ont montré que la formulation exposant le fragment Fab’ possédait un profil pharmacocinétique et une biodistribution semblables à ceux des liposomes contrôles non-ciblés. L’encapsulation de l’ara-C a permis d’améliorer grandement ses temps de circulation après une administration intraveineuse. Cependant, bien que les immunoliposomes ont permis de prolonger la survie des souris leucémiques comparativement à l’ara-C libre, l’addition du polymère sensible au pH n’a pas permis d’apporter de réel avantage à la formulation lorsque administrée in vivo. Les résultats obtenus dans ce travail de thèse ont, dans un premier temps, mis en évidence que les Sphérulites® pourraient s’avérer utiles dans la vectorisation d’agents anticancéreux si leur capacité à retenir le principe actif in vivo était améliorée. Dans un second temps, les données présentées avec les immunoliposomes suggèrent qu’ils pourraient apporter un bénéfice notable dans le traitement de la LMA.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’effervescence religieuse et politique au Cameroun engendre progressivement la fragmentation ethnique du peuple chrétien camerounais. Face à la manipulation politique, l’autre nom de l’injustice ethnique, la plupart des Camerounais et Camerounaises y compris les chrétiens réagissent désormais par le tribalisme, l’autre nom de la résignation ou mieux du déchirement social. Les Camerounais et Camerounaises donnent l’impression d’avoir perdu l’esprit de résistance/dissidence qui leur a valu la liberté ou mieux l’indépendance. Comment ignorer que de s’accoutumer au drame de la dérive ethnique, en s’installant, pour des raisons de survie, dans l’éclatement le plus abject, c’est opter pour l’asservissement volontaire d’un peuple qui mène inexorablement au génocide collectif ? Notre recherche repose sur l’hypothèse que les conflits ethniques ont pénétré la sphère du christianisme et font désormais partie des dysfonctionnements de l’Église du Cameroun. Ces dysfonctionnements internes nuisent à la crédibilité de l’Église. Il y a un lien entre les défaillances observées dans l’Église et les défaillances de la société Camerounaise. De plus, le rapport de convergence entre les rivalités ethniques et la religion, provoque un questionnement théologique inévitable : comment amener les différentes ethnies qui forment la plupart des États africains à un harmonieux vivre - ensemble inspiré par le mode de vie et de fonctionnement des Églises chrétiennes, au Cameroun en l'occurrence ? Faut-il se limiter à l’adoption d’une nouvelle image de l’Église par exemple l’Église-famille-de-Dieu, ou bien faut-il prendre le taureau par les cornes et éduquer les peuples africains à une culture de la paix ? La démarche de cette thèse s’inspire de la méthode adoptée par la théologie pratique, c’est-à-dire la praxéologie1, en relation avec la théologie contextuelle2, au niveau du lien avec les méthodes d’analyses des sciences sociales et sciences humaines, et au niveau de sa dimension prophétique créatrice. Elle est construite autour de quatre coordonnées: observation (médiation sociale), interprétation (médiation herméneutique), intervention pastorale (médiation pratique) et prospective. 1 Cf. G. ROUTHIER, et M.VIAU, (dir.), Précis de théologie pratique, Montréal/Bruxelles, Novalis/Lumen Vitae, 2004, 819 p. 2 Cf. C. BOFF, Théorie et pratique . La méthode des théologies de la libération, Paris, Cerf, 1990, 400 p. ii La thèse comporte quatre parties. La première partie (chapitres 1, 2 et 3) consacrée à l’observation cerne la problématique du vivre ensemble multiethnique, pour permettre de mieux percevoir la manifestation du phénomène du tribalisme dans l’Église (les Églises) et la société camerounaise. Elle montre que des situations dramatiques, de malheurs, de pauvreté, de famine, de conflits et de guerres sont causées en partie par le tribalisme exclusif. La deuxième partie (chapitres 4 et 5) porte sur la question du sens. Elle analyse et met à l’épreuve la compréhension du phénomène du tribalisme et des conflits ethniques dans la société et dans les Églises du Cameroun. Sont ainsi abordés, successivement, les principales articulations du tribalisme, la stratégie mise sur pied (diviser pour mieux régner) pour la transformation des structures sociales au Cameroun pendant la colonisation, puis récupérée par les politiciens comme idéologie politique depuis les indépendances. Nous en sommes arrivés à constater que cette idéologie a conduit à une profonde déstructuration de la société camerounaise jusque dans l’Église (les Églises). La troisième partie (chapitres 6 et 7) est consacrée à la pratique ecclésiale du dialogue de la diversité ethnique africaine pour la paix ; nous y montrons comment les solidarités ethniques purifiées au feu de l’Évangile peuvent avoir une influence sur la pratique chrétienne. Nous cherchons ensuite à démontrer que le dialogue interethnique bien articulé est le chemin de la réconciliation. La quatrième partie (chapitre 8) est un effort pour passer de l’utopie mise en pratique à une pratique en forme d’utopie. Nous cherchons à montrer que le dialogue pastoral enrichi par la diversité ethnique et religieuse entraînera la transformation de l’Église locale dans son interaction avec les différentes ethnies du Cameroun et d’Afrique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette recherche tente de déterminer si, dans le cadre d’un cours de physique de cinquième secondaire, l’utilisation d’un laboratoire par enquête guidée (comme complément d’enseignement basé sur une approche conceptuelle) permet aux élèves de mieux comprendre des notions de cinématique, que le laboratoire traditionnel. Elle s’inscrit dans une série d’études, réalisées au collégial ou à l’université, qui portent sur des approches d’enseignement exploitant le laboratoire comme moyen de transmission des concepts mécaniques en physique (McDermott, 1996; Beichner, 1994). Le laboratoire par enquête est associé à une approche conceptuelle axée sur le raisonnement qualitatif alors que celui qui est traditionnel est associé à une approche traditionnelle de l’enseignement de la physique. Le test TUG-K, «Test of Understanding Graphs in Kinematics » (Beichner, 1994), ainsi que des entrevues individuelles ont été utilisés afin d’évaluer la compréhension des concepts de cinématique. Il semble d’abord que le laboratoire par enquête guidé soit efficace pour enseigner la plupart des notions de cinématique. De plus, en comparant deux groupes d’une trentaine d’élèves de 5e secondaire ayant suivi deux types de laboratoires différents, l’étude a permis d’entrevoir une piste concernant la compréhension du concept d’accélération. Les résultats suggèrent qu’un laboratoire associé à une approche conceptuelle permettrait aux étudiants, à long terme, de mieux s’approprier les notions d’accélération qu’un laboratoire traditionnel.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Plusieurs agents anticancéreux très puissants sont caractérisés par une solubilité aqueuse limitée et une toxicité systémique importante. Cette dernière serait liée d’une part à la solubilisation des agents anticancéreux à l’aide de surfactifs de bas poids moléculaire, connus pour leur toxicité intrinsèque, et d’autre part, par le manque de spécificité tissulaire des anticancéreux. Les vecteurs colloïdaux à base de polymères permettraient de résoudre certains défis liés à la formulation d’agents anticancéreux hydrophobes. D’abord, les polymères peuvent être sélectionnés afin de répondre à des critères précis de compatibilité, de dégradation et d’affinité pour le médicament à formuler. Ensuite, le fait d’encapsuler l’agent anticancéreux dans un vecteur peut améliorer son efficacité thérapeutique en favorisant son accumulation au niveau du tissu cible, i.e. la tumeur, et ainsi limiter sa distribution au niveau des tissus sains. Des travaux antérieurs menés au sein de notre laboratoire ont mené à la mise au point de micelles à base de poly(N-vinyl-pyrrolidone)-bloc-poly(D,L-lactide) (PVP-b-PDLLA) capables de solubiliser des agents anticancéreux faiblement hydrosolubles dont le PTX. Ce dernier est commercialisé sous le nom de Taxol® et formulé à l’aide du Crémophor EL (CrEL), un surfactif de bas poids moléculaire pouvant provoquer, entre autres, des réactions d’hypersensibilité sévères. Bien que les micelles de PVP-b-PDLLA chargées de PTX aient démontré une meilleure tolérance comparée au Taxol®, leur potentiel de ciblage tumoral et leur efficacité thérapeutique étaient similaires à la forme commerciale à doses égales. Ceci était possiblement dû au fait que les micelles étaient rapidement déstabilisées et ne pouvaient retenir leur cargo suite à leur administration intraveineuse. Nous avons donc décidé de poursuivre les travaux avec un autre type de vecteur, soit des nanoparticules, qui possèdent une stabilité intrinsèque supérieure aux micelles. L’objectif principal de cette thèse de doctorat était donc de mettre au point des nanoparticules polymères pour l’administration parentérale d’agents anticancéreux faiblement solubles dans l’eau. Les nanoparticules devaient permettre d’encapsuler des agents anticancéreux hydrophobes et de les libérer de manière contrôlée sur plusieurs jours. De plus, elles devaient démontrer un temps de circulation plasmatique prolongée afin de favoriser l’accumulation passive du médicament encapsulé au niveau de la tumeur. La première partie du travail visait à employer pour la première fois le copolymère amphiphile PVP-b-PDLLA comme émulsifiant dans la préparation de nanoparticules polymères. Ainsi, une méthode de fabrication des nanoparticules par émulsion huile-dans-eau a été appliquée afin de produire des nanoparticules à base de PDLLA de taille inférieure à 250 nm. Grâce aux propriétés lyoprotectrices de la couronne de PVP présente à la surface des nanoparticules, celles-ci pouvaient retrouver leur distribution de taille initiale après lyophilisation et redispersion en milieu aqueux. Deux anticancéreux hydrophobes, soit le PTX et l’étoposide (ETO), ont été encapsulés dans les nanoparticules et libérés de ces dernières de façon contrôlée sur plusieurs jours in vitro. Une procédure de « salting-out » a été appliquée afin d’améliorer le taux d’incorporation de l’ETO initialement faible étant donnée sa solubilité aqueuse légèrement supérieure à celle du PTX. Le second volet des travaux visait à comparer le PVP comme polymère de surface des nanoparticules au PEG, le polymère le plus fréquemment employé à cette fin en vectorisation. Par le biais d’études d’adsorption de protéines, de capture par les macrophages et de biodistribution chez le rat, nous avons établi une corrélation in vitro/in vivo démontrant que le PVP n’était pas un agent de surface aussi efficace que le PEG. Ainsi, malgré la présence du PVP à la surface des nanoparticules de PDLLA, ces dernières étaient rapidement éliminées de la circulation sanguine suite à leur capture par le système des phagocytes mononucléés. Par conséquent, dans le troisième volet de cette thèse, le PEG a été retenu comme agent de surface, tandis que différents polymères biodégradables de la famille des polyesters, certains synthétiques (PDLLA et copolymères d’acide lactique/acide glycolique), d’autres de source naturelle (poly(hydroxyalkanoates)(PHAs)), ont été investiguées comme matériaux formant le cœur des nanoparticules. Il en est ressorti que les propriétés physicochimiques des polyesters avaient un impact majeur sur l’efficacité d’encapsulation du PTX et son profil de libération des nanoparticules in vitro. Contrairement aux PHAs, les polymères synthétiques ont démontré des taux d’incorporation élevés ainsi qu’une libération contrôlée de leur cargo. Des études de pharmacocinétique et de biodistribution ont démontré que les nanoparticules de PDLLA dotées d’une couronne de PEG conféraient un temps de circulation plasmatique prolongé au PTX et favorisaient son accumulation tumorale. Les nanoparticules polymères représentent donc une alternative intéressante au Taxol®.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'amélioration de la maitrise du français langue première chez les élèves du primaire au Québec dépend de plusieurs facteurs. L'enseignant peut jouer un rôle dans ce processus, sa formation universitaire lui fournissant les connaissances nécessaires afin d'encadrer le développement des compétences langagières de l'élève. Une de ces compétences joue un rôle privilégié dans l'utilisation et la maitrise de la langue, il s'agit de la compétence lexicale, la capacité à comprendre et à utiliser les unités du lexique, aussi bien à l'oral qu'à l'écrit. Afin d'encadrer le développement de la compétence lexicale en français langue première des élèves du primaire, les enseignants doivent eux-mêmes posséder un bon niveau de compétence lexicale, mais aussi détenir un certain nombre de connaissances sur le fonctionnement du lexique lui-même, c'est-à-dire des connaissances métalexicales. Le référentiel québécois de la profession enseignante (MEQ, 2001b) ne détaille pas les connaissances métalexicales que doit posséder l'enseignant pour mener les tâches associées à ses activités d'enseignement/apprentissage du lexique. En outre, la plupart des universités québécoises n'offrent pas de cours dédiés explicitement à la didactique du lexique. Pourtant, ce sont dans les cours de didactique que sont dispensées les connaissances théoriques et pratiques nécessaires au futur enseignant pour assumer les tâches de planification et de pilotage des activités d'apprentissage et d'évaluation des compétences des élèves. La relative absence de cours de didactique du lexique en formation initiale pourrait s'expliquer par le fait qu'il s'agit d'une discipline encore jeune dont les fondements théoriques et pratiques sont en cours de développement. Cette thèse en didactique du français langue première s’intéresse donc aux contenus linguistiques de référence de la didactique du lexique, ainsi qu’à la formation des maitres au primaire dans cette même discipline. Le travail de recherche effectué afin de tenter de remédier au problème soulevé a permis la réalisation de deux objectifs complémentaires. Le premier a consisté en la construction d’une ontologie des savoirs lexicologiques, qui permet de représenter à l’intérieur d’une hiérarchie de notions l’ensemble des connaissances disciplinaires de référence de la didactique du lexique. Cette représentation a ensuite été utilisée pour spécifier et structurer les contenus d’un module de cours en didactique du lexique visant le développement des connaissances métalexicales chez les futurs enseignants du primaire au Québec. L’ontologie et le module de cours produits ont été évalués et validés par des experts de chacun des domaines concernés. L’évaluation de l’ontologie a permis de vérifier la méthode de construction de celle-ci, ainsi que différents aspects relatifs à la structuration des concepts dans l’ontologie. L’évaluation du module de cours a quant à elle montré que les contenus de cours étaient pertinents, les méthodes pédagogiques employées appropriées et le matériel de cours développé bien conçu. Cela nous permet d'affirmer que le module de cours en didactique du lexique se présente comme un apport intéressant à la formation des futurs enseignants du primaire en français langue première au Québec. La recherche dans son ensemble présente enfin une contribution pertinente à la didactique du lexique, son caractère original résidant entre autres dans le fait d’avoir développé un mécanisme d’exploitation d’une base de connaissances (ontologie des savoirs lexicologiques) pour la conception didactique (module de cours en didactique du lexique).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ce mémoire vise à recenser les avantages et les inconvénients de l'utilisation du langage de programmation fonctionnel dynamique Scheme pour le développement de jeux vidéo. Pour ce faire, la méthode utilisée est d'abord basée sur une approche plus théorique. En effet, une étude des besoins au niveau de la programmation exprimés par ce type de développement, ainsi qu'une description détaillant les fonctionnalités du langage Scheme pertinentes au développement de jeux vidéo sont données afin de bien mettre en contexte le sujet. Par la suite, une approche pratique est utilisée en effectuant le développement de deux jeux vidéo de complexités croissantes: Space Invaders et Lode Runner. Le développement de ces jeux vidéo a mené à l'extension du langage Scheme par plusieurs langages spécifiques au domaine et bibliothèques, dont notamment un système de programmation orienté objets et un système de coroutines. L'expérience acquise par le développement de ces jeux est finalement comparée à celle d'autres développeurs de jeux vidéo de l'industrie qui ont utilisé Scheme pour la création de titres commerciaux. En résumé, l'utilisation de ce langage a permis d'atteindre un haut niveau d'abstraction favorisant la modularité des jeux développés sans affecter les performances de ces derniers.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Face à l’incapacité de l’État à offrir des services de base aux ménages pauvres des zones urbaines périphériques et marginales, ce sont les opérateurs informels (individuels et collectifs) qui s’activent à répondre aujourd’hui aux besoins croissants des ménages. Mais leurs actions sont ponctuelles, éparpillées sur le territoire, non intégrées dans un plan de développement local, et beaucoup de ménages n’ont toujours pas accès à l’eau potable. Cette recherche, de type exploratoire, porte donc sur l’examen d’un type de partenariat entre les acteurs publics et les opérateurs informels collectifs, susceptible de créer la synergie entre les partenaires locaux et de pérenniser la fourniture de l’eau potable. Elle vise à analyser et à comprendre les mécanismes de collaboration entre l’État et les opérateurs informels collectifs en vue d’améliorer la qualité de la vie dans les quartiers urbains pauvres grâce à la résolution des problèmes d’accès à l’eau potable. À partir de l’étude de cas d’une zone pauvre de la ville de Kinshasa (République Démocratique du Congo), nous avons donc cherché à dégager ce qui peut éclairer le fonctionnement du partenariat État-opérateurs informels collectifs. Comme cadre d’analyse, nous avons recouru à l’analyse stratégique et, pour l’examen des expériences de partenariat, nous avons utilisé le modèle de Coston (1998) et recouru aux approches de régulation État-tiers secteur (approche socio-étatique et approche socio-communautaire). La méthode qualitative a été privilégiée. Les données analysées proviennent d’entrevues semi-dirigées, de la recherche documentaire et de l’observation. À partir du modèle de Coston (1998), les résultats obtenus montrent que les relations qui correspondent le mieux au partenariat entre les acteurs publics et les opérateurs informels collectifs sont de type « contractuel » et correspondent à l’orientation socio-étatique. Mais le système formel actuel de gestion de l’eau potable et les relations de pouvoir sont plus proches du type « rivalité ». Notre étude montre également que les partenariats, entre les acteurs publics et les opérateurs informels collectifs, sont très difficiles à instituer, car il n’existe pas encore d’environnement socio-politique solidaire. Le contexte institutionnel n’est pas propice à l’émergence d’un partenariat dynamique. Les déficiences structurelles, humaines et institutionnelles constatées sont la résultante directe de la pauvreté dont sont victimes les individus et les institutions. Les réseaux sociaux (à base de parenté, ethnique ou religieux) affectent les relations entre les individus, membres d’une association locale et les représentants des institutions locales ou nationales. Une complémentarité, négociée entre l’État et les opérateurs informels collectifs, ne pourra se réaliser que par la mise en place de nouvelles politiques favorisant la démocratie, la décentralisation et la promotion du mouvement associatif avec une société civile forte, dynamique, soucieuse du bien commun, privilégiant les qualités managériales plutôt que l’assistance perpétuelle.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La méthode IIM (Immersed Interface Method) permet d'étendre certaines méthodes numériques à des problèmes présentant des discontinuités. Elle est utilisée ici pour étudier un fluide incompressible régi par les équations de Navier-Stokes, dans lequel est immergée une membrane exerçant une force singulière. Nous utilisons une méthode de projection dans une grille de différences finies de type MAC. Une dérivation très complète des conditions de saut dans le cas où la viscosité est continue est présentée en annexe. Deux exemples numériques sont présentés : l'un sans membrane, et l'un où la membrane est immobile. Le cas général d'une membrane mobile est aussi étudié en profondeur.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les polymères amphiphiles sont largement utilisés pour les applications biomédicales et pharmaceutiques. Afin d’améliorer les chances de biocompatibilité des nouveaux polymères que nous voulons développer, nous avons utilisé des composés naturels, les acides biliaires, comme produits de départ dans la synthèse de ces polymères. De nouveaux polymères anioniques amphiphiles dérivés de l’acide cholique ont été préparés par polymérisation radicalaire par transfert d’atomes. Par un contrôle rigoureux des conditions de polymérisation, des bras de poly(acide acrylique) de différentes longueurs ont été greffés sur le squelette de l’acide cholique. L’architecture moléculaire des polymères a été étudiée par spectroscopie 1H RMN et par spectrométrie de masse. Ces polymères en étoile formés par l’acide biliaire modifié sont capables de s’agréger dans l’eau même si les groupements hydroxyles ont été remplacés par des segments plus volumineux. Il a été observé que les liaisons ester entre le polymère et le cœur d’acide cholique sont sensibles à l’hydrolyse en solution aqueuse. Pour remédier au problème de stabilité en solution aqueuse et pour avoir, en même temps, des bras hydrophiles non ioniques et biocompatibles, de l’oxyde d’éthylène a été polymérisé sur l’acide cholique par polymérisation anionique. Les liaisons éther formées entre le polymère et les groupements hydroxyles de l’acide biliaire sont plus stables que les liaisons ester sur le polymère de poly(acide acrylique). Les conditions de réaction de la polymérisation anionique ont été optimisées et ont donné des polymères aux architectures et aux masses molaires contrôlées. Les nouveaux polymères forment des agrégats sphériques tel qu’observé par microscopie électronique à transmission avec des échantillons préparés par la méthode de fracture à froid. Leur morphologie est différente de celle des agrégats cylindriques formés par les acides biliaires. Avec la méthode optimisée pour la polymérisation anionique, l’éther d’allyle et glycidyle a été polymérisé sur un dérivé d’acide cholique, suivi par une thiolation des liaisons doubles pour introduire l’amine ou l’acide sur la chaîne polymère. Cette addition radicalaire est efficace à plus de 90%. Les polymères qui en résultent sont solubles dans l’eau et s’agrègent à une certaine concentration critique. Il est particulièrement intéressant d’observer la thermosensibilité des polymères ayant des groupements amine, laquelle peut être modulée en acétylant partiellement les amines, donnant des points nuages entre 15 et 48°C.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les phytochélatines (PC) sont des polypeptides ayant la structure générale, (alpha-Glu-Cys)n-Gly, où n = 2 à 11. Leur synthèse est induite par un grand nombre de végétaux en réponse à une élévation de la concentration du milieu en métaux, en particulier le cadmium (ci-après, Cd). Le but de cette étude a été de développer un outil pour évaluer la biodisponibilité du Cd dans les eaux douces. Pour ce faire, une méthode analytique a été réalisée afin de déterminer les phytochélatines induites dans les algues C. reinhardtii. Celle-ci consiste à utiliser la chromatographie liquide couplée à la spectrométrie de masse en tandem (LCHP-SM/SM) "on-line". L’ionisation des molécules est celle faite par électronébulisation (IEN) (traduction de electrospray ionisation). L’objectif principal de ce mémoire est la validation de cette méthode : la détermination des courbes de calibration et des limites de détection et l'identification d'interférences potentielles. L’utilisation de dithiothreitol (DTT) à une concentration de 25 mM a été nécessaire à la conservation de la forme réduite des phytochélatines. En effet, suite à la validation de la méthode d’analyse des phytochélatines il a été démontré qu’elle représente un potentiel d’application. Ceci dans la mesure où l’induction des phytochélatines (PC2, PC3 et PC4) dans les algues C. reinhardtii a été possible à deux concentrations de Cd (1 x 10-7 M et 1 x 10 6 M) et ce, après plusieurs temps d'induction (1, 2, 4, et 6 h). Ainsi, l’étude de la stabilité des phytochélatines a été réalisée et toutes les températures examinées ont démontré une diminution des phytochélatines analysées par HPLC-ESI-MS/MS. Il se pourrait que la cause de la dégradation des phytochélatines soit physique ou chimique plutôt que bactérienne. Toutefois, un approfondissement au niveau de la purification de la solution d’extraction serait nécessaire à la mise au point de la dite méthode analytique afin de quantifier les phytochélatines dans l’algue C. reinhardtii.