402 resultados para fonctions de densité de probabilité des tons de gris

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'imagerie intravasculaire ultrasonore (IVUS) est une technologie médicale par cathéter qui produit des images de coupe des vaisseaux sanguins. Elle permet de quantifier et d'étudier la morphologie de plaques d'athérosclérose en plus de visualiser la structure des vaisseaux sanguins (lumière, intima, plaque, média et adventice) en trois dimensions. Depuis quelques années, cette méthode d'imagerie est devenue un outil de choix en recherche aussi bien qu'en clinique pour l'étude de la maladie athérosclérotique. L'imagerie IVUS est par contre affectée par des artéfacts associés aux caractéristiques des capteurs ultrasonores, par la présence de cônes d'ombre causés par les calcifications ou des artères collatérales, par des plaques dont le rendu est hétérogène ou par le chatoiement ultrasonore (speckle) sanguin. L'analyse automatisée de séquences IVUS de grande taille représente donc un défi important. Une méthode de segmentation en trois dimensions (3D) basée sur l'algorithme du fast-marching à interfaces multiples est présentée. La segmentation utilise des attributs des régions et contours des images IVUS. En effet, une nouvelle fonction de vitesse de propagation des interfaces combinant les fonctions de densité de probabilité des tons de gris des composants de la paroi vasculaire et le gradient des intensités est proposée. La segmentation est grandement automatisée puisque la lumière du vaisseau est détectée de façon entièrement automatique. Dans une procédure d'initialisation originale, un minimum d'interactions est nécessaire lorsque les contours initiaux de la paroi externe du vaisseau calculés automatiquement sont proposés à l'utilisateur pour acceptation ou correction sur un nombre limité d'images de coupe longitudinale. La segmentation a été validée à l'aide de séquences IVUS in vivo provenant d'artères fémorales provenant de différents sous-groupes d'acquisitions, c'est-à-dire pré-angioplastie par ballon, post-intervention et à un examen de contrôle 1 an suivant l'intervention. Les résultats ont été comparés avec des contours étalons tracés manuellement par différents experts en analyse d'images IVUS. Les contours de la lumière et de la paroi externe du vaisseau détectés selon la méthode du fast-marching sont en accord avec les tracés manuels des experts puisque les mesures d'aire sont similaires et les différences point-à-point entre les contours sont faibles. De plus, la segmentation par fast-marching 3D s'est effectuée en un temps grandement réduit comparativement à l'analyse manuelle. Il s'agit de la première étude rapportée dans la littérature qui évalue la performance de la segmentation sur différents types d'acquisition IVUS. En conclusion, la segmentation par fast-marching combinant les informations des distributions de tons de gris et du gradient des intensités des images est précise et efficace pour l'analyse de séquences IVUS de grandes tailles. Un outil de segmentation robuste pourrait devenir largement répandu pour la tâche ardue et fastidieuse qu'est l'analyse de ce type d'images.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La caractérisation de matériaux par spectroscopie optique d’émission d’un plasma induit par laser (LIPS) suscite un intérêt qui ne va que s’amplifiant, et dont les applications se multiplient. L’objectif de ce mémoire est de vérifier l’influence du choix des raies spectrales sur certaines mesures du plasma, soit la densité électronique et la température d’excitation des atomes neutres et ionisés une fois, ainsi que la température d’ionisation. Nos mesures sont intégrées spatialement et résolues temporellement, ce qui est typique des conditions opératoires du LIPS, et nous avons utilisé pour nos travaux des cibles binaires d’aluminium contenant des éléments à l’état de trace (Al-Fe et Al-Mg). Premièrement, nous avons mesuré la densité électronique à l’aide de l’élargissement Stark de raies de plusieurs espèces (Al II, Fe II, Mg II, Fe I, Mg I, Halpha). Nous avons observé que les densités absolues avaient un comportement temporel différent en fonction de l’espèce. Les raies ioniques donnent des densités électroniques systématiquement plus élevées (jusqu’à 50 % à 200 ns après l’allumage du plasma), et décroissent plus rapidement que les densités issues des raies neutres. Par ailleurs, les densités obtenues par les éléments traces Fe et Mg sont moindres que les densités obtenues par l’observation de la raie communément utilisée Al II à 281,618 nm. Nous avons parallèlement étudié la densité électronique déterminée à l’aide de la raie de l’hydrogène Halpha, et la densité électronique ainsi obtenue a un comportement temporel similaire à celle obtenue par la raie Al II à 281,618 nm. Les deux espèces partagent probablement la même distribution spatiale à l’intérieur du plasma. Finalement, nous avons mesuré la température d’excitation du fer (neutre et ionisé, à l’état de trace dans nos cibles), ainsi que la température d’ionisation, à l’aide de diagrammes de Boltzmann et de Saha-Boltzmann, respectivement. À l’instar de travaux antérieurs (Barthélémy et al., 2005), il nous est apparu que les différentes températures convergeaient vers une température unique (considérant nos incertitudes) après 2-3 microsecondes. Les différentes températures mesurées de 0 à 2 microsecondes ne se recoupent pas, ce qui pourrait s’expliquer soit par un écart à l’équilibre thermodynamique local, soit en considérant un plasma inhomogène où la distribution des éléments dans la plume n’est pas similaire d’un élément à l’autre, les espèces énergétiques se retrouvant au cœur du plasma, plus chaud, alors que les espèces de moindre énergie se retrouvant principalement en périphérie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans cette thèse, nous étudions les fonctions propres de l'opérateur de Laplace-Beltrami - ou simplement laplacien - sur une surface fermée, c'est-à-dire une variété riemannienne lisse, compacte et sans bord de dimension 2. Ces fonctions propres satisfont l'équation $\Delta_g \phi_\lambda + \lambda \phi_\lambda = 0$ et les valeurs propres forment une suite infinie. L'ensemble nodal d'une fonction propre du laplacien est celui de ses zéros et est d'intérêt depuis les expériences de plaques vibrantes de Chladni qui remontent au début du 19ème siècle et, plus récemment, dans le contexte de la mécanique quantique. La taille de cet ensemble nodal a été largement étudiée ces dernières années, notamment par Donnelly et Fefferman, Colding et Minicozzi, Hezari et Sogge, Mangoubi ainsi que Sogge et Zelditch. L'étude de la croissance de fonctions propres n'est pas en reste, avec entre autres les récents travaux de Donnelly et Fefferman, Sogge, Toth et Zelditch, pour ne nommer que ceux-là. Notre thèse s'inscrit dans la foulée du travail de Nazarov, Polterovich et Sodin et relie les propriétés de croissance des fonctions propres avec la taille de leur ensemble nodal dans l'asymptotique $\lambda \nearrow \infty$. Pour ce faire, nous considérons d'abord les exposants de croissance, qui mesurent la croissance locale de fonctions propres et qui sont obtenus à partir de la norme uniforme de celles-ci. Nous construisons ensuite la croissance locale moyenne d'une fonction propre en calculant la moyenne sur toute la surface de ces exposants de croissance, définis sur de petits disques de rayon comparable à la longueur d'onde. Nous montrons alors que la taille de l'ensemble nodal est contrôlée par le produit de cette croissance locale moyenne et de la fréquence $\sqrt{\lambda}$. Ce résultat permet une reformulation centrée sur les fonctions propres de la célèbre conjecture de Yau, qui prévoit que la mesure de l'ensemble nodal croît au rythme de la fréquence. Notre travail renforce également l'intuition répandue selon laquelle une fonction propre se comporte comme un polynôme de degré $\sqrt{\lambda}$. Nous généralisons ensuite nos résultats pour des exposants de croissance construits à partir de normes $L^q$. Nous sommes également amenés à étudier les fonctions appartenant au noyau d'opérateurs de Schrödinger avec petit potentiel dans le plan. Pour de telles fonctions, nous obtenons deux résultats qui relient croissance et taille de l'ensemble nodal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La période postnatale et l’expérience sensorielle sont critiques pour le développement du système visuel. Les interneurones inhibiteurs exprimant l’acide γ-aminobutyrique (GABA) jouent un rôle important dans le contrôle de l’activité neuronale, le raffinement et le traitement de l’information sensorielle qui parvient au cortex cérébral. Durant le développement, lorsque le cortex cérébral est très susceptible aux influences extrinsèques, le GABA agit dans la formation des périodes critiques de sensibilité ainsi que dans la plasticité dépendante de l’expérience. Ainsi, ce système inhibiteur servirait à ajuster le fonctionnement des aires sensorielles primaires selon les conditions spécifiques d’activité en provenance du milieu, des afférences corticales (thalamiques et autres) et de l’expérience sensorielle. Certaines études montrent que des différences dans la densité et la distribution de ces neurones inhibiteurs corticaux reflètent les caractéristiques fonctionnelles distinctes entre les différentes aires corticales. La Parvalbumine (PV), la Calretinine (CR) et la Calbindine (CB) sont des protéines chélatrices du calcium (calcium binding proteins ou CaBPs) localisées dans différentes sous-populations d’interneurones GABAergiques corticaux. Ces protéines tamponnent le calcium intracellulaire de sorte qu’elles peuvent moduler différemment plusieurs fonctions neuronales, notamment l’aspect temporel des potentiels d’action, la transmission synaptique et la potentialisation à long terme. Plusieurs études récentes montrent que les interneurones immunoréactifs (ir) aux CaBPs sont également très sensibles à l’expérience et à l’activité sensorielle durant le développement et chez l’adulte. Ainsi, ces neurones pourraient avoir un rôle crucial à jouer dans le phénomène de compensation ou de plasticité intermodale entre les cortex sensoriels primaires. Chez le hamster (Mesocricetus auratus), l’énucléation à la naissance fait en sorte que le cortex visuel primaire peut être recruté par les autres modalités sensorielles, telles que le toucher et l’audition. Suite à cette privation oculaire, il y a établissement de projections ectopiques permanentes entre les collicules inférieurs (CI) et le corps genouillé latéral (CGL). Ceci a pour effet d’acheminer l’information auditive vers le cortex visuel primaire (V1) durant le développement postnatal. À l’aide de ce modèle, l’objectif général de ce projet de thèse est d’étudier l’influence et le rôle de l’activité sensorielle sur la distribution et l’organisation des interneurones corticaux immunoréactifs aux CaBPs dans les aires sensorielles visuelle et auditive primaires du hamster adulte. Les changements dans l’expression des CaBPs ont été déterminés d’une manière quantitative en évaluant les profils de distribution laminaire de ces neurones révélés par immunohistochimie. Dans une première expérience, nous avons étudié la distribution laminaire des CaBPs dans les aires visuelle (V1) et auditive (A1) primaires chez le hamster normal adulte. Les neurones immunoréactifs à la PV et la CB, mais non à la CR, sont distribués différemment dans ces deux cortex primaires dédiés à une modalité sensorielle différente. Dans une deuxième étude, une comparaison a été effectuée entre des animaux contrôles et des hamsters énucléés à la naissance. Cette étude montre que le cortex visuel primaire de ces animaux adopte une chimioarchitecture en PV similaire à celle du cortex auditif. Nos recherches montrent donc qu’une suppression de l’activité visuelle à la naissance peut influencer l’expression des CaBPs dans l’aire V1 du hamster adulte. Ceci suggère également que le type d’activité des afférences en provenance d’autres modalités sensorielles peut moduler, en partie, une circuiterie corticale en CaBPs qui lui est propre dans le cortex hôte ou recruté. Ainsi, nos travaux appuient l’hypothèse selon laquelle il serait possible que certaines de ces sous-populations d’interneurones GABAergiques jouent un rôle crucial dans le phénomène de la plasticité intermodale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La texture est un élément clé pour l’interprétation des images de télédétection à fine résolution spatiale. L’intégration de l’information texturale dans un processus de classification automatisée des images se fait habituellement via des images de texture, souvent créées par le calcul de matrices de co-occurrences (MCO) des niveaux de gris. Une MCO est un histogramme des fréquences d’occurrence des paires de valeurs de pixels présentes dans les fenêtres locales, associées à tous les pixels de l’image utilisée; une paire de pixels étant définie selon un pas et une orientation donnés. Les MCO permettent le calcul de plus d’une dizaine de paramètres décrivant, de diverses manières, la distribution des fréquences, créant ainsi autant d’images texturales distinctes. L’approche de mesure des textures par MCO a été appliquée principalement sur des images de télédétection monochromes (ex. images panchromatiques, images radar monofréquence et monopolarisation). En imagerie multispectrale, une unique bande spectrale, parmi celles disponibles, est habituellement choisie pour générer des images de texture. La question que nous avons posée dans cette recherche concerne justement cette utilisation restreinte de l’information texturale dans le cas des images multispectrales. En fait, l’effet visuel d’une texture est créé, non seulement par l’agencement particulier d’objets/pixels de brillance différente, mais aussi de couleur différente. Plusieurs façons sont proposées dans la littérature pour introduire cette idée de la texture à plusieurs dimensions. Parmi celles-ci, deux en particulier nous ont intéressés dans cette recherche. La première façon fait appel aux MCO calculées bande par bande spectrale et la seconde utilise les MCO généralisées impliquant deux bandes spectrales à la fois. Dans ce dernier cas, le procédé consiste en le calcul des fréquences d’occurrence des paires de valeurs dans deux bandes spectrales différentes. Cela permet, en un seul traitement, la prise en compte dans une large mesure de la « couleur » des éléments de texture. Ces deux approches font partie des techniques dites intégratives. Pour les distinguer, nous les avons appelées dans cet ouvrage respectivement « textures grises » et « textures couleurs ». Notre recherche se présente donc comme une analyse comparative des possibilités offertes par l’application de ces deux types de signatures texturales dans le cas spécifique d’une cartographie automatisée des occupations de sol à partir d’une image multispectrale. Une signature texturale d’un objet ou d’une classe d’objets, par analogie aux signatures spectrales, est constituée d’une série de paramètres de texture mesurés sur une bande spectrale à la fois (textures grises) ou une paire de bandes spectrales à la fois (textures couleurs). Cette recherche visait non seulement à comparer les deux approches intégratives, mais aussi à identifier la composition des signatures texturales des classes d’occupation du sol favorisant leur différentiation : type de paramètres de texture / taille de la fenêtre de calcul / bandes spectrales ou combinaisons de bandes spectrales. Pour ce faire, nous avons choisi un site à l’intérieur du territoire de la Communauté Métropolitaine de Montréal (Longueuil) composé d’une mosaïque d’occupations du sol, caractéristique d’une zone semi urbaine (résidentiel, industriel/commercial, boisés, agriculture, plans d’eau…). Une image du satellite SPOT-5 (4 bandes spectrales) de 10 m de résolution spatiale a été utilisée dans cette recherche. Puisqu’une infinité d’images de texture peuvent être créées en faisant varier les paramètres de calcul des MCO et afin de mieux circonscrire notre problème nous avons décidé, en tenant compte des études publiées dans ce domaine : a) de faire varier la fenêtre de calcul de 3*3 pixels à 21*21 pixels tout en fixant le pas et l’orientation pour former les paires de pixels à (1,1), c'est-à-dire à un pas d’un pixel et une orientation de 135°; b) de limiter les analyses des MCO à huit paramètres de texture (contraste, corrélation, écart-type, énergie, entropie, homogénéité, moyenne, probabilité maximale), qui sont tous calculables par la méthode rapide de Unser, une approximation des matrices de co-occurrences, c) de former les deux signatures texturales par le même nombre d’éléments choisis d’après une analyse de la séparabilité (distance de Bhattacharya) des classes d’occupation du sol; et d) d’analyser les résultats de classification (matrices de confusion, exactitudes, coefficients Kappa) par maximum de vraisemblance pour conclure sur le potentiel des deux approches intégratives; les classes d’occupation du sol à reconnaître étaient : résidentielle basse et haute densité, commerciale/industrielle, agricole, boisés, surfaces gazonnées (incluant les golfs) et plans d’eau. Nos principales conclusions sont les suivantes a) à l’exception de la probabilité maximale, tous les autres paramètres de texture sont utiles dans la formation des signatures texturales; moyenne et écart type sont les plus utiles dans la formation des textures grises tandis que contraste et corrélation, dans le cas des textures couleurs, b) l’exactitude globale de la classification atteint un score acceptable (85%) seulement dans le cas des signatures texturales couleurs; c’est une amélioration importante par rapport aux classifications basées uniquement sur les signatures spectrales des classes d’occupation du sol dont le score est souvent situé aux alentours de 75%; ce score est atteint avec des fenêtres de calcul aux alentours de11*11 à 15*15 pixels; c) Les signatures texturales couleurs offrant des scores supérieurs à ceux obtenus avec les signatures grises de 5% à 10%; et ce avec des petites fenêtres de calcul (5*5, 7*7 et occasionnellement 9*9) d) Pour plusieurs classes d’occupation du sol prises individuellement, l’exactitude dépasse les 90% pour les deux types de signatures texturales; e) une seule classe est mieux séparable du reste par les textures grises, celle de l’agricole; f) les classes créant beaucoup de confusions, ce qui explique en grande partie le score global de la classification de 85%, sont les deux classes du résidentiel (haute et basse densité). En conclusion, nous pouvons dire que l’approche intégrative par textures couleurs d’une image multispectrale de 10 m de résolution spatiale offre un plus grand potentiel pour la cartographie des occupations du sol que l’approche intégrative par textures grises. Pour plusieurs classes d’occupations du sol un gain appréciable en temps de calcul des paramètres de texture peut être obtenu par l’utilisation des petites fenêtres de traitement. Des améliorations importantes sont escomptées pour atteindre des exactitudes de classification de 90% et plus par l’utilisation des fenêtres de calcul de taille variable adaptées à chaque type d’occupation du sol. Une méthode de classification hiérarchique pourrait être alors utilisée afin de séparer les classes recherchées une à la fois par rapport au reste au lieu d’une classification globale où l’intégration des paramètres calculés avec des fenêtres de taille variable conduirait inévitablement à des confusions entre classes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Des études récentes ont montré que le noyau caudé interagissait avec le cortex préfrontal et qu’il pourrait être impliqué dans les fonctions exécutives. Le but de cette thèse était d’étudier la contribution du noyau caudé dans les fonctions exécutives, plus précisément dans des tâches de monitoring et de changement de règle, et d’observer comment ces régions fronto-striatales interagissent avec le réseau par défaut (RPD). Dans un premier temps, nous avons étudié le rôle du noyau caudé dans les deux types de monitoring : le monitoring d’origine interne, consistant à effectuer un suivi sur l’état de l’information en mémoire de travail afin de pouvoir faire un choix subséquent, et dans le monitoring d’origine externe où le suivi sur l’état des items est effectué par l’individu, mais la sélection est exécutée par une source externe. Il a été montré que le cortex préfrontal dorsolatéral (CPFDL) est impliqué dans les deux types de monitoring. À l’aide de l’imagerie par résonance magnétique fonctionnelle (IRMf), nos résultats ont montré une augmentation significative du signal BOLD au niveau du CPFDL dans les contrastes des conditions de monitoring d’origine interne et monitoring d’origine externe par rapport à la condition contrôle. De manière plus importante, une augmentation significative de l’activité a été observée dans le noyau caudé seulement dans les soustractions impliquant le monitoring d’origine interne par rapport à la condition contrôle, et par rapport à la condition de monitoring d’origine externe. En deuxième lieu, des études ont montré une contribution spécifique des régions fronto-striatales dans l’exécution d’un changement de règle. Toutefois, l’effet d’un changement de règle sur l’activité cérébrale n’a jamais été étudié sur les essais subséquents. À l’aide de l’IRMf, le cortex préfrontal ventrolatéral (CPFVL) et le noyau caudé ont montré une augmentation significative de leur activité lors des changements de règle continus et lors des changements de règles sporadiques par rapport à la condition contrôle, et aussi lors des essais où le maintien d’une même règle devait être effectué pour une courte durée par opposition au contrôle. Cependant, aucune activité fronto-striatale n’a été observée lorsqu’une même règle devait être appliquée pour une plus longue période. De plus, une diminution significative de l’activité du noyau caudé a été observée lors de la répétition de l’exécution d’une même règle suggérant une meilleure intégration de cette dernière. Finalement, plusieurs études ont montré une déactivation du RPD lors de l’exécution de tâches. À l’aide de l’IRMf, nous avons posé l’hypothèse que le RPD serait corrélé négativement avec les régions fronto-striatales lors de l’exécution d’une tâche de changement de règle. Nos résultats montrent une augmentation significative de l’activité des régions fronto-striatales lors d’une augmentation du nombre d’essais de changement de règle consécutif, pendant que le RPD montre une déactivation continue. De façon intéressante, pendant que les régions fronto-striatales montrent une diminution de leur activité lors de l’exécution d’une même règle pour une longue période, le RPD augmente son activité de façon significative. On conclut donc que le noyau caudé joue un rôle important dans la planification d’une nouvelle action lorsque plusieurs possibilités doivent être considérées en mémoire de travail, et ce en même temps. Finalement, le RPD montre une corrélation négative avec les régions fronto-striatales suggérant sa participation dans l’intégration d’une tâche devenant de plus en plus familière.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we study several tests for the equality of two unknown distributions. Two are based on empirical distribution functions, three others on nonparametric probability density estimates, and the last ones on differences between sample moments. We suggest controlling the size of such tests (under nonparametric assumptions) by using permutational versions of the tests jointly with the method of Monte Carlo tests properly adjusted to deal with discrete distributions. We also propose a combined test procedure, whose level is again perfectly controlled through the Monte Carlo test technique and has better power properties than the individual tests that are combined. Finally, in a simulation experiment, we show that the technique suggested provides perfect control of test size and that the new tests proposed can yield sizeable power improvements.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le CD36 est un récepteur éboueur de classe B exprimé par plusieurs types cellulaires dont les macrophages et les cellules endothéliales de la microvasculature. Le CD36 présente une haute affinité de liaison pour les ligands lipidiques tels que les lipoprotéines oxydées de basse densité (LDLox). De part sa capacité à internaliser les LDLox au niveau des macrophages et de son implication dans la formation des cellules spumeuses, le CD36 joue un rôle critique dans le développement des lésions athérosclérotiques. Nous avons testé l'hypothèse selon laquelle le EP 80317, un ligand synthétique sélectif du CD36, exerce des effets anti-athérosclérotiques chez les souris déficientes en apolipoprotéine E. Un traitement prolongé (12 semaines) avec le EP 80317 réduit fortement (de 51%) la surface des lésions athérosclérotiques par comparaison aux souris témoins. L'effet anti-athérosclérotique est associé à une diminution des taux de cholestérol plasmatique, à une réduction de l’internalisation des LDLox au niveau des macrophages et à une augmentation de l’expression des protéines impliquées dans le transport inverse du cholestérol. De plus, un traitement par le EP 80317 est également associé une diminution de l’expression aortique et plasmatique de protéines pro-inflammatoires. Nos études ont aussi montré un rôle pour le CD36 dans le recrutement des phagocytes mononucléés au niveau des lésions athérosclérotiques, tel que démontré par une réduction de l’accumulation des phagocytes mononucléés radiomarqués CD36–/– par rapport aux cellules CD36+/+. À l’échelle moléculaire, nous avons montré que les phospholipides oxydés induisent la phosphorylation de la kinase Pyk2 des podosomes des monocytes/macrophages de manière dépendante de l’expression du CD36 et de Src. Cette phosphorylation est atténuée par un traitement par le EP80317. Nos résultats appuient le rôle important du CD36 dans l’athérosclérose et suggèrent que les ligands synthétiques qui modulent la fonction du CD36 représentent potentiellement une nouvelle classe d'agents anti-athérosclérotiques. Le CD36 exprimé par les cellules endothéliales de la microvasculature est un récepteur de l’hétérodimère protéique S100A8/A9. Ces protéines s’associent à l’acide arachidonique intracellulaire (AA) des neutrophiles polymorphonucléaires (PMN) et le complexe S100A8/A9/AA peut être sécrété par les PMN activés au contact de l’endothélium. Nous avons vérifié l’hypothèse selon laquelle le CD36 exprimé par la microvasculature est impliqué dans le métabolisme transcellulaire de l’AA par la liaison du complexe S100A8/A9/AA et la réponse inflammatoire. Chez deux modèles murins d'inflammation aiguë (ischémie/reperfusion des membres inférieurs et poche d’air dorsale), nous avons observé que la réponse inflammatoire, notamment l’accumulation des PMN au niveau des sites inflammatoires, est diminuée en moyenne de 63% chez les souris CD36-/-. De même, un traitement par le EP 80317 ou par les anticorps anti-S100A8/A9 diminue chacun de 60% en moyenne l’extravasation des PMN vers les tissus inflammatoires. L’administration simultanée des deux traitements n’a aucun effet supplémentaire, et ces traitements n’exercent aucun effet chez les souris CD36-/-. Nos résultats appuient le rôle du récepteur CD36 de la microvasculature dans la régulation de la réponse inflammatoire. L’utilisation des ligands synthétiques du CD36 pourrait représenter une nouvelle avenue thérapeutique dans le traitement des réponses inflammatoires aiguës.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La politique québécoise de l’adaptation scolaire confirme que le plan d’intervention (PI) constitue l’outil privilégié pour répondre aux besoins des élèves handicapés ou en difficulté d’adaptation ou d’apprentissage. Toutefois, la recension des écrits nous informe que le plan d’intervention est encore loin d’être efficace. Le Ministère de l’Éducation, des Loisirs et des Sports du Québec (MELS, 2004) ainsi que l’Office of Special Education and Rehabilitative Services des U.S. department of Education (dans Eichler, 1999) ont bien identifié et présenté explicitement cinq à six fonctions du PI mais, aucun des deux organismes ne définit ce qu’est une fonction, à quoi elle sert, son importance relative et ce qu’elle implique. De plus, on retrouve, explicitement ou implicitement, soit dans le cadre de référence pour l’établissement des PI (MELS, 2004), soit dans la revue de la littérature, soit dans les milieux de pratique plusieurs autres fonctions que le PI remplit ou devrait remplir. Ce flou entourant le concept de fonction entraîne un manque de rigueur dans la conception des PI, car « lorsque la totalité des fonctions a été identifiée, elle permet le développement d’un produit répondant à l’usage attendu » (Langevin et coll., 1998). Il y a d’emblée une somme de fonctions qu’un PI remplit déjà et d’autres sûrement à remplir. Or, cela n’a pas été élucidé, précisé et validé. Le but de la présente recherche a été de définir les rôles du PI au regard des besoins de ses différents utilisateurs. Les objectifs spécifiques ont été les suivants, 1) Identifier les différents utilisateurs d’un PI, 2) Identifier les besoins des différents utilisateurs d’un PI, 3) Identifier les fonctions qu’un PI doit remplir afin de satisfaire les besoins de ses utilisateurs, 4) Créer un cahier des charges fonctionnel pour la conception et l’évaluation d’un PI, 5) Identifier certains coûts reliés à la conception d’un PI. Afin d’atteindre les objectifs précités, nous avons eu recours à la méthode de l’analyse de la valeur pédagogique (AVP) (Langevin, Rocque et Riopel, 2008). La méthode d’AVP comportait une analyse des besoins des différents utilisateurs potentiels, une analyse de la recension des écrits, une analyse des encadrements légaux, une analyse de produits types et une analyse écosystémique. En conclusion, nous avons identifié les différents utilisateurs potentiels d’un PI, identifié les différents besoins de ces utilisateurs, identifié les fonctions qu’un PI doit remplir pour satisfaire leurs besoins, crée un cahier des charges fonctionnel (CdCF) pour la conception et l’évaluation des PI et identifié certains coûts liés à la conception d’un PI. Le CdCF pourra servir à concevoir des PI et à évaluer leur efficience. Une partie du CdCF pourra aussi remplir un rôle prescriptif pour la conception d’outil de soutien à l’élaboration du PI. Enfin, le CdCF pourra servir à la formation et à la recherche en éducation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’amélioration de la qualité de l’utilisation des médicaments dans les soins primaires est devenue un enjeu crucial. Les pharmaciens communautaires se présentent comme des acteurs centraux dans l’atteinte de cet objectif, en réclamant une extension de leur rôle. L’objectif principal de cette thèse est de mieux comprendre comment les technologies de prescription informatisée (eRx) influencent la transformation du rôle des pharmaciens communautaires. Le premier article présente les résultats d’une étude de cas qui aborde la transformation du rôle des pharmaciens communautaires à partir du concept de professionnalisation. Elle propose un modèle logique des influences d’une technologie de eRx sur cette professionnalisation, élaboré à partir de la typologie de Davenport. Ce modèle logique a été validé en interviewant douze pharmaciens communautaires participant à un projet pilote typique de technologie de eRx. A partir des perceptions des pharmaciens communautaires, nous avons établi que la technologie était susceptible de soutenir la professionnalisation des pharmaciens en passant par cinq mécanismes : la capacité analytique, l’élimination des intermédiaires, l’intégration, l’automatisation et la diffusion des connaissances. Le deuxième article analyse les perturbations induites par les différentes fonctions des technologies de eRx sur la stabilité de la juridiction des pharmaciens communautaires, en se basant sur un cadre de référence adapté d’Abbott. À partir de trente-trois entrevues, avec des praticiens (médecins et pharmaciens) et des élites, cette étude de cas a permis de décrire en détail les influences des différentes fonctions sur les modalités d’action des professionnels, ainsi que les enjeux soulevés par ces possibilités. La perturbation principale est liée aux changements dans la distribution des informations, ce qui influence les activités de diagnostic et d’inférence des professionnels. La technologie peut redistribuer les informations relatives à la gestion des médicaments autant au bénéfice des médecins qu’au bénéfice des pharmaciens, ce qui suscite des tensions entre les médecins et les pharmaciens, mais aussi parmi les pharmaciens. Le troisième article présente une revue systématique visant à faire une synthèse des études ayant évalué les effets des technologies de eRx de deuxième génération sur la gestion des médicaments dans les soins primaires. Cette revue regroupe dix-neuf études menées avec des méthodes observationnelles. Les résultats rapportés révèlent que les technologies sont très hétérogènes, le plus souvent immatures, et que les effets ont été peu étudiés au-dedes perceptions des utilisateurs, qui sont mitigées. Le seul effet positif démontré est une amélioration de la qualité du profil pharmacologique accessible aux professionnels, alors que des effets négatifs ont été démontrés au niveau de l’exécution des prescriptions, tels que l’augmentation du nombre d’appels de clarification du pharmacien au prescripteur. Il semble donc que l’on en connaisse peu sur les effets des technologies de eRx de deuxième génération. Ces trois études permettent de constater que les nouvelles technologies de eRx peuvent effectivement influencer la transformation du rôle du pharmacien communautaire en perturbant les caractéristiques des prescriptions, et surtout, l’information et sa distribution. Ces perturbations génèrent des possibilités pour une extension du rôle des pharmaciens communautaires, tout en soulignant les défis intra et interprofessionnels associés à l’actualisation de ces possibilités. Dans l’ensemble, nos résultats soulignent que les perturbations associées aux technologies de eRx dépassent les éléments techniques du travail des utilisateurs, pour englober de multiples perturbations quant à la nature même du travail et du rôle des professionnels. Les décideurs et acteurs impliqués dans le déploiement des technologies de eRx auraient avantage à prendre en compte l’ensemble de ces considérations pour rapprocher les effets observés des bénéfices promis de ces technologies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Partout dans le monde, la formation en gestion des cadres infirmiers est devenue une nécessité. Afin de doter la profession infirmière de chefs de file capables de faire face aux changements, plusieurs pays ont conçu des programmes de formation de deuxième cycle en administration des services de soins infirmiers. Plusieurs programmes sont développés en ce sens dont peu ou prou sont évalués. Plusieurs auteurs croient que l’évaluation de ces programmes permettrait de mieux apprécier l’atteinte des objectifs pédagogiques et ultérieurement, d’améliorer la formation et les pratiques de gestion. Afin de contribuer à ce projet, la présente étude vise à évaluer le programme de formation Administration et enseignement de l'École nationale de développement sanitaire et social (ENDSS) du Sénégal. Cette évaluation prend en compte les points de vue des diplômés, des enseignants, des concepteurs du programme et des directions d’hôpitaux. Il s’agit d’une recherche évaluative de type rétrospectif. Une enquête par questionnaire et par entrevue a été réalisée auprès des diplômés, des enseignants, des concepteurs de programme et des directions d'hôpitaux. Également, des bases de données sur les étudiants finissants entre les années 2003 et 2009 ont été consultées pour recueillir les notes obtenues à l’examen de certification, les effectifs d’admission et d’inscrits et les renseignements sociodémographiques. Cette évaluation porte sur les principales composantes du programme de formation Administration et enseignement de l’ENDSS qui sont examinées à l’aide du modèle systémique d’évaluation de programme éducatif de Stufflebeam (1981) communément appelé modèle CIPP. Les résultats de l’analyse s’appuient sur 70 questionnaires et 37 entrevues. En vue de répondre aux questions de recherche, les données recueillies sont analysées et interprétées à partir d’indicateurs et selon des critères définis. La démarche d’analyse des résultats s’est effectuée en deux étapes. D'abord, les données des questionnaires et des entrevues fournies par les diplômés, les enseignants et les concepteurs ont été analysées ainsi que celles du dossier scolaire des étudiants inscrits au programme. Ensuite, l’examen a porté sur les données des questionnaires recueillies auprès des directions d’hôpitaux. Les avis de tous les répondants sur les améliorations à apporter au programme sont analysés pour rendre compte de leurs recommandations à ce sujet. Tout au long de l’analyse des résultats, les données des questionnaires et des entrevues sont présentées à la fois. Le jugement sur l’efficacité du programme de formation Administration et enseignement de l’ENDSS est établi par l’analyse d’indicateurs reliés aux quatre types d'évaluation proposés par Stufflebeam (1981). Les diplômés et les concepteurs jugent que la formation est adéquate pour l’exercice de la fonction de chef de services des soins infirmiers. Par contre, les enseignants sont très partagés sur cette question, puisque près de la moitié d'entre eux expriment un avis favorable tandis que les autres ont une opinion contraire. Les diplômés apparaissent très partagés par rapport à la cohérence apparente entre les objectifs de stage d’administration hospitalière et les compétences à développer, alors que les enseignants et les concepteurs expriment plus largement une opinion négative. La cohérence entre les notions du module de Management des services de santé et l’exercice de la fonction de chef de services des soins infirmiers est jugée plus forte en ce qui concerne plusieurs notions, par les diplômés, les enseignants et les concepteurs. La majorité des diplômés et des enseignants jugent que la supervision offerte aux étudiants est insatisfaisante. Les diplômés et les enseignants croient que la disponibilité des ressources didactiques à la bibliothèque ne facilite pas les apprentissages. Tandis que les concepteurs, en proportion plus élevée, expriment le même jugement. Les diplômés et les enseignants sont divisés sur la question de l’équilibre entre le nombre d’heures alloué à la théorie et à la formation pratique. Tandis que la majorité des concepteurs croient qu’il n’y a pas d'équilibre entre le nombre d'heures consacré aux cours et à la formation pratique. Les diplômés et les enseignants expriment une opinion très positive sur la qualité des rapports sociaux des étudiants entre eux, avec les enseignants et le personnel administratif. Tandis que les concepteurs ont une opinion plutôt négative à ce sujet. Les diplômés, de même que les enseignants jugent en majorité, que la supervision des stages offerte aux étudiants est insatisfaisante. Ces opinions convergent avec celles de la grande majorité des concepteurs. Selon les diplômés, le travail de groupe, de même que les études de cas sont les méthodes les plus pertinentes dans la formation de chef de service des soins infirmiers. Pour les enseignants et les concepteurs c'est le travail de groupe qui est la méthode la plus pertinente pour faire acquérir des connaissances. Parmi l’ensemble des inscrits, incluant les étudiants sénégalais et étrangers, 104 d’entre eux ont obtenu un diplôme. Subséquemment, seuls 2 étudiants sur les 106 inscrits au programme ont échoué. Les enseignants, les diplômés et les concepteurs sont tous satisfaits du programme de formation Administration et enseignement de l’ENDSS. Les directions d'hôpitaux sont partagées quant à elles, à l’idée selon laquelle les étudiants sont préparés aux fonctions de chef de service des soins infirmiers. En plus, selon la grande majorité des directions le programme de formation ne répond pas à la stratégie de la réforme hospitalière. Elles affirment à l’unanimité qu’elles n’ont pas été associées au processus d’élaboration du programme et sont d’accord que, de manière générale, la formation reçue par le chef de services des soins infirmiers est de qualité. Unanimement, les directions d’hôpitaux jugent que des notions devraient être ajoutées ou améliorées au programme de formation Administration et enseignement de l’ENDSS. L’interprétation des données révèle la complexité qui entoure l’importance de l’équilibre du volume horaire à consacrer à la théorie et à la pratique dans un programme de formation. En plus, les résultats sur les connaissances à acquérir par les diplômés durant la formation montrent un besoin élevé de perfectionnement voire d’enseignement plus poussé du contenu des notions Système d’information sanitaire et Introduction à l’informatique, Introduction au management; Élaboration de programme et Administration hospitalière. Un choix approprié de terrain où l’étudiant pourrait réaliser les objectifs d’apprentissage, une sélection de la période adéquate pour le stage, de même qu’un encadrement signifiant, seraient le gage d’un stage profitable pour l’étudiant. Nous estimons que cette recherche a ouvert des pistes à des perspectives de recherches reliées au développement professionnel des futurs chefs de service des soins infirmiers. Mots clés : évaluation de programme, acquisition de connaissances, développement des compétences, administration des soins infirmiers, programme de deuxième cycle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il est bien établi que l'exposition à court terme aux particules fines dans l’air ambiant en milieu urbain a des effets sur la santé. Toutefois, peu d'études épidémiologiques ont évalué la relation entre les particules fines (PM2.5) de sources spécifiques comme celles dérivées de feux de forêt et les effets sur la santé. Pour l’instant, les risques de mortalité et de morbidité associés aux PM2.5 résultant de la combustion de végétation semblent similaires à ceux des PM2.5 urbaines. Dans le présent mémoire, nous avons comparé deux méthodes pour quantifier les risques de mortalité et de morbidité associés à l'augmentation des niveaux de PM2.5 à Montréal, dérivées de deux épisodes des feux de forêts majeurs dans le Nord du Québec. La première approche consistait à comparer les décès et les visites aux urgences observées enregistrées au cours des deux épisodes à Montréal à leurs moyennes respectives attendues durant des jours de référence. Nous avons également calculé la surmortalité et la surmorbidité prédites attribuables aux PM2.5 lors des épisodes, en projetant les risques relatifs (RR) rapportés par l’Environmental Protection Agency (EPA) des États-Unis pour les PM2.5 urbaines, ainsi qu’en appliquant des fonctions de risque estimées à partir des données estivales spécifiques à Montréal. Suivant la première approche, nous avons estimé une surmortalité de +10% pendant les deux épisodes. Cependant, aucune tendance claire n'a été observée pour les visites à l'urgence. Et suivant la 2e approche, la surmortalité prédite attribuable aux niveaux des PM2.5 dérivées des feux de forêt étaient moins élevés que ceux observés, soit de 1 à 4 cas seulement. Une faible surmortalité attribuable aux niveaux élevés des PM2.5 issues de feux de la forêt boréale du Québec a été estimée par les fonctions de risque ainsi que par la méthode de comparaison des décès observés aux moyennes attendues, sur l’Île de Montréal, située à des centaines de km des sites de feux.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les kinases régulées par les signaux extracellulaires (ERK1/2) régulent une multitude de processus cellulaires, incluant la prolifération, la survie et la différenciation. Ces kinases représentent l’élément terminal de la voie ERK/MAPK, laquelle est activée dans près de 30% de tous les cancers humains et donc généralement perçue comme étant un effecteur critique de la progression tumorale. Cependant, une accumulation d’observations suggèrent que les kinases ERK pourraient également induire la suppression tumorale. Le but premier de cette thèse est de démontrer comment la signalisation par ERK peut contribuer à la suppression tumorale et de concilier les mécanismes impliqués avec son rôle dans la progression du cancer. Puisque nos travaux ont une incidence sur les bénéfices attendus de certaines thérapies actuellement en développement, le deuxième objectif de la thèse est de proposer de nouvelles stratégies thérapeutiques pour combattre le cancer. Nous avons démontré qu’une hyperactivation des kinases ERK induit la sénescence cellulaire. Le mécanisme implique la dégradation sélective et dépendante du protéasome de nombreuses protéines, ce que nous avons nommé le SAPD (Senescence-Associated Protein Degradation). Ce processus cible des protéines requises pour différentes fonctions cellulaires, incluant la progression du cycle cellulaire, les fonctions mitochondriales et la biogenèse des ribosomes. Ensuite, nos résultats montrent qu’en plus d’inhiber l’établissement de la sénescence, une diminution de la signalisation par les kinases ERK favorise la reprogrammation cellulaire, laquelle permet aux cellules précancéreuses de développer leur tumorigénicité et aux cellules cancéreuses d’acquérir des propriétés attribuables aux cellules souches. Ces observations suggèrent que les mécanismes qui inhibent la voie ERK/MAPK pourraient favoriser l’initiation du cancer, la formation de métastases et la résistance à diverses thérapies. Enfin, nous avons démontré que la metformine, utilisée pour le traitement du diabète, inhibe le facteur de transcription NF-kB. Ce dernier joue un rôle central dans la reprogrammation cellulaire et dans la production de cytokines pro-inflammatoires nocives par les cellules sénescentes. Ainsi, nous émettons l’hypothèse que la metformine pourrait être utilisée en combinaison avec certaines thérapies afin d’éviter les effets secondaires tant d’une inhibition des kinases ERK que d’une hyperactivation. Globalement, les résultats présentés démontrent que l’effet de la voie ERK/MAPK dépend de la force de son activation. Alors qu’une activation modérée peut contribuer à la prolifération de la plupart des cellules, une forte activation induit la sénescence tandis qu’au contraire, une faible activation favorise la reprogrammation des cellules cancéreuses et donc une augmentation de l’agressivité de la tumeur. Cette polyvalence de la voie suggère une certaine prudence face à l’usage des inhibiteurs de la voie ERK/MAPK. Cependant, elle nous motive à travailler au développement de nouvelles stratégies thérapeutiques, lesquelles pourraient inclure la metformine.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.