1000 resultados para Systèmes sérotoninergiques
Resumo:
Cette thèse examine en profondeur la nature et l’application du concept de genre en jeu vidéo. Elle se divise en trois parties. La première fait l’inventaire des théories des genres en littérature et en études cinématographiques. Les propriétés essentielles du genre comme concept sont identifiées : il s’agit d’une catégorisation intuitive et irraisonnée, de nature discursive, qui découle d’un consensus culturel commun plutôt que de systèmes théoriques, et qui repose sur les notions de tradition, d’innovation et d’hybridité. Dans la deuxième partie, ces constats sont appliqués au cas du genre vidéoludique. Quelques typologies sont décortiquées pour montrer l’impossibilité d’une classification autoritaire. Un modèle du développement des genres est avancé, lequel s’appuie sur trois modalités : l’imitation, la réitération et l’innovation. Par l’examen de l’histoire du genre du first-person shooter, la conception traditionnelle du genre vidéoludique basée sur des mécanismes formels est remplacée par une nouvelle définition centrée sur l’expérience du joueur. La troisième partie développe l’expérience comme concept théorique et la place au centre d’une nouvelle conception du genre, la pragmatique des effets génériques. Dans cette optique, tout objet est une suite d’amorces génériques, d’effets en puissance qui peuvent se réaliser pourvu que le joueur dispose des compétences génériques nécessaires pour les reconnaître. Cette nouvelle approche est démontrée à travers une étude approfondie d’un genre vidéoludique : le survival horror. Cette étude de cas témoigne de l’applicabilité plus large de la pragmatique des effets génériques, et de la récursivité des questions de genre entre le jeu vidéo, la littérature et le cinéma.
Resumo:
Les résultats du processus de normalisation du commerce équitable – demandé par les associations de consommateurs agréées – peuvent être approchés, au moins, de deux manières complémentaires. Une première chercherait à comprendre pourquoi les acteurs impliqués n’ont pas réussi à obtenir le consensus utile pour la publication d’une norme. La seconde argumentant que l’intentionnalité des acteurs est primordiale dans tout changement économique. Aussi, en mobilisant la théorie de la dépendance au sentier cet article montre comment l’association, désormais, établie entre le commerce équitable, et des « systèmes plus vastes et plus complexes » comme la responsabilité sociétale des entreprises et le développement durable a contribué, partiellement, à rendre improbable la normalisation du commerce équitable dans le court terme, en France (AFNOR) et à un niveau international (ISO).
Resumo:
Les différentes protéines accessoires du VIH-1, l’agent étiologique du SIDA, optimisent la réplication et la propagation du virus in vivo. Parmi ces dernières figure Vpu, l’antagoniste du facteur de restriction nommé Tetherin qui prévient la relâche des particules virales à partir de la surface de cellules infectées. En diminuant son expression de surface, Vpu prévient l’incorporation de ce facteur de restriction dans la particule virale en formation et conséquemment, empêche la formation d’une ancre protéique reliant le virus mature à la membrane plasmique de la cellule infectée. La mécanistique sous-jacente n’était cependant pas connue. Cette présente thèse relate nos travaux exécutés afin d’élucider la dynamique des mécanismes cellulaires responsables de cet antagonisme. Une approche de mutagénèse dirigée a d’abord permis d’identifier deux régions contenant des déterminants de la localisation de Vpu dans le réseau trans-Golgi (RTG), puis de démontrer la relation existante entre cette distribution et l’augmentation de la relâche des particules virales. Des expériences subséquentes de marquage métabolique suivi d’une chasse exécutées dans des systèmes cellulaires où Tetherin est exprimée de façon endogène ont suggéré le caractère dispensable de l’induction par Vpu de la dégradation du facteur de restriction lors de son antagonisme. En revanche, une approche de réexpression de Tetherin conduite en cytométrie en flux, confirmée en microscopie confocale, a mis en évidence une séquestration de Tetherin dans le RTG en présence de Vpu, phénomène qui s’est avéré nécessiter l’interaction entre les deux protéines. L’usage d’un système d’expression de Vpu inductible conjugué à des techniques de cytométrie en flux nous a permis d’apprécier l’effet majeur de Vpu sur la Tetherin néo-synthétisée et plus mineur sur la Tetherin de surface. En présence de Vpu, la séquestration intracellulaire de la Tetherin néo-synthétisée et la légère accélération de l’internalisation naturelle de celle en surface se sont avérées suffisantes à la réduction de son expression globale à la membrane plasmique et ce, à temps pour l’initiation du processus de relâche virale. À la lumière de nos résultats, nous proposons un modèle où la séquestration de la Tetherin néo-synthétisée dans le RTG préviendrait le réapprovisionnement de Tetherin en surface qui, combinée avec l’internalisation naturelle de Tetherin à partir de la membrane plasmique, imposerait l’établissement d’un nouvel équilibre de Tetherin incompatible avec une restriction de la relâche des particules virales. Cette thèse nous a donc permis d’identifier un processus par lequel Vpu augmente la sécrétion de virus matures et établit une base mécanistique nécessaire à la compréhension de la contribution de Vpu à la propagation et à la pathogénèse du virus, ce qui pourrait mener à l’élaboration d’une stratégie visant à contrer l’effet de cette protéine virale.
Resumo:
La diversification des signaux aposématiques dans un cadre de mimétisme müllérien est un phénomène intrigant. Alors que la théorie relative à l'aposématisme et au mimétisme suggère l'évolution vers un signal aposématique unique, d'impressionnantes variations peuvent être observées entre les populations, et cela à petite échelle spatiale. Il a été supposé que la variation spatiale des pressions de sélection engendrées par différents prédateurs puisse être à l'origine de ce phénomène. Afin de tester cette hypothèse, nous avons étudié la transition entre deux systèmes géographiques caractérisés par des patrons aposématiques distincts chez des grenouilles mimétiques et toxiques du nord du Pérou (Dendrobatidae) en combinant les outils de génétique des populations aux outils écologiques. Dans chacun de ces systèmes, Ranitomeya imitator vit en sympatrie avec R. ventrimaculata ou R. variabilis. Il s'agit du principal exemple empirique suggérant que dans un cadre de mimétisme müllérien, il n'y a pas convergence des signaux aposématiques des deux espèces, mais plutôt convergence unidirectionnelle où R. imitator, étant polymorphe, imite des espèces monomorphes avec lesquelles elle est sympatrique. Premièrement, les résultats réfutent les prémisses qui suggèrent que R. imitator converge vers le signal aposématique d’une autre espèce. La haute similarité génétique entre les espèces modèles suggère qu'elles ont divergé plus récemment que les populations de R. imitator ou qu'elles sont encore connectées par du flux génique. Ces résultats indiquent que ces espèces ont été identifiées à tort comme des espèces différentes. De fait, l'identification de l'espèce imitatrice basée sur la variabilité phénotypique est invalidée dans ce système puisque R. imitator et R. variabilis/ventrimaculata démontrent la même variabilité. Deuxièmement, nos résultats démontrent que la prédation varie spatialement, autant en intensité qu'en direction, créant ainsi un paysage hétérogène de pressions de sélection. Ainsi, de fortes pressions de prédation stabilisatrice permettent le maintien de l'organisation géographique de différents signaux aposématiques et expliquent l'uniformité de ces signaux ainsi que les relations mimétiques. Par contre, le relâchement temporaire des pressions de prédation permet l'apparition de nouveaux phénotypes aposématiques via les processus évolutifs neutres, conduisant à un haut polymorphisme au niveau de ces populations. L'interaction de ces modes sélectifs nous a permis de démontrer pour la première fois comment la théorie évolutive de Wright (shifting balance theory) permet la diversification adaptative dans un système naturel. Pour conclure, cette étude a permis de mettre en évidence à quel point les systèmes de mimétisme müllérien peuvent être dynamiques. L'alternance spatiale entre les processus évolutifs neutres et la sélection naturelle permet l'émergence de nouveaux phénotypes aposématiques à une échelle locale, ainsi que l'apparition d'une organisation géographique des signaux d'avertissement et des relations de mimétisme müllérien.
Resumo:
Des études antérieures ont démontré que le métabolisme de la rétine, son apport sanguin et sa consommation de l'oxygène sont plus élevés dans le noir (Riva C.E. et al. 1983, Wang L. et al. 1996, Tam B.M. and Moritz O.L. 2007). Les stimuli physiologiques jouent supposément un rôle important dans le développement des différents systèmes nerveux (Arthur W. Spira, David Parkinson 1991). La privation de la rétine de son stimulus physiologique, la lumière, est un moyen valable de démontrer la validité de ce concept. D'autres études ont affirmé que les injections de dichlorure de paraquat dans la cavité vitréenne causent une sévère rétinopathie (Rétinopathie induite par paraquat: RIP). Cette rétinopathie est provoquée par les dérivés réactifs de l'oxygène (DRO) générés par le paraquat (Cingolani C. et al. 2006, Lu L. et al. 2006). Le but de notre premier projet (''Dark rearing project'') était de déterminer si les conséquences nocives de l'hyperoxie postnatale chez les rats albinos SD pourraient être amoindries en élevant une portée de rats au noir. Nos résultats suggèrent qu'une augmentation du métabolisme de la rétine causée par la déprivation de lumière chez les ratons, pourrait protéger ou masquer certains effets néfastes de l'hyperoxie postnatale. Le but de notre deuxième étude (''Paraquat project'') était d'examiner les possibles points de similitude entre RIP et d'autres modèles de rétinopathies oxydatives étudiés présentement par notre équipe, à savoir: Rétinopathie induite par l'oxygène (RIO) et Rétinopathie induite par la lumière (RIL). Nos résultats suggèrent que l'injection de dichlorure de paraquat dans la cavité vitréenne cause des changements sévères de la fonction de la rétine, tandis que sa structure semble intacte. La sévérité de ces changements dépend inversement de la maturité de la rétine au moment de l'injection.
Resumo:
L’expression idéologique du pouvoir impérial romain au IVe siècle apr. J.-C. fut profondément marquée par les contextes religieux, culturel et littéraire dans lesquels elle s’inséra et dans lesquels coexistèrent deux religions et donc deux systèmes différents de pensée et de représentation du monde, soit le paganisme, religion traditionnelle de l’État romain, et le christianisme, religion émergente qui s’imposa de plus en plus dans l’Empire, notamment à partir du règne de Constantin. Cette trame de fond, loin de signifier à cette époque la fin totale du paganisme – comme il a longtemps été admis – au profit de la religion chrétienne qui entretint, grâce au support impérial, une relation nouvelle avec le pouvoir politique, modela de nouveaux critères d’exercice du pouvoir et des conceptions de l’idéal impérial qui s’exprimèrent dans les discours d’éloge destinés à l’empereur. Miroir du prince et moyen de communication entre ce dernier et l’élite, les éloges d’Ambroise de Milan et de Symmaque s’insérèrent dans le débat politique de leur temps en élaborant un archétype de l’empereur et en déterminant ses devoirs. Pour mesurer toute l’ampleur de la symbolique véhiculée dans de tels discours, il importe, pour le IVe siècle, de considérer la mentalité des auteurs, chrétiens et païens, d’où émanaient les éloges – ou encore les critiques – de la personne impériale. Ce mémoire propose ainsi d’analyser l’idéologie du pouvoir impérial selon les discours chrétien et païen, à travers les éloges d’Ambroise et de Symmaque, afin de relever les points de rencontre, d’influence ou de divergence entre ces représentations du monde et, plus spécifiquement, du pouvoir impérial, qui ont longtemps été considérées comme totalement opposées et incompatibles.
Resumo:
Ce travail est consacré à l’étude de la coalescence de gouttelettes liquides à l’échelle du nanomètre. Nous nous sommes intéressés principalement à l’évolution du changement topologique des gouttelettes à partir de la rupture des surfaces au moment du contact initial jusqu’à la coalescence complète. Nous utilisons la dynamique moléculaire afin de simuler plusieurs types de gouttelettes soit en utilisant le potentiel empirique de type Stillinger-Weber pour des gouttelettes de silicium (l-Si) en 3 dimensions et le modèle Embedded Atom Method pour des gouttelettes de cuivre liquide (l-Cu) en 2d, quasi-2d (disques) et 3 dimensions. Qualitativement, toutes les simulations démontrent une coalescence similaire indépendamment de la dimension de calcul (2d à 3d), de la taille et de la température initiale des gouttelettes. La coalescence évolue par une déformation rapide des surfaces sans mixage important entre les atomes des deux gouttelettes initiales. De plus, nous étudions l’évolution du col de coalescence formé lors du contact initial entre les gouttelettes et, pour les systèmes en 3d, nous observons une transition claire d’un régime visqueux vers un régime inertiel du rayon de ce col, tel que suggéré par des modèles théoriques. Pour les gouttelettes de cuivre nous observons exactement le comportement des prédictions analytiques et confirmons que le premier régime suit un comportement visqueux sans aplatissement local des gouttelettes. La situation est différente pour les gouttelettes de l-Si où nous observons un effet plus grand, par rapport aux prédictions analytiques, du rayon et de la température initiale des gouttelettes sur l’évolution du col de coalescence. Nous suggérons que les paramètres décrivant l’évolution de la coalescence dépendent des propriétés des matériaux utilisés contrairement à la théorie universelle couramment utilisée.
Resumo:
Comment le motif de la marque insensible du diable a-t-il pu se frayer un chemin au sein du discours théologique, juridique et médical de la fin de la Renaissance jusqu'à s'imposer comme une pièce essentielle du crime de sorcellerie? Selon quels mécanismes et à partir de quels systèmes de croyance cette marque corporelle en est-elle venue à connaître une si large diffusion et une aussi grande acceptation tant chez les gens du livres que parmi les couches populaires? En cette époque marquée par la grande chasse aux sorcières et le développement de l'investigation scientifique, l'intérêt que les savants portent à cette étrange sémiologie constitue une porte d'accès privilégiée pour aborder de front la dynamique du déplacement des frontières que la démonologie met en oeuvre au sein des différents champs du savoir. Cette thèse a pour objectif d'étudier le réseau des mutations épistémologiques qui conditionne l'émergence de la marque du diable dans le savoir démonologique français à la charnière des XVIe et XVIIe siècles. Nous examinerons par quels cheminements l'altérité diabolique s'est peu à peu intériorisée dans le corps et l'âme des individus sous l'influence grandissante des vertus de l'empirisme, de la méthode expérimentale et de l'observation. En analysant la construction rhétorique de la théorie des marques du diable et en la reliant aux changements qui s'opèrent sur la plateforme intellectuelle de l'Ancien Régime, nous entendons éclairer la nouvelle distribution qui s'effectue entre les faits naturels et surnaturels ainsi que les modalités d'écriture pour en rendre compte.
Resumo:
Nous proposons une approche probabiliste afin de déterminer l’impact des changements dans les programmes à objets. Cette approche sert à prédire, pour un changement donné dans une classe du système, l’ensemble des autres classes potentiellement affectées par ce changement. Cette prédiction est donnée sous la forme d’une probabilité qui dépend d’une part, des interactions entre les classes exprimées en termes de nombre d’invocations et d’autre part, des relations extraites à partir du code source. Ces relations sont extraites automatiquement par rétro-ingénierie. Pour la mise en oeuvre de notre approche, nous proposons une approche basée sur les réseaux bayésiens. Après une phase d’apprentissage, ces réseaux prédisent l’ensemble des classes affectées par un changement. L’approche probabiliste proposée est évaluée avec deux scénarios distincts mettant en oeuvre plusieurs types de changements effectués sur différents systèmes. Pour les systèmes qui possèdent des données historiques, l’apprentissage a été réalisé à partir des anciennes versions. Pour les systèmes dont on ne possède pas assez de données relatives aux changements de ses versions antécédentes, l’apprentissage a été réalisé à l’aide des données extraites d’autres systèmes.
Resumo:
L’aménagement des systèmes d’assainissement conventionnel des eaux usées domestiques entraine actuellement la déplétion de ressources naturelles et la pollution des milieux récepteurs. L’utilisation d’une approche écosystémique plus globale telle que l’Assainissement Écologique, visant la fermeture du cycle de l’eau et des éléments nutritifs (phosphore et azote), contenus dans les excréments, par leur réutilisation à travers l’agriculture, permettrait d’améliorer de façon écologique cette situation. Toutefois, ce paradigme émergent est peu enseigné aux professionnels de l’aménagement responsables de sa planification, surtout au niveau de son application dans les pays développés nordiques. C’est pourquoi, afin d’améliorer la planification de ce type de système, il faut informer ces derniers des pratiques les plus adéquates à adopter. Pour y arriver, un scénario d’aménagement type a été développé à partir d’une revue exhaustive de la littérature et de l’analyse des données en se basant sur les recommandations de l’approche en fonction du contexte étudié. Ce scénario aidera les professionnels à mieux comprendre l’Assainissement Écologique et son aménagement. Il représente alors un point de départ pour les discussions interdisciplinaires et participatives que celui-ci requiert. En conclusion, il y a encore de nombreux manques d’informations concernant l’utilisation de traitements alternatifs dans les climats nordiques et l’acceptation de ceux-ci par les usagers. De plus, les cadres législatifs demeurent un obstacle considérable à l’aménagement d’un tel système. Cette recherche permet cependant de démystifier l’approche auprès des professionnels et pourrait aider à modifier certains cadres législatifs afin d’y intégrer sa philosophie.
Resumo:
Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.
Resumo:
La thèse vise à analyser la structure des échanges transnationaux de cocaïne, d’héroïne et de marijuana. Partant de la perspective des systèmes-mondes, l’hypothèse que le trafic de drogues forme un système inverse au commerce légal est développée. Les outils de l’analyse de réseaux sont appliqués aux échanges de drogues entre pays. La thèse s’appuie sur deux sources de données complémentaires. La première est une banque d’informations uniques compilées par l’United Nations Office on Drugs and Crime (UNODC) sur les saisies d’importance effectuées dans le monde entre 1998 et 2007 (n = 47629). Ces données sont complétées par les informations contenues dans une dizaine de rapports publiés par des organismes internationaux de surveillance du trafic de drogues. Les réseaux d’échanges dirigés construits à partir de ces données permettent d’examiner l’étendue du trafic entre la plupart des pays du monde et de qualifier leur implication individuelle. Les chapitres 3 et 4 portent sur la structure du trafic elle-même. Dans un premier temps, les différents rôles joués par les pays et les caractéristiques des trois marchés de drogues sont comparés. Les quantités en circulation et les taux d’interception sont estimés pour les 16 régions géographiques définies par l’UNODC. Dans un deuxième temps, leurs caractéristiques structurelles sont comparées à celles des marchés légaux. Il en ressort que les marchés de drogues sont beaucoup moins denses et que les pays périphériques y jouent un rôle plus prononcé. L’inégalité des échanges caractérise les deux économies, mais leurs structures sont inversées. Le chapitre 5 propose une analyse de la principale source de risque pour les trafiquants, les saisies de drogues. Les données compilées permettent de démontrer que les saisies policières de drogues agrégées au niveau des pays sont principalement indicatrices du volume de trafic. L’éventuel biais lié aux pressions policières est négligeable pour les quantités saisies, mais plus prononcé pour le nombre de saisies. Les organismes de contrôle seraient donc plus à même de moduler leurs activités que les retombées éventuelles. Les résultats suggèrent aussi que les trafiquants adoptent des stratégies diverses pour limiter les pertes liées aux saisies. Le chapitre 6 s’attarde à l’impact de la structure sur le prix et la valeur des drogues. Le prix de gros varie considérablement d’un pays à l’autre et d’une drogue à l’autre. Ces variations s’expliquent par les contraintes auxquelles font face les trafiquants dans le cadre de leurs activités. D’une part, la valeur des drogues augmente plus rapidement lorsqu’elles sont destinées à des pays où les risques et les coûts d’importation sont élevés. D’autre part, la majoration des prix est plus prononcée lorsque les échanges sont dirigés vers des pays du cœur de l’économie légale. De nouveau, les rôles sont inversés : les pays généralement avantagés dépendent des plus désavantagés, et les pays pauvres en profitent pour exploiter les riches.
Resumo:
Bien que les troubles cognitifs soient un aspect essentiel de la schizophrénie, le dysfonctionnement des systèmes émotionnels y est également considéré comme un élément très important de cette maladie d’autant plus que plusieurs régions du cerveau sont concernées par la régulation émotionnelle. Le principal objectif du présent travail était d’explorer, en imagerie par résonnance magnétique fonctionnelle (IRMf), l’effet de la ziprasidone sur les différentes réponses neuronales à l’affichage de stimuli émotionnels au niveau de la région préfrontale,particulièrement dans le cortex cingulaire antérieur [CCA], le cortex orbito-frontal [COF] et le cortex préfrontal dorso-latéral [CPFDL]. Nous avons examiné les activations cérébrales, chez des patients souffrants de schizophrénie avant et après médication à la ziprasidone, en leur présentant des séries d’images émotionnellement chargées (négatives, neutres et positives) associées à différentes instructions quand aux types d’images qu’ils devaient sélectionner (négatives,neutres et positives). Nous avons analysé les différents changements d’activation (avant et après médication) essentiellement pour les valences extrêmes des stimuli (positives et négatives), ensuite nous avons regardé l’effet du type d’instruction sur ces changements. L’échantillon comprenait 13 patients atteints de schizophrénie et 15 témoins sains. Nous avons également effectué une évaluation clinique des symptômes dépressifs, positifs et négatifs de la maladie ainsi que des mesures biochimiques et de poids avant et après 16 semaines de médication. Malgré l’absence de changement significatif sur les mesures cliniques (PANSS et Dépression) avant et après une moyenne de 14.3 semaines de médication à la ziprasidone, plusieurs régions préfrontales (CCA, COF, CPDL) ont sensiblement accru leur réponse aux stimuli positifs par rapport aux stimuli négatifs. En outre, dans les régions habituellement impliquées dans le contrôle cognitif (CCA et CPFDL), cette tendance s'est accentuée lorsque les patients ont été invités à ne sélectionner que les stimuli négatifs (effet du type d’instruction). Nous avons également trouvé plusieurs similitudes dans le fonctionnement préfrontal (à la fois dans le volume et la force d'activation) entre les contrôles sains et les patients après médication en tenant compte du type d’instruction plus que de la valence émotionnelle des images. Pour conclure, les résultats de la présente étude suggèrent que le traitement antipsychotique avec la ziprasidone améliore le fonctionnement cognitif lié au traitement de l'information émotionnelle dans le cortex préfrontal chez les patients souffrant de schizophrénie. Étant donné le mécanisme d'action neuro-pharmacologique de la ziprasidone (plus d'affinité pour la sérotonine que pour les récepteurs de la dopamine dans le cortex préfrontal), nous pensons que nos résultats démontrent que le contrôle cognitif et la régulation des réactions face à des stimuli émotionnellement chargés dans la schizophrénie sont liés à une plus forte concentration de dopamine dans les voies préfrontales.
Resumo:
Les nanoparticules polymériques biodégradable (NPs) sont apparues ces dernières années comme des systèmes prometteurs pour le ciblage et la libération contrôlée de médicaments. La première partie de cette étude visait à développer des NPs biodégradables préparées à partir de copolymères fonctionnalisés de l’acide lactique (poly (D,L)lactide ou PLA). Les polymères ont été étudiés comme systèmes de libération de médicaments dans le but d'améliorer les performances des NPs de PLA conventionnelles. L'effet de la fonctionnalisation du PLA par insertion de groupements chimiques dans la chaîne du polymère sur les propriétés physico-chimiques des NPs a été étudié. En outre, l'effet de l'architecture du polymère (mode d'organisation des chaînes de polymère dans le copolymère obtenu) sur divers aspects de l’administration de médicament a également été étudié. Pour atteindre ces objectifs, divers copolymères à base de PLA ont été synthétisés. Plus précisément il s’agit de 1) copolymères du poly (éthylène glycol) (PEG) greffées sur la chaîne de PLA à 2.5% et 7% mol. / mol. de monomères d'acide lactique (PEG2.5%-g-PLA et PEG7%-g-PLA, respectivement), 2) des groupements d’acide palmitique greffés sur le squelette de PLA à une densité de greffage de 2,5% (palmitique acid2.5%-g-PLA), 3) de copolymère « multibloc » de PLA et de PEG, (PLA-PEG-PLA)n. Dans la deuxième partie, l'effet des différentes densités de greffage sur les propriétés des NPs de PEG-g-PLA (propriétés physico-chimiques et biologiques) a été étudié pour déterminer la densité optimale de greffage PEG nécessaire pour développer la furtivité (« long circulating NPs »). Enfin, les copolymères de PLA fonctionnalisé avec du PEG ayant montré les résultats les plus satisfaisants en regard des divers aspects d’administration de médicaments, (tels que taille et de distribution de taille, charge de surface, chargement de drogue, libération contrôlée de médicaments) ont été sélectionnés pour l'encapsulation de l'itraconazole (ITZ). Le but est dans ce cas d’améliorer sa solubilité dans l'eau, sa biodisponibilité et donc son activité antifongique. Les NPs ont d'abord été préparées à partir de copolymères fonctionnalisés de PLA, puis ensuite analysés pour leurs paramètres physico-chimiques majeurs tels que l'efficacité d'encapsulation, la taille et distribution de taille, la charge de surface, les propriétés thermiques, la chimie de surface, le pourcentage de poly (alcool vinylique) (PVA) adsorbé à la surface, et le profil de libération de médicament. L'analyse de la chimie de surface par la spectroscopie de photoélectrons rayon X (XPS) et la microscopie à force atomique (AFM) ont été utilisés pour étudier l'organisation des chaînes de copolymère dans la formulation des NPs. De manière générale, les copolymères de PLA fonctionnalisés avec le PEG ont montré une amélioration du comportement de libération de médicaments en termes de taille et distribution de taille étroite, d’amélioration de l'efficacité de chargement, de diminution de l'adsorption des protéines plasmatiques sur leurs surfaces, de diminution de l’internalisation par les cellules de type macrophages, et enfin une meilleure activité antifongique des NPs chargées avec ITZ. En ce qui concerne l'analyse de la chimie de surface, l'imagerie de phase en AFM et les résultats de l’XPS ont montré la possibilité de la présence de davantage de chaînes de PEG à la surface des NPs faites de PEG-g-PLA que de NPS faites à partie de (PLA-PEG-PLA)n. Nos résultats démontrent que les propriétés des NPs peuvent être modifiées à la fois par le choix approprié de la composition en polymère mais aussi par l'architecture de ceux-ci. Les résultats suggèrent également que les copolymères de PEG-g-PLA pourraient être utilisés efficacement pour préparer des transporteurs nanométriques améliorant les propriétés de certains médicaments,notamment la solubilité, la stabilité et la biodisponibilité.
Resumo:
L'attaque de retransmission sélective est une menace sérieuse dans les réseaux de capteurs sans fil (WSN), en particulier dans les systèmes de surveillance. Les noeuds peuvent supprimer de manière malicieuse certains paquets de données sensibles, ce qui risque de détruire la valeur des données assemblées dans le réseau et de diminuer la disponibilité des services des capteurs. Nous présentons un système de sécurité léger basé sur l'envoi de faux rapports pour identifier les attaques de retransmission sélective après avoir montré les inconvénients des systèmes existants. Le grand avantage de notre approche est que la station de base attend une séquence de faux paquets à un moment précis sans avoir communiqué avec les noeuds du réseau. Par conséquent, elle sera capable de détecter une perte de paquets. L'analyse théorique montre que le système proposé peut identifier ce type d'attaque et peut alors améliorer la robustesse du réseau dans des conditions d'un bon compromis entre la fiabilité de la sécurité et le coût de transmission. Notre système peut atteindre un taux de réussite élevé d‟identification face à un grand nombre de noeuds malicieux, tandis que le coût de transmission peut être contrôlé dans des limites raisonnables.