373 resultados para Consommation de drogue


Relevância:

10.00% 10.00%

Publicador:

Resumo:

À l’image des théories de la bande dessinée imprimée, la BD numérique est elle aussi accaparée par les analyses formalistes, dont la plus connue, celle de Scott McCloud, est critiquable, car elle réduit le média à un langage. Or, les mutations provoquées par la remédiation numérique ne sont pas uniquement formelles : l’expérience du lecteur, de l’auteur, et le rapport qu’ils entretiennent ensemble sont modifiés. Ce nouveau rapport influence le contenu des œuvres : on ne raconte pas la même chose dans le livre que sur Internet. L’autobiographie en BD, courant qui a explosé dans l’édition indépendante des années 1990, puis a été largement repris par les blogueurs, permet d’observer les différences de contenus et d’approches véhiculées par le livre et le numérique. Le dispositif du blogue propose un outil de liberté d’expression et de réflexion, mais les paramètres de son exécution (immédiateté, interactivité, désir de popularité, etc.) peuvent détourner cet objectif. Ainsi, beaucoup d’auteurs de blogues n’ont pas produit une autobiographie singulière, mais ont reproduit un courant de pensée existant (en exposant une libido fortement orientée vers la consommation) ainsi qu’un genre codifié, au sein duquel les autobiographies deviennent uniformes. Pour qualifier leurs blogues, on ne peut pas vraiment parler d’autobiographies, car ils ne mettent pas en scène un passé rétrospectif. Il s’agirait davantage de journaux intimes dont l’intimité est communiquée (ou publicisée) plutôt qu’expérimentée. Ce à quoi ces blogues ressemblent finalement le plus, c’est à une sorte de télé-réalité, une « bédé-réalité ».

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le commerce équitable s’est imposé sur la scène de la consommation responsable. Mais en quoi est-il plus équitable que le commerce conventionnel? Et dans quel sens doit-on entendre dans son cas le concept d’équité? Un détour par la philosophie morale et les théories de la justice d’Aristote, Hume et Rawls et une analyse de ses pratiques telles qu’elles ressortent de nombreuses études de terrain invitent à prendre ses prétentions à l’équité “cum grano salis”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’article décrit comment l’idée d’un commerce équitable Nord-Nord est envisagée dans le plus important réseau spécialisé français de commerce équitable, Artisans du Monde. Il montre que la promotion d’un commerce équitable avec des producteurs locaux est souvent pensée comme une extension naturelle du projet du mouvement, mais que cet objectif génère aussi parmi les militants d’Artisans du Monde des interrogations quant aux différences de situations socio-économiques entre les producteurs des pays du Sud et les producteurs locaux et quant à la nature de l’équité qu’ils souhaitent défendre. Ensuite, il explique que les circuits de commerce équitable d’Artisans du Monde et les circuits courts qui inspirent l’idée d’un commerce équitable local sont organisés de façons très différentes, en particulier parce que les premiers sont très intermédiés alors que les seconds établissent des relations directes entre producteurs et consommateurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’insuffisance cardiaque est une pathologie provoquant une diminution importante des capacités fonctionnelles des patients ainsi qu’une diminution drastique de la qualité de vie. L’évaluation des capacités fonctionnelles est généralement effectuée par une épreuve d’effort maximal. Cependant pour plusieurs patients, cet effort est difficile à compléter. Les objectifs de l’étude présentée dans ce mémoire sont : (1) valider trois méthodes d’évaluation de la capacité fonctionnelle et aérobie des sujets souffrant d’insuffisance cardiaque avec un complexe QRS élargi; (2) chercher à établir le profil des patients démontrant une meilleure tolérance à l’exercice malgré une consommation maximale d’oxygène identique; et (3) démontrer les conséquences de la présence et de la magnitude de l’asynchronisme cardiaque dans la capacité fonctionnelle et la tolérance à l’exercice. Tous les sujets ont été soumis à un test de marche de six minutes, un test d’endurance à charge constante sur tapis roulant et à une épreuve d’effort maximal avec mesure d’échanges gazeux à la bouche. Les résultats ont montré une association significative entre les épreuves maximale et plus spécifiquement sous-maximale. De plus, une meilleure tolérance à l’exercice serait associée significativement à une plus grande masse du ventricule gauche. Finalement, les résultats de notre étude n’ont pas montré d’effet d’un asynchronisme cardiaque sur la performance à l’effort tel qu’évalué par nos protocoles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs monographies récentes se sont intéressées à la traduction des littératures africaines europhones (Gyasi 2006, Bandia 2008, Batchelor 2009), faisant valoir le concept d’autotraduction (au sens métaphorique) et insistant sur le fait que ces écritures sont porteuses d’une oralité ou de marques linguistiques issues des langues parlées par les écrivains. Toutefois, la question de l’hybridité comme point de jonction entre littératures orales et écrites a encore rarement été examinée sous un angle poétique et c’est précisément dans cet esprit que cette recherche a été entreprise. Dans un premier temps, à partir des ouvrages originaux de six auteurs, trois d’expression littéraire anglaise (Farah, Hove et Armah) et trois d’expression littéraire française (Waberi, Adiaffi et Djebar), je montre en quoi ces écritures méritent d’être qualifiées de poétiques avant de mettre cette esthétique en relation avec le patrimoine littéraire de chacun des auteurs du corpus; ponctuellement, d’autres affiliations littéraires sont mises en évidence. Cette poétique est examinée dans sa dimension mélopoéique (Pound 1954), c’est-à-dire sous l’angle des structures audibles, appelées aussi figures de style jouant sur la forme phonétique des mots (Klein-Lataud 2001). Dans un second temps, j’examine comment cette poétique sonore a été recréée, tant de manière qualitative que quantitative, dans les traductions de Bardolph, de Richard et de J. et R. Mane (pour les auteurs d’expression anglaise) et de Garane, de Katiyo et de Blair (pour les auteurs d’expression française). Les enjeux associés à la réactivation des structures poétiques sonores sont mis en évidence dans le dernier chapitre qui propose un tour d’horizon des modalités de « consommation » de l’objet littéraire et qui s’achève sur les questions soulevées par la progression du livre audio. La méthodologie élaborée dans ce cadre s’inspire essentiellement de Berman (1995) et de Henry (2003). La conceptualisation de la poétique sonore, telle que mise en œuvre dans le contexte particulier de ces littératures, fait appel aux paradigmes de valence traductive (Folkart 2007) et de traduction métonymique (Tymoczko 1999). Par ailleurs, cette recherche s’appuie sur la récente thèse de doctorat de Fraser (2007) consacrée à la théorisation du sonore en traduction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nos jours, la voiture est devenue le mode de transport le plus utilisé, mais malheureusement, il est accompagné d’un certain nombre de problèmes (accidents, pollution, embouteillages, etc.), qui vont aller en s’aggravant avec l’augmentation prévue du nombre de voitures particulières, malgré les efforts très importants mis en œuvre pour tenter de les réduire ; le nombre de morts sur les routes demeure très important. Les réseaux sans fil de véhicules, appelés VANET, qui consistent de plusieurs véhicules mobiles sans infrastructure préexistante pour communiquer, font actuellement l’objet d'une attention accrue de la part des constructeurs et des chercheurs, afin d’améliorer la sécurité sur les routes ou encore les aides proposées aux conducteurs. Par exemple, ils peuvent avertir d’autres automobilistes que les routes sont glissantes ou qu’un accident vient de se produire. Dans VANET, les protocoles de diffusion (broadcast) jouent un rôle très important par rapport aux messages unicast, car ils sont conçus pour transmettre des messages de sécurité importants à tous les nœuds. Ces protocoles de diffusion ne sont pas fiables et ils souffrent de plusieurs problèmes, à savoir : (1) Tempête de diffusion (broadcast storm) ; (2) Nœud caché (hidden node) ; (3) Échec de la transmission. Ces problèmes doivent être résolus afin de fournir une diffusion fiable et rapide. L’objectif de notre recherche est de résoudre certains de ces problèmes, tout en assurant le meilleur compromis entre fiabilité, délai garanti, et débit garanti (Qualité de Service : QdS). Le travail de recherche de ce mémoire a porté sur le développement d’une nouvelle technique qui peut être utilisée pour gérer le droit d’accès aux médias (protocole de gestion des émissions), la gestion de grappe (cluster) et la communication. Ce protocole intègre l'approche de gestion centralisée des grappes stables et la transmission des données. Dans cette technique, le temps est divisé en cycles, chaque cycle est partagé entre les canaux de service et de contrôle, et divisé en deux parties. La première partie s’appuie sur TDMA (Time Division Multiple Access). La deuxième partie s’appuie sur CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) pour gérer l’accès au medium. En outre, notre protocole ajuste d’une manière adaptative le temps consommé dans la diffusion des messages de sécurité, ce qui permettra une amélioration de la capacité des canaux. Il est implanté dans la couche MAC (Medium Access Control), centralisé dans les têtes de grappes (CH, cluster-head) qui s’adaptent continuellement à la dynamique des véhicules. Ainsi, l’utilisation de ce protocole centralisé nous assure une consommation efficace d’intervalles de temps pour le nombre exact de véhicules actifs, y compris les nœuds/véhicules cachés; notre protocole assure également un délai limité pour les applications de sécurité, afin d’accéder au canal de communication, et il permet aussi de réduire le surplus (overhead) à l’aide d’une propagation dirigée de diffusion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Des études antérieures ont démontré que le métabolisme de la rétine, son apport sanguin et sa consommation de l'oxygène sont plus élevés dans le noir (Riva C.E. et al. 1983, Wang L. et al. 1996, Tam B.M. and Moritz O.L. 2007). Les stimuli physiologiques jouent supposément un rôle important dans le développement des différents systèmes nerveux (Arthur W. Spira, David Parkinson 1991). La privation de la rétine de son stimulus physiologique, la lumière, est un moyen valable de démontrer la validité de ce concept. D'autres études ont affirmé que les injections de dichlorure de paraquat dans la cavité vitréenne causent une sévère rétinopathie (Rétinopathie induite par paraquat: RIP). Cette rétinopathie est provoquée par les dérivés réactifs de l'oxygène (DRO) générés par le paraquat (Cingolani C. et al. 2006, Lu L. et al. 2006). Le but de notre premier projet (''Dark rearing project'') était de déterminer si les conséquences nocives de l'hyperoxie postnatale chez les rats albinos SD pourraient être amoindries en élevant une portée de rats au noir. Nos résultats suggèrent qu'une augmentation du métabolisme de la rétine causée par la déprivation de lumière chez les ratons, pourrait protéger ou masquer certains effets néfastes de l'hyperoxie postnatale. Le but de notre deuxième étude (''Paraquat project'') était d'examiner les possibles points de similitude entre RIP et d'autres modèles de rétinopathies oxydatives étudiés présentement par notre équipe, à savoir: Rétinopathie induite par l'oxygène (RIO) et Rétinopathie induite par la lumière (RIL). Nos résultats suggèrent que l'injection de dichlorure de paraquat dans la cavité vitréenne cause des changements sévères de la fonction de la rétine, tandis que sa structure semble intacte. La sévérité de ces changements dépend inversement de la maturité de la rétine au moment de l'injection.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectif. Étudier les comportements alimentaires des enfants utilisateurs de boîte à lunch tels que décrits par les mères, en s’inspirant des descripteurs de comportements alimentaires de Jean-Pierre Poulain. Méthodes. Des entrevues individuelles et de groupes eurent lieu avec 18 mères. Une analyse de données qualitatives a été réalisée en utilisant les dimensions de Poulain comme cadre de référence. Une considération additionnelle fut intégrée dans l’analyse, celle de la dimension matérielle de la boîte à lunch. Résultats. Dimension spatiale : Les repas ont lieu dans des classes ou dans de grandes salles communes. Dimension temporelle : Le moment et la durée de la consommation du repas varient selon différents facteurs. Le moment de préparation de la boîte est aussi d’intérêt. Environnement social : Les pairs et les médias ont une grande influence dans les comportements liés à la boîte à lunch. Logique de choix : La mère est le principal décideur et acteur à l’égard du contenu. Structure de la prise : Les mères précisent des contenus associés aux repas de la veille ou des mets froids. Des desserts et des à-côtés accompagnent le repas principal. L’étude de la dimension matérielle de la boîte révèle que la facilité d’entretien est le principal critère de choix des boîtes alors que l’apparence visuelle est celui de l’enfant. L’écologie devient de plus en plus une priorité. Conclusion. Cette nouvelle approche pour l’étude des comportements alimentaires du jeune utilisateur de boîte à lunch fournit aux intervenants une autre perspective selon laquelle étudier cette activité quotidienne et/ou élaborer des projets promotionnels en santé publique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse s’articule autour de trois chapitres indépendants qui s’inscrivent dans les champs de la macroéconomie, de l’économie monétaire et de la finance internationale. Dans le premier chapitre, je construis un modèle néo-keynesien d’équilibre général sous incertitude pour examiner les implications de la production domestique des ménages pour la politique monétaire. Le modèle proposé permet de reconcilier deux faits empiriques majeurs: la forte sensibilité du produit intérieur brut aux chocs monétaires (obtenue à partir des modèles VAR), et le faible degré de rigidité nominale observé dans les micro-données. Le deuxième chapitre étudie le role de la transformation structurelle (réallocation de la main d’oeuvre entre secteurs) sur la volatilité de la production aggregée dans un panel de pays. Le troisième chapitre quant à lui met en exergue l’importance de la cartographie des échanges commerciaux pour le choix entre un régime de change fixe et l’arrimage à un panier de devises. "Household Production, Services and Monetary Policy" (Chapitre 1) part de l’observation selon laquelle les ménages peuvent produire à domicile des substituts aux services marchands, contrairement aux biens non durables qu’ils acquièrent presque exclusivement sur le marché. Dans ce contexte, ils procèdent à d’importants arbitrages entre produire les services à domicile ou les acquerir sur le marché, dépendamment des changements dans leur revenu. Pour examiner les implications de tels arbitrages (qui s’avèrent être importants dans les micro-données) le secteur domestique est introduit dans un modèle néo-keyenesien d’équilibre général sous incertitudedeux secteurs (le secteur des biens non durables et le secteur des services) autrement standard. Je montre que les firmes du secteur des services sont moins enclin à changer leurs prix du fait que les ménages ont l’option de produire soit même des services substituts. Ceci se traduit par la présence d’un terme endogène supplémentaire qui déplace la courbe de Phillips dans ce secteur. Ce terme croit avec le degré de substituabilité qui existe entre les services produits à domicile et ceux acquis sur le marché. Cet accroissement de la rigidité nominale amplifie la sensibilité de la production réelle aux chocs monétaires, notamment dans le secteur des services, ce qui est compatible avec l’évidence VAR selon laquelle les services de consommation sont plus sensibles aux variations de taux d’intérêt que les biens non durables. "Structural Transformation and the Volatility of Aggregate Output: A Cross-country Analysis" (Chapitre 2) est basée sur l’évidence empirique d’une relation négative entre la part de la main d’oeuvre allouée au secteur des services et la volatilité de la production aggrégée, même lorsque je contrôle pour les facteurs tels que le développement du secteur financier. Ce resultat aggregé est la conséquence des développements sectoriels: la productivité de la main d’oeuvre est beaucoup plus volatile dans l’agriculture et les industries manufacturières que dans les services. La production aggregée deviendrait donc mécaniquement moins volatile au fur et à mesure que la main d’oeuvre se déplace de l’agriculture et de la manufacture vers les services. Pour évaluer cette hypothèse, je calibre un modèle de transformation structurelle à l’économie américaine, que j’utilise ensuite pour générer l’allocation sectorielle de la main d’oeuvre dans l’agriculture, l’industrie et les services pour les autres pays de l’OCDE. Dans une analyse contre-factuelle, le modèle est utlisé pour restreindre la mobilité de la main d’oeuvre entre secteurs de façon endogène. Les calculs montrent alors que le déplacement de la main d’oeuvre vers le secteur des services réduit en effet la volatilité de la production aggregée. "Exchange Rate Volatility under Alternative Peg Regimes: Do Trade Patterns Matter?" (Chapitre 3) est une contribution à la litterature économique qui s’interesse au choix entre divers regimes de change. J’utilise les données mensuelles de taux de change bilatéraux et de commerce extérieur entre 1980 et 2010 pour les pays membre de l’Union Economique et Monétaire Ouest Africaine (UEMOA). La monnaie de ces pays (le franc CFA) est arrimée au franc Francais depuis le milieu des années 40 et à l’euro depuis son introduction en 1999. Au moment de l’arrimage initial, la France était le principal partenaire commercial des pays de l’UEMOA. Depuis lors, et plus encore au cours des dix dernières années, la cartographie des échanges de l’union a significativement changé en faveur des pays du groupe des BICs, notamment la Chine. Je montre dans ce chapitre que l’arrimage à un panier de devises aurait induit une volatilité moins pronnoncée du taux de change effectif nominal du franc CFA au cours de la décennie écoulée, comparé à la parité fixe actuelle. Ce chapitre, cependant, n’aborde pas la question de taux de change optimal pour les pays de l’UEMOA, un aspect qui serait intéressant pour une recherche future.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse vise à analyser la structure des échanges transnationaux de cocaïne, d’héroïne et de marijuana. Partant de la perspective des systèmes-mondes, l’hypothèse que le trafic de drogues forme un système inverse au commerce légal est développée. Les outils de l’analyse de réseaux sont appliqués aux échanges de drogues entre pays. La thèse s’appuie sur deux sources de données complémentaires. La première est une banque d’informations uniques compilées par l’United Nations Office on Drugs and Crime (UNODC) sur les saisies d’importance effectuées dans le monde entre 1998 et 2007 (n = 47629). Ces données sont complétées par les informations contenues dans une dizaine de rapports publiés par des organismes internationaux de surveillance du trafic de drogues. Les réseaux d’échanges dirigés construits à partir de ces données permettent d’examiner l’étendue du trafic entre la plupart des pays du monde et de qualifier leur implication individuelle. Les chapitres 3 et 4 portent sur la structure du trafic elle-même. Dans un premier temps, les différents rôles joués par les pays et les caractéristiques des trois marchés de drogues sont comparés. Les quantités en circulation et les taux d’interception sont estimés pour les 16 régions géographiques définies par l’UNODC. Dans un deuxième temps, leurs caractéristiques structurelles sont comparées à celles des marchés légaux. Il en ressort que les marchés de drogues sont beaucoup moins denses et que les pays périphériques y jouent un rôle plus prononcé. L’inégalité des échanges caractérise les deux économies, mais leurs structures sont inversées. Le chapitre 5 propose une analyse de la principale source de risque pour les trafiquants, les saisies de drogues. Les données compilées permettent de démontrer que les saisies policières de drogues agrégées au niveau des pays sont principalement indicatrices du volume de trafic. L’éventuel biais lié aux pressions policières est négligeable pour les quantités saisies, mais plus prononcé pour le nombre de saisies. Les organismes de contrôle seraient donc plus à même de moduler leurs activités que les retombées éventuelles. Les résultats suggèrent aussi que les trafiquants adoptent des stratégies diverses pour limiter les pertes liées aux saisies. Le chapitre 6 s’attarde à l’impact de la structure sur le prix et la valeur des drogues. Le prix de gros varie considérablement d’un pays à l’autre et d’une drogue à l’autre. Ces variations s’expliquent par les contraintes auxquelles font face les trafiquants dans le cadre de leurs activités. D’une part, la valeur des drogues augmente plus rapidement lorsqu’elles sont destinées à des pays où les risques et les coûts d’importation sont élevés. D’autre part, la majoration des prix est plus prononcée lorsque les échanges sont dirigés vers des pays du cœur de l’économie légale. De nouveau, les rôles sont inversés : les pays généralement avantagés dépendent des plus désavantagés, et les pays pauvres en profitent pour exploiter les riches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans un monde de plus en plus interconnecté où le développement nécessite une participation active à la société de l’information, où les différentes cultures rentrent davantage en contact entre elles et où les biens culturels sont devenus des biens de consommation, les minorités culturelles mondiales intégrant les technologies de l’information et de la communication (TIC) se retrouvent marginalisées face à la menace d’hégémonie culturelle des réseaux de l’information par les cultures dominantes de certains pays développés. Pour qu’une culture prenne sa place dans la société de l’information, il revient en premier lieu à ses institutions éducatives de former leurs apprenants dans un contexte culturel qui leur est propre et de valoriser et d’encourager la production et l’utilisation de contenu endogène. C’est dans le cadre de cette problématique que la présente recherche s’est donnée comme premier objectif de faire le bilan du contenu culturel accédé et diffusé par les TIC dans des écoles de pays africains dits en développement ; pour ensuite, comme deuxième objectif, de décrire les barrières à une intégration des TIC qui favoriserait la promotion culturelle en ligne dans ces écoles ; et finalement, comme troisième objectif, d’identifier des stratégies pragmatiques favorisant une intégration écologique des TIC dans ces écoles, c’est-à-dire, une intégration durable, adaptée au contexte local et favorisant la pleine participation des enseignants et des élèves. Pour y parvenir, nous avons adopté une approche méthodologique essentiellement descriptive et qualitative. Nous avons réalisé des entrevues avec 168 enseignants et 230 élèves de 34 écoles pionnières TIC situées dans cinq pays d’Afrique de l’Ouest et du Centre, que nous avons traitées selon une analyse de contenu spécifique à chaque objectif. L’adoption des stratégies décrites dans nos résultats permettrait aux écoles étudiées de surmonter, en partie, la multitude de barrières auxquelles elles font face et de favoriser l’intégration écologique des TIC. Une telle intégration est nécessaire à l’atteinte d’une société de l’information plus équitable et à l’éventuelle réduction du fossé numérique séparant les « info-riches » des « info-pauvres ».

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le contexte urbain du Burkina Faso, la chanson de sensibilisation se situe au coeur des pratiques sociales traditionnelles, des nouvelles économies culturelles et des approches participatives en matière de développement. Cette pratique répond à des enjeux particuliers au contexte local et aux relations internationales. La musique comme outil commun de communication sociale artistique rejoint des stratégies professionnelles différentes chez les artistes-musiciens et les associations locales. Pour les premiers, nous pouvons porter un regard sur la place du musicien dans la société contemporaine burkinabè, entre paupérisation et mondialisation. Pour les seconds, la chanson de sensibilisation s’inscrit comme une tentative d’innover dans les approches d’Information, Éducation et Communication (IEC) pour la santé et la Communication pour le Changement de Comportement (CCC). Ce mémoire présente les modes de collaboration entre les artistes-musiciens et les associations locales qui oeuvrent en santé au Burkina Faso. Il décrit l’état respectif de leur champ puis analyse les négociations sociales issues de leur rencontre. La problématique de recherche s’inscrit dans des courants de recherche en anthropologie et établit un pont avec la praxis de l’animation sociale et culturelle. La chaîne de création (production-diffusion-consommation) permet de poser un regard historique sur les concepts de culture et de développement dans le contexte particulier de l’Afrique de l’Ouest francophone.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les nanoparticules polymériques biodégradable (NPs) sont apparues ces dernières années comme des systèmes prometteurs pour le ciblage et la libération contrôlée de médicaments. La première partie de cette étude visait à développer des NPs biodégradables préparées à partir de copolymères fonctionnalisés de l’acide lactique (poly (D,L)lactide ou PLA). Les polymères ont été étudiés comme systèmes de libération de médicaments dans le but d'améliorer les performances des NPs de PLA conventionnelles. L'effet de la fonctionnalisation du PLA par insertion de groupements chimiques dans la chaîne du polymère sur les propriétés physico-chimiques des NPs a été étudié. En outre, l'effet de l'architecture du polymère (mode d'organisation des chaînes de polymère dans le copolymère obtenu) sur divers aspects de l’administration de médicament a également été étudié. Pour atteindre ces objectifs, divers copolymères à base de PLA ont été synthétisés. Plus précisément il s’agit de 1) copolymères du poly (éthylène glycol) (PEG) greffées sur la chaîne de PLA à 2.5% et 7% mol. / mol. de monomères d'acide lactique (PEG2.5%-g-PLA et PEG7%-g-PLA, respectivement), 2) des groupements d’acide palmitique greffés sur le squelette de PLA à une densité de greffage de 2,5% (palmitique acid2.5%-g-PLA), 3) de copolymère « multibloc » de PLA et de PEG, (PLA-PEG-PLA)n. Dans la deuxième partie, l'effet des différentes densités de greffage sur les propriétés des NPs de PEG-g-PLA (propriétés physico-chimiques et biologiques) a été étudié pour déterminer la densité optimale de greffage PEG nécessaire pour développer la furtivité (« long circulating NPs »). Enfin, les copolymères de PLA fonctionnalisé avec du PEG ayant montré les résultats les plus satisfaisants en regard des divers aspects d’administration de médicaments, (tels que taille et de distribution de taille, charge de surface, chargement de drogue, libération contrôlée de médicaments) ont été sélectionnés pour l'encapsulation de l'itraconazole (ITZ). Le but est dans ce cas d’améliorer sa solubilité dans l'eau, sa biodisponibilité et donc son activité antifongique. Les NPs ont d'abord été préparées à partir de copolymères fonctionnalisés de PLA, puis ensuite analysés pour leurs paramètres physico-chimiques majeurs tels que l'efficacité d'encapsulation, la taille et distribution de taille, la charge de surface, les propriétés thermiques, la chimie de surface, le pourcentage de poly (alcool vinylique) (PVA) adsorbé à la surface, et le profil de libération de médicament. L'analyse de la chimie de surface par la spectroscopie de photoélectrons rayon X (XPS) et la microscopie à force atomique (AFM) ont été utilisés pour étudier l'organisation des chaînes de copolymère dans la formulation des NPs. De manière générale, les copolymères de PLA fonctionnalisés avec le PEG ont montré une amélioration du comportement de libération de médicaments en termes de taille et distribution de taille étroite, d’amélioration de l'efficacité de chargement, de diminution de l'adsorption des protéines plasmatiques sur leurs surfaces, de diminution de l’internalisation par les cellules de type macrophages, et enfin une meilleure activité antifongique des NPs chargées avec ITZ. En ce qui concerne l'analyse de la chimie de surface, l'imagerie de phase en AFM et les résultats de l’XPS ont montré la possibilité de la présence de davantage de chaînes de PEG à la surface des NPs faites de PEG-g-PLA que de NPS faites à partie de (PLA-PEG-PLA)n. Nos résultats démontrent que les propriétés des NPs peuvent être modifiées à la fois par le choix approprié de la composition en polymère mais aussi par l'architecture de ceux-ci. Les résultats suggèrent également que les copolymères de PEG-g-PLA pourraient être utilisés efficacement pour préparer des transporteurs nanométriques améliorant les propriétés de certains médicaments,notamment la solubilité, la stabilité et la biodisponibilité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les problèmes de toxicomanie sont très communs chez les schizophrènes. L’administration chronique d’antipsychotiques pourrait être impliquée dans cette cooccurrence en induisant une hypersensibilisation du système dopaminergique. Précédemment, nous avons démontré chez le rat qu’un traitement continu (via une mini-pompe osmotique sous-cutanée), et non pas intermittent (via des injections journalières sous-cutanées), avec l’halopéridol a augmenté la capacité de l’amphétamine à potentialiser un comportement de recherche de récompense. Dans cette étude, nous avons étudié les effets d’un antipsychotique atypique soit l’olanzapine comparé à l’halopéridol. Un traitement continu avec l’halopéridol, et non pas l’olanzapine, a augmenté la capacité de l’amphétamine de potentialiser la poursuite d’une récompense conditionnée (lumière/son préalablement associés à l’eau). De plus, un traitement continu avec l’halopéridol a augmenté l’induction par l’amphétamine de l’activité locomotrice et l’expression d’ARNm pour le c-fos (marqueur fonctionnel d’activité cellulaire) dans le caudé-putamen. Donc, un traitement continu avec un antipsychotique typique, et non pas atypique, a augmenté les caractéristiques motivationnelles attribuées à un stimulus neutre. Ceci est potentiellement lié à au développement d’un état de sensibilisation comportementale aux effets de l’amphétamine et à une augmentation de la capacité de l’amphétamine de susciter la modulation de l’activité du caudé-putamen. Ainsi, un antipsychotique typique tel que l’halopéridol semble modifier les circuits de la récompense de façon à contribuer à des comportements caractérisés par une recherche et une consommation de drogues d’abus alors qu’un antipsychotique atypique tel que l’olanzapine aurait moins tendance à le faire. Nous suggérons que les antipsychotiques atypiques pourraient être une meilleure option chez les patients schizophrènes à risque d’avoir un trouble de consommation de drogues d’abus ou de toxicomanie.