199 resultados para Véu
Resumo:
Pendant la dernière décennie nous avons vu une transformation incroyable du monde de la musique qui est passé des cassettes et disques compacts à la musique numérique en ligne. Avec l'explosion de la musique numérique, nous avons besoin de systèmes de recommandation de musique pour choisir les chansons susceptibles d’être appréciés à partir de ces énormes bases de données en ligne ou personnelles. Actuellement, la plupart des systèmes de recommandation de musique utilisent l’algorithme de filtrage collaboratif ou celui du filtrage à base de contenu. Dans ce mémoire, nous proposons un algorithme hybride et original qui combine le filtrage collaboratif avec le filtrage basé sur étiquetage, amélioré par la technique de filtrage basée sur le contexte d’utilisation afin de produire de meilleures recommandations. Notre approche suppose que les préférences de l'utilisateur changent selon le contexte d'utilisation. Par exemple, un utilisateur écoute un genre de musique en conduisant vers son travail, un autre type en voyageant avec la famille en vacances, un autre pendant une soirée romantique ou aux fêtes. De plus, si la sélection a été générée pour plus d'un utilisateur (voyage en famille, fête) le système proposera des chansons en fonction des préférences de tous ces utilisateurs. L'objectif principal de notre système est de recommander à l'utilisateur de la musique à partir de sa collection personnelle ou à partir de la collection du système, les nouveautés et les prochains concerts. Un autre objectif de notre système sera de collecter des données provenant de sources extérieures, en s'appuyant sur des techniques de crawling et sur les flux RSS pour offrir des informations reliées à la musique tels que: les nouveautés, les prochains concerts, les paroles et les artistes similaires. Nous essayerons d’unifier des ensembles de données disponibles gratuitement sur le Web tels que les habitudes d’écoute de Last.fm, la base de données de la musique de MusicBrainz et les étiquettes des MusicStrands afin d'obtenir des identificateurs uniques pour les chansons, les albums et les artistes.
Resumo:
L’adoption de la Loi concernant le cadre juridique des technologies de l’information en 2001 a permis de mettre en place un cadre juridique favorisant l’intégration des technologies de l’information dans le droit. Plus particulièrement en droit de la preuve, cela a conféré au document technologique la qualité d’élément de preuve. Dans ce contexte il a été nécessaire d’adapter certains articles du Code civil du Québec et du même fait certaines règles dont la règle de la meilleure preuve, telle que prévue à l’article 2860 C.c.Q.. Cette règle s’appuyait jusqu’à présent sur la notion d’original, notion propre au support papier dont il a fallu trouver un équivalent pour le document technologique. C’est ce qu’a fait la Loi en prévoyant à son article 12 les caractéristiques de l’original technologique. Nous nous penchons sur cette notion en regardant quelles sont ses origines et ses justifications, puis nous avons analysé l’article 12 de la Loi qui traite de l’original sous forme technologique. Enfin nous nous sommes interrogé sur la place des reproductions dans le contexte technologique et nous avons vu que celles-ci ont pris de plus en plus d’importance à côté du document original, au fur et à mesure du perfectionnement des moyens de reproduction.
Resumo:
Il est maintenant admis que la composition de la plaque athérosclérotique est un déterminant majeur de sa vulnérabilité à se rompre. Vu que la composition de la plaque affecte ses propriétés mécaniques, l'évaluation locale des propriétés mécaniques de la plaque d'athérome peut nous informer sur sa vulnérabilité. L'objectif est de comparer les techniques d’élastographie ultrasonores endovasculaire (EVE) et non-invasive (NIVE) en fonction de leur potentiel à identifier les composantes calcifiées et lipidiques de la plaque. Les acquisitions intravasculaire et extravasculaire ont été effectuées sur les artères carotidiennes de neuf porcs hypercholestérolémiques à l’aide d’un cathéter de 20 MHz et d'une sonde linéaire de 7.5 MHz, respectivement. Les valeurs de déformation radiale et axiale, rapportés par EVE et NIVE, ont été corrélées avec le pourcentage des zones histologiques calcifiées et lipidiques pour cinq plaques. Nos résultats démontrent une bonne corrélation positive entre les déformations et les composantes calcifiées (r2 = 0.82, P = 0.034 valeur par EVE et r2 = 0.80, P = 0.041 valeur par NIVE). Une forte corrélation entre les déformations axiales et les contenus lipidiques par NIVE (r2 = 0.92, P-value = 0.010) a été obtenue. En conclusion, NIVE et EVE sont des techniques potentielles pour identifier les composants de la plaque et aider les médecins à diagnostiquer précocement les plaques vulnérables.
Resumo:
Les cellules T mémoires (Tm) protègent l’organisme contre les réinfections de pathogènes qu’il a déjà combattu. Les Tm possèdent plusieurs propriétés en commun avec les cellules souches hématopoïétiques (CSH), notamment la capacité de se différencier, de s’auto-renouveler et de maintenir une population relativement constante au sein de l’organisme via des mécanismes homéostatiques. Il a été démontré que Hoxb4, un membre de la famille des facteurs de transcription Hox, était capable d’induire l’expansion des CSH in vivo et in vitro de façon rapide. Au vu de ces parallèles, nous avons posé l’hypothèse que la surexpression de Hoxb4 pourrait induire l’expansion de populations de Tm. Nous avons analysé les populations de Tm et lymphocytes T naïfs (Tn) dans les organes lymphoïdes de souris transgéniques surexprimant Hoxb4 et les avons comparées à des souris de type sauvage (wt). Alors que la fréquence des cellules T matures Hoxb4 diminuait avec l’âge, leur phénotype ainsi que leur viabilité demeuraient inchangés. Ensuite, nous avons procédé à des transplantations en compétition de Tm (CD4+CD44hi) Hoxb4 et wt chez des hôtes dépourvus de lymphocytes T (CD3-/-) dans le but d’évaluer leur contribution à la reconstitution du compartiment T après 2 mois. Au final, les Tm wt avait contribué un peu plus que les Tm Hoxb4 à la reconstitution (~60%). Des analyses fonctionnelles et phénotypiques ont montré que les Tm Hoxb4 possédaient une fonctionnalité normale, mais se distinguaient des Tm wt par la présence d’une faible population qui présentait un phénotype « mémoire central » (Tcm), conférant habituellement une longévité accrue. Les cellules des ganglions lymphatiques totaux des hôtes furent transplantées de façon sérielle chez trois générations de nouveaux hôtes. Le phénotype Tcm observés chez les Tm Hoxb4 était récapitulé chez les hôtes secondaires uniquement. Les ratios sont demeurés en faveur des Tm wt lors des deux transplantations suivantes, mais les Tm Hoxb4 ont commencé à montrer un avantage compétitif chez certains hôtes quaternaires. Une transplantation en compétition à court terme de Tm Hoxb4 et wt marqués avec un marqueur cytoplasmique ont démontré la présence chez les Tm Hoxb4 seulement d’une faible population CD62Lhi proliférant lentement. Ainsi, l’expansion préférentielle de Tcm CD4 par le biais d’une sélection ou d’une différenciation induite par la surexpression de Hoxb4 pourrait potentiellement leur permettre de maintenir un état de quiescence leur permettant de persister plus longtemps suite à des transplantations sérielles.
Resumo:
La conciliation, un mécanisme alternatif de résolution des conflits, cherche à la fois à maintenir une relation d'affaires ainsi qu'à raviver la communication et l’équilibre des pouvoirs entre deux parties opposées. Son véritable esprit consiste à faire en sorte que le citoyen récupère son rôle principal dans la solution de ses conflits et qu’il agisse sans l'intervention de l'État. Contrairement aux autres systèmes juridiques, le système juridique colombien donne au conciliateur un pouvoir décisionnel et/ou consultatif dans un cas concret. Aussi, les termes médiation et conciliation sont parfois utilisés comme synonymes. Cependant, ces termes se différencient selon la participation du tiers conciliateur ou médiateur au processus de résolution des conflits. In mediation, the mediator controls the process through different and specific stages: introduction, joint session, caucus, and agreement, while the parties control the outcome. Par ailleurs, même si ce sont des concepts universels grâce aux textes juridiques, ces mécanismes de résolution des conflits demeurent encore méconnus des citoyens. La pratique de la conciliation ne connaît pas de frontières; elle est répandue partout dans le monde. Dans les années 90, les pays d’Amérique latine, plus précisément la Colombie, ont commencé à envisager la possibilité de prendre part dans cette enrichissante expérience grâce aux progrès législatifs et institutionnels qui ont été réalisés en matière de mécanismes alternatifs de résolution des conflits. En matière de conciliation, en Colombie, il y a une grande richesse normative mais les lois, dispersées et difficiles à interpréter, génèrent de l’insécurité et de l’incertitude juridique. De plus, entamer le processus de conciliation se fait de diverses manières, la plus controversée étant sans doute la conciliation préalable obligatoire. Cette méthode imposée a été la cible de diverses critiques. En effet, ces critiques concernent le fait qu’une telle pratique obligatoire enfreint le volontariat, un pilier fondamental de la conciliation. Aussi, le tiers conciliateur, ayant une formation de haut niveau, représente une pièce maîtresse dans le processus de conciliation vu sa grande responsabilité dans le bon déroulement de cette méthode de résolution des conflits.
Resumo:
Thèse de doctorat effectuée en cotutelle au Département d’administration de la santé Faculté de médecine, Université de Montréal et à l’École doctorale Biologie-Santé Faculté de médecine, Université de Nantes, France
Resumo:
David Katz a fait l’observation que le mouvement entre la peau et l’objet est aussi important pour le sens du toucher que la lumière l’est pour la vision. Un stimulus tactile déplacé sur la peau active toutes les afférences cutanées. Les signaux résultants sont très complexes, covariant avec différents facteurs dont la vitesse, mais aussi la texture, la forme et la force. Cette thèse explore la capacité des humains à estimer la vitesse et la rugosité de surfaces en mouvements. Les bases neuronales de la vitesse tactile sont aussi étudiées en effectuant des enregistrements unitaires dans le cortex somatosensoriel primaire (S1) du singe éveillé. Dans la première expérience, nous avons montré que les sujets peuvent estimer la vitesse tactile (gamme de vitesses, 30 à 105 mm/s) de surfaces déplacées sous le doigt, et ceci sans indice de durée. Mais la structure des surfaces était essentielle (difficulté à estimer la vitesse d’une surface lisse). Les caractéristiques physiques des surfaces avaient une influence sur l’intensité subjective de la vitesse. La surface plus rugueuse (8 mm d’espacement entre les points en relief) semblait se déplacer 15% plus lentement que les surfaces moins rugueuses (de 2 et 3 mm d’espacement), pour les surfaces périodiques et non périodiques (rangées de points vs disposition aléatoire). L’effet de la texture sur la vitesse peut être réduit en un continuum monotonique quand les estimés sont normalisés avec l’espacement et présentés en fonction de la fréquence temporelle (vitesse/espacement). L'absence de changement des estimés de vitesse entre les surfaces périodiques et non périodiques suggère que les estimés de rugosité devraient aussi être indépendants de la disposition des points. Dans la deuxième expérience, et tel que prévu, une équivalence perceptuelle entre les deux séries de surfaces est obtenue quand les estimés de la rugosité sont exprimés en fonction de l'espacement moyen entre les points en relief, dans le sens de l'exploration. La troisième expérience consistait à rechercher des neurones du S1 qui pourraient expliquer l’intensité subjective de la vitesse tactile. L’hypothèse est que les neurones impliqués devraient être sensibles à la vitesse tactile (40 à 105 mm/s) et à l’espacement des points (2 à 8 mm) mais être indépendants de leur disposition (périodique vs non périodique). De plus, il est attendu que la fonction neurométrique (fréquence de décharge/espacement en fonction de la fréquence temporelle) montre une augmentation monotonique. Une grande proportion des cellules était sensible à la vitesse (76/119), et 82% d’entres elles étaient aussi sensibles à la texture. La sensibilité à la vitesse a été observée dans les trois aires du S1 (3b, 1 et 2). La grande majorité de cellules sensibles à la vitesse, 94%, avait une relation monotonique entre leur décharge et la fréquence temporelle, tel qu’attendu, et ce surtout dans les aires 1 et 2. Ces neurones pourraient donc expliquer la capacité des sujets à estimer la vitesse tactile de surfaces texturées.
Resumo:
Depuis les années 2000, nous observons de plus en plus de pays en développement (PED) hôtes de mégaévénements. En accueillant un mégaévénement en leur sol, les PED espèrent améliorer leur cadre urbain et attirer des investissements étrangers. Ceci étant dit, les retards en termes d’infrastructures et d’équipements que connaissent ces pays et les stricts cadres normatifs imposés par des organismes internationaux comme la FIFA, nous amènent à questionner la possibilité d’intégrer les aménagements mégaévénementiels, à leur contexte local. En ce sens, le processus de planification, dans lequel les cadres normatifs externes et locaux sont négociés, peut être vu comme un moment charnière ayant une incidence sur le potentiel de reconversion. Dans le cadre de ce mémoire, nous avons entamé une réflexion à ce sujet en examinant le processus de planification d’un aménagement mégaévénementiel, le Green Point Urban Park (GPUP) à Cape Town, et son incidence sur son potentiel de reconversion. Plus précisément, nous allons, en premier lieu, décrire le processus de planification du site, nous allons par la suite évaluer son potentiel de reconversion, puis nous allons faire ressortir des liens entre le processus de planification et le potentiel de reconversion des aménagements mégaévénementiels. En somme, notre travail met en évidence une relation entre, d’une part, la prépondérance du cadre normatif imposé par l’organisme international et la dynamique du système d’acteurs au moment de la planification du GPUP et, d’autre part, la difficile reconversion de ce dernier après la Coupe du monde de 2010.
Resumo:
L’accident vasculaire cérébral (AVC) est une cause principale de décès et de morbidité dans le monde; une bonne partie des AVC est causée par la plaque d’athérosclérose carotidienne. La prévention de l’AVC chez les patients ayant une plaque carotidienne demeure controversée, vu les risques et bénéfices ambigus associés au traitement chirurgical ou médical. Plusieurs méthodes d’imagerie ont été développées afin d’étudier la plaque vulnérable (dont le risque est élevé), mais aucune n’est suffisamment validée ou accessible pour permettre une utilisation comme outil de dépistage. L’élastographie non-invasive vasculaire (NIVE) est une technique nouvelle qui cartographie les déformations (élasticité) de la plaque afin de détecter les plaque vulnérables; cette technique n’est pas encore validée cliniquement. Le but de ce projet est d’évaluer la capacité de NIVE de caractériser la composition de la plaque et sa vulnérabilité in vivo chez des patients ayant des plaques sévères carotidiennes, en utilisant comme étalon de référence, l’imagerie par résonance magnétique (IRM) à haute-résolution. Afin de poursuivre cette étude, une connaissance accrue de l’AVC, l’athérosclérose, la plaque vulnérable, ainsi que des techniques actuelles d’imagerie de la plaque carotidienne, est requise. Trente-et-un sujets ont été examinés par NIVE par ultrasonographie et IRM à haute-résolution. Sur 31 plaques, 9 étaient symptomatiques, 17 contenaient des lipides, et 7 étaient vulnérables selon l’IRM. Les déformations étaient significativement plus petites chez les plaques contenant des lipides, avec une sensibilité élevée et une spécificité modérée. Une association quadratique entre la déformation et la quantité de lipide a été trouvée. Les déformations ne pouvaient pas distinguer les plaques vulnérables ou symptomatiques. En conclusion, NIVE par ultrasonographie est faisable chez des patients ayant des sténoses carotidiennes significatives et peut détecter la présence d’un coeur lipidique. Des études supplémentaires de progression de la plaque avec NIVE sont requises afin d’identifier les plaques vulnérables.
Resumo:
Les collisions proton-proton produites par le LHC imposent un environnement radiatif hostile au détecteur ATLAS. Afin de quantifier les effets de cet environnement sur la performance du détecteur et la sécurité du personnel, plusieurs simulations Monte Carlo ont été réalisées. Toutefois, la mesure directe est indispensable pour suivre les taux de radiation dans ATLAS et aussi pour vérifier les prédictions des simulations. À cette fin, seize détecteurs ATLAS-MPX ont été installés à différents endroits dans les zones expérimentale et technique d'ATLAS. Ils sont composés d'un détecteur au silicium à pixels appelé MPX dont la surface active est partiellement recouverte de convertisseurs de neutrons thermiques, lents et rapides. Les détecteurs ATLAS-MPX mesurent en temps réel les champs de radiation en enregistrant les traces des particules détectées sous forme d'images matricielles. L'analyse des images acquises permet d'identifier les types des particules détectées à partir des formes de leurs traces. Dans ce but, un logiciel de reconnaissance de formes appelé MAFalda a été conçu. Étant donné que les traces des particules fortement ionisantes sont influencées par le partage de charge entre pixels adjacents, un modèle semi-empirique décrivant cet effet a été développé. Grâce à ce modèle, l'énergie des particules fortement ionisantes peut être estimée à partir de la taille de leurs traces. Les convertisseurs de neutrons qui couvrent chaque détecteur ATLAS-MPX forment six régions différentes. L'efficacité de chaque région à détecter les neutrons thermiques, lents et rapides a été déterminée par des mesures d'étalonnage avec des sources connues. L'étude de la réponse des détecteurs ATLAS-MPX à la radiation produite par les collisions frontales de protons à 7TeV dans le centre de masse a montré que le nombre de traces enregistrées est proportionnel à la luminosité du LHC. Ce résultat permet d'utiliser les détecteurs ATLAS-MPX comme moniteurs de luminosité. La méthode proposée pour mesurer et étalonner la luminosité absolue avec ces détecteurs est celle de van der Meer qui est basée sur les paramètres des faisceaux du LHC. Vu la corrélation entre la réponse des détecteurs ATLAS-MPX et la luminosité, les taux de radiation mesurés sont exprimés en termes de fluences de différents types de particules par unité de luminosité intégrée. Un écart significatif a été obtenu en comparant ces fluences avec celles prédites par GCALOR qui est l'une des simulations Monte Carlo du détecteur ATLAS. Par ailleurs, les mesures effectuées après l'arrêt des collisions proton-proton ont montré que les détecteurs ATLAS-MPX permettent d'observer la désintégration des isotopes radioactifs générés au cours des collisions. L'activation résiduelle des matériaux d'ATLAS peut être mesurée avec ces détecteurs grâce à un étalonnage en équivalent de dose ambiant.
Resumo:
L’objectif de ce mémoire vise à exposer les méthodes d’évaluation propres aux tests génétiques. Le mémoire se penche également sur le recours grandissant, par des instances locales, aux services de génétique dispensés par des laboratoires internationaux. Le premier article propose une recension des modèles d'évaluation propres aux tests génétiques et une analyse de leur situation sur le parcours translationnel. L'article expose les origines de ces modèles, leurs attributs et particularités distinctives et spécifie le public cible auquel ils sont destinés. L'analyse comparative des modèles d'évaluation permet de mettre en relief leurs apports et limites respectives. Les critères évaluatifs de chaque modèles sont situés le long du parcours translationnel permettant de mettre en évidence les types d'évaluations nécessaires à chacune des phases de progression des tests génétiques le long du continuum menant à leur utilisation. Le second article adopte une tangente pragmatique et se penche sur l'utilisation effective des tests génétiques dans un centre hospitalier universitaire pédiatrique. Plus spécifiquement, l'article dresse un portrait exhaustif de l'ensemble des tests génétiques moléculaires réalisés à l’extérieur du Québec par le CHU Sainte-Justine en 2009 étant donné l’augmentation des tests disponibles internationalement comparativement à ceux offerts à l’interne. Vu la globalisation des envois d'échantillons vers des laboratoires localisés à l'étranger, l'objectif est de décrire l’état de la situation actuelle et d’identifier des cibles potentielles pour l’amélioration des processus et le développement de tests localement. L'évaluation des tests génétiques est abordée sous une double perspective: les considérations normatives liées à l'évaluation des tests génétiques tel que préconisé par les différents modèles d'évaluation ainsi que d'un point de vue pratique dans le contexte particulier d'un centre hospitalier universitaire.
Resumo:
En 2012, la traduction au Québec d'ouvrages littéraires d'auteurs issus de l'Amérique hispanique est encore un phénomène marginal. Pourtant, les entreprises de traduction de tels ouvrages se sont faites plus nombreuses au cours des vingt dernières années, et deux maisons d'édition québécoises leur ont fait la part belle : Les Écrits des Forges et Les Allusifs. La première a publié en français de nombreux canons de la poésie mexicaine tandis que la seconde possède à son catalogue (maintenant chez Leméac) bon nombre d'auteurs hispano-américains. Les efforts de ces éditeurs ont été précédés d'un premier mouvement d'accueil de la littérature hispano-américaine, mouvement principalement lié à la venue au Canada d'auteurs hispano-américains immigrants, souvent des réfugiés qui avaient fui la guerre ou la dictature dans leur pays d'origine. À partir de la théorie des champs de Pierre Bourdieu et de l’application de cette théorie à l’espace littéraire international par Pascale Casanova, ce mémoire cherche à expliquer plus en détail les conditions et logiques qui sous-tendent la traduction et l’édition des littératures hispano-américaines au Québec. Pour ce faire, il analyse la trajectoire de trois auteurs dont chacun a vu au moins un de ses titres publié en français. Ces auteurs sont le Salvadorien Horacio Castellanos Moya, dont le roman intitulé Le Dégoût a été publié aux Allusifs en 2003, le Mexicain Jaime Sabines, dont Poemas del peatón/Poèmes du piéton a été publié aux Écrits des Forges en 1997, et la Colombienne québécoise Yvonne América Truque, dont le recueil de poèmes Proyección de los silencios/Projection des silences a été publié au CÉDAH en 1986. Chacune des trajectoires illustre un modèle de production et de diffusion particulier de la littérature hispano-américaine en traduction qui s’est manifesté durant les vingt dernières années. Ensemble, elles permettent de dégager le parcours évolutif de l’édition vers une intégration de plus en plus mondialisée des mécanismes de diffusion des biens symboliques.
Resumo:
"ECODIR a vu le jour en octobre 2001, à Bruxelles, grâce à la contribution financière entre autres de l’Union européenne. C’est une plate-forme de règlement des litiges de consommation par Internet. Son champ d’action est limité, en raison des termes du contrat de recherche conclu avec la Commission européenne et de certaines contraintes juridiques. Il ne couvre que les conflits mettant en cause au moins un consommateur et relatifs à une transaction effectuée en ligne ; les litiges portant sur des questions complexes (fiscalité, droit de la famille par exemple) sont exclus. ECODIR n’est pas un processus d’arbitrage, mais de médiation : la possibilité d’ester en justice en cas d’échec du processus n’est pas exclue. Les auteurs décrivent les trois phases du processus, puis font le bilan de son fonctionnement. Ils analysent l’incidence des recommandations et des directives de la Commission européenne sur le commerce électronique avant d’examiner enfin la portée des solutions dégagées au terme de toute la procédure."
Resumo:
En Argentine, la mise en place des lois internationales sur les droits humains dans les tribunaux locaux et son impact ne peuvent être séparés de l’histoire récente, qui a vu commettre des crimes massifs pendant la dictature de 1976 à 1983. En 1987, la Cour suprême a voté « la loi de l’Obéissance due » aussi appelée « loi de l’impunité ». Puis, en 2005, cette loi a été déclarée invalide par une nouvelle décision de la Cour suprême, car contraire à celles sur les droits humains. Les principes de la loi internationale ont prévalu pour permettre une justice efficace, ce changement soulignant le rôle de la société civile. Étant donné les réclamations grandissantes pour plus de justice dans la société argentine, le rôle de la société civile est essentiel pour comprendre la transformation et l’accroissement de la valeur normative des lois sur les droits humains dans les Cours suprêmes argentines. L’action de la société civile internationale est liée aux processus sud-américains de démocratisation, surtout dans le domaine des droits humains. La lutte contre l’impunité n’a été rendue publique que très récemment, soit seulement à partir de 2003. Elle se traduit aujourd’hui dans le rôle grandissant de l’expertise juridique et éthique dans la mise en place des politiques publiques. En fait, l’influence de la nouvelle stratégie dépend largement de la transparence des administrations bureaucratiques, des valeurs et de la volonté politique du gouvernement. Le changement légal peut être analysé selon l’acteur à l’origine du changement, le mécanisme par lequel le changement se fait et le contexte qui fournit l’opportunité pour ce changement. Dans le présent article, nous nous concentrons sur les stratégies argumentatives présentées par les juges dans la description des évènements entourant la décision de 2005. Le but de cet article est d’essayer de lier les stratégies des sociétés civiles avec l’argumentation légale dans la décision de 2005. Ces stratégies poussent à surmonter l’obstacle juridique : le fait que les crimes contre l’humanité n’étaient pas codifiés dans la loi nationale quand ils se sont déroulés (et ne le sont toujours pas.)
Resumo:
Il n’existe présentement aucun code de la consommation dans la législation de la République Démocratique du Congo. Au vu de ce manque d’intérêt du législateur congolais pour les droits des citoyens consommateurs, il ne faut pas s’étonner du mutisme des deux textes réglementaires y régissant le secteur informatique quant à la protection des consommateurs internautes. Le citoyen congolais désireux de faire respecter les droits que lui a conférés un contrat conclu par voie électronique devra s’astreindre (lui ou son procureur) à colliger un certain nombre de textes éparpillés dans la législation de ce pays. La protection juridique accordée au consommateur congolais traditionnel (acheteur de biens matériels en général) se limite en ce moment à quelques dispositions législatives traitant de la publicité dans le secteur pharmaceutique, de l’affichage des prix, de l’interdiction de refuser de vendre un produit une fois que celui-ci a fait l’objet d’une offre et que les conditions de la vente ont été réunies, et de l’interdiction également de refuser de fournir une prestation de services une fois que celle-ci est devenue exigible. À certains égards, et prises dans leur ensemble, les normes éparses relatives à la consommation que la législation congolaise comporte protègent. mais de façon très partielle, les intérêts des consommateurs. Elles sont tout à fait inadéquates quant à la protection des intérêts des « cyberconsommateurs ». La solution à ce vide législatif consiste évidemment à faire adopter une loi en la matière, mais il s’agit là d’une solution imparfaite à cause de son aspect sectoriel. Une solution définitive, à nos yeux, devrait nécessairement être de nature internationale.