20 resultados para ease of discovery


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lettre à l'éditeur / Letter to the Editor

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les acides biliaires sont des composés naturels existants dans le corps humain. Leur biocompatibilité, leur caractère amphiphile et la rigidité de leur noyau stéroïdien, ainsi que l’excellent contrôle de leurs modifications chimiques, en font de remarquables candidats pour la préparation de matériaux biodégradables pour le relargage de médicaments et l'ingénierie tissulaire. Nous avons préparé une variété de polymères à base d’acides biliaires ayant de hautes masses molaires. Des monomères macrocycliques ont été synthétisés à partir de diènes composés de chaînes alkyles flexibles attachées à un noyau d'acide biliaire via des liens esters ou amides. Ces synthèses ont été réalisées par la fermeture de cycle par métathèse, utilisant le catalyseur de Grubbs de première génération. Les macrocycles obtenus ont ensuite été polymérisés par ouverture de cycle, entropiquement induite le catalyseur de Grubbs de seconde génération. Des copolymères ont également été préparés à partir de monolactones d'acide ricinoléique et de monomères cycliques de triester d’acide cholique via la même méthode. Les propriétés thermiques et mécaniques et la dégradabilité de ces polymères ont été étudiées. Elles peuvent être modulées en modifiant les différents groupes fonctionnels décorant l’acide biliaire et en ayant recours à la copolymérisation. La variation des caractéristiques physiques de ces polymères biocompatibles permet de moduler d’autres propriétés utiles, tel que l’effet de mémoire de forme qui est important pour des applications biomédicales.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

"L’auteur Ethan Katsh analyse les problématiques posées par les relations de la communauté virtuelle de l’Internet et son processus en ligne de résolution des conflits. Il explique comment le cyberespace constitue un environnement intégral et indépendant qui développe ses propres règles normatives. L’évolution des normes au sein du cyberespace semble être une conséquence des interactions entre les acteurs, sans intervention législative fondamentale de la part des états. L’auteur trace l’évolution, depuis le début des années 1990, du processus en ligne de résolution des différends, principalement dans le domaine du commerce électronique. L’accroissement rapide des relations commerciales électroniques a entraîné une hausse des litiges dans ce domaine. Dans le cadre de tels litiges, les moyens en ligne de résolution des conflits offrent aux justiciables plus de facilité, de flexibilité et d’accessibilité que les moyens alternatifs traditionnels de résolution des conflits. C’est donc dans ce contexte qu’a été développé le système ""Squaretrade"" qui a pour objectif d’aider la résolution de conflits entre les utilisateurs de ""E-Bay"". Ce système présente l’avantage important d’encadrer et d’uniformiser le processus de résolution en définissant les termes généraux et spécifiques du conflit. L’auteur soutient que la principale fonction d’un tel système est d’organiser et d’administrer efficacement les communications entre les parties. Ainsi, cette fonction préserve le ""paradigme de la quatrième personne"", nécessaire aux processus alternatifs traditionnels de résolution de conflits. Par ailleurs, cette fonction, en tant que partie intégrante du programme informatique, constitue pour les justiciables une alternative intéressante aux règles législatives. Pour l’auteur, l’analyse de ce phénomène soulève des questions importantes concernant la création de normes et leur acceptation par les citoyens. L’auteur analyse par la suite le concept général de la formation des normes dans le contexte d’un environnement non régularisé. Il soutient que les normes émergeantes doivent toujours viser à développer une forme de légitimité auprès des justiciables. Dans le cadre du processus en ligne de résolution des conflits, cette légitimité doit être acquise autant auprès des parties au litige qu’auprès de la population en général. Toutefois, les attentes des parties au litige sont souvent très différentes de celles du public. L’auteur illustre ainsi comment certains processus en ligne de résolution de conflit ne réussissent pas à obtenir une telle légitimité, alors que d’autres s’établissent en tant qu’institutions reconnues. Dans ce contexte, les institutions en ligne de résolution de conflits devront développer leur propre valeur normative. Ainsi, les moyens en ligne de résolution des conflits remettent en question le processus traditionnel de formation des normes et peuvent être considérés comme des éléments d’un nouvel environnement normatif."

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La technologie est une manière pour la science d’exprimer son côté pratique en plus d’être un moyen de traduire les connaissances lors de vraies applications scientifiques, mais ce processus peut engendrer une variété de défis moraux et éthiques. Le champ des biotechnologies laisse entrevoir de grandes réalisations pour les sociétés, y compris des traitements médicaux révolutionnaires et des aliments modifiés génétiquement, lesquels seraient sécuritaires, accessibles et largement disponibles. Mais peu de produits ont réussi le saut dans le panier du consommateur. Dans un des domaines d'application les plus prometteurs, tel celui des biotechnologies agricoles, certaines technologies n’ont pas encore entièrement émergé des laboratoires et ces produits, qui sont à l’heure actuelle sur le marché, ont été la source de polémiques significatives. L’étude présente se concentre sur le cas des vaccins faits à partir de plantes transgéniques qui, au cours des 15 dernières années, a peine à passer outre l’étape de la preuve de conception. Ces vaccins stagnent là où ils auraient dû accomplir la « promesse d'or » de fournir à bas coût une inoculation efficace pour les populations pauvres des pays en voie de développement. La question examinée dans cet essai est pourquoi, au-delà du processus de la découverte et de la conceptualisation, de telles technologies éprouvent des difficultés à atteindre leur maturité et ainsi retarde l’implantation dans les sociétés contemporaines ? Quels facteurs particuliers, sous l’angle de la bioéthique, auront besoin d’une reconsidération dans le cas échéant d’une mise en application de ces technologies pour être acceptées par les consommateurs, et avoir ainsi un impact positif sur la santé globale et l’accès équitable aux soins de santé ?

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les maladies cardio-vasculaires demeurent une cause majeure de mortalité et morbidité dans les sociétés développées. La recherche de déterminants prédictifs d’évènements vasculaires représente toujours un enjeu d’actualité face aux coûts croissants des dépenses reliées aux soins médicaux et à l’élargissement des populations concernées, notamment face à l’occidentalisation des pays émergeants comme l’Inde, le Brésil et la Chine. La cardiologie nucléaire occupe depuis trente ans, une place essentielle dans l’arsenal des méthodes diagnostiques et pronostiques des cardiopathies. De plus, de nouvelles percées permettront de dépister d’une façon plus précoce et précise, la maladie athérosclérotique cardiaque et périphérique chez les populations atteintes ainsi qu’en prévention primaire. Nous présenterons dans cette thèse, deux approches nouvelles de la cardiologie nucléaire. La dysfonction endothéliale est considérée comme le signal pathologique le plus précoce de l’athérosclérose. Les facteurs de risques cardiovasculaires traditionnels atteignent la fonction endothéliale et peuvent initier le processus d’athérosclérose même en l’absence de lésion endothéliale physique. La quantification de la fonction endothéliale coronarienne comporte donc un intérêt certain comme biomarqueur précoce de la maladie coronarienne. La pléthysmographie isotopique, méthodologie développée lors de ce cycle d’étude, permet de quantifier la fonction endothéliale périphérique, cette dernière étant corrélée à la fonction endothéliale coronarienne. Cette méthodologie est démontrée dans le premier manuscrit (Harel et. al., Physiol Meas., 2007). L’utilisation d’un radiomarquage des érythrocytes permet la mesure du flot artériel au niveau du membre supérieur pendant la réalisation d’une hyperémie réactive locale. Cette nouvelle procédure a été validée en comparaison à la pléthysmographie par jauge de contrainte sur une cohorte de 26 patients. Elle a démontré une excellente reproductibilité (coefficient de corrélation intra-classe = 0.89). De plus, la mesure du flot artérielle pendant la réaction hyperémique corrélait avec les mesure réalisées par la méthode de référence (r=0.87). Le deuxième manuscrit expose les bases de la spectroscopie infrarouge comme méthodologie de mesure du flot artériel et quantification de la réaction hyperémique (Harel et. al., Physiol Meas., 2008). Cette étude utilisa un protocole de triples mesures simultanées à l’aide de la pléthysmographie par jauge de contrainte, radio-isotopique et par spectroscopie infrarouge. La technique par spectroscopie fut démontrée précise et reproductible quant à la mesure des flots artériels au niveau de l’avant-bras. Cette nouvelle procédure a présenté des avantages indéniables quant à la diminution d’artéfact et à sa facilité d’utilisation. Le second volet de ma thèse porte sur l’analyse du synchronisme de contraction cardiaque. En effet, plus de 30% des patients recevant une thérapie de resynchronisation ne démontre pas d’amélioration clinique. De plus, ce taux de non-réponse est encore plus élevé lors de l’utilisation de critères morphologiques de réponse à la resynchronisation (réduction du volume télésystolique). Il existe donc un besoin urgent de développer une méthodologie de mesure fiable et précise de la dynamique cardiaque. Le troisième manuscrit expose les bases d’une nouvelle technique radio-isotopique permettant la quantification de la fraction d’éjection du ventricule gauche (Harel et. al. J Nucl Cardiol., 2007). L’étude portant sur 202 patients a démontré une excellente corrélation (r=0.84) avec la méthode de référence (ventriculographie planaire). La comparaison avec le logiciel QBS (Cedar-Sinai) démontrait un écart type du biais inférieur (7.44% vs 9.36%). De plus, le biais dans la mesure ne démontrait pas de corrélation avec la magnitude du paramètre pour notre méthodologie, contrairement au logiciel alterne. Le quatrième manuscrit portait sur la quantification de l’asynchronisme intra-ventriculaire gauche (Harel et. al. J Nucl Cardiol, 2008). Un nouveau paramètre tridimensionnel (CHI: contraction homogeneity index) (médiane 73.8% ; IQ 58.7% - 84.9%) permis d’intégrer les composantes d’amplitude et du synchronisme de la contraction ventriculaire. La validation de ce paramètre fut effectuée par comparaison avec la déviation standard de l’histogramme de phase (SDΦ) (médiane 28.2º ; IQ 17.5º - 46.8º) obtenu par la ventriculographie planaire lors d’une étude portant sur 235 patients. Ces quatre manuscrits, déjà publiés dans la littérature scientifique spécialisée, résument une fraction des travaux de recherche que nous avons effectués durant les trois dernières années. Ces travaux s’inscrivent dans deux axes majeurs de développement de la cardiologie du 21ième siècle.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La campylobactériose représente la principale cause de gastro-entérite bactérienne dans les pays industrialisés. L’épidémiologie de la maladie est complexe, impliquant plusieurs sources et voies de transmission. L’objectif principal de ce projet était d’étudier les facteurs environnementaux impliqués dans le risque de campylobactériose et les aspects méthodologiques pertinents à cette problématique à partir des cas humains déclarés au Québec (Canada) entre 1996 et 2006. Un schéma conceptuel des sources et voies de transmission de Campylobacter a d’abord été proposé suivant une synthèse des connaissances épidémiologiques tirées d’une revue de littérature extensive. Le risque d’une récurrence de campylobactériose a ensuite été décrit selon les caractéristiques des patients à partir de tables de survie et de modèles de régression logistique. Comparativement au risque de campylobactériose dans la population générale, le risque d’un épisode récurrent était plus élevé pour les quatre années suivant un épisode. Ce risque était similaire entre les genres, mais plus élevé pour les personnes de régions rurales et plus faible pour les enfants de moins de quatre ans. Ces résultats suggèrent une absence d’immunité durable ou de résilience clinique suivant un épisode déclaré et/ou une ré-exposition périodique. L’objectif suivant portait sur le choix de l’unité géographique dans les études écologiques. Neuf critères mesurables ont été proposés, couvrant la pertinence biologique, la communicabilité, l’accès aux données, la distribution des variables d’exposition, des cas et de la population, ainsi que la forme de l’unité. Ces critères ont été appliqués à des unités géographiques dérivées de cadre administratif, sanitaire ou naturel. La municipalité affichait la meilleure performance, étant donné les objectifs spécifiques considérés. Les associations entre l’incidence de campylobactériose et diverses variables (densité de volailles, densité de ruminants, abattoirs, température, précipitations, densité de population, pourcentage de diplomation) ont ensuite été comparées pour sept unités géographiques différentes en utilisant des modèles conditionnels autorégressifs. Le nombre de variables statistiquement significatives variait selon le degré d’agrégation, mais la direction des associations était constante. Les unités plus agrégées tendaient à démontrer des forces d’association plus élevées, mais plus variables, à l’exception de l’abattoir. Cette étude a souligné l’importance du choix de l’unité géographique d’analyse lors d’une utilisation d’un devis d’étude écologique. Finalement, les associations entre l’incidence de campylobactériose et des caractéristiques environnementales ont été décrites selon quatre groupes d’âge et deux périodes saisonnières d’après une étude écologique. Un modèle de Poisson multi-niveau a été utilisé pour la modélisation, avec la municipalité comme unité. Une densité de ruminant élevée était positivement associée avec l’incidence de campylobactériose, avec une force d’association diminuant selon l’âge. Une densité de volailles élevée et la présence d’un abattoir de volailles à fort volume d’abattage étaient également associées à une incidence plus élevée, mais seulement pour les personnes de 16 à 34 ans. Des associations ont également été détectées avec la densité de population et les précipitations. À l’exception de la densité de population, les associations étaient constantes entre les périodes saisonnières. Un contact étroit avec les animaux de ferme explique le plus vraisemblablement les associations trouvées. La spécificité d’âge et de saison devrait être considérée dans les études futures sur la campylobactériose et dans l’élaboration de mesures préventives.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les sels d’imidazolium ont un rôle important dans certaines protéines et acides nucléiques et ont été utilisés à de nombreuses reprises dans des assemblages supramoléculaires en raison de leurs propriétés uniques. Les sels de diimidazolium dérivés sont toutefois moins connus. Ils ont pour l’instant uniquement été utilisés comme des précurseurs de carbènes N-hétérocycliques. Ils sont donc à la base de plusieurs catalyseurs utilisés pour des réactions de couplage croisés mais leurs propriétés sont toutefois méconnues dans le cadre de la chimie supramoléculaire. Cette classe de composés a nottament attiré notre attention en raison de la facilité de modification de leurs propriétés physico-chimiques par modification de leur structure chimique. L’objectif général des travaux présentés dans cette thèse est l’étude des propriétés supramoléculaires des sels de diimidazolium disubstitués en solution (aqueuse ou organique), ainsi qu’en phase solide ou cristal-liquide. L’influence de l’espaceur entre les deux noyaux imidazolium ainsi que l’influence des substituants latéraux et des contre-ions a été étudiée. Dans un premier temps, les propriétés de complexation des sels de diimidazolium à des macrocycles sont étudiées. Les sels bromure sont étudiés en solution aqueuse avec plusieurs cyclodextrines et le cucurbit[7]uril, et les sels hexafluorophosphate sont étudiés en solution organique pour leur complexation avec l’éther couronne DB24C8 et un calix[4]arène. Cette nouvelle classe de composés a montré de très bonnes propriétés de complexation à ces différents macrocycles en solution et a également permis de contrôler différents assemblages supramoléculaires à l’interface air-eau. Dans un deuxième temps, l’étude des sels de phénylènediimidazolium a permis de modifier les propriétés de complexation en solution pour obtenir la formation de complexes multiples avec le cucurbit[7]util en solution aqueuse. Cette même famille de composés a également permis la formation de cristaux liquides ioniques lorsque les substituants sont des chaînes alkyles plus longues. La résolution de plusieurs structures cristallines de différents sels de diimidazolium a finalement permis de comprendre la nature des interactions intermoléculaires à l’état cristallin. La recherche présentée dans cette thèse a donc permis une étude détaillée des propriétés supramoléculaires des sels de diimidazolium dans tous les états de la matière qui leur sont accessibles.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A common real-life problem is to fairly allocate a number of indivisible objects and a fixed amount of money among a group of agents. Fairness requires that each agent weakly prefers his consumption bundle to any other agent’s bundle. Under fairness, efficiency is equivalent to budget-balance (all the available money is allocated among the agents). Budget-balance and fairness in general are incompatible with non-manipulability (Green and Laffont, 1979). We propose a new notion of the degree of manipulability which can be used to compare the ease of manipulation in allocation mechanisms. Our measure counts for each problem the number of agents who can manipulate the rule. Given this notion, the main result demonstrates that maximally linked fair allocation rules are the minimally manipulable rules among all budget-balanced and fair allocation mechanisms. Such rules link any agent to the bundle of a pre-selected agent through indifferences (which can be viewed as indirect egalitarian equivalence).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Objectif. Étudier les comportements alimentaires des enfants utilisateurs de boîte à lunch tels que décrits par les mères, en s’inspirant des descripteurs de comportements alimentaires de Jean-Pierre Poulain. Méthodes. Des entrevues individuelles et de groupes eurent lieu avec 18 mères. Une analyse de données qualitatives a été réalisée en utilisant les dimensions de Poulain comme cadre de référence. Une considération additionnelle fut intégrée dans l’analyse, celle de la dimension matérielle de la boîte à lunch. Résultats. Dimension spatiale : Les repas ont lieu dans des classes ou dans de grandes salles communes. Dimension temporelle : Le moment et la durée de la consommation du repas varient selon différents facteurs. Le moment de préparation de la boîte est aussi d’intérêt. Environnement social : Les pairs et les médias ont une grande influence dans les comportements liés à la boîte à lunch. Logique de choix : La mère est le principal décideur et acteur à l’égard du contenu. Structure de la prise : Les mères précisent des contenus associés aux repas de la veille ou des mets froids. Des desserts et des à-côtés accompagnent le repas principal. L’étude de la dimension matérielle de la boîte révèle que la facilité d’entretien est le principal critère de choix des boîtes alors que l’apparence visuelle est celui de l’enfant. L’écologie devient de plus en plus une priorité. Conclusion. Cette nouvelle approche pour l’étude des comportements alimentaires du jeune utilisateur de boîte à lunch fournit aux intervenants une autre perspective selon laquelle étudier cette activité quotidienne et/ou élaborer des projets promotionnels en santé publique.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Étant donné leur facilité d’application, ces méthodes sont largement répandues dans plusieurs communautés scientifiques et bien certainement en statistique, particulièrement en analyse bayésienne. Depuis l’apparition de la première méthode MCMC en 1953, le nombre de ces algorithmes a considérablement augmenté et ce sujet continue d’être une aire de recherche active. Un nouvel algorithme MCMC avec ajustement directionnel a été récemment développé par Bédard et al. (IJSS, 9 :2008) et certaines de ses propriétés restent partiellement méconnues. L’objectif de ce mémoire est de tenter d’établir l’impact d’un paramètre clé de cette méthode sur la performance globale de l’approche. Un second objectif est de comparer cet algorithme à d’autres méthodes MCMC plus versatiles afin de juger de sa performance de façon relative.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les données sont analysées par le logiciel conçu par François Courtemanche et Féthi Guerdelli. L'expérimentation des jeux a eu lieu au Laboratoire de recherche en communication multimédia de l'Université de Montréal.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les réseaux de nanotrous sont des structures plasmoniques ayant un énorme potentiel en tant que transducteurs pour la conception de biocapteurs. De telles structures sont prometteuses pour l’élaboration de biocapteurs capable d’effectuer du criblage à haut débit. L’intérêt de travailler avec des réseaux de nanotrous est dû à la simplicité d’excitation des polaritons de plasmons de surface en transmission directe, à la sensibilité et à la facilité de fabrication de ces senseurs. L’architecture de tels réseaux métalliques permet la conception de nanostructures ayant de multiples propriétés plasmoniques. L’intensité, la signature spectrale et la sensibilité du signal plasmonique sont grandement affectées par l’aspect physique du réseau de nanotrous. L’optimisation du signal plasmonique nécessite ainsi un ajustement du diamètre des trous, de la périodicité et de la composition métallique du réseau. L'agencement de l'ensemble de ces paramètres permet d'identifier une structure optimale possédant une périodicité de 1000 nm, un diamètre des nanotrous de 600-650 nm et un film métallique ayant une épaisseur de 125 nm d'or. Ce type de transducteur a une sensibilité en solution de 500-600 nm/RIU pour des bandes plasmoniques situées entre 600-700 nm. L'intérêt de travailler avec cette structure est la possibilité d'exciter les plasmons de polaritons de surface (SPPs) selon deux modes d'excitation : en transmission exaltée (EOT) ou en réflexion totale interne par résonance des plasmons de surface (SPR). Une comparaison entre les propriétés plasmoniques des senseurs selon les modes d'excitation permet de déterminer expérimentalement que le couplage de la lumière avec les ondes de SPP de Bloch (BW-SPPs) en transmission directe résulte en un champ électromagnétique davantage propagatif que localisé. D'un point de vue analytique, la biodétection de l'IgG en SPR est 6 fois plus sensible par rapport au mode EOT pour une même structure. Une étude du signal plasmonique associé au BW-SPP pour un certain mode de diffraction démontre que la distance de pénétration de ces structures en EOT est d'environ 140 nm. La limite de détection de l'IgG humain pour un réseau de nanotrous de 1000 nm de périodicité est d'environ 50 nM en EOT. Ce mémoire démontre la viabilité des réseaux de nanotrous pour effectuer de la biodétection par criblage à haut débit lors de prochaines recherches. L'investigation de l'effet de l'angle d'excitation en transmission exaltée par rapport au signal plasmonique associé au mode (1,0) d'un réseau de nanotrous de 820 nm d'or démontre que la sensibilité en solution n'est pas proportionnelle à la sensibilité en surface du senseur. En fait, une optimisation de l'angle d'incidence pour le mode (1,0) de diffraction des BW-SPP permet d'amplifier la sensibilité en surface du senseur jusqu'à 3-fois pour un angle de 13,3°. Ce mémoire démontre ainsi la nécessité d'optimiser l'angle d'excitation et les propriétés physiques du senseur afin de développer un transducteur de grande sensibilité basé sur l'excitation en transmission de réseaux de nanotrous.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Au cours du vingtième siècle, le Québec a connu un bouleversement identitaire et religieux lorsqu’une majorité de Québécois a délaissé les prescriptions doctrinales catholiques, la religion identitaire du Québec, qui encadrait leur vie et s’imposait en tant que détentrice du « code exclusif du sens » (Hervieu-Léger 1993 : 155). Pour combler la perte de repères (Lemieux 2008) engendrée par les bouleversements décrits précédemment, plusieurs individus se tournèrent vers d’autres formes de spiritualité, soit en se convertissant à un nouveau système religieux ou en s’engageant dans une quête spirituelle. Certains Québécois, au cours de leur quête, ont alors découvert le druidisme, une spiritualité fondée sur le désir de retour à l’ancienne religion païenne des Celtes, et l’ont intégré en tant que composante principale ou secondaire de leur spiritualité. Le but de ce mémoire sera d’apporter quelques éléments d’explication à la présence du druidisme au Québec. Nous soulignerons l’importance du contexte moderne dans la quête de sens amorcée par l’adepte de paganisme celte, car ce contexte semble avoir servi de catalyseur dans le processus de découverte du druidisme pour ces Québécois. Puis, nous mettrons l’accent sur les raisons identitaires mises de l’avant par la CDQ pour justifier leur choix d’intégrer le druidisme à leur cheminement spirituel. Nous verrons que pour le druidisant, cette religion vient à la fois répondre à des besoins spirituels et combler un vide identitaire.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les avancées technologiques liées à l’internet ont permis une démocratisation des outils de communication et une transformation des relations interpersonnelles. L’impact de ces changements s’est ressenti autant dans la sphère légitime que dans les marchés criminels. Ces derniers ont migré, au cours des dernières années, vers des plateformes en ligne qui leur permettent de mieux gérer les risques associés avec leurs activités illégales. Cette thèse s’intéresse à l’impact de l’internet sur la criminalité et sur l’adaptation des criminels à cet environnement virtuel. Ces derniers forment maintenant des communautés en ligne et gardent le contact entre eux à l’aide de salles de clavardage et de forums de discussions. Nous nous intéresserons dans cette thèse à trois formes particulières de crime soit la fraude de propriété intellectuelle (la scène des warez), le piratage d’ordinateurs (les botnets) ainsi que la fraude de données personnelles et financières (le carding). Chacune de ces formes de crime sera analysée à l’aide d’un article publié ou présentement en évaluation. L’article sur la scène des warez décrit l'organisation sociale ainsi que la distribution de la reconnaissance dans la communauté des pirates informatiques. Les systèmes de délinquance (Sutherland, 1947) et l’individualisme réseauté (Boase & Wellman, 2006) sont utilisés pour théoriser l'organisation sociale et la distribution de la reconnaissance dans la scène warez. L’article sur les botnets tente de comprendre la distribution de la réputation dans une communauté de criminels. En utilisant les données d’un forum de discussion où des botmasters louent et achètent des biens et services illégaux, cette recherche modélise les facteurs qui permettent d’augmenter le niveau de réputation de certains acteurs. Finalement l’article sur le carding mesure le lien entre la réputation telle que développée par Glückler & Armbrüster (2003) et la performance criminelle. Notre thèse démontre que l’internet a eu un effet transformateur sur la criminalité à six niveaux : 1) l’augmentation de la facilité à trouver des co-criminels; 2) l’augmentation de la compétition entre les criminels; 3) l’augmentation du nombre de victimes; 4) la diminution des risques d’arrestation; 5) l’augmentation du taux de réussite des criminels et; 6) les changements dans l’équilibre entre criminels, victimes et protecteurs. Elle nous permet également de démontrer l’importance de la réputation, le capital virtuel, dans les marchés criminels en ligne.