895 resultados para boîte à outils


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse vise à analyser la structure des échanges transnationaux de cocaïne, d’héroïne et de marijuana. Partant de la perspective des systèmes-mondes, l’hypothèse que le trafic de drogues forme un système inverse au commerce légal est développée. Les outils de l’analyse de réseaux sont appliqués aux échanges de drogues entre pays. La thèse s’appuie sur deux sources de données complémentaires. La première est une banque d’informations uniques compilées par l’United Nations Office on Drugs and Crime (UNODC) sur les saisies d’importance effectuées dans le monde entre 1998 et 2007 (n = 47629). Ces données sont complétées par les informations contenues dans une dizaine de rapports publiés par des organismes internationaux de surveillance du trafic de drogues. Les réseaux d’échanges dirigés construits à partir de ces données permettent d’examiner l’étendue du trafic entre la plupart des pays du monde et de qualifier leur implication individuelle. Les chapitres 3 et 4 portent sur la structure du trafic elle-même. Dans un premier temps, les différents rôles joués par les pays et les caractéristiques des trois marchés de drogues sont comparés. Les quantités en circulation et les taux d’interception sont estimés pour les 16 régions géographiques définies par l’UNODC. Dans un deuxième temps, leurs caractéristiques structurelles sont comparées à celles des marchés légaux. Il en ressort que les marchés de drogues sont beaucoup moins denses et que les pays périphériques y jouent un rôle plus prononcé. L’inégalité des échanges caractérise les deux économies, mais leurs structures sont inversées. Le chapitre 5 propose une analyse de la principale source de risque pour les trafiquants, les saisies de drogues. Les données compilées permettent de démontrer que les saisies policières de drogues agrégées au niveau des pays sont principalement indicatrices du volume de trafic. L’éventuel biais lié aux pressions policières est négligeable pour les quantités saisies, mais plus prononcé pour le nombre de saisies. Les organismes de contrôle seraient donc plus à même de moduler leurs activités que les retombées éventuelles. Les résultats suggèrent aussi que les trafiquants adoptent des stratégies diverses pour limiter les pertes liées aux saisies. Le chapitre 6 s’attarde à l’impact de la structure sur le prix et la valeur des drogues. Le prix de gros varie considérablement d’un pays à l’autre et d’une drogue à l’autre. Ces variations s’expliquent par les contraintes auxquelles font face les trafiquants dans le cadre de leurs activités. D’une part, la valeur des drogues augmente plus rapidement lorsqu’elles sont destinées à des pays où les risques et les coûts d’importation sont élevés. D’autre part, la majoration des prix est plus prononcée lorsque les échanges sont dirigés vers des pays du cœur de l’économie légale. De nouveau, les rôles sont inversés : les pays généralement avantagés dépendent des plus désavantagés, et les pays pauvres en profitent pour exploiter les riches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'étude de la formation d'une communauté épistémique québécoise en santé publique en ayant recours à l'interactionnisme-structural permet d'appréhender ce phénomène social sous l'angle d'une influence réciproque entre d'une part des acteurs sociaux interagissant entre-eux et d'autre part, des conceptualisations variées des objets de santé publique; ces éléments sociaux et sémantiques subissent des transformations simultanées. Notre étude démontre et illustre qu'au même moment où un réseau social de chercheurs prend forme, une thématique nouvelle prend place et rallie ces mêmes chercheurs, non pas seulement dans leurs relations sociales, mais dans les idées qu'ils manipulent lors de leur travail de production et de diffusion de connaissances; les identités sociales se lient, mais pas au hasard, parce qu'elles partagent des éléments sémantiques communs. C'est notamment en explorant 20 ans de collaborations scientifiques à l'aide d'outils d'analyse de réseaux, d'analyse en composantes discrètes et par l'exporation de treillis de Galois que cette étude a été menée. Notre approche est principalement exploratoire et une attention toute particulière est portée sur les aspects méthodologiques et théoriques du travail de recherche scientifique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ces travaux visent à étendre les applications de la résonance de plasmons de surface (SPR) L’objectif est d’offrir des outils diagnostics plus rapides, efficaces et simple d’utilisation pour diagnostiquer ou effectuer le suivi de conditions cliniques. Pour se faire, un nouveau type d’instrumentation SPR basé sur l’utilisation d’un prisme d’inversion (dove) a permis d’atteindre une limite de détection (LOD) de 10-6 unité d’indice de réfraction (RIU), une valeur comparable aux instruments commerciaux complexes tout en demeurant peu dispendieux, robuste et simple d’utilisation. Les travaux présentés dans cet ouvrage visent, dans un second temps, à réduire les interactions nonspécifiques (NSB) entre la surface des biocapteurs SPR et les composants de la matrice biologique complexe telles que: l’urine, le lysat cellulaire, le sérum et le sang. Ces dernières induisent des réponses empêchant l’utilisation de biocapteurs SPR en milieux complexes. Les acides aminés (AA) offrent une grande variété de propriétés physico-chimiques permettant la mise au point de monocouches auto-assemblées (SAM) aux propriétés diverses. Initialement, 19 des 20 acides aminés naturels ont été attachés à l’acide 3-mercaptopropionique (3-MPA) formant des SAMs peptidomimétiques. La quantité d’interactions nonspécifiques engendrées par ces différentes surfaces a été mesurée en exposant ces surfaces au sérum sanguin bovin complet variant de 400 ng/cm² jusqu’à 800 ng/cm². La détection à l’aide de ces surfaces de la β-lactamase (une enzyme responsable de la résistance aux antibiotiques au niveau μM) a démontré la possibilité d’employer ces surfaces pour bâtir des biocapteurs SPR. Des peptides de longueur allant de 2 à 5 résidus attachés à 3-MPA ont été synthétisés sur support solide. Cette étude a démontré que l’augmentation de la longueur des peptides formés d’AA résistants aux NBS accroit leur résistance jusqu’à 5 résidus. Le composé le plus performant de ce type (3-MPA-(Ser)5-OH) a permis d’atteindre 180 ng/cm². Cette valeur est similaire à celle des meilleures surfaces disponibles commercialement, notamment les surfaces de polyethylène glycol (PEG) à 100 ng/cm². Des surfaces de 3-MPA-(Ser)5-OH ont permis l’étalonnage de la β-lactamase et sa quantification directe dans un lysat cellulaire. La LOD pour ces biocapteurs est de 10 nM. Une troisième génération de surfaces peptidiques binaires a permis la réduction de la NSB jusqu’à un niveau de 23±10 ng/cm² une valeur comparable aux meilleures surfaces disponibles. Ces surfaces ont permis l’étalonnage d’un indicateur potentiel du cancer la metalloprotéinase-3 de matrice (MMP-3). Les surfaces formées de peptides binaires (3-MPA-H3D2-OH) ont permis la quantification directe de la MMP-3 dans le sérum sanguin complet. Une quatrième génération de surfaces peptidiques a permis de réduire davantage le niveau de NSB jusqu’à une valeur de 12 ± 11 ng/cm². Ces surfaces ont été modifiées en y attachant une terminaison de type acide nitriloacétique (NTA) afin d’y attacher des biomolécules marquées par six résidus histidines terminaux. Ces surfaces ont permis le développement d’une méthode rapide de balayage des ligands ciblant le « cluster of differenciation-36 » (CD36). L’étude d’électroformation des monocouches de peptide a permis de déterminer les conditions de formation optimales d’une couche de 3-MPA-HHHDD-OH permettant ainsi la formation de monocouches résistantes au NSB en moins de 6 minutes en appliquant un potentiel de formation de 200mV vs Ag/AgCl.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont des outils très populaires pour l’échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Étant donné leur facilité d’application, ces méthodes sont largement répandues dans plusieurs communautés scientifiques et bien certainement en statistique, particulièrement en analyse bayésienne. Depuis l’apparition de la première méthode MCMC en 1953, le nombre de ces algorithmes a considérablement augmenté et ce sujet continue d’être une aire de recherche active. Un nouvel algorithme MCMC avec ajustement directionnel a été récemment développé par Bédard et al. (IJSS, 9 :2008) et certaines de ses propriétés restent partiellement méconnues. L’objectif de ce mémoire est de tenter d’établir l’impact d’un paramètre clé de cette méthode sur la performance globale de l’approche. Un second objectif est de comparer cet algorithme à d’autres méthodes MCMC plus versatiles afin de juger de sa performance de façon relative.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Malgré les progrès de la médecine moderne et l’avancement des connaissances, le soulagement de la douleur demeure un domaine peu étudié et peu compris. Les enfants avec un diagnostic de paralysie cérébrale et une incapacité de communiquer verbalement font partie des populations vulnérables à risque de ne pas être compris. Il est maintenant prouvé que ces enfants peuvent ressentir des douleurs provenant de diverses sources. Le but de cette étude exploratoire de type qualitative est de tenter de déterminer les enjeux éthiques qui sont rencontrés par les intervenants d’un milieu d’hébergement, lorsque l’on veut évaluer et soulager la douleur chez cette population d’enfants. L’information a été recueillie à partir d’entrevues semi-structurées avec des familles, des gardiens et des intervenants. Les données ont ensuite été comparées à ce qui est retrouvé dans la littérature. Selon les parents et les gardiens, l’ensemble du personnel régulier du milieu d’hébergement et répit démontre une plus grande compréhension des besoins de leur enfant que les intervenants qu’ils ont rencontrés dans le milieu de soins aigus. Les intervenants évaluent les comportements observés sur une base subjective ce qui entraîne une prise en charge inégale. Ils expriment également que la principale difficulté de travailler auprès de ces enfants est l’incertitude d’avoir bien interprété le comportement et d’avoir posé le bon geste. En conclusion, malgré les recherches et la possibilité d’utiliser des outils validés, la pratique clinique ne répond pas au standard de pratique auquel ces enfants ont droit dans tous les milieux où ils reçoivent des soins.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse concerne la gouvernance des réseaux de politique publique. Elle cherche à mieux comprendre le phénomène par l’analyse des caractéristiques du réseau d’acteurs impliqués, les défis qui se posent relativement au processus de gouverne, et l’influence qui en résulte pour les interventions. Le cadre d’analyse s’appuie essentiellement sur deux théories de la sociologie des organisations, en l’occurrence la théorie de l’acteur stratégique (Crozier et Friedberg 1977), et la théorie des réseaux de politique publique (Rhodes 1997). Il s’agit d’une étude de cas portant sur le programme VIH/Sida en Haïti, celui-ci étant documenté à partir de données d’entretiens, d’observations et de groupes de discussion. Les résultats de la recherche sont structurés en quatre articles. Le premier article rend compte de l’étape préliminaire, mais non moins importante, de la recherche, c’est-à-dire le travail de terrain. Il présente les défis méthodologiques et éthiques inhérents à la rencontre entre chercheur et participants pour la coconstruction des savoirs, notamment dans le contexte de la recherche en santé mondiale. Le deuxième article analyse les caractéristiques du réseau d’acteurs et montre la nécessité de prendre en compte les attributs propres des acteurs en plus de la structure de leurs interactions pour comprendre la gouvernance des réseaux de politique publique. La plupart des analyses, surtout celles s’appuyant sur l’approche réseau, cherchent à comprendre comment la structure des relations entre les acteurs influence la gouverne, le contenu ou les résultats de politiques. Or, dans le cas du programme VIH en Haïti, il apparaît que ce sont en réalité les attributs des acteurs en termes de ressources et de pouvoir, qui orientent leurs interactions avec les autres acteurs. Le troisième article présente un cadre d’analyse et illustre, à partir de celui-ci, l’influence des outils et des structures, ainsi que du contexte sociopolitique et économique sur la gouvernance du programme VIH/Sida en Haïti. Il argumente ensuite sur les défis que cela pose à la coordination des interventions et à la mise en place des relations de partenariat au sein du réseau d’acteurs. Le quatrième article se penche sur l’émergence de besoins nouveaux chez les personnes vivant avec le VIH (PVVIH) et met en lumière la faiblesse des processus de planification à les cibler. Il renouvelle l’intérêt de l’approche participative, notamment dans le contexte des pays en développement, où il devient crucial d’adapter les interventions au contexte local en utilisant le potentiel et les ressources des communautés. L’étude a donc permis de montrer : 1) les liens qui existent entre les attributs des acteurs, la configuration particulière de leurs interactions et le processus de gouverne; 2) les défis qui résultent de l’influence des outils et structures mis en place, ainsi que des facteurs socioéconomiques et politiques sur le processus de gouverne, et enfin; 3) le lien qui existe entre le mode de gouvernance – via la participation - et la prise en compte des besoins émergents des PVVIH.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La compréhension de la structure d’un logiciel est une première étape importante dans la résolution de tâches d’analyse et de maintenance sur celui-ci. En plus des liens définis par la hiérarchie, il existe un autre type de liens entre les éléments du logiciel que nous appelons liens d’adjacence. Une compréhension complète d’un logiciel doit donc tenir compte de tous ces types de liens. Les outils de visualisation sont en général efficaces pour aider un développeur dans sa compréhension d’un logiciel en lui présentant l’information sous forme claire et concise. Cependant, la visualisation simultanée des liens hiérarchiques et d’adjacence peut donner lieu à beaucoup d’encombrement visuel, rendant ainsi ces visualisations peu efficaces pour fournir de l’information utile sur ces liens. Nous proposons dans ce mémoire un outil de visualisation 3D qui permet de représenter à la fois la structure hiérarchique d’un logiciel et les liens d’adjacence existant entre ses éléments. Notre outil utilise trois types de placements différents pour représenter la hiérarchie. Chacun peut supporter l’affichage des liens d’adjacence de manière efficace. Pour représenter les liens d’adjacence, nous proposons une version 3D de la méthode des Hierarchical Edge Bundles. Nous utilisons également un algorithme métaheuristique pour améliorer le placement afin de réduire davantage l’encombrement visuel dans les liens d’adjacence. D’autre part, notre outil offre un ensemble de possibilités d’interaction permettant à un usager de naviguer à travers l’information offerte par notre visualisation. Nos contributions ont été évaluées avec succès sur des systèmes logiciels de grande taille.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent mémoire traite de la description du LaOFeAs, le premier matériau découvert de la famille des pnictures de fer, par la théorie de la fonctionnelle de la densité (DFT). Plus particulièrement, nous allons exposer l’état actuel de la recherche concernant ce matériau avant d’introduire rapidement la DFT. Ensuite, nous allons regarder comment se comparent les paramètres structuraux que nous allons calculer sous différentes phases par rapport aux résultats expérimentaux et avec les autres calculs DFT dans la littérature. Nous allons aussi étudier en détails la structure électronique du matériau sous ses différentes phases magnétiques et structurales. Nous emploierons donc les outils normalement utilisés pour mieux comprendre la structure électronique : structures de bandes, densités d’états, surfaces de Fermi, nesting au niveau de Fermi. Nous tirerons profit de la théorie des groupes afin de trouver les modes phononiques permis par la symétrie de notre cristal. De plus, nous étudierons le couplage électrons-phonons pour quelques modes. Enfin, nous regarderons l’effet de différentes fonctionnelles sur nos résultats pour voir à quel point ceux-ci sont sensibles à ce choix. Ainsi, nous utiliserons la LDA et la PBE, mais aussi la LDA+U et la PBE+U.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en criminologie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analyser le code permet de vérifier ses fonctionnalités, détecter des bogues ou améliorer sa performance. L’analyse du code peut être statique ou dynamique. Des approches combinants les deux analyses sont plus appropriées pour les applications de taille industrielle où l’utilisation individuelle de chaque approche ne peut fournir les résultats souhaités. Les approches combinées appliquent l’analyse dynamique pour déterminer les portions à problèmes dans le code et effectuent par la suite une analyse statique concentrée sur les parties identifiées. Toutefois les outils d’analyse dynamique existants génèrent des données imprécises ou incomplètes, ou aboutissent en un ralentissement inacceptable du temps d’exécution. Lors de ce travail, nous nous intéressons à la génération de graphes d’appels dynamiques complets ainsi que d’autres informations nécessaires à la détection des portions à problèmes dans le code. Pour ceci, nous faisons usage de la technique d’instrumentation dynamique du bytecode Java pour extraire l’information sur les sites d’appels, les sites de création d’objets et construire le graphe d’appel dynamique du programme. Nous démontrons qu’il est possible de profiler dynamiquement une exécution complète d’une application à temps d’exécution non triviale, et d’extraire la totalité de l’information à un coup raisonnable. Des mesures de performance de notre profileur sur trois séries de benchmarks à charges de travail diverses nous ont permis de constater que la moyenne du coût de profilage se situe entre 2.01 et 6.42. Notre outil de génération de graphes dynamiques complets, nommé dyko, constitue également une plateforme extensible pour l’ajout de nouvelles approches d’instrumentation. Nous avons testé une nouvelle technique d’instrumentation des sites de création d’objets qui consiste à adapter les modifications apportées par l’instrumentation au bytecode de chaque méthode. Nous avons aussi testé l’impact de la résolution des sites d’appels sur la performance générale du profileur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, nous traiterons du théorème de Lebesgue, un des plus frappants et des plus importants de l'analyse mathématique ; à savoir qu'une fonction à variation bornée est dérivable presque partout. Le but de ce travail est de fournir, à part la démonstration souvent proposée dans les cours de la théorie de la mesure, d'autres démonstrations élaborées avec des outils mathématiques plus simples. Ma contribution a consisté essentiellement à détailler et à compléter ces démonstrations, puis à inclure la plupart des figures pour une meilleure lisibilité. Nous allons maintenant, pour ce théorème qui se présente sous d'autres variantes, en proposer l'historique et trois démonstrations différentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les nouvelles technologies de l’information et des communications occupent aujourd’hui une place importante dans les entreprises, quelle que soit la taille ou le(s) domaine(s) d’activité de ces dernières. Elles participent de manière positive au développement de la vie économique. Elles sont toutefois à l’origine d’une nouvelle forme de criminalité qui menace la sécurité et l’intégrité des systèmes informatiques dans l’entreprise. Celle-ci est d’une ampleur difficile à évaluer, mais surtout difficile à maîtriser avec les dispositions législatives déjà en place, laissant par là même apparaître qu’une adaptation au niveau juridique est inévitable. Certains pays industrialisés ont ainsi décidé de mettre en place un cadre juridique adéquat pour garantir aux entreprises la sécurité de leurs systèmes informatiques. Notre étude va justement porter sur les dispositifs mis en place par deux systèmes juridiques différents. Forcés de prendre en compte une réalité nouvelle – qui n’existait pas nécessairement il y a plusieurs années –, la France et le Canada ont décidé de modifier respectivement leurs codes pénal et criminel en leur ajoutant des dispositions qui répriment de nouvelles infractions. À travers cet exposé, nous allons analyser les infractions qui portent atteinte à la sécurité du système informatique de l’entreprise à la lumière des outils juridiques mis en place. Nous allons mesurer leur degré d’efficacité face à la réalité informatique. En d’autres termes, il s’agit pour nous de déterminer si le droit va répondre ou non aux besoins de l’informatique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse effectuée en cotutelle avec l'École des hautes études en sciences sociales, Paris. Pour
 respecter
 les
 droits
 d’auteur,
 la
 version
 électronique
 de
 cette
 thèse
 
a 
été 
dépouillée
 de 
ses 
documents 
visuels. 
La
 version 
intégrale
 de
 la 
thèse 
a 
été 
déposée
 au 
Service 
de 
la 
gestion 
des 
documents 
et 
des 
archives
 de
 l'Université
 de 
Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Malgré les progrès des traitements des cancers du sein, ceux-ci demeurent la seconde cause de mortalité par cancer au Canada. Parmi les gènes associés aux cancers du sein, le récepteur des œstrogènes ERα est exprimé dans plus de 70% des tumeurs mammaires, qui prolifèrent en réponse aux œstrogènes, faisant de lui une cible de choix. ERα est un facteur de transcription ligand-dépendant, liant des éléments de réponse PuGGTCAnnnTGACCPy. Afin d’examiner la capacité des récepteurs nucléaires à reconnaitre de nouveaux motifs ADN, des mutants aux capacités de liaison modifiées ont été générés. Parmi les quatre résidus interagissant avec l’ADN, R211 ne peut pas être modifiée sans perdre complètement la liaison du récepteur à l’ADN. Néanmoins, les mutations combinées de plusieurs acides aminés contactant les bases de l’ERE ont généré des récepteurs capables de reconnaitre de nouveaux motifs, tout en conservant des niveaux de transactivation efficaces. L’utilisation potentielle des récepteurs nucléaires comme outils de thérapie génique hormono-dépendant, repose sur la prédiction des motifs de liaison efficaces. Étant donné son importance dans la carcinogenèse mammaire, ERα est une cible cruciale des thérapies anti-néoplastiques. L’anti-œstrogène total, ICI, induit la dégradation de ERα et l’arrêt de la croissance des cellules tumorales mammaires ERα-positives. De plus, la nouvelle drogue anti-tumorale HDACi, SAHA, module la voie de signalisation des œstrogènes et possède des propriétés prometteuses en association avec d’autres traitements anti-tumoraux. En effet, le co-traitement ICI et SAHA a un impact synergique sur l’inhibition de la prolifération des cellules mammaires tumorales ERα-positives. Cette synergie repose sur la coopération des effets de ICI et SAHA pour réduire les niveaux protéiques de ERα et bloquer la progression du cycle cellulaire via la modulation de la transcription des gènes cibles des œstrogènes. En fait, les fortes doses de HDACis masquent rapidement et complètement la signalisation transcriptionnelle des œstrogènes. De plus, les gènes cibles primaires des œstrogènes, contenant des EREs, présentent la même régulation transcriptionnelle en réponse aux fortes doses de SAHA ou du co-traitement, avec des doses utilisables en clinique de ICI et SAHA. En fait, ICI mime l’impact des fortes doses de SAHA, en dégradant ERα, potentialisant ainsi la répression de la transcription ERE-dépendante par SAHA. Finalement, la synergie des effets de ICI et SAHA pourrait augmenter l’efficacité des traitements des tumeurs mammaires.