911 resultados para aggregated multicast
Resumo:
The objective of this thesis is to develop and generalize further the differential evolution based data classification method. For many years, evolutionary algorithms have been successfully applied to many classification tasks. Evolution algorithms are population based, stochastic search algorithms that mimic natural selection and genetics. Differential evolution is an evolutionary algorithm that has gained popularity because of its simplicity and good observed performance. In this thesis a differential evolution classifier with pool of distances is proposed, demonstrated and initially evaluated. The differential evolution classifier is a nearest prototype vector based classifier that applies a global optimization algorithm, differential evolution, to determine the optimal values for all free parameters of the classifier model during the training phase of the classifier. The differential evolution classifier applies the individually optimized distance measure for each new data set to be classified is generalized to cover a pool of distances. Instead of optimizing a single distance measure for the given data set, the selection of the optimal distance measure from a predefined pool of alternative measures is attempted systematically and automatically. Furthermore, instead of only selecting the optimal distance measure from a set of alternatives, an attempt is made to optimize the values of the possible control parameters related with the selected distance measure. Specifically, a pool of alternative distance measures is first created and then the differential evolution algorithm is applied to select the optimal distance measure that yields the highest classification accuracy with the current data. After determining the optimal distance measures for the given data set together with their optimal parameters, all determined distance measures are aggregated to form a single total distance measure. The total distance measure is applied to the final classification decisions. The actual classification process is still based on the nearest prototype vector principle; a sample belongs to the class represented by the nearest prototype vector when measured with the optimized total distance measure. During the training process the differential evolution algorithm determines the optimal class vectors, selects optimal distance metrics, and determines the optimal values for the free parameters of each selected distance measure. The results obtained with the above method confirm that the choice of distance measure is one of the most crucial factors for obtaining higher classification accuracy. The results also demonstrate that it is possible to build a classifier that is able to select the optimal distance measure for the given data set automatically and systematically. After finding optimal distance measures together with optimal parameters from the particular distance measure results are then aggregated to form a total distance, which will be used to form the deviation between the class vectors and samples and thus classify the samples. This thesis also discusses two types of aggregation operators, namely, ordered weighted averaging (OWA) based multi-distances and generalized ordered weighted averaging (GOWA). These aggregation operators were applied in this work to the aggregation of the normalized distance values. The results demonstrate that a proper combination of aggregation operator and weight generation scheme play an important role in obtaining good classification accuracy. The main outcomes of the work are the six new generalized versions of previous method called differential evolution classifier. All these DE classifier demonstrated good results in the classification tasks.
Resumo:
The goal of this paper is to analyze the premiere effects of the New Brazilian Bankruptcy Law, measuring its impact over the amount of bankruptcies and judicial reorganizations, and the firms' access to credit. Making use of econometric models we find that the amount of bankruptcies (requested and decreed) suffered a strong and immediate impact, reducing it in a significant way as well as the requirement of judicial reorganizations. Finally, using sectorial aggregated credit data, we find an expansion of the credit market, mainly to commercial, rural and services sectors. Additionally we did not evidence changes at the average interest rate charged to firms.
Resumo:
Spontaneous teratocarcinomas are ovarian or testicular tumors which have their origins in germ cells. The tumors contain a disorganized array of benign differentiated cells as well as an undifferentiated population of malignant stem cells, the embryonal carcinoma or EC cells. These pluripotent stem cells in tissue culture share many properties with the transient pluripotent cells of the early embryo, and might therefore serve as models for the investigation of developmental events ill vitro. The property of EC cells of prime interest in this study is an in vivo phenomenon. Certain EC cell lines are known to be regulated ill vivo and to differentiate normally in association with normal embryonic cells, resulting in chimeric mice. These mice have two genetically distinct cell populations, one of which is derived from the originally malignant EC cells. This has usually been accomplished by injection of the EC cells into the Day 3 blastocyst. In this study, the interactions between earlier stage embryos and EC cells have been tested by aggregating clumps of EC cells with Day 2 embryos. The few previous aggregation studies produced a high degree of abnormality in chimeric embryos, but the EC cells employed had known chromosomal abnormalities. In this study, two diploid EC cell lines (P19 and Pi0) were aggregated with 2.5 day mouse embryos, and were found to behave quite differently in the embryonic environment. P19 containing aggregates generally resorbed early, and the few embryos recovered at midgestation were normal and non-chimeric. Pi0 containing aggregates survived in high numbers to midgestation, and the Pi0 cells were very successful in colonizing the embryo. All these embryos were chimeric, and the contribution by the EC cells to each chimera was very high. However, these heavily chimeric embryos were all abnormal. Blastocyst injection had previously produced some abnormal embryos with high Pl0 contributions in addition to the live born mice, which had lower EC contributions. This study now adds more support to the hypothesis that high EC contributions may be incompatible with normal development. The possibility that the abnormalities were due to the mixing of temporally asynchronous embryonic cell types in the aggregates was tested by aggregating normal pluripotent cells taken from 3.5 day embryos with 2.5 day embryos. Early embryo loss was very high, and histological studies showed that the majority of these embryos died by 6.5 days development. Some embryos escaped this early death such that some healthy chimeras were recovered, in contrast to recovery of abnormal chimeric embryos following Pl0-morula aggregations, and non-chimeric embryos following P19-morula aggregations. This somewhat surprising adverse effect on development following aggregation of normal cell types suggests that there are developmental difficulties associated with the mixing of asynchronous cell types in aggregates. However, the greater magnitude of the adverse effects when the aggregates contained tumor derived cells suggests that EC cells should not be considered the complete equivalent of the pluripotent cells of the early embryo.
Resumo:
In the literature, introduced taxa are assumed to be present, more abundant, and occupy greater physical space in portions of ecosystems disturbed by human activity. This study tested this principle in two sites, Short Hills provincial Park ("SHU) and Backus Woods ("B~l"). spatial distribution of introduced taxa of vegetation, isopods, and earthworms was determined with the runs test along 300m transects encompassing gradients of anthropogenic disturbance severity. The hypothesis was that introduced taxa would be aggregated along these transects; the null hypothesis was that they would not be aggregated. The null hypothesis was rejected for the introduced taxa as a unit, and vegetation and earthworms individually. Introduced taxa were aggregated along 53.33% (N~30) and 57.14% (N~21) of the transects in SH and BW (respectively). Introduced vegetation (90.00%, N~10 and 100.00%, N~7) and earthworms (50.00%, N~10 and 50.00%, N~8) were also significantly aggregated within the sites. Introduced isopods, however, were not significantly aggregated at either place (20. 00%, N-=10 and 16. 67%, ~J~6). This study demonstrated that introduced taxa are aggregated within ecosystems disturbed by human activity. However, since introduced isopods were not significantly aggregated it was also shown that taxa respond differently.
Resumo:
Cognitive interviews were used to evaluate two draft versions of a financial survey in Jamaica. The qualitative version used a few open-ended questions, and the quantitative version used numerous close-ended questions. A secondary analysis based on the cognitive interview literature was used to guide a content analysis of the aggregate data of both surveys. The cognitive interview analysis found that the long survey had fewer respondent errors than the open-ended questions on the short survey. A grounded theory analysis then examined the aggregate cognitive data, showing that the respondents attached complex meanings to their financial information. The main limitation of this study was that the standard assessments of quantitative and qualitative reliability and validity were not utilized. Further research should utilize statistical methods to compare and contrast aggregated cognitive interview probe responses on open and close ended surveys.
Resumo:
We investigate the macroeconomic news effect on the dynamics of the limit order books (LOB) for euro-dollar ECN market in different economic states between Jan. 2006 to Dec. 2009. Using a VAR-STR model on the news surprise, pure news, aggregated good and bad news, we show that news effects on the LOB dynamics vary in different states of economy. The LOB dynamics are measured by depth, spread, slope and volatility. In contract to slope and volatility, depth and spread strongly respond to news surprise and pure news during recession and expansion. These characteristics are more affected by aggregated good and bad news during expansion. News effects are robust to alternative characteristic measures, the different sides of the LOB and the different levels in the LOB.
Resumo:
La littérature montre que les résultats scolaires ne sont pas seulement imputables aux caractéristiques individuelles et familiales des élèves, mais qu’ils sont également influencés par l’établissement scolaire fréquenté. Utilisant une analyse multiniveaux comprenant deux niveaux hiérarchiques, soit l’élève et l’école, la présente recherche vise à démontrer l’impact du climat scolaire sur les résultats des élèves du secondaire. Dans ce contexte, le climat scolaire perçu est mesuré à partir de six indicateurs de perception mesurés à l’aide du Questionnaire sur l’Environnement Socioéducatif (QES) (Janosz, 2000). Les indicateurs utilisés pour rendre compte de l’effet-établissement sont ces indicateurs de climat scolaire agrégés par école. Les analyses ont été effectuées sur un échantillon transversal de 54 écoles publiques, parmi lesquelles 30 685 élèves âgés de 13 à 17 ans ont complété le questionnaire. Les résultats de l’analyse permettent de constater d’une part, que le climat scolaire influence bel et bien la réussite des élèves et d’autre part, qu’il est possible de différencier l’effet du climat perçu selon qu’il se situe au niveau de l’élève ou qu’il soit plutôt agrégé au niveau de l’école. À cet effet, seul le climat agrégé, plus particulièrement les climats éducatif et d’appartenance, permet d’expliquer les différences entre les écoles sur la base des résultats scolaires en français et en mathématiques.
Resumo:
Lors du phénomène d’hémostase primaire ou de thrombose vasculaire, les plaquettes sanguines doivent adhérer aux parois afin de remplir leur fonction réparatrice ou pathologique. Pour ce faire, certains facteurs rhéologiques et hémodynamiques tels que l’hématocrite, le taux de cisaillement local et les contraintes de cisaillement pariétal, entrent en jeu afin d’exclure les plaquettes sanguines de l’écoulement principal et de les transporter vers le site endommagé ou enflammé. Cette exclusion pourrait aussi être influencée par l’agrégation de globules rouges qui est un phénomène naturel présent dans tout le système cardiovasculaire selon les conditions d’écoulement. La dérive de ces agrégats de globules rouges vers le centre des vaisseaux provoque la formation de réseaux d’agrégats dont la taille et la complexité varient en fonction de l’hématocrite et des conditions de cisaillement présentes. Il en résulte un écoulement bi-phasique avec un écoulement central composé d’agrégats de globules rouges avoisinés par une région moins dense en particules où l’on peut trouver des globules rouges singuliers, des petits rouleaux de globules rouges et une importante concentration en plaquettes et globules blancs. De ce fait, il est raisonnable de penser que plus la taille des agrégats qui occupent le centre du vaisseau augmente, plus il y aura de plaquettes expulsées vers les parois vasculaires. L'objectif du projet est de quantifier, in vitro, la migration des plaquettes sanguines en fonction du niveau d’agrégation érythrocytaire présent, en faisant varier l’hématocrite, le taux de cisaillement et en promouvant l’agrégation par l’ajout d’agents tels que le dextran à poids moléculaire élevé. Cependant, le comportement non Newtonien du sang dans un écoulement tubulaire peut être vu comme un facteur confondant à cause de son impact sur l’organisation spatiale des agrégats de globules rouges. De ce fait, les études ont été réalisées dans un appareil permettant de moduler, de façon homogène, la taille et la structure de ces agrégats et de quantifier ainsi leur effet sur la migration axiale des plaquettes. Du sang de porc anti coagulé a été ajusté à différents taux d’hématocrite et insérer dans un appareil à écoulement de Couette, à température ambiante. Les plaquettes sanguines, difficilement isolables in vitro sans en activer certains ligands membranaires, ont été remplacées par des fantômes en polystyrène ayant un revêtement de biotine. La quantification de la migration de ces fantômes de plaquettes a été réalisée grâce à l’utilisation de membranes biologiques fixées sur les parois internes de l’entrefer du rhéomètre de Couette. Ces membranes ont un revêtement de streptavidine assurant une très forte affinité d’adhésion avec les microparticules biotynilées. À 40% d’hématocrite, à un cisaillement de 2 s-1, 566 ± 53 microparticules ont été comptées pour un protocole préétabli avec du sang non agrégeant, comparativement à 1077 ± 229 pour du sang normal et 1568 ± 131 pour du sang hyper agrégeant. Les résultats obtenus suggèrent une nette participation de l’agrégation érythrocytaire sur le transport des fantômes de plaquettes puisque l’adhésion de ces derniers à la paroi du rhéomètre de Couette augmente de façon quasi exponentielle selon le niveau d’agrégation présent.
Resumo:
The attached file is created with Scientific Workplace Latex
Resumo:
L’explosion récente du nombre de centenaires dans les pays à faible mortalité n’est pas étrangère à la multiplication des études portant sur la longévité, et plus spécifiquement sur ses déterminants et ses répercussions. Alors que certains tentent de découvrir les gènes pouvant être responsables de la longévité extrême, d’autres s’interrogent sur l’impact social, économique et politique du vieillissement de la population et de l’augmentation de l’espérance de vie ou encore, sur l’existence d’une limite biologique à la vie humaine. Dans le cadre de cette thèse, nous analysons la situation démographique des centenaires québécois depuis le début du 20e siècle à partir de données agrégées (données de recensement, statistiques de l’état civil, estimations de population). Dans un deuxième temps, nous évaluons la qualité des données québécoises aux grands âges à partir d’une liste nominative des décès de centenaires des générations 1870-1894. Nous nous intéressons entre autres aux trajectoires de mortalité au-delà de cent ans. Finalement, nous analysons la survie des frères, sœurs et parents d’un échantillon de semi-supercentenaires (105 ans et plus) nés entre 1890 et 1900 afin de se prononcer sur la composante familiale de la longévité. Cette thèse se compose de trois articles. Dans le cadre du premier, nous traitons de l’évolution du nombre de centenaires au Québec depuis les années 1920. Sur la base d’indicateurs démographiques tels le ratio de centenaires, les probabilités de survie et l’âge maximal moyen au décès, nous mettons en lumière les progrès remarquables qui ont été réalisés en matière de survie aux grands âges. Nous procédons également à la décomposition des facteurs responsables de l’augmentation du nombre de centenaires au Québec. Ainsi, au sein des facteurs identifiés, l’augmentation de la probabilité de survie de 80 à 100 ans s’inscrit comme principal déterminant de l’accroissement du nombre de centenaires québécois. Le deuxième article traite de la validation des âges au décès des centenaires des générations 1870-1894 d’origine canadienne-française et de confession catholique nés et décédés au Québec. Au terme de ce processus de validation, nous pouvons affirmer que les données québécoises aux grands âges sont d’excellente qualité. Les trajectoires de mortalité des centenaires basées sur les données brutes s’avèrent donc représentatives de la réalité. L’évolution des quotients de mortalité à partir de 100 ans témoigne de la décélération de la mortalité. Autant chez les hommes que chez les femmes, les quotients de mortalité plafonnent aux alentours de 45%. Finalement, dans le cadre du troisième article, nous nous intéressons à la composante familiale de la longévité. Nous comparons la survie des frères, sœurs et parents des semi-supercentenaires décédés entre 1995 et 2004 à celle de leurs cohortes de naissance respectives. Les différences de survie entre les frères, sœurs et parents des semi-supercentenaires sous observation et leur génération « contrôle » s’avèrent statistiquement significatives à un seuil de 0,01%. De plus, les frères, sœurs, pères et mères des semi-supercentenaires ont entre 1,7 (sœurs) et 3 fois (mères) plus de chance d’atteindre 90 ans que les membres de leur cohorte de naissance correspondante. Ainsi, au terme de ces analyses, il ne fait nul doute que la longévité se concentre au sein de certaines familles.
Resumo:
Objectifs. L’objectif de ce mémoire est de parfaire nos connaissances quant à l’effet des actions policières sur les collisions routières au Québec. Ultimement, ce mémoire permettra d’identifier les conditions nécessaires pour que l’action policière influe sur les comportements des automobilistes. Pour se faire, deux études de cas sont employées. Dans un premier temps, nous évaluons l’effet d’un relâchement d’environ 60 % dans l’émission de constats d’infraction par les policiers de la ville de Québec sur les collisions avec blessures. Dans cet article, nous distinguons également les effets respectifs des constats d’infraction, des interceptions policières sans constat et des médias. Dans un second temps, nous évaluons l’impact d’une stratégie de sécurité routière mise en place conjointement par l’Association des directeurs de police du Québec (ADPQ) et la Société de l’assurance automobile du Québec (SAAQ). Dans les deux cas, un changement important est survenu dans l’émission de constats d’infraction émis en vertu du Code de la sécurité routière (CSR). Méthodologie. Afin d’évaluer l’effet de ces deux stratégies, nous avons agrégé les données sur les collisions et infractions au CSR sur une base mensuelle. Ces données proviennent principalement des rapports de collisions et des constats d’infraction remplis par les policiers et transmis à la SAAQ. Dans l’ensemble, nous avons utilisé un devis quasi-expérimental, soit celui des séries chronologiques interrompues. Résultats. Les résultats des deux articles démontrent que les policiers sont des acteurs clés en matière de sécurité routière. Les collisions avec blessures sont affectées par les fluctuations de leurs activités. La première série d’analyses établit qu’un relâchement d’environ 60 % dans le nombre de constats émis par les policiers se traduit par une hausse d’environ 10 % des collisions avec blessures, ce qui correspond à 15 collisions avec blessures supplémentaires par mois sur le territoire du Service de police de la ville de Québec. De plus, nos résultats montrent qu’une interception policière suivie d’un avertissement verbal n’est pas suffisante pour prévenir les collisions. De même, l’effet observé n’est pas attribuable aux médias. La deuxième série d’analyse montre que la stratégie conjointe de l’ADPQ et de la SAAQ, caractérisée par une hausse des constats émis et des campagnes médiatiques, fut suivie de baisses variant entre 14 et 36 % des collisions avec blessures graves. Interprétation. Les résultats démontrent que les actions policières ont une influence sur le bilan routier. Par contre, avant d’influer sur le comportement des automobilistes, certaines conditions doivent être respectées. Premièrement, l’intensité des contrôles policiers doit être suffisamment modifiée par rapport à son niveau initial. Deuxièmement, que ce soit une hausse ou une baisse, ce niveau doit être maintenu sur une période relativement longue (entre 12 et 24 mois environ) pour que les automobilistes soient exposés au message pénal et qu’ils considèrent ce changement dans le niveau de répression comme étant crédible. Troisièmement, l’émission de constats est un élément clé; la simple présence policière n’est pas suffisante pour prévenir les collisions. Enfin, les campagnes de sensibilisation semblent importantes, mais d’autres études sont nécessaires pour mieux apprécier leur rôle.
Resumo:
Les modèles à sur-représentation de zéros discrets et continus ont une large gamme d'applications et leurs propriétés sont bien connues. Bien qu'il existe des travaux portant sur les modèles discrets à sous-représentation de zéro et modifiés à zéro, la formulation usuelle des modèles continus à sur-représentation -- un mélange entre une densité continue et une masse de Dirac -- empêche de les généraliser afin de couvrir le cas de la sous-représentation de zéros. Une formulation alternative des modèles continus à sur-représentation de zéros, pouvant aisément être généralisée au cas de la sous-représentation, est présentée ici. L'estimation est d'abord abordée sous le paradigme classique, et plusieurs méthodes d'obtention des estimateurs du maximum de vraisemblance sont proposées. Le problème de l'estimation ponctuelle est également considéré du point de vue bayésien. Des tests d'hypothèses classiques et bayésiens visant à déterminer si des données sont à sur- ou sous-représentation de zéros sont présentées. Les méthodes d'estimation et de tests sont aussi évaluées au moyen d'études de simulation et appliquées à des données de précipitation agrégées. Les diverses méthodes s'accordent sur la sous-représentation de zéros des données, démontrant la pertinence du modèle proposé. Nous considérons ensuite la classification d'échantillons de données à sous-représentation de zéros. De telles données étant fortement non normales, il est possible de croire que les méthodes courantes de détermination du nombre de grappes s'avèrent peu performantes. Nous affirmons que la classification bayésienne, basée sur la distribution marginale des observations, tiendrait compte des particularités du modèle, ce qui se traduirait par une meilleure performance. Plusieurs méthodes de classification sont comparées au moyen d'une étude de simulation, et la méthode proposée est appliquée à des données de précipitation agrégées provenant de 28 stations de mesure en Colombie-Britannique.
Resumo:
La campylobactériose représente la principale cause de gastro-entérite bactérienne dans les pays industrialisés. L’épidémiologie de la maladie est complexe, impliquant plusieurs sources et voies de transmission. L’objectif principal de ce projet était d’étudier les facteurs environnementaux impliqués dans le risque de campylobactériose et les aspects méthodologiques pertinents à cette problématique à partir des cas humains déclarés au Québec (Canada) entre 1996 et 2006. Un schéma conceptuel des sources et voies de transmission de Campylobacter a d’abord été proposé suivant une synthèse des connaissances épidémiologiques tirées d’une revue de littérature extensive. Le risque d’une récurrence de campylobactériose a ensuite été décrit selon les caractéristiques des patients à partir de tables de survie et de modèles de régression logistique. Comparativement au risque de campylobactériose dans la population générale, le risque d’un épisode récurrent était plus élevé pour les quatre années suivant un épisode. Ce risque était similaire entre les genres, mais plus élevé pour les personnes de régions rurales et plus faible pour les enfants de moins de quatre ans. Ces résultats suggèrent une absence d’immunité durable ou de résilience clinique suivant un épisode déclaré et/ou une ré-exposition périodique. L’objectif suivant portait sur le choix de l’unité géographique dans les études écologiques. Neuf critères mesurables ont été proposés, couvrant la pertinence biologique, la communicabilité, l’accès aux données, la distribution des variables d’exposition, des cas et de la population, ainsi que la forme de l’unité. Ces critères ont été appliqués à des unités géographiques dérivées de cadre administratif, sanitaire ou naturel. La municipalité affichait la meilleure performance, étant donné les objectifs spécifiques considérés. Les associations entre l’incidence de campylobactériose et diverses variables (densité de volailles, densité de ruminants, abattoirs, température, précipitations, densité de population, pourcentage de diplomation) ont ensuite été comparées pour sept unités géographiques différentes en utilisant des modèles conditionnels autorégressifs. Le nombre de variables statistiquement significatives variait selon le degré d’agrégation, mais la direction des associations était constante. Les unités plus agrégées tendaient à démontrer des forces d’association plus élevées, mais plus variables, à l’exception de l’abattoir. Cette étude a souligné l’importance du choix de l’unité géographique d’analyse lors d’une utilisation d’un devis d’étude écologique. Finalement, les associations entre l’incidence de campylobactériose et des caractéristiques environnementales ont été décrites selon quatre groupes d’âge et deux périodes saisonnières d’après une étude écologique. Un modèle de Poisson multi-niveau a été utilisé pour la modélisation, avec la municipalité comme unité. Une densité de ruminant élevée était positivement associée avec l’incidence de campylobactériose, avec une force d’association diminuant selon l’âge. Une densité de volailles élevée et la présence d’un abattoir de volailles à fort volume d’abattage étaient également associées à une incidence plus élevée, mais seulement pour les personnes de 16 à 34 ans. Des associations ont également été détectées avec la densité de population et les précipitations. À l’exception de la densité de population, les associations étaient constantes entre les périodes saisonnières. Un contact étroit avec les animaux de ferme explique le plus vraisemblablement les associations trouvées. La spécificité d’âge et de saison devrait être considérée dans les études futures sur la campylobactériose et dans l’élaboration de mesures préventives.
Resumo:
Thomas G. Brown, Ph.D., co-directeur de recherche
Resumo:
Objectifs. L’objectif de ce mémoire est d’améliorer les connaissances quant à l’effet des interventions policières sur la violence imputable aux bandes criminelles. À travers l’évaluation des cinq plus importantes opérations policières réalisées entre 1991 et 2008 au Québec, trois modèles conceptuels sont confrontés : 1) celui du marché qui prévoit une hausse des affrontements entres bandes rivales dont le but est de prendre possession d’un marché criminel maintenant disponible en raison du retrait d’un joueur clé, 2) celui de la dissuasion qui prévoit une baisse des violences criminelles, et 3) celui de l’attrition qui envisage une baisse des violences en raison de l’essoufflement des bandes. Méthodologie. Les données de cette étude proviennent de l’Enquête générale sur les homicides de Statistique Canada. Différents taux d’homicides furent agrégés sur une base annuelle pour différentes provinces et régions métropolitaines de recensement. Des analyses de séries chronologiques interrompues furent ensuite réalisées pour estimer l’effet des interventions policières. Résultats. L’opération Printemps 2001 est la seule intervention policière à être associée à une baisse significative des homicides reliés aux bandes criminelles. « Sans-Frontière », « Colisée » et les deux escouades Carcajou de Montréal et de Québec, n’ont produit aucun effet préventif notable. Au contraire, Carcajou Montréal et Québec ont été associées à une hausse des homicides liés aux gangs. Conclusion. Les présents résultats appuient davantage la thèse de la dissuasion que celles du marché ou de l’attrition. Afin de produire un effet de dissuasion, les résultats suggèrent que l’intervention policière doit : 1) cibler un nombre important de membres de l’organisation criminelle, 2) s’attaquer aux têtes dirigeantes, 3) assurer la neutralisation des membres de l’organisation, et 4) assurer la diffusion du message pénal auprès des délinquants concernés. D’autres études sont toutefois nécessaires pour estimer l’effet des interventions policières dans d’autres contextes.