943 resultados para Analyse des besoins
Resumo:
Résumé Objectif : Identifier les facteurs institutionnels qui influencent la mortalité maternelle (MM) hospitalière dans les maternités chirurgicales au Sénégal. Méthode : cette étude est une analyse secondaire des données de la troisième Enquête Nationale sur la Couverture Obstétrico-chirurgicale au Sénégal en 2001. Les données analysées, issues des fiches d'activité des maternités, comptaient pour 38,239 admissions en obstétrique dans 19 hôpitaux et 450 décès maternels. Les taux de mortalité maternelle hospitalière (TMMH) brut et ajusté ont été utilisés comme variables dépendantes. Le TMMH ajusté sur les caractéristiques de la clientèle ('cases-mix') a été estimé pour chaque établissement de santé par la méthode de standardisation directe. Les indicateurs de la qualité des structures, de la gestion des ressources, et un score de qualité ont été utilisés comme variables indépendantes pour prédire la MM hospitalière. Les tests de Mann-Whitney et de Kruskal-Wallis ont été utilisés pour analyser l’association entre les variables indépendantes, le score de qualité et la MM. Une analyse multivariée a été utilisée pour estimer l’impact du score de qualité sur la MM, en tenant compte de la situation géographique (Dakar versus autre région).Résultats: En analyse bivariée, la présence d'anesthésiste, la disponibilité de boîtes de césarienne complète et la supervision de tous les accouchements par du personnel qualifié sont les facteurs institutionnels associés significativement à une réduction du TMMH brut. Quant au TMMH ajusté ce sont la présence de scialytique, la disponibilité du sulfate de magnésium, l'utilisation des guides de pratiques cliniques (GPC) pour la prise en charge des complications obstétricales. Le score de qualité est associé significativement au TMMH brut, y compris en analyse multivariée, mais pas au TMMH ajusté. Conclusion : La disponibilité du Sulfate de magnésium, et du scialytique pourrait contribuer à la réduction de la MM. En complément, une réorganisation adéquate des ressources pour réduire la disparité géographique rurale/urbaine est essentielle ainsi qu’une sensibilisation du personnel à l’usage des GPC. De plus, l’assistance par un personnel qualifié de tous les accouchements est nécessaire pour améliorer la qualité des soins et la prise en charge des complications obstétricales.
Resumo:
L’intérêt marqué porté actuellement aux recherches NBIC (nano-bio-info-cognitivo technologies) visant l’optimisation des capacités humaines augure d’un profond bouleversement dans nos représentations du corps humain et du rapport humain-machine. Tour à tour, des travaux issus des domaines du génie génétique, de la pharmacologie, des biotechnologies ou des nanotechnologies nous promettent un corps moins sujet à la maladie, mieux « adapté » et surtout plus malléable. Cette construction en laboratoire d’un corps amélioré fait amplement écho aux préoccupations contemporaines concernant la santé parfaite, le processus de vieillissement, l’inaptitude, l’apparence, la performance, etc. En vue d’analyser les transformations qu’induisent ces recherches sur les représentations du corps, nous avons construit un modèle théorique appuyé, d’une part, sur des travaux en sociologie du corps et, d’autre part, sur des travaux en épistémologie des sciences. Puis, en scrutant différents textes de vulgarisation scientifique produits par des chercheurs transhumanistes – militant ouvertement en faveur d’une optimisation radicale des capacités humaines par le biais des technosciences –, il a été observé que les représentations du corps s’organisent autour de trois principaux noyaux. Le corps humain est présenté, dans ce discours, comme étant à la fois informationnel, technologiquement perfectible et obsolète. Cette représentation tripartite du corps permet aux transhumanistes d’ériger leur modèle d’action (i.e. amélioration des capacités physiques, intellectuelles, sensitives, émotionnelles, etc.) à titre de nécessité anthropologique. À leurs yeux, l’amélioration des conditions humaines doit passer par une mutation contrôlée de la biologie (i.e. une hybridation avec la machine) du fait que le corps serait « inadapté » au monde contemporain. Ainsi, les promesses NBIC, une fois récupérées par les chercheurs transhumanistes, se voient exacerbées et prennent une tonalité péremptoire. Ceci contribue vivement à la promotion du posthumain ou du cyborg, soit d’un individu transformé dans l’optique d’être plus robuste et intelligent, de moduler sa sensitivité et ses états émotifs et de vivre plus longtemps, voire indéfiniment. Enfin, situé à mi-chemin entre la science et la science-fiction, ce projet est qualifié de techno-prophétie en ce qu’il produit d’innombrables prévisions basées sur les avancées technoscientifiques actuelles et potentielles. Afin d’accroître l’acceptabilité sociale de leur modèle d’action, les transhumanistes ne font pas uniquement appel à la (potentielle) faisabilité technique; ils s’appuient également sur des valeurs socialement partagées, telles que l’autodétermination, la perfectibilité humaine, l’égalité, la liberté ou la dignité. Néanmoins, la lecture qu’ils en font est parfois surprenante et rompt très souvent avec les conceptions issues de la modernité. À leur avis, le perfectionnement humain doit s’opérer par le biais des technosciences (non des institutions sociales), sur le corps même des individus (non sur l’environnement) et en vertu de leur « droit » à l’autodétermination compris comme un droit individuel d’optimiser ses capacités. De même, les technosciences doivent, disent-ils, être démocratisées afin d’en garantir l’accessibilité, de réduire les inégalités biologiques et de permettre à chacun de renforcer son sentiment d’identité et d’accomplissement. L’analyse du discours transhumaniste nous a donc permis d’observer leurs représentations du corps de même que la résonance culturelle du projet qu’ils proposent.
Resumo:
Les innovations technologiques pullulent dans le milieu policier depuis quelques années. Devant cette abondance de choix technologiques, et dans une conjoncture de ralentissement économique, la police doit s’assurer de faire une sélection favorisant le meilleur retour sur investissement. L’évaluation des technologies est la meilleure méthode permettant d’atteindre cet objectif. Ce projet de recherche analyse les différentes stratégies d’évaluation des technologies des corps policiers fédéraux et provinciaux du Canada en se basant sur le domaine baromètre de l’identité judiciaire. Cette étude s’appuie sur plusieurs données qualitatives : 1) observation participative à la Sûreté du Québec; 2) entrevues semi-directives (n=11) avec des membres de l’Ontario Provincial Police et de la Gendarmerie Royale du Canada. L’analyse intégrée des données colligées permet de mieux comprendre la dynamique de l’évaluation technologique dans la police. Même si une évolution est perceptible, certaines améliorations pourraient accroître l’efficacité du mini-PTA (Police Technology Assessment) dans un contexte où l’opérationnel et le théorique doivent cohabiter en parfaite harmonie afin de faciliter le travail des utilisateurs. Le mini-PTA est un outil facilitant l’adaptation de l’évaluation des technologies aux réalités régionales, mais ne peut en aucun cas remplacer unilatéralement le PTA fait par les grosses organisations d’évaluation des technologies policières.
Resumo:
Le présent mémoire explore les liens entre les différents types de capitaux (social, familial, délinquant et individuel) et certains actes déviants, soit la consommation de substances psychotropes et l’implication criminelle violente chez un groupe de décrocheurs scolaires canadiens. Dans un premier temps, il s’agit d’établir la prévalence et les habitudes de consommation de cette population aliénée du système éducatif. De plus, cette étude concerne l’implication criminelle violente des décrocheurs. Plus précisément, il s’agit de déterminer la fréquence des manifestations agressives et les types de violence perpétrés par ces jeunes, ainsi que d’examiner les liens qui se tissent entre la consommation de substances psychotropes et la commission d’actes violents. Ensuite, il est question d’étudier l’impact des différents capitaux (social, familial, délinquant et individuel) sur la consommation de substances psychoactives et l’implication criminelle violente des décrocheurs. En outre, dans une perspective davantage clinique, le dernier objectif aura pour but d’identifier différentes typologies de décrocheurs scolaires. Les analyses s’appuient sur un échantillon de 339 jeunes décrocheurs scolaires de Montréal et Toronto. Les informations amassées par rapport à l’usage de substances psychotropes et la commission d’actes violents concernent les douze mois qui ont précédé la passation du questionnaire. Succinctement, les taux de prévalence de consommation des décrocheurs apparaissent plus importants que ceux de la population estudiantine, leur usage est plus inquiétant de même que l’auto-évaluation de leur dépendance. Les résultats révèlent également une implication criminelle violente importante, surtout chez les garçons et les consommateurs de substances psychotropes. Qui plus est, le capital délinquant semble avoir un impact majeur sur l’usage d’alcool et de drogues de même que sur les manifestations de violence perpétrées par les décrocheurs. Enfin, trois typologies de décrocheurs scolaires ont été identifiées, soit les invisibles, les détachés et les rebelles.
Resumo:
La réadaptation pulmonaire est une intervention dont l’efficacité est largement reconnue. Cette efficacité a été établie grâce à l’utilisation d’instruments de mesure d’impact global. Les patients bénéficiant des programmes de réadaptation pulmonaire possèdent des caractéristiques variées et souffrent généralement de maladie pulmonaire obstructive chronique à différents degrés. En fonction de leurs différents besoins, les patients répondent de façon variable aux composantes d’un programme de réadaptation pulmonaire. Il est recommandé d’individualiser les programmes en fonction des besoins des patients afin d’en optimiser les effets. À cette fin, l’évaluation des besoins de réadaptation des patients est nécessaire. Comme il n’existe actuellement aucun instrument standardisé pour procéder à cette évaluation, nous avons entrepris d’en développer un à l’aide de méthodes qualitatives et quantitatives de recherche. Un modèle conceptuel d’évaluation des besoins de réadaptation des patients a été élaboré suite aux résultats tirés de groupes de discussion, de la consultation de dossiers médicaux et d’une recension des écrits. À partir de ce modèle, des items devant être sélectionnés de façon individualisée parmi cinq domaines (reconnaissance des besoins, connaissance, motivation, attentes et buts) ont été pré-testés. Les tendances générales concernant la validité des items contenus dans le prototype d’instrument ont été vérifiées lors d’une étude pilote auprès de 50 répondants en réadaptation. Les pistes d’investigation dégagées dans ce mémoire serviront aux études de validation plus approfondies dont devrait faire l’objet ce prototype d’instrument dans le futur.
Resumo:
La thèse délaisse l’étude des biais, des erreurs et des influences externes qui modulent les décisions de justice et formule l’hypothèse que les individus, confrontés à un dilemme normatif (quelle serait la juste peine?), manifestent un souci de justice qu’il est pertinent d’analyser en lui-même. Les résultats de cette thèse indiquent qu’une proportion appréciable des choix et des jugements des citoyens et des acteurs judiciaires interrogés témoignent, en raison de leur cohérence interne et de leur modération, d’un souci manifeste de justice. Les données de la thèse s’appuient sur un sondage sentenciel dans lequel on demandait à des répondants du public (n=297), mais aussi à un échantillon d’acteurs judiciaires (n=235), de prendre des décisions de détermination pénale dans trois histoires de cas bien détaillées. La thèse s’intéresse à la détermination de la juste peine, laquelle incorpore trois prises de décision distinctes. Le premier chapitre de la thèse s’attarde à la qualité des échelles individuelles de sévérité des peines qui peuvent être infligées pour sanctionner un délinquant reconnu coupable d’actes criminels. Les résultats indiquent que les citoyens, tous comme les acteurs judiciaires, n’utilisent pas la même métrique pour statuer sur la sévérité des peines, mais que certains d’entre eux, font usage d’une métrique pénale plus cohérente et plus raisonnable que d’autres. Un test décisif pour jauger de la valeur d’une métrique est son aptitude à établir des équivalences pénales entre les peines de prison, de probation, de travaux communautaires et d’amendes. Le deuxième chapitre s’attarde à la qualité des choix sentenciels des citoyens et des acteurs judiciaires. Deux critères sont utilisés pour distinguer les sentences les plus justes : 1) le critère de proportionnalité ou de cohérence interne (les sentences données sont-elles toujours proportionnelles à la gravité de l’infraction commise ?); 2) le critère de modération ou de cohérence externe (la sentence donnée peut-elle rallier le plus grand nombre de points de vue?). Les deux critères sont importants parce qu’ils contribuent tous deux à réduire la marge d’incertitude du dilemme sentenciel. Le troisième chapitre prend acte que toute sentence fera possiblement l’objet d’un aménagement subséquent. Les formes les plus manifestes d’aménagement pénal sont régies par l’octroi d’une libération conditionnelle qui écourte la durée de peine qui sera purgée en prison. Certains acteurs judiciaires choisiront de tenir compte de cette libération anticipée en gonflant leur sentence, alors que d’autres se refuseront à le faire. Le dernier chapitre s’attarde aux raisons qui motivent leurs choix.
Resumo:
La matière sombre est un mystère dans le domaine de l’astrophysique depuis déjà plusieurs années. De nombreuses observations montrent que jusqu’à 85 % de la masse gravitationnelle totale de l’univers serait composée de cette matière de nature inconnue. Une théorie expliquant cette masse manquante considérerait les WIMPs (Weakly Interacting Massive Particles), particules stables, non chargées, prédites par des extensions du modèle standard, comme candidats. Le projet PICASSO (Projet d’Identification des CAndidats Supersymétriques à la matière Sombre) est une expérience qui tente de détecter directement le WIMP. Le projet utilise des détecteurs à gouttelettes de fréon (C4F10) surchauffées. La collision entre un WIMP et le noyau de fluor crée un recul nucléaire qui cause à son tour une transition de phase de la gouttelette liquide à une bulle gazeuse. Le bruit de ce phénomène est alors capté par des senseurs piézoélectriques montés sur les parois des détecteurs. Le WIMP n’est cependant pas la seule particule pouvant causer une telle transition de phase. D’autres particules environnantes peuvent former des bulles, telles les particules alpha où même des rayons gamma . Le système d’acquisition de données (DAQ) est aussi en proie à du bruit électronique qui peut être enregistré, ainsi que sensible à du bruit acoustique extérieur au détecteur. Finalement, des fractures dans le polymère qui tient les gouttelettes en place peut également causer des transitions de phase spontanées. Il faut donc minimiser l’impact de tous ces différents bruit de fond. La pureté du matériel utilisé dans la fabrication des détecteurs devient alors très importante. On fait aussi appel à des méthodes qui impliquent l’utilisation de variables de discrimination développées dans le but d’améliorer les limites d’exclusion de détection du WIMP.
Resumo:
Affiche de projet terminal, baccalauréat en Urbanisme. Institut d'urbanisme, Université de Montréal.
Resumo:
S’inscrivant dans le paradigme de la recherche qualitative, cette étude fait état d’une investigation des ressources mobilisées par cinq enseignantes québécoises et cinq enseignantes roumaines pour le développement de la résilience éducationnelle devant la violence scolaire, évaluée comme facteur de risque. L’analyse des données révèle le rôle des compétences professionnelles dans le développement de la résilience éducationnelle, en tant que ressources, chez les enseignantes rencontrées. En tant que recherche exploratoire comparative, cette étude s’intéresse à l’influence des différences culturelles sur la perception et l’impact des expériences de violence vécues, à la mise en pratique des compétences professionnelles, aux sentiments d’efficacité et de satisfaction professionnelle, au développement et au fonctionnement du processus de résilience éducationnelle chez les enseignantes de deux groupes nationaux. L’approche écosystémique met en lumière le caractère de processus dynamique de la résilience éducationnelle qui exige des ressources et repose sur des facteurs dont l’interaction assure son fonctionnement.
Resumo:
L’hypertension constitue un facteur majeur de risque de maladies cardiovasculaires et touche à un pourcentage important de la population humaine. Il s’agit d’une maladie complexe étant donné son caractère multifactoriel. La régulation de la pression artérielle (PA) est sous contrôle de plusieurs gènes, appelés loci pour traits quantitatifs ou QTL, et elle est le résultat de leur interaction. Étant donné que la PA est un trait quantitatif sous contrôle de plusieurs composantes comme les facteurs génétiques et environnementaux, l’étude de l’hypertension est limitée chez les populations humaines. Ainsi la stratégie principale pour l’étude de cette maladie est l’identification de QTL à PA chez des souches congéniques de rat construites à partir des lignées hyper- et normotendues; à savoir les souches Dahl salt-sensitive [1] et Lewis, respectivement. Des études précédentes dans notre laboratoire ont localisé trois QTL à PA au niveau du chromosome 18 chez le rat. Au cours de ce projet, de nouvelles sous-souches ont été construites afin de raffiner la cartographie de ces QTL. Ainsi, les C18QTL1, C18QTL3 et C18QTL4 ont été définis. Des analyses moléculaires ont été effectuées sur deux gènes candidats pour le C18QTL3; à savoir, Adrb2 et Nedd4l associés précédemment à l’hypertension. La comparaison des résultats de séquençage des régions régulatrices et codantes de ces deux gènes, ainsi que leur analyse d’expression par qRT-PCR chez les souches contrastantes DSS et Lewis, n’ont pas montré de différence significative pouvant expliquer la variation du phénotype observé. Des études plus poussées devront être effectuées sur ces deux gènes et, le cas échéant, l’analyse d’autres gènes contenus dans le C18QTL3 devra être entamée afin d’identifier le gène responsable de ce QTL.
Resumo:
Contexte et objectifs. En 1995, le gouvernement canadien a promulgué la Loi C-68, rendant ainsi obligatoire l’enregistrement de toutes les armes à feu et affermissant les vérifications auprès des futurs propriétaires. Faute de preuves scientifiques crédibles, le potentiel de cette loi à prévenir les homicides est présentement remis en question. Tout en surmontant les biais potentiels retrouvés dans les évaluations antérieures, l’objectif de ce mémoire est d’évaluer l’effet de la Loi C-68 sur les homicides au Québec entre 1974 et 2006. Méthodologie. L’effet de la Loi C-68 est évalué à l’aide d’une analyse des bornes extrêmes. Les effets immédiats et graduels de la Loi sont évalués à l’aide de 372 équations. Brièvement, il s’agit d’analyses de séries chronologiques interrompues où toutes les combinaisons de variables indépendantes sont envisagées afin d’éviter les biais relatifs à une spécification arbitraire des modèles. Résultats. L’introduction de la Loi C-68 est associée à une baisse graduelle des homicides commis à l’aide d’armes longues (carabines et fusils de chasse), sans qu’aucun déplacement tactique ne soit observé. Les homicides commis par des armes à feu à autorisation restreinte ou prohibées semblent influencés par des facteurs différents. Conclusion. Les résultats suggèrent que le contrôle des armes à feu est une mesure efficace pour prévenir les homicides. L’absence de déplacement tactique suggère également que l’arme à feu constitue un important facilitateur et que les homicides ne sont pas tous prémédités. D’autres études sont toutefois nécessaires pour clairement identifier les mécanismes de la Loi responsables de la baisse des homicides.
Resumo:
Les neurones du cortex visuel primaire (aire 17) du chat adulte répondent de manière sélective à différentes propriétés d’une image comme l’orientation, le contraste ou la fréquence spatiale. Cette sélectivité se manifeste par une réponse sous forme de potentiels d’action dans les neurones visuels lors de la présentation d’une barre lumineuse de forme allongée dans les champs récepteurs de ces neurones. La fréquence spatiale (FS) se mesure en cycles par degré (cyc./deg.) et se définit par la quantité de barres lumineuses claires et sombres présentées à une distance précise des yeux. Par ailleurs, jusqu’à récemment, l’organisation corticale chez l’adulte était considérée immuable suite à la période critique post-natale. Or, lors de l'imposition d'un stimulus non préféré, nous avons observé un phénomène d'entrainement sous forme d'un déplacement de la courbe de sélectivité à la suite de l'imposition d'une FS non-préférée différente de la fréquence spatiale optimale du neurone. Une deuxième adaptation à la même FS non-préférée induit une réponse neuronale différente par rapport à la première imposition. Ce phénomène de "gain cortical" avait déjà été observé dans le cortex visuel primaire pour ce qui est de la sélectivité à l'orientation des barres lumineuses, mais non pour la fréquence spatiale. Une telle plasticité à court terme pourrait être le corrélat neuronal d'une modulation de la pondération relative du poids des afférences synaptiques.
Resumo:
Ce mémoire présente une analyse homogène et rigoureuse de l’échantillon d’étoiles naines blanches situées à moins de 20 pc du Soleil. L’objectif principal de cette étude est d’obtenir un modèle statistiquement viable de l’échantillon le plus représentatif de la population des naines blanches. À partir de l’échantillon défini par Holberg et al. (2008), il a fallu dans un premier temps réunir le plus d’information possible sur toutes les candidates locales sous la forme de spectres visibles et de données photométriques. En utilisant les modèles d’atmosphère de naines blanches les plus récents de Tremblay & Bergeron (2009), ainsi que différentes techniques d’analyse, il a été permis d’obtenir, de façon homogène, les paramètres atmosphériques (Teff et log g) des naines blanches de cet échantillon. La technique spectroscopique, c.-à-d. la mesure de Teff et log g par l’ajustement des raies spectrales, fut appliquée à toutes les étoiles de notre échantillon pour lesquelles un spectre visible présentant des raies assez fortes était disponible. Pour les étoiles avec des données photométriques, la distribution d’énergie combinée à la parallaxe trigonométrique, lorsque mesurée, permettent de déterminer les paramètres atmosphériques ainsi que la composition chimique de l’étoile. Un catalogue révisé des naines blanches dans le voisinage solaire est présenté qui inclut tous les paramètres atmosphériques nouvellement determinés. L’analyse globale qui en découle est ensuite exposée, incluant une étude de la distribution de la composition chimique des naines blanches locales, de la distribution de masse et de la fonction luminosité.
Resumo:
Ayant en perspective la faible représentativité des élèves d’origine haïtienne issus des milieux défavorisés de la grande région de Montréal dans les filières scientifiques à l’école secondaire et dans les orientations de carrière, cette étude vise à examiner l’incidence de caractéristiques individuelles ainsi que de facteurs associés à l’environnement familial, scolaire, socioéconomique et culturel sur les attitudes de ces élèves envers les sciences. L’analyse des données est basée sur les résultats d’un questionnaire portant sur le profil sociodémographique d’un groupe d’élèves de quatrième et cinquième année fréquentant deux écoles secondaires multiethniques de la couronne-nord de Montréal ainsi que sur des entretiens avec quinze de ces élèves qui sont d’origine haïtienne. Des entretiens ont également été réalisés avec des parents, un membre d’un organisme communautaire, des membres du personnel des écoles ainsi que des professionnels et scientifiques haïtiano-québécois dans le but de porter un regard croisé sur les différentes positions exprimées par les quinze élèves. Le modèle écosystémique de Bronfenbrenner (1979, 1986) a servi de cadre de référence permettant de dégager les pôles les plus marquants dans les attitudes envers les sciences chez les élèves d’origine haïtienne. La synthèse des opinions exprimées par les différents répondants souligne l’existence d’un environnement peu valorisant des sciences autour des élèves d’origine haïtienne. Les conditions socioéconomiques, les pratiques familiales, le statut ethnoculturel ainsi que des représentations individuelles des sciences concourent à créer et à maintenir des attitudes très peu engageantes envers les sciences chez ces élèves. L’étude met en évidence l’urgence de démystifier les sciences en brisant certains stéréotypes qui empêchent certaines catégories d’élèves d’accéder aux sciences. Elle commande aussi les politiques en matière d’éducation d’être plus ouvertes aux différences ethnoculturelles et d’explorer des manières dynamiques de rendre la culture scientifique accessible à tous les groupes sociaux.
Resumo:
La mesure traditionnelle de la criminalité (taux pour 100 000 habitants) pose problème dans l'analyse des variations de la criminalité dans le temps ou l'espace. Le problème est dû au fait que le taux de criminalité est essentiellement déterminé par des infractions moins graves et très fréquentes. La présente étude a permis de tester l’utilité du nouvel outil développé par Statistique Canada qui procure un index de « gravité de la criminalité » dans lequel chaque crime est pondéré par son score de gravité (basé sur les décisions sentencielles moyennes au Canada de 2002 à 2007 pour chaque forme de crime). Appliquées aux statistiques officielles du Québec de 1977 à 2008, nos analyses montrent que l’indice de gravité s’avère une mesure utile pour dresser un portrait plus juste des tendances des crimes violents d’une année à l’autre. Plus exactement, l’indice de gravité montre que le taux de crimes violents est demeuré stable de 1977 à 1992 contrairement à l'image fournie par le taux traditionnel qui montre plutôt une montée fulgurante durant cette période. L’indice de gravité peut également être utile à l’égard des crimes violents pour comparer plus adéquatement les territoires entre eux afin d’établir ceux qui présentent une criminalité plus grave. Cependant, à l’égard de la criminalité globale et des crimes sans violence, l’indice de gravité n’est d’aucune utilité et présente la même lecture de la criminalité que la mesure traditionnelle. Cela s’explique par le fait que ce sont toujours les mêmes infractions (les vols, les méfaits et les introductions par effraction) qui contribuent majoritairement à chacune des deux mesures de la criminalité.