205 resultados para Logique des classes
Resumo:
David Hull et Philip Kitcher présentent tous deux une description des sciences qui tient compte autant de l'articulation logique des théories que de leur dynamique sociale. Hull (1988a, 2001) tente de rendre compte du progrès scientifique par le biais d'une analyse sélectionniste, en s'appuyant sur les contingences sociales et les biais individuels en tant que pressions de sélections. Pour lui, un processus de sélection darwinien filtre les théories supérieures des théories inadéquates. Kitcher (1993) présente plutôt le progrès scientifique comme un changement de consensus résultant de processus sociaux et psychologiques qui mènent de manière fiable à la vérité. Les théories sont ainsi filtrées par une dynamique sociale qui sélectionne les théories selon la qualité de leur articulation logique. Kitcher (1988) exprime un doute à l'idée qu'un processus de sélection darwinien du type suggéré par Hull puisse ajouter quoi que ce soit à une explication du processus d'avancement des sciences. Ce mémoire tentera d'établir si cette critique de Kitcher est fondée. Dans cette optique, une analyse détaillée de l’approche de Hull sera nécessaire afin d’examiner comment il justifie le lien qu’il établit entre la pratique scientifique et un processus de sélection. Un contraste sera ensuite fait avec l’approche de Kitcher pour tester la force et la nécessité de ce lien et pour expliquer le désaccord de Kitcher. Cette analyse comparative permettra de préciser les avantages et les désavantages uniques à chacune des approches pour déterminer si une analyse sélectionniste est plus prometteuse qu’une analyse non-sélectionniste pour rendre compte du progrès scientifique.
Resumo:
Tous mes travaux ont été réalisés à l'aide du logiciel stata 11.
Resumo:
En 1940, Paul Erdős énonça une conjecture sur la distribution des classes inversibles modulo un entier. La présente thèse étudie la distribution des k-uplets de classes inversibles propose une preuve de la conjecture d'Erdős étendue au cas des k-uplets.
Resumo:
Nous y introduisons une nouvelle classe de distributions bivariées de type Marshall-Olkin, la distribution Erlang bivariée. La transformée de Laplace, les moments et les densités conditionnelles y sont obtenus. Les applications potentielles en assurance-vie et en finance sont prises en considération. Les estimateurs du maximum de vraisemblance des paramètres sont calculés par l'algorithme Espérance-Maximisation. Ensuite, notre projet de recherche est consacré à l'étude des processus de risque multivariés, qui peuvent être utiles dans l'étude des problèmes de la ruine des compagnies d'assurance avec des classes dépendantes. Nous appliquons les résultats de la théorie des processus de Markov déterministes par morceaux afin d'obtenir les martingales exponentielles, nécessaires pour établir des bornes supérieures calculables pour la probabilité de ruine, dont les expressions sont intraitables.
Resumo:
Le présent mémoire expose les effets de l’enseignement réciproque sur la compréhension en lecture en français langue seconde d’élèves allophones immigrants nouvellement arrivés en situation de grand retard scolaire, scolarisés dans des classes d’accueil au secondaire. Deux groupes expérimentaux et un groupe contrôle ont pris part à la recherche. Deux modèles d’intervention en enseignement réciproque ont été proposés aux groupes expérimentaux, soit une intervention traditionnelle ou une intervention qui favorise l’ouverture aux langues maternelles. Un questionnaire administré en grand groupe ainsi que des entretiens individuels menés auprès de 11 élèves sous forme d’études de cas ont permis de mesurer les effets des interventions et de présenter des portraits de lecteurs. Les résultats au questionnaire valident que les interventions ont eu des effets significatifs sur la compréhension en lecture des élèves des groupes expérimentaux comparativement aux élèves du groupe contrôle. De plus, les 11 études de cas vont dans le même sens et révèlent que les élèves des groupes expérimentaux, au post-test, se sont améliorés dans la mise en place des stratégies cognitives et métacognitives. Finalement, lorsque les deux groupes expérimentaux sont comparés entre eux, les deux présentent des gains significatifs sur le plan de la compréhension en lecture. Cependant, le groupe ayant participé à des interventions avec une ouverture aux langues maternelles présente des changements de perceptions plus positifs et explicites à l’égard de la relation, en lecture, entre les langues.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
Afin de contourner la définition usuelle de la pauvreté selon laquelle les individus sont pauvres s’ils sont en deçà d’un certain seuil nous appliquons la méthode floue pour proposer des classes d'indices flous de pauvreté unidimensionnelle et multidimensionnelle basées sur la définition d'une fonction d’appartenance et un seuil de pauvreté par ménage. Nous illustrons également certains de nos concepts proposés à partir d’une enquête réalisée en 1990 sur des ménages tunisiens. Nous cherchons à montrer comment les choix des autorités publiques ou des institutions internationales peuvent se refléter dans ces indices de pauvreté.
Resumo:
«Building Blocks: Children’s Literature and the Formation of a Nation, 1750-1825» examine la façon dont la littérature pour enfants imprègne les jeunes lecteurs avec un sens de nationalisme et d'identité nationale à travers la compréhension des espaces et des relations spatiales. La thèse étudie les œuvres d’enfants par Thomas Day, Sarah Fielding, Mary Wollstonecraft, Richard Lovell et Maria Edgeworth, Charles et Mary Lamb, Sarah Trimmer, Lucy Peacock, Priscilla Wakefield, John Aikin, et Anna Laetitia Barbauld. Les différents sujets thématiques reflètent la façon dont les frontières entre les dimensions extérieures et intérieures, entre le monde physique et le domaine psychologique, sont floues. En s'appuyant sur les travaux de penseurs éducatifs, John Locke et Jean-Jacques Rousseau, les écritures pour les enfants soulignent l'importance des expériences sensorielles qui informent l’évolution interne des individus. En retour, la projection de l'imagination et l'investissement des sentiments aident à former la manière dont les gens interagissent avec le monde matériel et les uns envers les autres afin de former une nation. En utilisant une approche Foucaldienne, cette thèse montre comment la discipline est inculquée chez les enfants et les transforme en sujets réglementés. Grâce à des confessions et des discours, les enfants souscrivent à la notion de surveillance et de transparence tandis que l'appréciation de l'opinion publique encourage la pratique de la maîtrise de soi. Les enfants deviennent non seulement des ébauches, sensibles à des impressions, mais des corps d'écriture lisibles. Les valeurs et les normes de la société sont internalisées pendant que les enfants deviennent une partie intégrale du système qu'ils adoptent. L'importance de la visibilité est également soulignée dans la popularité du système de Linné qui met l'accent sur l'observation et la catégorisation. L'histoire naturelle dans la littérature enfantine renforce la structure hiérarchique de la société, ce qui souligne la nécessité de respecter les limites de classes et de jouer des rôles individuels pour le bien-être de la collectivité. Les connotations religieuses dans l'histoire naturelle peuvent sembler justifier l'inégalité des classes, mais elles diffusent aussi des messages de charité, de bienveillance et d'empathie, offrant une alternative ou une forme d’identité nationale «féminine» qui est en contraste avec le militarisme et le nationalisme patricien. La seconde moitié de la thèse examine comment la théorie des « communautés imaginées » de Benedict Anderson devient une possibilité à travers le développement du goût national et une compréhension de l'interconnexion entre les individus. Le personnage du barde pointe à la centralité de l'esprit communautaire dans l'identité nationale. Parallèlement à la commercialisation croissante de produits culturels et nationaux durant cette période, on retrouve l’augmentation de l’attachement affectif envers les objets et la nécessité de découvrir l'authentique dans la pratique de la réflexion critique. La propriété est redéfinie à travers la question des «vrais» droits de propriété et devient partagée dans l'imaginaire commun. Des cartes disséquées enseignent aux enfants comment visualiser des espaces et des frontières et conceptualisent la place de l’individu dans la société. Les enfants apprennent que des actions disparates effectuées dans la sphère domestique ont des répercussions plus importantes dans le domaine public de la nation.
Resumo:
La thèse est composée d’un chapitre de préliminaires et de deux articles sur le sujet du déploiement de singularités d’équations différentielles ordinaires analytiques dans le plan complexe. L’article Analytic classification of families of linear differential systems unfolding a resonant irregular singularity traite le problème de l’équivalence analytique de familles paramétriques de systèmes linéaires en dimension 2 qui déploient une singularité résonante générique de rang de Poincaré 1 dont la matrice principale est composée d’un seul bloc de Jordan. La question: quand deux telles familles sontelles équivalentes au moyen d’un changement analytique de coordonnées au voisinage d’une singularité? est complètement résolue et l’espace des modules des classes d’équivalence analytiques est décrit en termes d’un ensemble d’invariants formels et d’un invariant analytique, obtenu à partir de la trace de la monodromie. Des déploiements universels sont donnés pour toutes ces singularités. Dans l’article Confluence of singularities of non-linear differential equations via Borel–Laplace transformations on cherche des solutions bornées de systèmes paramétriques des équations non-linéaires de la variété centre de dimension 1 d’une singularité col-noeud déployée dans une famille de champs vectoriels complexes. En général, un système d’ÉDO analytiques avec une singularité double possède une unique solution formelle divergente au voisinage de la singularité, à laquelle on peut associer des vraies solutions sur certains secteurs dans le plan complexe en utilisant les transformations de Borel–Laplace. L’article montre comment généraliser cette méthode et déployer les solutions sectorielles. On construit des solutions de systèmes paramétriques, avec deux singularités régulières déployant une singularité irrégulière double, qui sont bornées sur des domaines «spirals» attachés aux deux points singuliers, et qui, à la limite, convergent vers une paire de solutions sectorielles couvrant un voisinage de la singularité confluente. La méthode apporte une description unifiée pour toutes les valeurs du paramètre.
Resumo:
Ma thèse examine quatre romans de l`époque post-1960 qui s’appuient sur le genre de la littérature prolétarienne du début du vingtième siècle. Se basant sur les recherches récentes sur la littérature de la classe ouvrière, je propose que Pynchon, Doctorow, Ondaatje et Sweatman mettent en lumière les thèmes souvent négligés de cette classe tout en restant esthétiquement progressiste et pertinents. Afin d’explorer les aspects politiques et formels de ces romans, j’utilise la « midfiction », le concept d’Allen Wilde. Ce concept vise les textes qui utilisent les techniques postmodernes et qui acceptent la primauté de la surface, mais qui néanmoins essaient d’être référentiels et d’établir des vérités. Le premier chapitre de ma thèse propose que les romans prolétariens contemporains que j’ai choisis utilisent des stratégies narratives généralement associées avec le postmodernisme, telles que la métafiction, l’ironie et une voix narrative « incohérente », afin de contester l’autorité des discours dominants, notamment les histoires officielles qui ont tendance à minimiser l’importance des mouvements ouvriers. Le deuxième chapitre examine comment les romanciers utilisent des stratégies mimétiques afin de réaliser un facteur de crédibilité qui permet de lier les récits aux des réalités historiques concrètes. Me référant à mon argument du premier chapitre, j’explique que ces romanciers utilisent la référentialité et les voix narratives « peu fiables » et « incohérentes », afin de politiser à nouveau la lutte des classes de la fin du dix-neuvième et des premières décennies du vingtième siècles et de remettre en cause un sens strict de l’histoire empirique. Se basant sur les théories évolutionnistes de la sympathie, le troisième chapitre propose que les représentations des personnages de la classe dirigeante riche illustrent que les structures sociales de l’époque suscitent un sentiment de droit et un manque de sympathie chez les élites qui les font adopter une attitude quasi-coloniale vis-à-vis de la classe ouvrière. Le quatrième chapitre aborde la façon dont les romans en considération négocient les relations entre les classes sociales, la subjectivité et l’espace. Cette section analyse comment, d’un côté, la représentation de l’espace montre que le pouvoir se manifeste au bénéfice de la classe dirigeante, et de l’autre, comment cet espace est récupéré par les ouvriers radicaux et militants afin d’avancer leurs intérêts. Le cinquième chapitre explore comment les romans néo-prolétariens subvertissent ironiquement les tropes du genre prolétarien précédent, ce qui exprimerait l’ambivalence politique et le cynisme généralisé de la fin du vingtième siècle.
Resumo:
Ce mémoire propose une analyse du discours et de l’expérience corporelle des adeptes de la scène musicale électronique underground-house de Montréal. Il cherche à contribuer au champ des études sur les formations culturelles expressives contemporaines sur deux axes. Sur le plan méthodologique, cette recherche illustre la portée de l’entretien d’explicitation lorsqu’il s’agit d’accompagner la mise en mots d’impressions sensorielles, d’émotions, de pensées ou d’actions. Combinée à une démarche immersive de longue haleine sur le terrain, cette méthode innovante développée par le chercheur Pierre Vermersch (1994) s’avère ici un outil rigoureux donnant accès à la mémoire incarnée des sujets, laquelle regorge d’informations d’une étonnante précision. Sur le plan ethnographique, cette étude s’intéresse aux nouveaux espaces de solidarité et d’expression balisant l’expérience des Québécois de parents haïtiens issus des classes moyenne et moyenne élevée. Les résultats de cette recherche démontrent, en premier lieu, que l’expérience de la « vibe », expression idiomatique largement utilisée par les acteurs, constitue la clé de voûte maintenant la cohésion entre les représentations, les croyances et les activités corporelles des participants. En deuxième lieu, la scène underground-house se présenterait comme l’expression d’une nouvelle contre-culture en établissant une distance critique avec, d’une part, la « culture hip hop » commerciale et sa représentation médiatique « ghettoïsée » et, d’autre part, l’espace culturel dominant en promouvant une expérience de corps et d’esprit subversive. Cet espace de transmission et de communion inédit propose des modèles de sociabilités nouveaux qui contribuent de manière inusuelle au dialogue interculturel urbain montréalais.
Resumo:
Introduction: Il est important de minimiser le gaspillage et les risques associés aux soins sans valeur. La gestion de l’utilisation des antimicrobiens vise à optimiser leur emploi et doit être adaptée au milieu et à sa population. Objectifs: Évaluer les profiles d’utilisation actuels des antimicrobiens et fixer des objectifs pour les interventions en matière de gestion des antimicrobiens. Méthode: Vingt-et-un hôpitaux du Nouveau-Brunswick offrant des soins de courte durée en médecine générale, en chirurgie et en pédiatrie ont pris part à une enquête sur la prévalence ponctuelle. Tous les patients admis aux hôpitaux participants et ayant reçu au moins un antimicrobien systémique ont été inscrits à l’étude. Les principaux critères d’évaluation étaient le profil d’utilisation, selon l’indication et l’antimicrobien prescrit, le bienfondé de l’utilisation et la durée de la prophylaxie chirurgicale. Des statistiques descriptives et un test d’indépendance 2 furent utilisés pour l’analyse de données. Résultats: L’enquête a été menée de juin à août 2012. Un total de 2244 patients ont été admis pendant la durée de l’étude et 529 (23,6%) ont reçu un antimicrobien. Au total, 691 antimicrobiens ont été prescrits, soit 587 (85%) pour le traitement et 104 (15%) pour la prophylaxie. Les antimicrobiens les plus souvent prescrits pour le traitement (n=587) étaient des classes suivantes : quinolones (25,6%), pénicillines à spectre étendu (10,2%) et métronidazole (8,5%). Les indications les plus courantes du traitement étaient la pneumonie (30%), les infections gastro-intestinales (16%) et les infections de la peau et des tissus mous (14%). Selon des critères définis au préalable, 23% (n=134) des ordonnances pour le traitement étaient inappropriées et 20% (n=120) n’avaient aucune indication de documentée. Les domaines où les ordonnances étaient inappropriées étaient les suivants : défaut de passage de la voie intraveineuse à la voie orale (n=34, 6%), mauvaise dose (n=30, 5%), traitement d’une bactériurie asymptomatique (n=24, 4%) et doublement inutile (n=22, 4%). Dans 33% (n=27) des cas, les ordonnances pour la prophylaxie chirurgicale étaient pour une période de plus de 24 heures. Conclusions: Les résultats démontrent que les efforts de gestion des antimicrobiens doivent se concentrer sur les interventions conventionnelles de gestion de l’utilisation des antimicrobiens, l’amélioration de la documentation, l’optimisation de l’utilisation des quinolones et la réduction au minimum de la durée de la prophylaxie chirurgicale.
Resumo:
À l'ère de la mondialisation, où la matrice capitaliste continue de dominer, la classification dans les groupes se définit encore en termes de classes, de genres et d'ethnicité. Les transformations causées par la mondialisation actuelle entraînent de nouveaux modes de production, qui à leur tour transforment les modes de définition et de régulation des populations. Le projet d'exploitation du Nord du Québec est un phénomène relativement récent; or, le processus de construction d'une classe sociale n'est pas un phénomène nouveau. La formation des classes sociales étant toujours en évolution, il semble aujourd'hui pertinent de réexaminer les facteurs économiques, sociologiques et historiques des caractéristiques théoriques nécessaires à la construction et à la représentation d'une classe sociale dont l'existence est liée à l'exploitation accrue des richesses naturelles, la classe ouvrière du Nord du Québec. À Fermont, dans le Nord du Québec, les compagnies minières emploient depuis 2011 une grande quantité de travailleurs québécois provenant de l'extérieur de la région, des travailleurs permanents non- résidents. Ainsi, la structure sociale construite sur la force de travailleurs locaux est aux prises avec de nouvelles dynamiques de mobilité sociale géographique. Au travail, les femmes et les autochtones sont aussi affectés par les relations des systèmes de pouvoir de la vie quotidienne, car les emplois de l'industrie minière et du domaine de la construction sont socialement et historiquement fondés sur des capitaux sociaux et culturels (blanc et homme). La classe ouvrière du Nord du Québec est redéfinit par son rapport à la migration géographique des travailleurs permanents non- résidents, par ses relations avec les minorités de genre et les minorités autochtones, relations qui engendrent une organisation sociale complexe et hétérogène.
Resumo:
Ce mémoire porte sur l’étude de la culture matérielle de l’Auguste, un navire de cartel ayant fait naufrage en 1761 au nord-est de l’île du Cap-Breton, en Nouvelle-Écosse. La date de 1759 marque la conquête de la Nouvelle-France par l’Angleterre. La France perd donc un important territoire. À la suite de la capitulation de Montréal en 1760, un Régime militaire temporaire anglais est mis en place et entraîne le départ de plusieurs membres des classes dirigeantes de la colonie vers la France. Leur rapatriement est effectué au moyen de navires de cartel, c’est-à-dire des vaisseaux voyageant sous drapeau blanc et transportant des « prisonniers », leur famille et leurs avoirs. L’Auguste, un navire marchand d’appartenance britannique, est réquisitionné à Québec comme navire de cartel à l’automne 1761. Un mois après son départ, le navire s’échoue dans la baie d’Aspy et fait naufrage en emportant à la mort la majorité des passagers. Plus de deux siècles après ces événements tragiques, un partenariat entre Parcs Canada et des plongeurs locaux a mené à la réalisation de deux campagnes de fouilles archéologiques à la fin des années 1970 mettant au jour une collection de plus de quatre mille artefacts. L’analyse de cette culture matérielle comprend notamment la mise en contexte de l’histoire et de la découverte du navire et un classement des artefacts selon des catégories fonctionnelles liées à l’archéologie maritime. Les différents niveaux analytiques mènent ultimement à l’intégration des données archéologiques dans la compréhension du rapatriement des élites au sein de l’État moderne et à l’établissement de liens intéressants entre les familles nanties de la colonie et certains artisans de Nouvelle-France. L’étude de l’Auguste a finalement permis de mettre en lumière la fonction de cartel du navire et d’établir et l’organisation maritime d’un voyage transatlantique pour le transport de passagers.