465 resultados para Approches
Resumo:
De manière générale, ma thèse examine les mécanismes des processus sociaux, économiques et politiques ayant contribué, souvent de manière contradictoire, à la (re)définition des critères d’adhésion au sein de la nation et de l’Etat. Elle le fait par le dialogue au sein de deux grands corps de littérature intimement liés, la citoyenneté et le transnationalisme, qui se sont penchés sur les questions d’appartenance, d’exclusion, de mobilité et d’accès aux droits chez les migrants transnationaux tout en soulignant la capacité accrue de l’Etat à réguler à la fois les déplacements de personnes et l’accès des migrants aux droits. Cette thèse remet en question trois principes qui influencent la recherche et les programmes d’action publique ayant trait au transnationalisme et à la citoyenneté des migrants, et remet en cause les approches analytiques hégémoniques et méthodologiques qui les sous-tendent. L’étude a été menée à deux niveaux distincts d’analyse empirique et analytique. D’une part, nous examinons les « technologies de la citoyenneté » (Ong 2003, Fujiwara 2008) qui ont été développées par le gouvernement pour transformer l’Argentine en une nation latino-américaine diverse et inclusive pendant la dernière décennie, en nous intéressant particulièrement à la création, par le Kirchnerisme, d’une « nouvelle légalité » pour les Paraguayens, les Boliviens et les Péruviens résidant dans le pays. D’autre part, nous analysons la « dimension horizontale des processus de citoyenneté » (Neveu 2005, Pickus and Skerry 2007, Gagné and Neveu 2009) chez ces migrants dans des aires urbaines, périphériques et rurales du partido de La Plata. Plus spécifiquement, nous examinons dans quelle mesure les conditions socioéconomiques des migrants ont changé suite à leur nouveau statut légal (en tant que ressortissants du MERCOSUR en Argentine, dont les droits sont égaux à ceux des citoyens) et aux politiques de « citoyenneté inclusive » déployées par le gouvernement. Cette thèse se penche particulièrement sur les fondations et l’incarnation (« embodiment ») des droits en examinant comment le nouveau statut légal des migrants se manifeste au quotidien en fonction de a) où ils vivent et travaillent, et b) leur statut social perçu par les autres migrants et non-migrants. D’une part, nous examinons les aires urbaines, périphériques et rurales de La Plata en tant que « zones de souveraineté graduée » (Ong 1999), où des régimes de gouvernementalité locaux spécifiques se sont développés en lien avec l’installation de groupes ethniques souvent distincts, et dont les droits et devoirs diffèrent de ceux d’autres zones. D’autre part, nous étudions la façon dont le statut social est produit à travers les interactions sociales quotidiennes en transposant des distinctions construites socialement telles que race, classe, genre et origine nationale, en systèmes d’exclusion formels (Gregory 2007). Notre analyse ethnographique de ce que nous appelons les « expériences de légalité » des migrants démontre que leur égalité formelle vis-à-vis des Argentins, loin d’être simplement donnée comme un nouveau statut légal uniformément garanti pour tous, est à la fois inégalement vécue par les divers migrants, et différemment respectée dans les zones géographiques dirigées par divers régimes de gouvernementalité (Foucault 1978).
Resumo:
Codirection: Dr. Gonzalo Lizarralde
Resumo:
Le triméthoprime (TMP) est un antibiotique communément utilisé depuis les années 60. Le TMP est un inhibiteur de la dihydrofolate réductase (DHFR) bactérienne chromosomale. Cette enzyme est responsable de la réduction du dihydrofolate (DHF) en tétrahydrofolate (THF) chez les bactéries, qui lui, est essentiel à la synthèse des purines et ainsi, à la prolifération cellulaire. La résistance bactérienne au TMP est documentée depuis plus de 30 ans. Une des causes de cette résistance provient du fait que certaines souches bactériennes expriment une DHFR plasmidique, la DHFR R67. La DHFR R67 n'est pas affectée par le TMP, et peut ainsi remplacer la DHFR chromosomale lorsque celle-ci est inhibée par le TMP. À ce jour, aucun inhibiteur spécifique de la DHFR R67 est connu. En découvrant des inhibiteurs contre la DHFR R67, il serait possible de lever la résistance au TMP que la DHFR R67 confère aux bactéries. Afin de découvrir des inhibiteurs de DHFR R67, les approches de design à base de fragments et de criblage virtuel ont été choisies. L'approche de design à base de fragments a permis d'identifier sept composés simples et de faible poids moléculaire (fragments) inhibant faiblement la DHFR R67. À partir de ces fragments, des composés plus complexes et symétriques, inhibant la DHFR R67 dans l'ordre du micromolaire, ont été élaborés. Des études cinétiques ont montré que ces inhibiteurs sont compétitifs et qu'au moins deux molécules se lient simultanément dans le site actif de la DHFR R67. L'étude d'analogues des inhibiteurs micromolaires de la DHFR R67 a permis de déterminer que la présence de groupements carboxylate, benzimidazole et que la longueur des molécules influencent la puissance des inhibiteurs. Une étude par arrimage moléculaire, appuyée par les résultats in vitro, a permis d'élaborer un modèle qui suggère que les résidus Lys32, Gln67 et Ile68 seraient impliqués dans la liaison avec les inhibiteurs. Le criblage virtuel de la librairie de 80 000 composés de Maybridge avec le logiciel Moldock, et les essais d'inhibition in vitro des meilleurs candidats, a permis d'identifier quatre inhibiteurs micromolaires appartenant à des familles distinctes des composés précédemment identifiés. Un second criblage virtuel, d'une banque de 6 millions de composés, a permis d'identifier trois inhibiteurs micromolaires toujours distincts. Ces résultats offrent la base à partir de laquelle il sera possible de développer iv des composés plus efficaces et possédant des propriétés phamacologiquement acceptables dans le but de développer un antibiotique pouvant lever la résistance au TMP conféré par la DHFR R67.
Resumo:
La douleur post-opératoire chez les patients constitue un défi thérapeutique important pour les cliniciens. Le traitement de la douleur post-opératoire n’est pas accessoire ni optionnel, puisqu’il permet de donner un congé de l’hôpital plus rapide aux patients et ainsi, il contribue à des économies importantes pour notre système de santé. Parmi les approches thérapeutiques utilisées pour la prise en charge de la douleur post-opératoire, cette thèse s’intéresse particulièrement aux blocs de nerfs périphériques par les anesthésiques locaux et à l’administration de la néostigmine par voie épidurale. Ces médicaments sont utilisés en clinique sans avoir préalablement établi, en se basant sur leur propriétés pharmacocinétiques et pharmacodynamiques spécifiques, leurs doses optimales. Ces doses devraient également tenir en considération les particularités anatomiques du site d’injection par rapport au site d’action. Cette thèse inclut des études exploratoires qui ont contribué à caractériser la pharmacocinétique de la ropivacaïne et de la bupivacaïne ainsi que la pharmacocinétique et la pharmacodynamie de la néostigmine. La première étude portait sur seize patients subissant une chirurgie orthopédique avec un bloc combiné des nerfs fémoral et sciatique par la ropivacaïne (n=8) ou la bupivacaïne (n=8). C’était la première étude qui a inclu des temps d’échantillons pharmacocinétiques allant jusqu’à 32 h après le bloc et ces résultats ont démontré une variabilité interindividuelle considérable. La modélisation par approche de population a aidé à expliquer les sources de la variabilité et démontré que l’absorption systémique des anesthésiques locaux était très lente. De plus, les concentrations plasmatiques demeuraient mesurables, et dans certains cas présentaient un plateau, 32 h après le bloc. Dans les prochaines études, un échantillonnage allant jusqu’à 4 ou 5 jours sera nécessaire afin d’atteindre la fin de l’absorption. La deuxième étude a établi le développement d’un modèle animal en étudiant la pharmacocinétique de la ropivacaïne après administration intraveineuse ainsi que son degré de liaison aux protéines plasmatiques chez le lapin (n=6). Les résultats ont démontré que, chez le lapin la ropivacaïne est beaucoup moins liée aux protéines plasmatiques comparativement à l’humain. Ce résultat important sera utile pour planifier les prochaines études précliniques. La troisième étude a exploré, pour la première fois, la pharmacocinétique et la pharmacodynamie de la néostigmine administrée par voie épidurale et a essayé de caractériser la courbe dose-réponse en utilisant trois doses différentes : 0.5, 1 et 1.5 mg. Bien que les concentrations de la néostigmine dans le liquide céphalo-rachidien fussent très variables une relation inverse entre la consommation de mépéridine et la dose de néostigmine a été démontrée. La dose de 1.5 mg a donné une meilleure réponse pharmacodynamique sur la douleur, mais elle a été considérée comme dangereuse puisqu’elle a résulté en deux cas d’hypertension. Nous avons conclu que des doses plus faibles que 1.5 mg devront être utilisées lors de l’utilisation de la néostigmine par voie épidurale. En conclusion, les études rapportées dans cette thèse ont exploré les propriétés pharmacocinétiques et/ou pharmacodynamiques de certains médicaments utilisés pour le traitement de la douleur post-opératoire. Ceci mènera au but ultime qui est la meilleure prise en charge de la douleur post-opératoire chez les patients.
Resumo:
Les stimuli naturels projetés sur nos rétines nous fournissent de l’information visuelle riche. Cette information varie le long de propriétés de « bas niveau » telles que la luminance, le contraste, et les fréquences spatiales. Alors qu’une partie de cette information atteint notre conscience, une autre partie est traitée dans le cerveau sans que nous en soyons conscients. Les propriétés de l’information influençant l’activité cérébrale et le comportement de manière consciente versus non-consciente demeurent toutefois peu connues. Cette question a été examinée dans les deux derniers articles de la présente thèse, en exploitant les techniques psychophysiques développées dans les deux premiers articles. Le premier article présente la boîte à outils SHINE (spectrum, histogram, and intensity normalization and equalization), développée afin de permettre le contrôle des propriétés de bas niveau de l'image dans MATLAB. Le deuxième article décrit et valide la technique dite des bulles fréquentielles, qui a été utilisée tout au long des études de cette thèse pour révéler les fréquences spatiales utilisées dans diverses tâches de perception des visages. Cette technique offre les avantages d’une haute résolution au niveau des fréquences spatiales ainsi que d’un faible biais expérimental. Le troisième et le quatrième article portent sur le traitement des fréquences spatiales en fonction de la conscience. Dans le premier cas, la méthode des bulles fréquentielles a été utilisée avec l'amorçage par répétition masquée dans le but d’identifier les fréquences spatiales corrélées avec les réponses comportementales des observateurs lors de la perception du genre de visages présentés de façon consciente versus non-consciente. Les résultats montrent que les mêmes fréquences spatiales influencent de façon significative les temps de réponse dans les deux conditions de conscience, mais dans des sens opposés. Dans le dernier article, la méthode des bulles fréquentielles a été combinée à des enregistrements intracrâniens et au Continuous Flash Suppression (Tsuchiya & Koch, 2005), dans le but de cartographier les fréquences spatiales qui modulent l'activation de structures spécifiques du cerveau (l'insula et l'amygdale) lors de la perception consciente versus non-consciente des expressions faciales émotionnelles. Dans les deux régions, les résultats montrent que la perception non-consciente s'effectue plus rapidement et s’appuie davantage sur les basses fréquences spatiales que la perception consciente. La contribution de cette thèse est donc double. D’une part, des contributions méthodologiques à la recherche en perception visuelle sont apportées par l'introduction de la boîte à outils SHINE ainsi que de la technique des bulles fréquentielles. D’autre part, des indications sur les « corrélats de la conscience » sont fournies à l’aide de deux approches différentes.
Resumo:
Cette dissertation explore la carrière de la rencontre manquée Lacanienne dans la littérature canonique américaine du dix-neuvième siècle à travers le prisme de la psychanalyse, la déconstruction, le postmodernisme et le postcolonialisme. Je me concentre particulièrement sur La Lettre Écarlate de Hawthorne et Moby-Dick de Melville, en montrant comment ils sont investis dans l'économie narrative de la rencontre manquée, l'économie de ce qui est au-delà de la symbolisation et l'assimilation. L’introduction examine les contours et les détours historiques, philosophiques et théoriques du concept de la rencontre manquée. Cette dissertation a donc deux objectifs: d'une part, elle tente d'examiner le statut et la fonction de la rencontre manquée dans la littérature américaine du dix-neuvième siècle, et d’autre part, elle explore comment la théorisation de la rencontre manquée pourrait nous aider à aller au-delà de la théorisation binaire qui caractérise les scènes géopolitiques actuelles. Mon premier chapitre sur La Lettre Écarlate de Hawthorne, tente de tracer la carrière du signifiant comme une navette entre l'archive et l'avenir, entre le sujet et l'objet, entre le signifiant et le signifié. Le but de ce chapitre est de rendre compte de la temporalité du signifiant et la temporalité de la subjectivité et d’expliquer comment ils répondent à la temporalité du tuché. En explorant la dimension crypto-temporelle de la rencontre manquée, ce chapitre étudie l'excès de cryptes par la poétique (principalement prosopopée, anasémie, et les tropes d'exhumation). Le deuxième chapitre élabore sur les contours de la rencontre manquée. En adoptant des approches psychanalytiques et déconstructives, ce chapitre négocie la temporalité de la rencontre manquée (la temporalité de l'automaton et de la répétition). En explorant la temporalité narrative (prolepse et analepse) conjointement à la psycho-poétique du double, ce chapitre essaie de dévoiler les vicissitudes de la mélancolie et la “dépression narcissique” dans Moby-Dick (en particulier la répétition d'Achab lors de sa rencontre originelle dénarrée ou jamais racontée avec le cachalot blanc et sa position mélancolique par rapport à l'objet qu'il a perdu). En exposant la nature du trauma comme une rencontre manquée, dont les résidus se manifestent symptomatiquement par la répétition (et le doublement), ce chapitre explique le glissement de la lettre (par l'entremise du supplément et de la différance). Le troisième chapitre élargit la portée de la rencontre manquée pour inclure les Autres de l'Amérique. Le but principal de ce chapitre est d'évaluer les investitures politiques, culturelles, imaginaires et libidinales de la rencontre manquée dans le Réel, le Symbolique nationale des États-Unis et la réalité géopolitique actuelle. Il traite également de la relation ambiguë entre la jouissance et le Symbolique: la manière dont la jouissance anime et régit le Symbolique tout en confondant la distinction entre le Réel et la réalité et en protégeant ses manœuvres excessives.
Resumo:
Thèse réalisée en cotutelle avec l'Université catholique de Louvain
Resumo:
Au Québec, la Loi 113 a été adoptée en 2002 pour réduire l’incidence et les conséquences des événements indésirables survenus en cours de soins de santé. Cette loi oblige à effectuer plusieurs modifications tant au niveau administratif que clinique, notamment, la création de comités de gestion du risque, l’établissement de politiques pour la divulgation aux patients et la déclaration systématique des événements indésirables dans les institutions hospitalières. Cependant, la capacité de ces établissements à implanter les mesures requises par la loi a été mise en doute par certains auteurs. L’objectif de cette thèse a été d’étudier le processus d’implantation de la loi 113 à partir d’un cadre théorique intégrant les approches dites de développement organisationnel, institutionnelle et politique. Pour cela, nous avons mené une étude de cas multiples, chaque cas étant représenté par un type d’hôpital qualifié dans le contexte de notre étude de « petit », « grand » et « universitaire ». Les procédures de cueillette des données ont consisté en des entrevues avec des administrateurs et des professionnels de santé, des séances d’observation de comités de gestion des risques, et une analyse de documents issus des secteurs administratifs de chaque institution. Les résultats suggèrent une implantation progressive et variable de la loi d’un hôpital à l’autre et la présence de conflits entre les pratiques professionnelles ou organisationnelles et les nouvelles normes légales. Ces dernières semblent avoir été adoptées au niveau administratif, tandis que les normes professionnelles et organisationnelles ont continué à prédominer au niveau clinique, une situation ayant entraîné un climat de méfiance entre les milieux administratif et clinique, plus particulièrement parmi les médecins de chaque établissement hospitalier. Les résultats de notre étude indiquent également que les stratégies ayant le plus contribué au changement résultent d’une forte légitimité et du leadership des principaux agents de changement, comme la gouverne et le gestionnaire de risque, et de la gestion avisée de l’environnement organisationnel. Cependant, malgré les efforts continus mobilisés au sein de chaque établissement pour implanter la loi, on a pu constater la persistance d’une résistance de certains acteurs clefs. En conclusion, l’implication et la contribution des détenteurs d’enjeux internes et externes de l’organisation sont nécessaires pour aboutir à une vision commune et aligner les différentes interventions afin d’assurer le succès de l’implantation de la loi.
Resumo:
Le Problème de Tournées de Véhicules (PTV) est une clé importante pour gérér efficacement des systèmes logistiques, ce qui peut entraîner une amélioration du niveau de satisfaction de la clientèle. Ceci est fait en servant plus de clients dans un temps plus court. En terme général, il implique la planification des tournées d'une flotte de véhicules de capacité donnée basée à un ou plusieurs dépôts. Le but est de livrer ou collecter une certain quantité de marchandises à un ensemble des clients géographiquement dispersés, tout en respectant les contraintes de capacité des véhicules. Le PTV, comme classe de problèmes d'optimisation discrète et de grande complexité, a été étudié par de nombreux au cours des dernières décennies. Étant donné son importance pratique, des chercheurs dans les domaines de l'informatique, de la recherche opérationnelle et du génie industrielle ont mis au point des algorithmes très efficaces, de nature exacte ou heuristique, pour faire face aux différents types du PTV. Toutefois, les approches proposées pour le PTV ont souvent été accusées d'être trop concentrées sur des versions simplistes des problèmes de tournées de véhicules rencontrés dans des applications réelles. Par conséquent, les chercheurs sont récemment tournés vers des variantes du PTV qui auparavant étaient considérées trop difficiles à résoudre. Ces variantes incluent les attributs et les contraintes complexes observés dans les cas réels et fournissent des solutions qui sont exécutables dans la pratique. Ces extensions du PTV s'appellent Problème de Tournées de Véhicules Multi-Attributs (PTVMA). Le but principal de cette thèse est d'étudier les différents aspects pratiques de trois types de problèmes de tournées de véhicules multi-attributs qui seront modélisés dans celle-ci. En plus, puisque pour le PTV, comme pour la plupart des problèmes NP-complets, il est difficile de résoudre des instances de grande taille de façon optimale et dans un temps d'exécution raisonnable, nous nous tournons vers des méthodes approcheés à base d’heuristiques.
Resumo:
La production biologique d'hydrogène (H2) représente une technologie possible pour la production à grande échelle durable de H2 nécessaire pour l'économie future de l'hydrogène. Cependant, l'obstacle majeur à l'élaboration d'un processus pratique a été la faiblesse des rendements qui sont obtenus, généralement autour de 25%, bien en sous des rendements pouvant être atteints pour la production de biocarburants à partir d'autres processus. L'objectif de cette thèse était de tenter d'améliorer la production d'H2 par la manipulation physiologique et le génie métabolique. Une hypothèse qui a été étudiée était que la production d'H2 pourrait être améliorée et rendue plus économique en utilisant un procédé de fermentation microaérobie sombre car cela pourrait fournir la puissance supplémentaire nécessaire pour une conversion plus complète du substrat et donc une production plus grande d'H2 sans l'aide de l'énergie lumineuse. Les concentrations optimales d’O2 pour la production de H2 microaérobie ont été examinées ainsi que l'impact des sources de carbone et d'azote sur le processus. La recherche présentée ici a démontré la capacité de Rhodobacter capsulatus JP91 hup- (un mutant déficient d’absorption-hydrogénase) de produire de l'H2 sous condition microaérobie sombre avec une limitation dans des quantités d’O2 et d'azote fixé. D'autres travaux devraient être entrepris pour augmenter les rendements d'H2 en utilisant cette technologie. De plus, un processus de photofermentation a été créé pour améliorer le rendement d’H2 à partir du glucose à l'aide de R. capsulatus JP91 hup- soit en mode non renouvelé (batch) et / ou en conditions de culture en continu. Certains défis techniques ont été surmontés en mettant en place des conditions adéquates de fonctionnement pour un rendement accru d'H2. Un rendement maximal de 3,3 mols de H2/ mol de glucose a été trouvé pour les cultures en batch tandis que pour les cultures en continu, il était de 10,3 mols H2/ mol de glucose, beaucoup plus élevé que celui rapporté antérieurement et proche de la valeur maximale théorique de 12 mols H2/ mol de glucose. Dans les cultures en batch l'efficacité maximale de conversion d’énergie lumineuse était de 0,7% alors qu'elle était de 1,34% dans les cultures en continu avec un rendement de conversion maximum de la valeur de chauffage du glucose de 91,14%. Diverses autres approches pour l'augmentation des rendements des processus de photofermentation sont proposées. Les résultats globaux indiquent qu'un processus photofermentatif efficace de production d'H2 à partir du glucose en une seule étape avec des cultures en continu dans des photobioréacteurs pourrait être développé ce qui serait un processus beaucoup plus prometteur que les processus en deux étapes ou avec les co-cultures étudiés antérieurément. En outre, l'expression hétérologue d’hydrogenase a été utilisée comme une stratégie d'ingénierie métabolique afin d'améliorer la production d'H2 par fermentation. La capacité d'exprimer une hydrogénase d'une espèce avec des gènes de maturation d'une autre espèce a été examinée. Une stratégie a démontré que la protéine HydA orpheline de R. rubrum est fonctionnelle et active lorsque co-exprimée chez Escherichia coli avec HydE, HydF et HydG provenant d'organisme différent. La co-expression des gènes [FeFe]-hydrogénase structurels et de maturation dans des micro-organismes qui n'ont pas une [FeFe]-hydrogénase indigène peut entraîner le succès dans l'assemblage et la biosynthèse d'hydrogénase active. Toutefois, d'autres facteurs peuvent être nécessaires pour obtenir des rendements considérablement augmentés en protéines ainsi que l'activité spécifique des hydrogénases recombinantes. Une autre stratégie a consisté à surexprimer une [FeFe]-hydrogénase très active dans une souche hôte de E. coli. L'expression d'une hydrogénase qui peut interagir directement avec le NADPH est souhaitable car cela, plutôt que de la ferrédoxine réduite, est naturellement produit par le métabolisme. Toutefois, la maturation de ce type d'hydrogénase chez E. coli n'a pas été rapportée auparavant. L'opéron hnd (hndA, B, C, D) de Desulfovibrio fructosovorans code pour une [FeFe]-hydrogénase NADP-dépendante, a été exprimé dans différentes souches d’E. coli avec les gènes de maturation hydE, hydF et hydG de Clostridium acetobutylicum. L'activité de l'hydrogénase a été détectée in vitro, donc une NADP-dépendante [FeFe]-hydrogénase multimérique active a été exprimée avec succès chez E. coli pour la première fois. Les recherches futures pourraient conduire à l'expression de cette enzyme chez les souches de E. coli qui produisent plus de NADPH, ouvrant la voie à une augmentation des rendements d'hydrogène via la voie des pentoses phosphates.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.
Resumo:
Rapport de stage présenté à l'école de Criminologie de la Faculté des arts et sciences en vue de l'obtention du grade de Maître ès sciences (M.Sc.) en criminologie.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
La vaccination qui est le sujet sur lequel porte cette recherche est une des questions de santé publique les plus importantes; elle fait néanmoins l’objet de nombreuses controverses. Dans le contexte de cette thèse, c’est plutôt l’accès à la vaccination qui est mis en question. La présente recherche vise à analyser une stratégie d’amélioration de la couverture vaccinale à l’aide d’une évaluation de processus extensive en trois étapes faisant suite à une documentation approfondie du contexte. En effet, la recherche analyse les perceptions et les facteurs d’influence de la couverture vaccinale avant l’intervention, les assises conceptuelles et théoriques de cette intervention, l’implantation et la réception de l’intervention et enfin les résultats et les mécanismes mis en œuvre pour les atteindre. Les résultats indiquent que la vaccination s’insère dans l’ensemble des stratégies locales de protection fondées sur des notions endogènes du risque. Ces éléments culturels associés à des facteurs socioéconomiques et aux rapports entre parents et services de santé concourent à expliquer un niveau relativement bas de couverture vaccinale complète de 50% avant l’intervention. L’analyse exploratoire de l’intervention indique que celle-ci intègre une théorie initiale implicite et une philosophie. L’intervention finale était évaluable; cependant, la validation de sa théorie a été compromise par des écarts dans l’implantation. L’approche descriptive montre des taux de réalisation d’activités assez élevés, une atteinte de plus de 95% des cibles et un niveau de réception acceptable, ce qui indique que l’intervention est une stratégie réalisable mais à améliorer. La couverture vaccinale après l’intervention est de 87%; elle est influencée positivement par les niveaux de connaissance élevés des parents et le fait pour les enfants d’être nés dans un centre de santé, et négativement par l’éloignement par rapport au site de vaccination. L’atteinte des résultats suit la procédure principale d’amélioration du niveau de connaissance des parents. Celle-ci est basée sur un mécanisme latent qui est la perception des « opportunités » que fournit la vaccination pour prévenir divers risques sanitaires, sociaux et économiques. Cependant, des approches complémentaires tentent de maximiser les effets de l’intervention en utilisant les pouvoirs conférés aux relais communautaires féminins et la coercition sociale. Cette recherche contribue à éclairer la relation entre l’évaluation du processus et l’analyse de l’évaluabilité, à conceptualiser et opérationnaliser autrement les notions de doses d’intervention administrées et de doses reçues. Sur le plan de la pratique, la recherche contribue à proposer l’amélioration des profils de personnel pour les activités de vaccination et la vulgarisation de la stratégie. Des propositions sont faites pour l’amélioration de l’intervention et l’information des institutions de financement des interventions.
Resumo:
Dans ce mémoire, nous présentons la notion de placage développée par DaryushShayegan. Le placage lie dans un espace interépistémique deux épistémès (tradition et modernité) hétéromorphes. Puisque les deux épistémès ne peuvent être mises en relation sans réduction, leur chevauchement aboutit à des distorsions. En adoptant une posture d’herméneute, nous mettons à nu les structures du texte qui définissent la notion de placage. Puis, nous nous interrogeons sur les « implications non claires », ces aprioris de l’auteur qui marquent le texte. Ce processus nous amène à définir la notion de paradigme (Kuhn), celle d’épistémè (Foucault) et de saisir quelle utilisation en fait DaryushShayegan dans la construction du placage. Dans la seconde partie, nous discutons la problématique de la hiérarchisation des épistémès. Alors que la position de DaryushShayegan comporte des relents de néo-orientalisme, nous voyons que les approches rhizomique et traditionaliste dissolvent la problématique en question.