205 resultados para Logique des classes


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les fructose-1,6-bisphosphate aldolases (FBPA) sont des enzymes glycolytiques (EC 4.1.2.13) qui catalysent la transformation réversible du fructose-1,6-bisphosphate (FBP) en deux trioses-phosphates, le glycéraldéhyde-3-phosphate (G3P) et le dihydroxyacétone phosphate (DHAP). Il existe deux classes de FBPA qui diffèrent au niveau de leur mécanisme catalytique. Les classes I passent par la formation d’un intermédiaire covalent de type iminium alors que les classes II, métallodépendantes, utilisent généralement un zinc catalytique. Contrairement au mécanisme des classes I qui a été très étudié, de nombreuses interrogations subsistent au sujet de celui des classes II. Nous avons donc entrepris une analyse détaillée de leur mécanisme réactionnel en nous basant principalement sur la résolution de structures cristallographiques. De nombreux complexes à haute résolution furent obtenus et ont permis de détailler le rôle de plusieurs résidus du site actif de l’enzyme. Nous avons ainsi corrigé l’identification du résidu responsable de l’abstraction du proton de l’O4 du FBP, une étape cruciale du mécanisme. Ce rôle, faussement attribué à l’Asp82 (chez Helicobacter pylori), est en fait rempli par l’His180, un des résidus coordonant le zinc. L’Asp82 n’en demeure pas moins essentiel car il oriente, active et stabilise les substrats. Enfin, notre étude met en évidence le caractère dynamique de notre enzyme dont la catalyse nécessite la relocalisation du zinc et de nombreux résidus. La dynamique de la protéine ne permet pas d’étudier tous les aspects du mécanisme uniquement par l’approche cristallographique. En particulier, le résidu effectuant le transfert stéréospécifique du proton pro(S) sur le carbone 3 (C3) du DHAP est situé sur une boucle qui n’est visible dans aucune de nos structures. Nous avons donc développé un protocole de dynamique moléculaire afin d’étudier sa dynamique. Validé par l’étude d’inhibiteurs de la classe I, l’application de notre protocole aux FBPA de classe II a confirmé l’identification du résidu responsable de cette abstraction chez Escherichia coli (Glu182) mais pointe vers un résidu diffèrent chez H. pylori (Glu149 au lieu de Glu142). Nos validations expérimentales confirment ces observations et seront consolidées dans le futur. Les FBPA de classe II sont absentes du protéome humain mais sont retrouvées chez de nombreux pathogènes, pouvant même s'y révéler essentielles. Elles apparaissent donc comme étant une cible idéale pour le développement de nouveaux agents anti-microbiens. L’obtention de nouveaux analogues des substrats pour ces enzymes a donc un double intérêt, obtenir de nouveaux outils d’étude du mécanisme mais aussi développer des molécules à visée pharmacologique. En collaboration avec un groupe de chimistes, nous avons optimisé le seul inhibiteur connu des FBPA de classe II. Les composés obtenus, à la fois plus spécifiques et plus puissants, permettent d’envisager une utilisation pharmacologique. En somme, c’est par l’utilisation de techniques complémentaires que de nouveaux détails moléculaires de la catalyse des FBPA de classe II ont pu être étudiés. Ces techniques permettront d’approfondir la compréhension fine du mécanisme catalytique de l’enzyme et offrent aussi de nouvelles perspectives thérapeutiques.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Nous proposons une approche probabiliste afin de déterminer l’impact des changements dans les programmes à objets. Cette approche sert à prédire, pour un changement donné dans une classe du système, l’ensemble des autres classes potentiellement affectées par ce changement. Cette prédiction est donnée sous la forme d’une probabilité qui dépend d’une part, des interactions entre les classes exprimées en termes de nombre d’invocations et d’autre part, des relations extraites à partir du code source. Ces relations sont extraites automatiquement par rétro-ingénierie. Pour la mise en oeuvre de notre approche, nous proposons une approche basée sur les réseaux bayésiens. Après une phase d’apprentissage, ces réseaux prédisent l’ensemble des classes affectées par un changement. L’approche probabiliste proposée est évaluée avec deux scénarios distincts mettant en oeuvre plusieurs types de changements effectués sur différents systèmes. Pour les systèmes qui possèdent des données historiques, l’apprentissage a été réalisé à partir des anciennes versions. Pour les systèmes dont on ne possède pas assez de données relatives aux changements de ses versions antécédentes, l’apprentissage a été réalisé à l’aide des données extraites d’autres systèmes.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L’amélioration de la qualité de l’utilisation des médicaments dans les soins primaires est devenue un enjeu crucial. Les pharmaciens communautaires se présentent comme des acteurs centraux dans l’atteinte de cet objectif, en réclamant une extension de leur rôle. L’objectif principal de cette thèse est de mieux comprendre comment les technologies de prescription informatisée (eRx) influencent la transformation du rôle des pharmaciens communautaires. Le premier article présente les résultats d’une étude de cas qui aborde la transformation du rôle des pharmaciens communautaires à partir du concept de professionnalisation. Elle propose un modèle logique des influences d’une technologie de eRx sur cette professionnalisation, élaboré à partir de la typologie de Davenport. Ce modèle logique a été validé en interviewant douze pharmaciens communautaires participant à un projet pilote typique de technologie de eRx. A partir des perceptions des pharmaciens communautaires, nous avons établi que la technologie était susceptible de soutenir la professionnalisation des pharmaciens en passant par cinq mécanismes : la capacité analytique, l’élimination des intermédiaires, l’intégration, l’automatisation et la diffusion des connaissances. Le deuxième article analyse les perturbations induites par les différentes fonctions des technologies de eRx sur la stabilité de la juridiction des pharmaciens communautaires, en se basant sur un cadre de référence adapté d’Abbott. À partir de trente-trois entrevues, avec des praticiens (médecins et pharmaciens) et des élites, cette étude de cas a permis de décrire en détail les influences des différentes fonctions sur les modalités d’action des professionnels, ainsi que les enjeux soulevés par ces possibilités. La perturbation principale est liée aux changements dans la distribution des informations, ce qui influence les activités de diagnostic et d’inférence des professionnels. La technologie peut redistribuer les informations relatives à la gestion des médicaments autant au bénéfice des médecins qu’au bénéfice des pharmaciens, ce qui suscite des tensions entre les médecins et les pharmaciens, mais aussi parmi les pharmaciens. Le troisième article présente une revue systématique visant à faire une synthèse des études ayant évalué les effets des technologies de eRx de deuxième génération sur la gestion des médicaments dans les soins primaires. Cette revue regroupe dix-neuf études menées avec des méthodes observationnelles. Les résultats rapportés révèlent que les technologies sont très hétérogènes, le plus souvent immatures, et que les effets ont été peu étudiés au-delà des perceptions des utilisateurs, qui sont mitigées. Le seul effet positif démontré est une amélioration de la qualité du profil pharmacologique accessible aux professionnels, alors que des effets négatifs ont été démontrés au niveau de l’exécution des prescriptions, tels que l’augmentation du nombre d’appels de clarification du pharmacien au prescripteur. Il semble donc que l’on en connaisse peu sur les effets des technologies de eRx de deuxième génération. Ces trois études permettent de constater que les nouvelles technologies de eRx peuvent effectivement influencer la transformation du rôle du pharmacien communautaire en perturbant les caractéristiques des prescriptions, et surtout, l’information et sa distribution. Ces perturbations génèrent des possibilités pour une extension du rôle des pharmaciens communautaires, tout en soulignant les défis intra et interprofessionnels associés à l’actualisation de ces possibilités. Dans l’ensemble, nos résultats soulignent que les perturbations associées aux technologies de eRx dépassent les éléments techniques du travail des utilisateurs, pour englober de multiples perturbations quant à la nature même du travail et du rôle des professionnels. Les décideurs et acteurs impliqués dans le déploiement des technologies de eRx auraient avantage à prendre en compte l’ensemble de ces considérations pour rapprocher les effets observés des bénéfices promis de ces technologies.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les problèmes de satisfaction de contraintes, qui consistent à attribuer des valeurs à des variables en respectant un ensemble de contraintes, constituent une large classe de problèmes naturels. Pour étudier la complexité de ces problèmes, il est commode de les voir comme des problèmes d'homomorphismes vers des structures relationnelles. Un axe de recherche actuel est la caractérisation des classes de complexité auxquelles appartient le problème d'homomorphisme, ceci dans la perspective de confirmer des conjectures reliant les propriétés algébriques des structures relationelles à la complexité du problème d'homomorphisme. Cette thèse propose dans un premier temps la caractérisation des digraphes pour lesquels le problème d'homomorphisme avec listes appartient à FO. On montre également que dans le cas du problèmes d'homomorphisme avec listes sur les digraphes télescopiques, les conjectures reliant algèbre et complexité sont confirmées. Dans un deuxième temps, on caractérise les graphes pour lesquels le problème d'homomorphisme avec listes est résoluble par cohérence d'arc. On introduit la notion de polymorphisme monochromatique et on propose un algorithme simple qui résoud le problème d'homomorphisme avec listes si le graphe cible admet un polymorphisme monochromatique TSI d'arité k pour tout k ≥ 2.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les milieux humides remplissent plusieurs fonctions écologiques d’importance et contribuent à la biodiversité de la faune et de la flore. Même s’il existe une reconnaissance croissante sur l’importante de protéger ces milieux, il n’en demeure pas moins que leur intégrité est encore menacée par la pression des activités humaines. L’inventaire et le suivi systématique des milieux humides constituent une nécessité et la télédétection est le seul moyen réaliste d’atteindre ce but. L’objectif de cette thèse consiste à contribuer et à améliorer la caractérisation des milieux humides en utilisant des données satellites acquises par des radars polarimétriques en bande L (ALOS-PALSAR) et C (RADARSAT-2). Cette thèse se fonde sur deux hypothèses (chap. 1). La première hypothèse stipule que les classes de physionomies végétales, basées sur la structure des végétaux, sont plus appropriées que les classes d’espèces végétales car mieux adaptées au contenu informationnel des images radar polarimétriques. La seconde hypothèse stipule que les algorithmes de décompositions polarimétriques permettent une extraction optimale de l’information polarimétrique comparativement à une approche multipolarisée basée sur les canaux de polarisation HH, HV et VV (chap. 3). En particulier, l’apport de la décomposition incohérente de Touzi pour l’inventaire et le suivi de milieux humides est examiné en détail. Cette décomposition permet de caractériser le type de diffusion, la phase, l’orientation, la symétrie, le degré de polarisation et la puissance rétrodiffusée d’une cible à l’aide d’une série de paramètres extraits d’une analyse des vecteurs et des valeurs propres de la matrice de cohérence. La région du lac Saint-Pierre a été sélectionnée comme site d’étude étant donné la grande diversité de ses milieux humides qui y couvrent plus de 20 000 ha. L’un des défis posés par cette thèse consiste au fait qu’il n’existe pas de système standard énumérant l’ensemble possible des classes physionomiques ni d’indications précises quant à leurs caractéristiques et dimensions. Une grande attention a donc été portée à la création de ces classes par recoupement de sources de données diverses et plus de 50 espèces végétales ont été regroupées en 9 classes physionomiques (chap. 7, 8 et 9). Plusieurs analyses sont proposées pour valider les hypothèses de cette thèse (chap. 9). Des analyses de sensibilité par diffusiogramme sont utilisées pour étudier les caractéristiques et la dispersion des physionomies végétales dans différents espaces constitués de paramètres polarimétriques ou canaux de polarisation (chap. 10 et 12). Des séries temporelles d’images RADARSAT-2 sont utilisées pour approfondir la compréhension de l’évolution saisonnière des physionomies végétales (chap. 12). L’algorithme de la divergence transformée est utilisé pour quantifier la séparabilité entre les classes physionomiques et pour identifier le ou les paramètres ayant le plus contribué(s) à leur séparabilité (chap. 11 et 13). Des classifications sont aussi proposées et les résultats comparés à une carte existante des milieux humide du lac Saint-Pierre (14). Finalement, une analyse du potentiel des paramètres polarimétrique en bande C et L est proposé pour le suivi de l’hydrologie des tourbières (chap. 15 et 16). Les analyses de sensibilité montrent que les paramètres de la 1re composante, relatifs à la portion dominante (polarisée) du signal, sont suffisants pour une caractérisation générale des physionomies végétales. Les paramètres des 2e et 3e composantes sont cependant nécessaires pour obtenir de meilleures séparabilités entre les classes (chap. 11 et 13) et une meilleure discrimination entre milieux humides et milieux secs (chap. 14). Cette thèse montre qu’il est préférable de considérer individuellement les paramètres des 1re, 2e et 3e composantes plutôt que leur somme pondérée par leurs valeurs propres respectives (chap. 10 et 12). Cette thèse examine également la complémentarité entre les paramètres de structure et ceux relatifs à la puissance rétrodiffusée, souvent ignorée et normalisée par la plupart des décompositions polarimétriques. La dimension temporelle (saisonnière) est essentielle pour la caractérisation et la classification des physionomies végétales (chap. 12, 13 et 14). Des images acquises au printemps (avril et mai) sont nécessaires pour discriminer les milieux secs des milieux humides alors que des images acquises en été (juillet et août) sont nécessaires pour raffiner la classification des physionomies végétales. Un arbre hiérarchique de classification développé dans cette thèse constitue une synthèse des connaissances acquises (chap. 14). À l’aide d’un nombre relativement réduit de paramètres polarimétriques et de règles de décisions simples, il est possible d’identifier, entre autres, trois classes de bas marais et de discriminer avec succès les hauts marais herbacés des autres classes physionomiques sans avoir recours à des sources de données auxiliaires. Les résultats obtenus sont comparables à ceux provenant d’une classification supervisée utilisant deux images Landsat-5 avec une exactitude globale de 77.3% et 79.0% respectivement. Diverses classifications utilisant la machine à vecteurs de support (SVM) permettent de reproduire les résultats obtenus avec l’arbre hiérarchique de classification. L’exploitation d’une plus forte dimensionalitée par le SVM, avec une précision globale maximale de 79.1%, ne permet cependant pas d’obtenir des résultats significativement meilleurs. Finalement, la phase de la décomposition de Touzi apparaît être le seul paramètre (en bande L) sensible aux variations du niveau d’eau sous la surface des tourbières ouvertes (chap. 16). Ce paramètre offre donc un grand potentiel pour le suivi de l’hydrologie des tourbières comparativement à la différence de phase entre les canaux HH et VV. Cette thèse démontre que les paramètres de la décomposition de Touzi permettent une meilleure caractérisation, de meilleures séparabilités et de meilleures classifications des physionomies végétales des milieux humides que les canaux de polarisation HH, HV et VV. Le regroupement des espèces végétales en classes physionomiques est un concept valable. Mais certaines espèces végétales partageant une physionomie similaire, mais occupant un milieu différent (haut vs bas marais), ont cependant présenté des différences significatives quant aux propriétés de leur rétrodiffusion.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L'objectif de ce mémoire est de comprendre la neutralité axiologique non pas comme une exigence épistémologique, mais plutôt comme un idéal éducationnel. Max Weber propose une science basée sur la description factuelle, de laquelle on exclut la formulation de jugements de valeur. Pour l'auteur, il est préférable de séparer les jugements descriptifs des jugements évaluatifs dans le but de préserver l'autonomie intellectuelle des étudiants. Comme il serait contraire au principe d'autonomie de laisser le professeur influencer et convaincre ses étudiants, de façon partisane, d'adhérer à certaines thèses normatives, Weber propose un mécanisme pour éviter que le professeur n'influence ses étudiants de manière illégitime. Les critiques contemporaines de la neutralité axiologique, en particulier celles de Sen et Putnam, voient dans le critère de neutralité un rejet de l'entrelacement logique des faits et des valeurs. Ils critiquent la supposée subjectivité des valeurs et, ce faisant, défendent une conception enrichie de la science où les valeurs éthiques sont présentes. Weber n'a jamais défendu qu'il était impossible de mener une analyse à la fois descriptive et normative. Seulement, on doit s'interroger sur les lieux où s'exprime la normativité, et s'assurer que toutes les conditions sont présentes pour qu'une discussion normative tende réellement à l'objectivité.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Cette recherche a pour but d’étudier les pratiques enseignantes de soutien auprès des élèves immigrants récemment arrivés au Québec, ne maîtrisant pas le français et intégrés dans des classes ordinaires au primaire. Pour ce faire, nous avons mené une recherche de type qualitatif avec deux enseignantes et leurs trois élèves immigrantes. Afin de documenter les pratiques de soutien en contexte réel de la classe, comprendre les raisons des enseignantes à l’égard du soutien et le point de vue des élèves, nous avons procédé à des observations de classe et à des entrevues individuelles générales et spécifiques avec les participantes, en plus de consulter certaines productions écrites des élèves immigrantes participantes. La présentation des données prend la forme d’une étude multicas décrivant les pratiques de soutien mises en place par chacune des deux enseignantes à partir de 22 séquences de soutien qui ont été décrites en tenant compte du contexte de chaque classe, puis analysées à la lumière de deux cadres théoriques complémentaires, le cadre d’analyse du travail enseignant et l’approche sociohistorico-culturelle. Les résultats de cette recherche mettent en exergue le sens de la pratique enseignante de soutien qui se coconstruit dans les interactions entre l’enseignante et l’élève, selon leurs apports mutuels, et selon les facteurs de la classe. L’analyse des raisons des enseignantes à l’égard du soutien montre que devant les difficultés des élèves immigrantes anticipées, constatées ou signalées, les enseignantes prennent des décisions pour prendre ces difficultés en considération, les traiter et mettre en place des pratiques de soutien. Les décisions des enseignantes découlent d’un processus de négociation interne entre la prise en compte des difficultés, notamment imprévues, et le maintien de leurs tâches prescrites, tout en considérant les facteurs contextuels de la classe. Le processus de négociation se poursuit et se déplace ensuite entre l’enseignante et l’élève, lesquelles construisent le sens de soutien à travers leurs interactions. Les concepts empruntés de l’approche sociohistorico-culturelle nous permettent de comprendre la relation dialectique entre l’élève et l’enseignante lors des interactions. Les deux s’ajustent l’une par rapport à l’autre dans le but d’arriver à un consensus sur le sens de la difficulté. De ce fait, la pratique enseignante de soutien est construite suite aux négociations entre l’élève et l’enseignante, mais aussi suite à la négociation interne de l’enseignante, et ce, dépendamment des facteurs du contexte. Notre recherche a contribué à apporter cette clarification sur la manière d’appréhender les pratiques enseignantes de soutien en contexte de classe ordinaire.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Le sujet de la présente étude est la violence scolaire, phénomène complexe et polysémique qui préoccupe légitimement le monde de l’éducation depuis plus de trente ans. À partir des analyses factorielles exploratoires, analyses de variance factorielle et finalement analyses multivariées de covariance, cette recherche vise plus précisément à dégager la relation entre le climat scolaire, le contexte scolaire et les différents rôles adoptés par les élèves du niveau secondaire lors d’une situation de violence scolaire. Les données de la présente étude ont été collectées par Michel Janosz et son équipe pendant l’année 2010, dans quatre établissements éducatifs provenant d’une commission scolaire de la grande région de Montréal. L’échantillon de départ est composé de 1750 élèves qui fréquentent des classes ordinaires et spéciales du premier et deuxième cycle du secondaire âgés entre 10 et 18 ans. Pour fins d’analyse, deux petites écoles ainsi que les classes spéciales ont été retirées. Il demeure donc 1551 élèves dans l’échantillon initial analysé. Les résultats des analyses permettent de constater d’une part, la relation significative existante entre les dimensions du climat scolaire et l’adoption des différents rôles lors d’une situation de violence scolaire, les climats d’appartenance et de sécurité étant les plus importants, et d’autre part d’observer des différences dans les perceptions que les élèves ont de la violence scolaire selon le niveau et selon l’école.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La Petite danseuse de quatorze ans (1881) de l’artiste français Edgar Degas (1834-1917) représente et déforme plusieurs catégories sociales et artistiques de son époque. L’œuvre peut ainsi être lue comme une mise en abyme à la fois des changements sociaux et des peurs qu’ils suscitent quant aux redéfinitions du rôle et de la place de la sculpture dans l’art et de l’art, des classes sociales, de la science et de la femme dans la société qui s’opèrent dans la seconde moitié du 19e siècle. D’une mise en contexte de l’œuvre à une analyse de la figure de la ballerine, en passant par une lecture du monde de la poupée et de la criminalité, nous chercherons à montrer comment l’œuvre offre une lecture subversive des valeurs qui sous-tendent ces catégories structurelles du Paris industriel. Ce jeu des catégories fait de la Petite danseuse une œuvre instable et ambiguë à l’image, peut-être exacerbée, de la société. La sculpture de Degas joue avec et surtout entre ces divers pôles de la société parisienne, décloisonnant ceux-ci et proposant une autre façon de comprendre la société contemporaine. Prenant ancrage dans un discours critique postmoderne, féministe et postcolonialist, le présent travail se propose ainsi de réactualiser la fonction critique de l’œuvre.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A l’époque de la Nouvelle-France, il n’était pas rare que des enfants de moins d’un an décèdent. Les parents acceptaient avec sagesse et résignation le décès de leurs enfants. Telle était la volonté du Tout-Puissant. Grâce au Registre de la Population du Québec Ancien (R.P.Q.A.) élaboré par le Programme de Recherche en Démographie Historique (P.R.D.H), l’ampleur de la mortalité infantile a pu être mesurée selon plusieurs critères, quelques facteurs déterminants examinés ainsi qu’une composante intergénérationnelle identifiée. Couvrant pour la première fois la totalité de l’existence de la colonie, nos résultats confirment l’importance de la mortalité des enfants aux XVIIe et XVIIIe siècles (entre 140 et 260‰ avant correction pour le sous-enregistrement des décès). Des disparités tangibles ont été constatées entre les sexes, selon le lieu de naissance ainsi que selon la catégorie professionnelle à laquelle appartient le père de l’enfant. L’inégalité des probabilités de survie des tout-petits reflète l’iniquité physiologique entre les genres, avec une surmortalité masculine de l’ordre de 20%, et l’influence de l’environnement dans lequel vit la famille : les petits de la ville de Québec décédaient en moyenne 1,5 à 1,2 fois plus que les petits des campagnes. Montréal, véritable hécatombe pour l’instant inexpliquée, perdait 50% de ses enfants avant l’âge d’un an, ce qui représente 1,9 fois plus de décès infantiles que ceux des enfants de la campagne, qui jouissent malgré tout des bienfaits de leur environnement. Les effets délétères de l’usage de la mise en nourrice, qui touche plus de la moitié des enfants des classes aisées citadines, ravagent leur descendance de plus en plus profondément. L’examen de la mortalité infantile sous ses composantes endogène et exogène révèle que la mortalité de causes exogènes explique au moins 70% de tous les décès infantiles. La récurrence des maladies infectieuses, l’absence d’hygiène personnelle, l’insalubrité des villes constituaient autant de dangers pour les enfants. Dans une perspective davantage familiale et intergénérationnelle où l’enfant est partie intégrante d’une fratrie, des risques significatifs ont été obtenus pour plusieurs caractéristiques déterminantes. Les mères de moins de 20 ans ou de plus de 30 ans, les enfants de rang de naissance supérieur à 8, un intervalle intergénésique inférieur à 21 mois ou avoir son aîné décédé accroissent les risques de décéder avant le premier anniversaire de l’ordre de 10 à 70%, parce que le destin d’un enfant n’est pas indépendant des caractéristiques de sa mère ou de sa fratrie. Nous avons aussi constaté une relation positive entre la mortalité infantile expérimentée par une mère et celle de ses filles. La distribution observée des filles ayant perdu au moins 40% de leurs enfants au même titre que leur mère est 1,3 à 1,9 fois plus grande que celle attendue pour les filles ayant eu 9 enfants et moins ou 10 enfants et plus. Il existerait une transmission intergénérationnelle de la mortalité infantile même lorsqu’on contrôle pour la période et la taille de la famille.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Lors de ces dix dernières années, le coût de la maintenance des systèmes orientés objets s'est accru jusqu' à compter pour plus de 70% du coût total des systèmes. Cette situation est due à plusieurs facteurs, parmi lesquels les plus importants sont: l'imprécision des spécifications des utilisateurs, l'environnement d'exécution changeant rapidement et la mauvaise qualité interne des systèmes. Parmi tous ces facteurs, le seul sur lequel nous ayons un réel contrôle est la qualité interne des systèmes. De nombreux modèles de qualité ont été proposés dans la littérature pour contribuer à contrôler la qualité. Cependant, la plupart de ces modèles utilisent des métriques de classes (nombre de méthodes d'une classe par exemple) ou des métriques de relations entre classes (couplage entre deux classes par exemple) pour mesurer les attributs internes des systèmes. Pourtant, la qualité des systèmes par objets ne dépend pas uniquement de la structure de leurs classes et que mesurent les métriques, mais aussi de la façon dont celles-ci sont organisées, c'est-à-dire de leur conception, qui se manifeste généralement à travers les patrons de conception et les anti-patrons. Dans cette thèse nous proposons la méthode DEQUALITE, qui permet de construire systématiquement des modèles de qualité prenant en compte non seulement les attributs internes des systèmes (grâce aux métriques), mais aussi leur conception (grâce aux patrons de conception et anti-patrons). Cette méthode utilise une approche par apprentissage basée sur les réseaux bayésiens et s'appuie sur les résultats d'une série d'expériences portant sur l'évaluation de l'impact des patrons de conception et des anti-patrons sur la qualité des systèmes. Ces expériences réalisées sur 9 grands systèmes libres orientés objet nous permettent de formuler les conclusions suivantes: • Contre l'intuition, les patrons de conception n'améliorent pas toujours la qualité des systèmes; les implantations très couplées de patrons de conception par exemple affectent la structure des classes et ont un impact négatif sur leur propension aux changements et aux fautes. • Les classes participantes dans des anti-atrons sont beaucoup plus susceptibles de changer et d'être impliquées dans des corrections de fautes que les autres classes d'un système. • Un pourcentage non négligeable de classes sont impliquées simultanément dans des patrons de conception et dans des anti-patrons. Les patrons de conception ont un effet positif en ce sens qu'ils atténuent les anti-patrons. Nous appliquons et validons notre méthode sur trois systèmes libres orientés objet afin de démontrer l'apport de la conception des systèmes dans l'évaluation de la qualité.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette thèse explore le leitmotiv de la prostitution dans l’oeuvre de Tennessee Williams et soutient que la plupart des personnages de Williams sont engagés dans une forme de prostitution ou une autre. En effectuant une analyse formaliste des textes de Williams qui illustrent toute forme de prostitution, avec une attention particulière à quatre grandes pièces, A Streetcar Named Desire (1947), Cat on a Hot Tin Roof (1955), Suddenly Last Summer (1958) et Sweet Bird of Youth (1959), cette présente étude fait valoir que le dramaturge utilise un mode de fiction—le gothique—en lien avec une pratique transgressive—la prostitution—pour relier les classes sociales et troubler les catégories de prostitution. Ce faisant, Williams offre une vision plus représentative et nuancée de la prostitution. Théoriquement, cette thèse repose sur des oeuvres critiques portant sur le genre, la sexualité et l'histoire de Michel Foucault, David Savran, et Michael Paller afin de situer la dramaturgie de Williams dans le contexte historique et culturel des années 1940 et 1950. La première partie de cette thèse (chapitres un et deux) fournit de nombreuses informations autobiographiques et biographiques qui expliquent pourquoi la prostitution est devenue le thème de prédilection pour Williams. Cette section met l’accent sur sa préoccupation constante à l’égard de sa prostitution artistique (en prostituant son art pour le succès commercial) et sexuelle (en payant pour des prostitués). Cette partie présente également un inventaire détaillé des prostituté(e)s, que je divise en trois catégories: 1) la prostitution des enfants, 2) la prostitution masculine et 3) la prostitution féminine. La deuxième partie de cette étude, composée des chapitres trois et quatre, identifie les personnages de Williams qui s’engagent dans une forme de prostitution morale. Ce groupe comprend ceux qui tirent directement profit de la prostitution des autres ainsi que ceux qui se marient uniquement pour un gain financier ou une promotion sociale ou les deux. L’oeuvre de Williams résiste la représentation stéréotypée de la prostituée en littérature comme étant uniquement de sexe féminin ou provenant des classes sociales défavorisées ou les deux. La prostituée de Williams n’est ni une figure romantique ni une rebelle menaçant la société. Cette thèse conclut qu’en représentant des enfants prostitués, des femmes de rue, des prostitués de sexe masculin, des souteneurs, des proxénètes, des propriétaires de bordels, des leaders corrompus et des personnes qui se prostituent en concluant des mariages de convenance, Williams a effectivement et incontestablement dramatisé la prostitution sous toutes ses formes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les réseaux optiques à commutation de rafales (OBS) sont des candidats pour jouer un rôle important dans le cadre des réseaux optiques de nouvelle génération. Dans cette thèse, nous nous intéressons au routage adaptatif et au provisionnement de la qualité de service dans ce type de réseaux. Dans une première partie de la thèse, nous nous intéressons à la capacité du routage multi-chemins et du routage alternatif (par déflection) à améliorer les performances des réseaux OBS, pro-activement pour le premier et ré-activement pour le second. Dans ce contexte, nous proposons une approche basée sur l’apprentissage par renforcement où des agents placés dans tous les nœuds du réseau coopèrent pour apprendre, continuellement, les chemins du routage et les chemins alternatifs optimaux selon l’état actuel du réseau. Les résultats numériques montrent que cette approche améliore les performances des réseaux OBS comparativement aux solutions proposées dans la littérature. Dans la deuxième partie de cette thèse, nous nous intéressons au provisionnement absolu de la qualité de service où les performances pire-cas des classes de trafic de priorité élevée sont garanties quantitativement. Plus spécifiquement, notre objectif est de garantir la transmission sans pertes des rafales de priorité élevée à l’intérieur du réseau OBS tout en préservant le multiplexage statistique et l’utilisation efficace des ressources qui caractérisent les réseaux OBS. Aussi, nous considérons l’amélioration des performances du trafic best effort. Ainsi, nous proposons deux approches : une approche basée sur les nœuds et une approche basée sur les chemins. Dans l’approche basée sur les nœuds, un ensemble de longueurs d’onde est assigné à chaque nœud du bord du réseau OBS pour qu’il puisse envoyer son trafic garanti. Cette assignation prend en considération les distances physiques entre les nœuds du bord. En outre, nous proposons un algorithme de sélection des longueurs d’onde pour améliorer les performances des rafales best effort. Dans l’approche basée sur les chemins, le provisionnement absolu de la qualité de service est fourni au niveau des chemins entre les nœuds du bord du réseau OBS. À cette fin, nous proposons une approche de routage et d’assignation des longueurs d’onde qui a pour but la réduction du nombre requis de longueurs d’onde pour établir des chemins sans contentions. Néanmoins, si cet objectif ne peut pas être atteint à cause du nombre limité de longueurs d’onde, nous proposons de synchroniser les chemins en conflit sans le besoin pour des équipements additionnels. Là aussi, nous proposons un algorithme de sélection des longueurs d’onde pour les rafales best effort. Les résultats numériques montrent que l’approche basée sur les nœuds et l’approche basée sur les chemins fournissent le provisionnement absolu de la qualité de service pour le trafic garanti et améliorent les performances du trafic best effort. En outre, quand le nombre de longueurs d’ondes est suffisant, l’approche basée sur les chemins peut accommoder plus de trafic garanti et améliorer les performances du trafic best effort par rapport à l’approche basée sur les nœuds.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les antibiotiques aminoglycosidiques sont des agents bactéricides de grande valeur et d’efficacité à large spectre contre les pathogènes Gram-positifs et Gram-négatifs, dont plusieurs membres naturels et semisynthétiques sont importants dans l’histoire clinique depuis 1950. Des travaux crystallographiques sur le ribosome, récompensés par le prix Nobel, ont démontré comment leurs diverses structures polyaminées sont adaptées pour cibler une hélice d’ARN dans le centre de codage de la sous-unité 30S du ribosome bactérien. Leur interférence avec l’affinité et la cinétique des étapes de sélection et vérification des tARN induit la synthèse de protéines à basse fidélité, et l’inhibition de la translocation, établissant un cercle vicieux d’accumulation d’antibiotique et de stress sur la membrane. En réponse à ces pressions, les pathogènes bactériens ont évolué et disséminé une panoplie de mécanismes de résistance enzymatiques et d’expulsion : tels que les N acétyltransférases, les O phosphotransférases et les O nucleotidyltransférases qui ciblent les groupements hydroxyle et amino sur le coeur des aminoglycosides; des méthyl-transférases, qui ciblent le site de liaison ribosomale; et des pompes d’expulsion actives pour l’élimination sélective des aminoglycosides, qui sont utilisés par les souches Gram-négatives. Les pathogènes les plus problématiques, qui présentent aujourd’hui une forte résilience envers la majorité des classes d’antibiotiques sur le bord de la pan-résistance ont été nommés des bactéries ESKAPE, une mnémonique pour Enterococcus faecium, Staphylococcus aureus, Klebsiella pneumoniae, Acinetobacter baumannii, Pseudomonas aeruginosa et Enterobacteriaceae. La distribution globale des souches avec des mécanismes de résistance envers les standards cliniques aminoglycosides, tels que la tobramycine, l’amikacine et la gentamicine, est comprise entre 20 et 60% des isolées cliniques. Ainsi, les aminoglycosides du type 4,6-disubstitués-2-deoxystreptamine sont inadéquats comme thérapies anti-infectieuses à large spectre. Cependant, la famille des aminoglycosides 4,5-disubstitués, incluant la butirosine, la neomycine et la paromomycine, dont la structure plus complexe, pourrait constituter une alternative. Des collègues dans le groupe Hanessian et collaborateurs d’Achaogen Inc. ont démontré que certains analogues de la paraomomycine et neomycine, modifiés par désoxygénation sur les positions 3’ et 4’, et par substitution avec la chaîne N1-α-hydroxy-γ-aminobutyramide (HABA) provenant de la butirosine, pourrait produire des antibiotiques très prometteurs. Le Chapitre 4 de cette dissertation présente la conception et le développement d’une stratégie semi-synthétique pour produire des nouveaux aminoglycosides améliorés du type 4,5 disubstitués, inspiré par des modifications biosynthétiques de la sisomicine, qui frustrent les mécanismes de résistance bactérienne distribuées globalement. Cette voie de synthèse dépend d’une réaction d’hydrogénolyse de type Tsuji catalysée par palladium, d’abord développée sur des modèles monosaccharides puis subséquemment appliquée pour générer un ensemble d’aminoglycosides hybrides entre la neomycine et la sisomicine. Les études structure-activité des divers analogues de cette nouvelle classe ont été évaluées sur une gamme de 26 souches bactériennes exprimant des mécanismes de résistance enzymatique et d’expulsion qui englobe l’ensemble des pathogènes ESKAPE. Deux des antibiotiques hybrides ont une couverture antibacterienne excellente, et cette étude a mis en évidence des candidats prometteurs pour le développement préclinique. La thérapie avec les antibiotiques aminoglycosidiques est toujours associée à une probabilité de complications néphrotoxiques. Le potentiel de toxicité de chaque aminoglycoside peut être largement corrélé avec le nombre de groupements amino et de désoxygénations. Une hypothèse de longue date dans le domaine indique que les interactions principales sont effectuées par des sels des groupements ammonium, donc l’ajustement des paramètres de pKa pourrait provoquer une dissociation plus rapide avec leurs cibles, une clairance plus efficace et globalement des analogues moins néphrotoxiques. Le Chapitre 5 de cette dissertation présente la conception et la synthèse asymétrique de chaînes N1 HABA β substitutées par mono- et bis-fluoration. Des chaînes qui possèdent des γ-N pKa dans l’intervalle entre 10 et 7.5 ont été appliquées sur une neomycine tétra-désoxygénée pour produire des antibiotiques avancés. Malgré la réduction considérable du γ N pKa, le large spectre bactéricide n’a pas été significativement affecté pour les analogues fluorés isosteriques. De plus, des études structure-toxicité évaluées avec une analyse d’apoptose propriétaire d’Achaogen ont démontré que la nouvelle chaîne β,β difluoro-N1-HABA est moins nocive sur un modèle de cellules de rein humain HK2 et elle est prometteuse pour le développement d’antibiotiques du type neomycine avec des propriétés thérapeutiques améliorées. Le chapitre final de cette dissertation présente la proposition et validation d’une synthèse biomimétique par assemblage spontané du aminoglycoside 66-40C, un dimère C2 symétrique bis-imine macrocyclique à 16 membres. La structure proposée du macrocycle a été affinée par spectroscopie nucléaire à un système trans,trans-bis-azadiène anti-parallèle. Des calculs indiquent que l’effet anomérique de la liaison α glycosidique entre les anneaux A et B fournit la pré-organisation pour le monomère 6’ aldéhydo sisomicine et favorise le produit macrocyclique observé. L’assemblage spontané dans l’eau a été étudié par la dimérisation de trois divers analogues et par des expériences d’entre croisement qui ont démontré la généralité et la stabilité du motif macrocyclique de l'aminoglycoside 66-40C.