604 resultados para Problème de Snell


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gowers, dans son article sur les matrices quasi-aléatoires, étudie la question, posée par Babai et Sos, de l'existence d'une constante $c>0$ telle que tout groupe fini possède un sous-ensemble sans produit de taille supérieure ou égale a $c|G|$. En prouvant que, pour tout nombre premier $p$ assez grand, le groupe $PSL_2(\mathbb{F}_p)$ (d'ordre noté $n$) ne posséde aucun sous-ensemble sans produit de taille $c n^{8/9}$, il y répond par la négative. Nous allons considérer le probléme dans le cas des groupes compacts finis, et plus particuliérement des groupes profinis $SL_k(\mathbb{Z}_p)$ et $Sp_{2k}(\mathbb{Z}_p)$. La premiére partie de cette thése est dédiée à l'obtention de bornes inférieures et supérieures exponentielles pour la mesure suprémale des ensembles sans produit. La preuve nécessite d'établir préalablement une borne inférieure sur la dimension des représentations non-triviales des groupes finis $SL_k(\mathbb{Z}/(p^n\mathbb{Z}))$ et $Sp_{2k}(\mathbb{Z}/(p^n\mathbb{Z}))$. Notre théoréme prolonge le travail de Landazuri et Seitz, qui considérent le degré minimal des représentations pour les groupes de Chevalley sur les corps finis, tout en offrant une preuve plus simple que la leur. La seconde partie de la thése à trait à la théorie algébrique des nombres. Un polynome monogéne $f$ est un polynome unitaire irréductible à coefficients entiers qui endengre un corps de nombres monogéne. Pour un nombre premier $q$ donné, nous allons montrer, en utilisant le théoréme de densité de Tchebotariov, que la densité des nombres premiers $p$ tels que $t^q -p$ soit monogéne est supérieure ou égale à $(q-1)/q$. Nous allons également démontrer que, quand $q=3$, la densité des nombres premiers $p$ tels que $\mathbb{Q}(\sqrt[3]{p})$ soit non monogéne est supérieure ou égale à $1/9$.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le problème d’oscillation de fluides dans un conteneur est un problème classique d’hydrodynamique qui est etudié par des mathématiciens et ingénieurs depuis plus de 150 ans. Le présent travail est lié à l’étude de l’alternance des fonctions propres paires et impaires du problème de Steklov-Neumann pour les domaines à deux dimensions ayant une forme symétrique. On obtient des résultats sur la parité de deuxième et troisième fonctions propres d’un tel problème pour les trois premiers modes, dans le cas de domaines symétriques arbitraires. On étudie aussi la simplicité de deux premières valeurs propres non nulles d’un tel problème. Il existe nombre d’hypothèses voulant que pour le cas des domaines symétriques, toutes les valeurs propres sont simples. Il y a des résultats de Kozlov, Kuznetsov et Motygin [1] sur la simplicité de la première valeur propre non nulle obtenue pour les domaines satisfaisants la condition de John. Dans ce travail, il est montré que pour les domaines symétriques, la deuxième valeur propre non-nulle du problème de Steklov-Neumann est aussi simple.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si le rapport entre Derrida et Bergson n’a pas fait l’objet de nombreuses études, les commentaires existants témoignent à peu près tous d’une vision commune : entre les deux philosophes, les divergences peuvent être atténuées, voire dissoutes, par la considération de convergences plus fondamentales. Les pages qui suivent seront l’occasion pour nous de faire contrepoids à cette vulgate interprétative. Sans nier l’existence de points de contact entre Derrida et Bergson, nous voudrions en effet montrer qu’un important désaccord subsiste entre eux au sujet de la possibilité de l’intuition. Alors que Derrida met en cause les doctrines intuitionnistes, Bergson érige l’intuition en méthode philosophique. Le présent mémoire prendra pour fil conducteur les motifs de cette discorde. Réduit à sa plus simple expression, l’objectif que nous y poursuivrons sera de montrer que les pensées bergsonienne et derridienne, lorsque mises en dialogue, révèlent un désaccord partiel qui permet de réfléchir de façon féconde sur la possibilité de l’intuition. Pour être plus exact, nous caresserons ici une triple ambition : i/ cerner étroitement l’objet du litige entre Derrida et Bergson, trop peu souligné par les commentateurs, et dont nous montrons qu’il s’articule à une entente partielle ; ii/ tirer au clair les diverses raisons qui amènent l’un à s’en prendre à l’intuition, l’autre à embrasser la méthode intuitive ; iii/ établir que certains arguments de Bergson, bien qu’ils connaissent un regain d’intérêt depuis quelques années, paraissent lacunaires lorsqu’on les confronte à différentes objections.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les simulations ont été implémentées avec le programme Java.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire se concentre sur le problème de la régression épistémique. Il s’agit d’un problème très important puisqu’il remet en question la possibilité de la justification. Nous nous intéresserons aux détails de ce problème, ainsi qu’aux réponses qui lui sont offertes. Traditionnellement, deux réponses sont concurrentes : le fondationnalisme et le cohérentisme. La première propose d’arrêter la régression à un fondement, alors que la seconde propose de s’intéresser à la cohérence partagée par les croyances. Toutefois, le but de notre mémoire est de présenter et de défendre une troisième solution : l’infinitisme. Introduite dans les années 1990 par Peter Klein, l’infinitisme est une des plus récentes théories de la justification et, malgré son intérêt, elle est encore très peu défendue. Cette théorie propose de résoudre le problème de la régression en basant la justification des croyances sur des séries infinies et non répétitives de raisons. Cette idée est intéressante, car l’infinitisme renverse le problème d’origine, puisque les régressions infinies sont généralement perçues comme étant un problème pour la connaissance et la source du scepticisme. Notre objectif est de montrer que l’infinitisme est la meilleure solution possible au problème de la régression. Pour ce faire, nous faisons la synthèse des principaux arguments pour l’infinitisme. Cela nous permettra de distinguer trois types d’infinitisme pour ensuite retenir un de ces types, une forme impure d’infinitisme, comme étant le meilleur. Finalement, nous confronterons l’infinitisme à ces critiques pour montrer qu’il s’agit d’une théorie de la justification qui est réellement viable.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les dimères chromosomiques se produisant lors de la réparation de chromosomes circulaires peuvent être dommageables pour les bactéries en bloquant la ségrégation des chromosomes et le bon déroulement de la division cellulaire. Pour remédier à ce problème, les bactéries utilisent le système Xer de monomérisation des chromosomes. Celui-ci est composé de deux tyrosine recombinases, XerC et XerD, qui vont agir au niveau du site dif et procéder à une recombinaison qui aura pour effet de séparer les deux copies de l’ADN. Le site dif est une séquence d’ADN où deux répétitions inversées imparfaites séparées par six paires de bases permettent la liaison de chacune des recombinases. Cette recombinaison est régulée à l’aide de FtsK, une protéine essentielle de l’appareil de division. Ce système a été étudié en profondeur chez Escherichia coli et a aussi été caractérisée dans une multitude d’espèces variées, par exemple Bacillus subtilis. Mais dans certaines espèces du groupe des Streptococcus, des études ont été en mesure d’identifier une seule recombinase, XerS, agissant au niveau d’un site atypique nommée difSL. Peu de temps après, un second système utilisant une seule recombinase a été identifié chez un groupe des epsilon-protéobactéries. La recombinase fut nommée XerH et le site de recombinaison, plus similaire à difSL qu’au site dif classique, difH. Dans cette thèse, des résultats d’expériences in vitro sur les deux systèmes sont présentés, ainsi que certains résultats in vivo. Il est démontré que XerS est en mesure de se lier de façon coopérative à difSL et que cette liaison est asymétrique, puisque XerS est capable de se lier à la moitié gauche du site prise individuellement mais non à la moitié droite. Le clivage par XerS est aussi asymétrique, étant plus efficace au niveau du brin inférieur. Pour ce qui est de XerH, la liaison à difH est beaucoup moins coopérative et n’a pas la même asymétrie. Par contre, le clivage est asymétrique lui aussi. La comparaison de ces deux systèmes montrent qu’ils ne sont pas homologues et que les systèmes Xer à seule recombinase existent sous plusieurs versions. Ces résultats représentent la première découverte d’un espaceur de 11 paires de bases chez les tyrosine recombinases ainsi que la première étude in vitro sur XerH.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse montre comment s’est constituée la figure du génie en France au cours des XVIe, XVIIe et XVIIIe siècles, en mettant en évidence les paradoxes qui lui ont permis de devenir l’une des notions fondamentales de la modernité. Cette analyse s’articule autour de trois axes principaux. D’abord, il s’agit d’interroger les circonstances de l’invention du terme « génie » dans la langue française, en insistant sur son bagage culturel gréco-latin. La notion de génie apparaît alors comme intimement liée au génie de la langue française et à son histoire. Ensuite, l’analyse s’intéresse au rôle que la notion de génie joue dans le cadre régulateur de la théorie poétique à la fin du XVIIe siècle. Le génie, qui se définit alors comme une aptitude naturelle à l’exercice d’une régularité normée du faire, n’a cependant de valeur que si cette régularité est transgressée, dépassée. Cette relation fait apparaître le paradoxe social que représente le génie, considéré à la fois comme exceptionnel et exemplaire. Ce paradoxe du génie est ensuite analysé dans le cadre du développement des théories esthétiques au XVIIIe siècle, fondées sur une expérience communautarisante du beau. Cette problématique est étudiée au regard de l’intérêt des philosophes sensualistes pour le problème que constitue le génie, en particulier quant aux mécanismes de l’invention et de la découverte. À l’issue de ce parcours, il apparaît que le génie est à la fois problématique pour les théories qui tentent de le circonscrire et unificateur pour la communauté qu’il permet d’illustrer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il semble y avoir des attentes réciproques non comblées en formation initiale à l’enseignement des mathématiques. Cherchant à comprendre la genèse de ces attentes, nous nous sommes intéressée à la vision que les étudiants nourrissent des phénomènes d’enseignement. Ayant postulé que les étudiants ont une vision déterministe de ces phénomènes, et considérant que leur anticipation oriente leur projet de formation, nous nous sommes attaquée au problème de la rencontre des projets des étudiants et des formateurs. Deux objectifs généraux ont été formulés : le premier concerne la description des projets de formation des étudiants tandis que le second concerne l’expérimentation d’une séquence de situations susceptible de faire évoluer leurs projets. Cette recherche a été menée auprès de 58 étudiants du baccalauréat en enseignement en adaptation scolaire et sociale d’une même université, lesquels entamaient leur formation initiale à l’enseignement des mathématiques. Afin d’explorer les projets qu’ils nourrissent a priori, tous les étudiants ont complété un questionnaire individuel sur leur vision des mathématiques et de leur enseignement et ont participé à une première discussion de groupe sur le sujet. Une séquence de situations probabilistes leur a ensuite été présentée afin d’induire une complexification de leur projet. Enfin, cette expérimentation a été suivie d’une seconde discussion de groupe et complétée par la réalisation de huit entretiens individuels. Il a été mis en évidence que la majorité des étudiants rencontrés souhaitent avant tout évoluer en tant qu’enseignant, en développant leur capacité à enseigner et à faire apprendre ou comprendre les mathématiques. Bien que certaines visées se situent dans une perspective transmissive, celles-ci ne semblent pas représentatives de l’ensemble des projets "visée". De plus, même si la plupart des étudiants rencontrés projettent de développer des connaissances relatives aux techniques et aux méthodes d’enseignement, la sensibilité à la complexité dont certains projets témoignent ne permet plus de réduire les attentes des étudiants à l’endroit de leur formation à la simple constitution d’un répertoire de techniques d’enseignement réputées efficaces. En ce qui a trait aux modes d’anticipation relevés a priori, nos résultats mettent en relief des anticipations se rattachant d’abord à un mode adaptatif, puis à un mode prévisionnel. Aucune anticipation se rattachant à un mode prospectif n’a été recensée a priori. La séquence a permis aux étudiants de s’engager dans une dialectique d’action, de formulation et de validation, elle les a incités à recourir à une approche stochastique ainsi qu’à porter un jugement de probabilité qui prenne en compte la complexité de la situation. A posteriori, nous avons observé que les projets "visée" de certains étudiants se sont complexifiés. Nous avons également noté un élargissement de la majorité des projets, lesquels considèrent désormais les autres sommets du triangle didactique. Enfin, des anticipations se rattachant à tous les modes d’anticipation ont été relevées. Des anticipations réalisées grâce à un mode prospectif permettent d’identifier des zones d’incertitude et de liberté sur lesquelles il est possible d’agir afin d’accroître la sensibilité à la complexité des situations professionnelles à l’intérieur desquelles les futurs enseignants devront se situer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est principalement constituée de trois articles traitant des processus markoviens additifs, des processus de Lévy et d'applications en finance et en assurance. Le premier chapitre est une introduction aux processus markoviens additifs (PMA), et une présentation du problème de ruine et de notions fondamentales des mathématiques financières. Le deuxième chapitre est essentiellement l'article "Lévy Systems and the Time Value of Ruin for Markov Additive Processes" écrit en collaboration avec Manuel Morales et publié dans la revue European Actuarial Journal. Cet article étudie le problème de ruine pour un processus de risque markovien additif. Une identification de systèmes de Lévy est obtenue et utilisée pour donner une expression de l'espérance de la fonction de pénalité actualisée lorsque le PMA est un processus de Lévy avec changement de régimes. Celle-ci est une généralisation des résultats existant dans la littérature pour les processus de risque de Lévy et les processus de risque markoviens additifs avec sauts "phase-type". Le troisième chapitre contient l'article "On a Generalization of the Expected Discounted Penalty Function to Include Deficits at and Beyond Ruin" qui est soumis pour publication. Cet article présente une extension de l'espérance de la fonction de pénalité actualisée pour un processus subordinateur de risque perturbé par un mouvement brownien. Cette extension contient une série de fonctions escomptée éspérée des minima successives dus aux sauts du processus de risque après la ruine. Celle-ci a des applications importantes en gestion de risque et est utilisée pour déterminer la valeur espérée du capital d'injection actualisé. Finallement, le quatrième chapitre contient l'article "The Minimal entropy martingale measure (MEMM) for a Markov-modulated exponential Lévy model" écrit en collaboration avec Romuald Hervé Momeya et publié dans la revue Asia-Pacific Financial Market. Cet article présente de nouveaux résultats en lien avec le problème de l'incomplétude dans un marché financier où le processus de prix de l'actif risqué est décrit par un modèle exponentiel markovien additif. Ces résultats consistent à charactériser la mesure martingale satisfaisant le critère de l'entropie. Cette mesure est utilisée pour calculer le prix d'une option, ainsi que des portefeuilles de couverture dans un modèle exponentiel de Lévy avec changement de régimes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire porte sur les intuitions utilisées en philosophie morale contemporaine. Les intuitions sont interrogées sur trois aspects : leur nature, leur fiabilité et leur rôle. Concernant la nature des intuitions, celles-ci sont présentées comme des jugements spontanés ayant une valeur épistémique « à première vue ». Concernant la fiabilité des intuitions, trois grands types de raisons de douter de leur fiabilité sont considérés, à savoir les résultats de certaines études scientifiques montrant de diverses manières leur instabilité, les études réalisées par le mouvement de philosophie expérimentale afin d'illustrer le phénomène du désaccord intuitif, et enfin, le problème de l'origine douteuse des intuitions. Aucune de ces raisons n'est jugée efficace afin de discréditer l'usage des intuitions en philosophie. Concernant le rôle des intuitions, une distinction est proposée entre deux grands types d'usage philosophique contemporain. D'une part, ce qu'on peut appeler la méthodologie standard en philosophie morale contemporaine consiste en une combinaison d’expériences de pensée et de la méthode de l’équilibre réfléchi. Différentes manières d'aborder la méthode de l'équilibre réfléchi sont présentées, et le modèle de l'équilibre réfléchi large développé par Norman Daniels est jugé le plus efficace. D'autre part, les intuitions sont parfois utilisées en philosophie morale contemporaine dans le cadre de la théorie de l'intuitionnisme éthique. La théorie est défendue contre diverses objections, et elle est montrée compatible avec la méthode de l’équilibre réfléchi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse s'inscrit dans le cadre de l'harmonisation des langues africaines transfrontalières à tradition écrite émergente au moyen des Technologies de l’information et de la communication.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les accouchements prématurés constituent un problème médical majeur en constante augmentation et ce, malgré tous les efforts mis en œuvre afin de contrer le déclenchement des contractions avant terme. Cette thèse relate du ''design'' rationnel d'un nouvel agent thérapeutique (i.e., tocolytique) qui serait capable de 1) arrêter les contractions, et 2) prolonger la gestation. Pour ce faire, une nouvelle cible, la prostaglandine F2α et son récepteur ont été sélectionnés et le peptidomimétisme a été choisi afin de résoudre cette problématique. L'introduction contient un historique rapide de la conception à la synthèse (''drug design'') du peptide parent, le PDC113, premier peptide a avoir démontré des aptitudes tocolytiques suffisantes pour faire du peptidomimétisme. La deuxième partie de l'introduction présente les concepts du peptidomimétisme appliqués au PDC113 qui ont permis d'accéder au PDC113.824, inhibiteur allostérique du récepteur de la prostaglandine F2α, et explique comment ce mime nous a permis d'élucider les mécanismes de signalisation intracellulaire impliqués dans la contraction musculaire lisse. Cette thèse présente la conception, la synthèse et l'étude structure-activité de mimes de repliement de tour β au sein du mime peptidique original (PDC113.824) dans lequel nous avons remplacé l'azabicycloalkane central (l'indolizidin-2-one) par une série d'autres azabicycloalcanes connus et des acides aza-aminés dont nous avons élaboré la synthèse. Dans un premier temps, une nouvelle stratégie de synthèse en solution de l'aza-glycyl-proline à partir de la diphényle hydrazone et du chloroformate de p-nitrophényle a été réalisée. Cette stratégie a permis d'éliminer les réactions secondaires de cyclisation intramoléculaires communément obtenues lors de l'introduction d'acides aza-aminés avec les protections traditionnelles de type carbamate en présence de phosgène, mais aussi de faciliter l'accès en une étape à des dérivés peptidiques du type aza-glycyle. L'élongation de l'aza-glycyl-proline en solution nous a permis d'accéder à un nouveau mime tetrapeptidique du Smac, un activateur potentiel de l'apoptose au sein de cellules cancéreuses. Par la suite, nous avons développé une stratégie de diversification sélective de l'azote α du résidu azaglycine en utilisant différents types d'halogénures d'alkyle en présence de tert-butoxyde de potassium. Afin de valider le protocole d'alkylation de l'aza-dipeptide, différents halogénures d'alkyle ont été testés. Nous avons également démontré l'utilité des aza-dipeptides résultants en tant que ''building block'' afin d'accéder à une variété d'azapeptides. En effet, l'aza-dipeptide a été déprotégée sélectivement soit en N-terminal soit en C-terminal, respectivement. D'autre part, la libération de l'amine de l'ester méthylique de l'aza-alkylglycyl-proline a conduit à une catégorie de composés à potentiel thérapeutique, les azadicétopipérazines (aza-DKP) par cyclisation intramoléculaire. Enfin, notre intérêt quant au développement d'un nouvel agent tocolytique nous a amené à développer une nouvelle voie de synthèse en solution du PDC113.824 permettant ainsi d'élucider les voies de signalisation intracellulaires du récepteur de la prostaglandine F2α. Afin de valider l'importance de la stéréochimie et d'étudier la relation structure/ activité du mime, nous avons remplacé l'indolizidin-2-one (I2aa) centrale du PDC113.824 par une série d'autres azabicycloalcanes et azadipeptides. Les azabicycloalcanes D-I2aa, quinolizidinone, et indolizidin-9-one ont été synthétisés et incorporés au sein du dit peptide ne donnant aucune activité ni in vitro ni ex vivo, validant ainsi l'importance du tour β de type II' pour le maintien de l'activité biologique du PDC113.824. Finalement, l'insertion d'une série de dérivés aza(alkyl)glycyl-prolyles a mené à de nouveaux inhibiteurs allostériques du récepteur de la PGF2α, l'un contenant l'azaglycine et l'autre, l'azaphénylalanine. Cette thèse a ainsi contribué, grâce à la conception et l'application de nouvelles méthodes de synthèse d'aza-peptides, au développement de nouveaux composés à potentiel thérapeutique afin d'inhiber le travail prématuré.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette étude, la stabilité de préparations intraveineuses de cyclosporine (0.2 et 2.5 mg/mL dans NaCl 0.9% ou dextrose 5%) entreposées dans des seringues de polypropylène, des sacs de polypropylène-polyoléfine et des sacs de vinyle acétate d’éthylène a été évaluée. Une méthode HPLC indicatrice de la stabilité à base de méthanol a été développée et validée suite a des études de dégradation forcée. Les solutions évaluées ont été préparées de façon aseptique, puis entreposées à 25°C. La stabilité chimique a été évaluée par HPLC et la stabilité physique a été évaluée par inspection visuelle et aussi par diffusion dynamique de la lumière (DLS). Tous les échantillons sont demeurés stables chimiquement et physiquement dans des sacs de polypropylène-polyoléfine (>98% de cyclosporine récupérée après 14 jours). Lorsqu’entreposés dans des seringues de polypropylène, des contaminants ont été extraits des composantes de la seringue. Toutefois, aucune contamination n’a été observée après 10 min de contact entre la préparation de cyclosporine non-diluée et ces mêmes seringues. Les préparations de 2.5 mg/mL entreposées dans des sacs de vinyle acétate d’éthylène sont demeurés stables chimiquement et physiquement (>98% de cyclosporine récupérée après 14 jours). Toutefois, une adsorption significative a été observée avec les échantillons 0.2 mg/mL entreposés dans des sacs de vinyle acétate d’éthylène (<90% de cyclosporine récupéré après 14 jours). Une étude cinétique a démontré une bonne corrélation linéaire entre la quantité adsorbée et la racine carrée du temps de contact (r2 > 0.97). Un nouveou modèle de diffusion a été établi. En conclusion, les sacs de polypropylène-polyoléfine sont le meilleur choix; les seringues de polypropylène présentent un risque de contamination, mais sont acceptables pour un transfert rapide. Les sacs de vinyle acétate d’éthylène ne peuvent être recommandés à cause d’un problème d’adsorption.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Problème de Tournées de Véhicules (PTV) est une clé importante pour gérér efficacement des systèmes logistiques, ce qui peut entraîner une amélioration du niveau de satisfaction de la clientèle. Ceci est fait en servant plus de clients dans un temps plus court. En terme général, il implique la planification des tournées d'une flotte de véhicules de capacité donnée basée à un ou plusieurs dépôts. Le but est de livrer ou collecter une certain quantité de marchandises à un ensemble des clients géographiquement dispersés, tout en respectant les contraintes de capacité des véhicules. Le PTV, comme classe de problèmes d'optimisation discrète et de grande complexité, a été étudié par de nombreux au cours des dernières décennies. Étant donné son importance pratique, des chercheurs dans les domaines de l'informatique, de la recherche opérationnelle et du génie industrielle ont mis au point des algorithmes très efficaces, de nature exacte ou heuristique, pour faire face aux différents types du PTV. Toutefois, les approches proposées pour le PTV ont souvent été accusées d'être trop concentrées sur des versions simplistes des problèmes de tournées de véhicules rencontrés dans des applications réelles. Par conséquent, les chercheurs sont récemment tournés vers des variantes du PTV qui auparavant étaient considérées trop difficiles à résoudre. Ces variantes incluent les attributs et les contraintes complexes observés dans les cas réels et fournissent des solutions qui sont exécutables dans la pratique. Ces extensions du PTV s'appellent Problème de Tournées de Véhicules Multi-Attributs (PTVMA). Le but principal de cette thèse est d'étudier les différents aspects pratiques de trois types de problèmes de tournées de véhicules multi-attributs qui seront modélisés dans celle-ci. En plus, puisque pour le PTV, comme pour la plupart des problèmes NP-complets, il est difficile de résoudre des instances de grande taille de façon optimale et dans un temps d'exécution raisonnable, nous nous tournons vers des méthodes approcheés à base d’heuristiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.