14 resultados para Validated Interval Software

em Université de Montréal, Canada


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues. Lorsque les logiciels évoluent, leurs architectures ont tendance à se dégrader et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. En effet, les architectures de ces logiciels deviennent plus complexes et plus difficiles à maintenir à cause des nombreuses dépendances entre les artefacts. Par conséquent, les développeurs doivent comprendre les dépendances entre les artefacts des logiciels pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent la dégradation des architectures des logiciels. D'une part, le maintien d'un logiciel sans la compréhension des les dépendances entre ses artefacts peut conduire à l'introduction de défauts. D'autre part, lorsque les développeurs manquent de connaissances sur l'impact de leurs activités de maintenance, ils peuvent introduire des défauts de conception, qui ont un impact négatif sur l'évolution du logiciel. Ainsi, les développeurs ont besoin de mécanismes pour comprendre comment le changement d'un artefact impacte le reste du logiciel. Dans cette thèse, nous proposons trois contributions principales : La spécification de deux nouveaux patrons de changement et leurs utilisations pour fournir aux développeurs des informations utiles concernant les dépendances de co-changement. La spécification de la relation entre les patrons d'évolutions des artefacts et les fautes. La découverte de la relation entre les dépendances des anti-patrons et la prédisposition des différentes composantes d'un logiciel aux fautes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

We provide a theoretical framework to explain the empirical finding that the estimated betas are sensitive to the sampling interval even when using continuously compounded returns. We suppose that stock prices have both permanent and transitory components. The permanent component is a standard geometric Brownian motion while the transitory component is a stationary Ornstein-Uhlenbeck process. The discrete time representation of the beta depends on the sampling interval and two components labelled \"permanent and transitory betas\". We show that if no transitory component is present in stock prices, then no sampling interval effect occurs. However, the presence of a transitory component implies that the beta is an increasing (decreasing) function of the sampling interval for more (less) risky assets. In our framework, assets are labelled risky if their \"permanent beta\" is greater than their \"transitory beta\" and vice versa for less risky assets. Simulations show that our theoretical results provide good approximations for the means and standard deviations of estimated betas in small samples. Our results can be perceived as indirect evidence for the presence of a transitory component in stock prices, as proposed by Fama and French (1988) and Poterba and Summers (1988).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La dépression postnatale (DP) est un problème de santé publique très fréquent dans différentes cultures (Affonso et al, 2000). En effet, entre 10% à 15% des mères souffrent d’une symptomatogie dépressive ainsi que l’indiquent Gorman et al. (2004). La prévention de la DP est l’objectif de différents programmes prénatals et postnatals (Dennis, 2005; Lumley et al, 2004). Certains auteurs notent qu’il est difficile d’avoir accès aux femmes à risque après la naissance (Evins et al, 2000; Georgiopoulos et al, 2001). Mais, les femmes fréquentent les centres de santé pendant la grossesse et il est possible d’identifier les cas à risque à partir des symptômes prénataux dépressifs ou somatiques (Riguetti-Veltema et al, 2006); d’autant plus qu’un grand nombre de facteurs de risque de la DP sont présents pendant la grossesse (O’Hara et Gorman, 2004). C’est pourquoi cette étude fut initiée pendant le premier trimestre de la grossesse à partir d’une détection précoce du risque de DP chez n= 529 femmes de classes moyenne et défavorisée, et, cela, au moyen d’un questionnaire validé utilisé à l’aide d’une entrevue. L’étude s’est effectuée dans trois villes : Barcelone, Figueres, et Béziers au cours des années 2003 à 2005. Objectif général : La présente étude vise à évaluer les effets d’un programme prénatal de groupes de rencontre appliqué dans la présente étude chez des couples de classe socioéconomique non favorisée dont les femmes sont considérées comme à risque de dépression postnatale. L’objectif spécifique est de comparer deux groupes de femmes (un groupe expérimental et un groupe témoin) par rapport aux effets du programme prénatal sur les symptômes de dépression postnatale mesurés à partir de la 4ème semaine après l’accouchement avec l’échelle EPDS. Hypothèse: Les femmes participant au programme prénatal de groupe adressé aux couples parentaux, composé de 10 séances hebdomadaires et inspiré d’une orientation psychosomatique présenteront, au moins, un taux de 6% inférieur de cas à risque de dépression postnatale que les femmes qui ne participent pas, et cela, une fois évaluées avec l’échelle EPDS (≥12) 4 semaines après leur accouchement. Matériel et méthode: La présente étude évaluative est basée sur un essai clinique randomisé et longitudinal; il s’étend de la première ou deuxième visite d’échographie pendant la grossesse à un moment situé entre la 4ème et la 12ème semaine postnatale. Les participants à l’étude sont des femmes de classes moyenne et défavorisée identifiées à risque de DP et leur conjoint. Toutes les femmes répondant aux critères d’inclusion à la période du recrutement ont effectué une entrevue de sélection le jour de leur échographie prénatale à l’hôpital (n=529). Seules les femmes indiquant un risque de DP furent sélectionnées (n= 184). Par la suite, elles furent distribuées de manière aléatoire dans deux groupes: expérimental (n=92) et témoin (n=92), au moyen d’un programme informatique appliqué par un statisticien considérant le risque de DP selon le questionnaire validé par Riguetti-Veltema et al. (2006) appliqué à l’aide d’une entrevue. Le programme expérimental consistait en dix séances hebdomadaires de groupe, de deux heures et vingt minutes de durée ; un appel téléphonique entre séances a permis d’assurer la continuité de la participation des sujets. Le groupe témoin a eu accès aux soins habituels. Le programme expérimental commençait à la fin du deuxième trimestre de grossesse et fut appliqué par un médecin et des sages-femmes spécialement préparées au préalable; elles ont dirigé les séances prénatales avec une approche psychosomatique. Les variables associées à la DP (non psychotique) comme la symptomatologie dépressive, le soutien social, le stress et la relation de couple ont été évaluées avant et après la naissance (pré-test/post-test) chez toutes les femmes participantes des deux groupes (GE et GC) utilisant : l’échelle EPDS (Cox et al,1987), le Functional Social Support Questionnaire (Broadhead et al, 1988), l’évaluation du stress de Holmes et Rahe (1967) et, l’échelle d’ajustement dyadique de Spanier (1976). La collecte des données prénatales a eu lieu à l’hôpital, les femmes recevaient les questionnaires à la fin de l’entrevue, les complétaient à la maison et les retournaient au rendez-vous suivant. Les données postnatales ont été envoyées par les femmes utilisant la poste locale. Résultats: Une fois évalués les symptômes dépressifs postnatals avec l’échelle EPDS entre la 4ème et la 12ème semaine postnatale et considérant le risque de DP au point de césure ≥ 12 de l’échelle, le pourcentage de femmes à risque de DP est de 39,34%; globalement, les femmes étudiées présentent un taux élevé de symptomatologie dépressive. Les groupes étant comparables sur toutes les variables prénatales, notons une différence dans l’évaluation postnatale de l’EPDS (≥12) de 11,2% entre le groupe C et le groupe E (45,5% et 34,3%). Et la différence finale entre les moyennes de l’EPDS postnatal est de 1,76 ( =11,10 ±6,05 dans le groupe C et =9,34 ±5,17 dans le groupe E) ; cette différence s’aproche de la limite de la signification (p=0,08). Ceci est dû à un certain nombre de facteurs dont le faible nombre de questionnaires bien complétés à la fin de l’étude. Les femmes du groupe expérimental présentent une diminution significative des symptômes dépressifs (t=2,50 / P= 0,01) comparativement au pré-test et indiquant une amélioration au contraire du groupe témoin sans changement. Les analyses de régression et de covariance montrent que le soutien social postnatal, les symptômes dépressifs prénatals et le stress postnatal ont une relation significative avec les symptômes dépressifs postnatals (P<0,0001 ; P=0.003; P=0.004). La relation du couple n’a pas eu d’impact sur le risque de DP dans la présente étude. Par contre, on constate d’autres résultats secondaires significatifs: moins de naissances prématurées, plus d’accouchements physiologiques et un plus faible taux de somatisations non spécifiques chez les mères du groupe expérimental. Recommandations: Les résultats obtenus nous suggèrent la considération des aspects suivants: 1) il faudrait appliquer les mesures pour détecter le risque de DP à la période prénatale au moment des visites d’échographie dont presque toutes les femmes sont atteignables; il est possible d’utiliser à ce moment un questionnaire de détection validé car, son efficacité semble démontrée; 2) il faudrait intervenir auprès des femmes identifiées à risque à la période prénatale à condition de prolonger le programme préventif après la naissance, tel qu’indiqué par d’autres études et par la demande fréquente des femmes évaluées. L’intervention prénatale de groupe n’est pas suffisante pour éviter le risque de DP chez la totalité des femmes. C’est pourquoi une troisième recommandation consisterait à : 3) ajouter des interventions individuelles pour les cas les plus graves et 4) il paraît nécessaire d’augmenter le soutien social chez des femmes défavorisées vulnérables car cette variable s’est révélée très liée au risque de dépression postnatale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les maladies cardio-vasculaires demeurent une cause majeure de mortalité et morbidité dans les sociétés développées. La recherche de déterminants prédictifs d’évènements vasculaires représente toujours un enjeu d’actualité face aux coûts croissants des dépenses reliées aux soins médicaux et à l’élargissement des populations concernées, notamment face à l’occidentalisation des pays émergeants comme l’Inde, le Brésil et la Chine. La cardiologie nucléaire occupe depuis trente ans, une place essentielle dans l’arsenal des méthodes diagnostiques et pronostiques des cardiopathies. De plus, de nouvelles percées permettront de dépister d’une façon plus précoce et précise, la maladie athérosclérotique cardiaque et périphérique chez les populations atteintes ainsi qu’en prévention primaire. Nous présenterons dans cette thèse, deux approches nouvelles de la cardiologie nucléaire. La dysfonction endothéliale est considérée comme le signal pathologique le plus précoce de l’athérosclérose. Les facteurs de risques cardiovasculaires traditionnels atteignent la fonction endothéliale et peuvent initier le processus d’athérosclérose même en l’absence de lésion endothéliale physique. La quantification de la fonction endothéliale coronarienne comporte donc un intérêt certain comme biomarqueur précoce de la maladie coronarienne. La pléthysmographie isotopique, méthodologie développée lors de ce cycle d’étude, permet de quantifier la fonction endothéliale périphérique, cette dernière étant corrélée à la fonction endothéliale coronarienne. Cette méthodologie est démontrée dans le premier manuscrit (Harel et. al., Physiol Meas., 2007). L’utilisation d’un radiomarquage des érythrocytes permet la mesure du flot artériel au niveau du membre supérieur pendant la réalisation d’une hyperémie réactive locale. Cette nouvelle procédure a été validée en comparaison à la pléthysmographie par jauge de contrainte sur une cohorte de 26 patients. Elle a démontré une excellente reproductibilité (coefficient de corrélation intra-classe = 0.89). De plus, la mesure du flot artérielle pendant la réaction hyperémique corrélait avec les mesure réalisées par la méthode de référence (r=0.87). Le deuxième manuscrit expose les bases de la spectroscopie infrarouge comme méthodologie de mesure du flot artériel et quantification de la réaction hyperémique (Harel et. al., Physiol Meas., 2008). Cette étude utilisa un protocole de triples mesures simultanées à l’aide de la pléthysmographie par jauge de contrainte, radio-isotopique et par spectroscopie infrarouge. La technique par spectroscopie fut démontrée précise et reproductible quant à la mesure des flots artériels au niveau de l’avant-bras. Cette nouvelle procédure a présenté des avantages indéniables quant à la diminution d’artéfact et à sa facilité d’utilisation. Le second volet de ma thèse porte sur l’analyse du synchronisme de contraction cardiaque. En effet, plus de 30% des patients recevant une thérapie de resynchronisation ne démontre pas d’amélioration clinique. De plus, ce taux de non-réponse est encore plus élevé lors de l’utilisation de critères morphologiques de réponse à la resynchronisation (réduction du volume télésystolique). Il existe donc un besoin urgent de développer une méthodologie de mesure fiable et précise de la dynamique cardiaque. Le troisième manuscrit expose les bases d’une nouvelle technique radio-isotopique permettant la quantification de la fraction d’éjection du ventricule gauche (Harel et. al. J Nucl Cardiol., 2007). L’étude portant sur 202 patients a démontré une excellente corrélation (r=0.84) avec la méthode de référence (ventriculographie planaire). La comparaison avec le logiciel QBS (Cedar-Sinai) démontrait un écart type du biais inférieur (7.44% vs 9.36%). De plus, le biais dans la mesure ne démontrait pas de corrélation avec la magnitude du paramètre pour notre méthodologie, contrairement au logiciel alterne. Le quatrième manuscrit portait sur la quantification de l’asynchronisme intra-ventriculaire gauche (Harel et. al. J Nucl Cardiol, 2008). Un nouveau paramètre tridimensionnel (CHI: contraction homogeneity index) (médiane 73.8% ; IQ 58.7% - 84.9%) permis d’intégrer les composantes d’amplitude et du synchronisme de la contraction ventriculaire. La validation de ce paramètre fut effectuée par comparaison avec la déviation standard de l’histogramme de phase (SDΦ) (médiane 28.2º ; IQ 17.5º - 46.8º) obtenu par la ventriculographie planaire lors d’une étude portant sur 235 patients. Ces quatre manuscrits, déjà publiés dans la littérature scientifique spécialisée, résument une fraction des travaux de recherche que nous avons effectués durant les trois dernières années. Ces travaux s’inscrivent dans deux axes majeurs de développement de la cardiologie du 21ième siècle.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lors de ces dix dernières années, le coût de la maintenance des systèmes orientés objets s'est accru jusqu' à compter pour plus de 70% du coût total des systèmes. Cette situation est due à plusieurs facteurs, parmi lesquels les plus importants sont: l'imprécision des spécifications des utilisateurs, l'environnement d'exécution changeant rapidement et la mauvaise qualité interne des systèmes. Parmi tous ces facteurs, le seul sur lequel nous ayons un réel contrôle est la qualité interne des systèmes. De nombreux modèles de qualité ont été proposés dans la littérature pour contribuer à contrôler la qualité. Cependant, la plupart de ces modèles utilisent des métriques de classes (nombre de méthodes d'une classe par exemple) ou des métriques de relations entre classes (couplage entre deux classes par exemple) pour mesurer les attributs internes des systèmes. Pourtant, la qualité des systèmes par objets ne dépend pas uniquement de la structure de leurs classes et que mesurent les métriques, mais aussi de la façon dont celles-ci sont organisées, c'est-à-dire de leur conception, qui se manifeste généralement à travers les patrons de conception et les anti-patrons. Dans cette thèse nous proposons la méthode DEQUALITE, qui permet de construire systématiquement des modèles de qualité prenant en compte non seulement les attributs internes des systèmes (grâce aux métriques), mais aussi leur conception (grâce aux patrons de conception et anti-patrons). Cette méthode utilise une approche par apprentissage basée sur les réseaux bayésiens et s'appuie sur les résultats d'une série d'expériences portant sur l'évaluation de l'impact des patrons de conception et des anti-patrons sur la qualité des systèmes. Ces expériences réalisées sur 9 grands systèmes libres orientés objet nous permettent de formuler les conclusions suivantes: • Contre l'intuition, les patrons de conception n'améliorent pas toujours la qualité des systèmes; les implantations très couplées de patrons de conception par exemple affectent la structure des classes et ont un impact négatif sur leur propension aux changements et aux fautes. • Les classes participantes dans des anti-atrons sont beaucoup plus susceptibles de changer et d'être impliquées dans des corrections de fautes que les autres classes d'un système. • Un pourcentage non négligeable de classes sont impliquées simultanément dans des patrons de conception et dans des anti-patrons. Les patrons de conception ont un effet positif en ce sens qu'ils atténuent les anti-patrons. Nous appliquons et validons notre méthode sur trois systèmes libres orientés objet afin de démontrer l'apport de la conception des systèmes dans l'évaluation de la qualité.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le développement du logiciel actuel doit faire face de plus en plus à la complexité de programmes gigantesques, élaborés et maintenus par de grandes équipes réparties dans divers lieux. Dans ses tâches régulières, chaque intervenant peut avoir à répondre à des questions variées en tirant des informations de sources diverses. Pour améliorer le rendement global du développement, nous proposons d'intégrer dans un IDE populaire (Eclipse) notre nouvel outil de visualisation (VERSO) qui calcule, organise, affiche et permet de naviguer dans les informations de façon cohérente, efficace et intuitive, afin de bénéficier du système visuel humain dans l'exploration de données variées. Nous proposons une structuration des informations selon trois axes : (1) le contexte (qualité, contrôle de version, bogues, etc.) détermine le type des informations ; (2) le niveau de granularité (ligne de code, méthode, classe, paquetage) dérive les informations au niveau de détails adéquat ; et (3) l'évolution extrait les informations de la version du logiciel désirée. Chaque vue du logiciel correspond à une coordonnée discrète selon ces trois axes, et nous portons une attention toute particulière à la cohérence en naviguant entre des vues adjacentes seulement, et ce, afin de diminuer la charge cognitive de recherches pour répondre aux questions des utilisateurs. Deux expériences valident l'intérêt de notre approche intégrée dans des tâches représentatives. Elles permettent de croire qu'un accès à diverses informations présentées de façon graphique et cohérente devrait grandement aider le développement du logiciel contemporain.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Bien que le changement dans le choix des substrats énergétiques des acides gras (AGs) vers les glucides soit considéré comme bénéfique pour le cœur insuffisant, il n’est pas clair à savoir pourquoi les patients atteints de désordres de la β-oxydation (β-OX) des AGs à chaîne longue (AGCLs) développent des troubles du rythme et des cardiomyopathies. De plus, le traitement actuel ne permet pas de prévenir l’apparition du phénotype clinique chez tous les patients, spécifiquement en condition de jeûne ou de stress. Ainsi, plusieurs modèles de souris déficientes pour des enzymes impliquées dans l’oxydation des acides gras ont été développés de manière à améliorer les connaissances de la maladie ainsi que les traitements offerts aux patients. À cet égard, cette étude vise à évaluer le phénotype métabolique et fonctionnel des cœurs de souris déficientes pour le récepteur activé de la prolifération des peroxysomes-α (PPARα), un facteur de transcription des gènes impliqués notamment dans la β-OX des AGs, et pour la déshydrogénase des acyl-CoA à très longue chaîne (very-long chain acyl-CoA dehydrogenase, VLCAD), le déficit de l’oxydation des AGCLs le plus commun chez l’humain. L’approche expérimentale utilisée comprend plusieurs techniques dont (i) la perfusion ex vivo de cœur de souris au travail combinée à l’utilisation de substrats marqués au carbone 13 (13C) et à l’analyse par chromatographie gazeuse-spectrométrie de masse (GCMS), (ii) l’analyse de l’expression génique par qPCR et (iii) l’analyse de l’activité électrique du cœur in vivo par télémétrie. De manière inattendue, les résultats de cette étude menée chez la souris ont permis de mettre en évidence que des déficits pour des protéines impliquées dans l’oxydation des AGCLs sont associés à des altérations du métabolisme (i) des glucides, (ii) des AGs polyinsaturés (AGPIs), et (iii) mitochondrial, incluant l’anaplérose, en plus d’être liés à des désordres de la fonction électrique du cœur, à savoir une prolongation du segment QTc. Pris dans leur ensemble, les résultats de cette thèse pourraient servir à l’élaboration de nouvelles interventions métaboliques destinées à améliorer les traitements possibles et donc, la qualité de vie des patients atteints de désordres héréditaires de la β-OX des AGCLs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis was created in Word and converted to PDF using Mac OS X 10.7.5 Quartz PDFContext.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les systèmes logiciels sont devenus de plus en plus répondus et importants dans notre société. Ainsi, il y a un besoin constant de logiciels de haute qualité. Pour améliorer la qualité de logiciels, l’une des techniques les plus utilisées est le refactoring qui sert à améliorer la structure d'un programme tout en préservant son comportement externe. Le refactoring promet, s'il est appliqué convenablement, à améliorer la compréhensibilité, la maintenabilité et l'extensibilité du logiciel tout en améliorant la productivité des programmeurs. En général, le refactoring pourra s’appliquer au niveau de spécification, conception ou code. Cette thèse porte sur l'automatisation de processus de recommandation de refactoring, au niveau code, s’appliquant en deux étapes principales: 1) la détection des fragments de code qui devraient être améliorés (e.g., les défauts de conception), et 2) l'identification des solutions de refactoring à appliquer. Pour la première étape, nous traduisons des régularités qui peuvent être trouvés dans des exemples de défauts de conception. Nous utilisons un algorithme génétique pour générer automatiquement des règles de détection à partir des exemples de défauts. Pour la deuxième étape, nous introduisons une approche se basant sur une recherche heuristique. Le processus consiste à trouver la séquence optimale d'opérations de refactoring permettant d'améliorer la qualité du logiciel en minimisant le nombre de défauts tout en priorisant les instances les plus critiques. De plus, nous explorons d'autres objectifs à optimiser: le nombre de changements requis pour appliquer la solution de refactoring, la préservation de la sémantique, et la consistance avec l’historique de changements. Ainsi, réduire le nombre de changements permets de garder autant que possible avec la conception initiale. La préservation de la sémantique assure que le programme restructuré est sémantiquement cohérent. De plus, nous utilisons l'historique de changement pour suggérer de nouveaux refactorings dans des contextes similaires. En outre, nous introduisons une approche multi-objective pour améliorer les attributs de qualité du logiciel (la flexibilité, la maintenabilité, etc.), fixer les « mauvaises » pratiques de conception (défauts de conception), tout en introduisant les « bonnes » pratiques de conception (patrons de conception).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les logiciels sont de plus en plus complexes et leur développement est souvent fait par des équipes dispersées et changeantes. Par ailleurs, de nos jours, la majorité des logiciels sont recyclés au lieu d’être développés à partir de zéro. La tâche de compréhension, inhérente aux tâches de maintenance, consiste à analyser plusieurs dimensions du logiciel en parallèle. La dimension temps intervient à deux niveaux dans le logiciel : il change durant son évolution et durant son exécution. Ces changements prennent un sens particulier quand ils sont analysés avec d’autres dimensions du logiciel. L’analyse de données multidimensionnelles est un problème difficile à résoudre. Cependant, certaines méthodes permettent de contourner cette difficulté. Ainsi, les approches semi-automatiques, comme la visualisation du logiciel, permettent à l’usager d’intervenir durant l’analyse pour explorer et guider la recherche d’informations. Dans une première étape de la thèse, nous appliquons des techniques de visualisation pour mieux comprendre la dynamique des logiciels pendant l’évolution et l’exécution. Les changements dans le temps sont représentés par des heat maps. Ainsi, nous utilisons la même représentation graphique pour visualiser les changements pendant l’évolution et ceux pendant l’exécution. Une autre catégorie d’approches, qui permettent de comprendre certains aspects dynamiques du logiciel, concerne l’utilisation d’heuristiques. Dans une seconde étape de la thèse, nous nous intéressons à l’identification des phases pendant l’évolution ou pendant l’exécution en utilisant la même approche. Dans ce contexte, la prémisse est qu’il existe une cohérence inhérente dans les évènements, qui permet d’isoler des sous-ensembles comme des phases. Cette hypothèse de cohérence est ensuite définie spécifiquement pour les évènements de changements de code (évolution) ou de changements d’état (exécution). L’objectif de la thèse est d’étudier l’unification de ces deux dimensions du temps que sont l’évolution et l’exécution. Ceci s’inscrit dans notre volonté de rapprocher les deux domaines de recherche qui s’intéressent à une même catégorie de problèmes, mais selon deux perspectives différentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En la actualidad, el uso de las tecnologías ha sido primordial para el avance de las sociedades, estas han permitido que personas sin conocimientos informáticos o usuarios llamados “no expertos” se interesen en su uso, razón por la cual los investigadores científicos se han visto en la necesidad de producir estudios que permitan la adaptación de sistemas, a la problemática existente dentro del ámbito informático. Una necesidad recurrente de todo usuario de un sistema es la gestión de la información, la cual se puede administrar por medio de una base de datos y lenguaje específico, como lo es el SQL (Structured Query Language), pero esto obliga al usuario sin conocimientos a acudir a un especialista para su diseño y construcción, lo cual se ve reflejado en costos y métodos complejos, entonces se plantea una pregunta ¿qué hacer cuando los proyectos son pequeñas y los recursos y procesos son limitados? Teniendo como base la investigación realizada por la universidad de Washington[39], donde sintetizan sentencias SQL a partir de ejemplos de entrada y salida, se pretende con esta memoria automatizar el proceso y aplicar una técnica diferente de aprendizaje, para lo cual utiliza una aproximación evolucionista, donde la aplicación de un algoritmo genético adaptado origina sentencias SQL válidas que responden a las condiciones establecidas por los ejemplos de entrada y salida dados por el usuario. Se obtuvo como resultado de la aproximación, una herramienta denominada EvoSQL que fue validada en este estudio. Sobre los 28 ejercicios empleados por la investigación [39], 23 de los cuales se obtuvieron resultados perfectos y 5 ejercicios sin éxito, esto representa un 82.1% de efectividad. Esta efectividad es superior en un 10.7% al establecido por la herramienta desarrollada en [39] SQLSynthesizer y 75% más alto que la herramienta siguiente más próxima Query by Output QBO[31]. El promedio obtenido en la ejecución de cada ejercicio fue de 3 minutos y 11 segundos, este tiempo es superior al establecido por SQLSynthesizer; sin embargo, en la medida un algoritmo genético supone la existencia de fases que amplían los rangos de tiempos, por lo cual el tiempo obtenido es aceptable con relación a las aplicaciones de este tipo. En conclusión y según lo anteriormente expuesto, se obtuvo una herramienta automática con una aproximación evolucionista, con buenos resultados y un proceso simple para el usuario “no experto”.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introduction : Les adolescents avec déficiences physiques en transition vers la vie adulte éprouvent des difficultés à établir une participation sociale optimale. Cette étude explore les retombées d'un programme de cirque social sur la participation sociale de ces jeunes selon leur point de vue et celui de leurs parents. Méthode : Étude qualitative exploratoire d’orientation phénoménologique. Neuf personnes avec déficiences physiques, âgées de 18 et 25 ans, ont participé au programme pendant neuf mois. Données recueillies : perceptions de leur qualité de participation sociale à partir d’entrevues semi-structurées en pré, mi-temps et post-intervention avec les participants et un de leurs parents. Le guide d’entrevue validé est ancré sur le Modèle du développement humain- Processus de production du handicap - 2 (HDM-PPH2). L’enregistrement audio des entretiens a été transcrit en verbatim. Le contenu a été analysé avec le logiciel Nvivo 9 à travers une grille de codage préalablement validée (co-codage, codage-inverse). Résultats : Corpus de 54 entrevues. L’âge moyen des jeunes était de 20,0 ± 1,4 années et de 51 ± 3,6 années pour les parents. Selon tous, la participation sociale des jeunes adultes a été optimisée, surtout sur le plan de la communication, des déplacements, des relations interpersonnelles, des responsabilités et de la vie communautaire. La perception de soi et les habiletés sociales, également améliorées, ont favorisé une plus grande auto-efficacité. Conclusion : Cette étude soutient donc le potentiel du cirque social comme approche novatrice et probante en réadaptation physique pour cette population, et appuie la pertinence d’autres études rigoureuses mesurant les diverses retombées possibles et identifiées.