200 resultados para Spécification formelle
Resumo:
Avec la complexité croissante des systèmes sur puce, de nouveaux défis ne cessent d’émerger dans la conception de ces systèmes en matière de vérification formelle et de synthèse de haut niveau. Plusieurs travaux autour de SystemC, considéré comme la norme pour la conception au niveau système, sont en cours afin de relever ces nouveaux défis. Cependant, à cause du modèle de concurrence complexe de SystemC, relever ces défis reste toujours une tâche difficile. Ainsi, nous pensons qu’il est primordial de partir sur de meilleures bases en utilisant un modèle de concurrence plus efficace. Par conséquent, dans cette thèse, nous étudions une méthodologie de conception qui offre une meilleure abstraction pour modéliser des composants parallèles en se basant sur le concept de transaction. Nous montrons comment, grâce au raisonnement simple que procure le concept de transaction, il devient plus facile d’appliquer la vérification formelle, le raffinement incrémental et la synthèse de haut niveau. Dans le but d’évaluer l’efficacité de cette méthodologie, nous avons fixé l’objectif d’optimiser la vitesse de simulation d’un modèle transactionnel en profitant d’une machine multicoeur. Nous présentons ainsi l’environnement de modélisation et de simulation parallèle que nous avons développé. Nous étudions différentes stratégies d’ordonnancement en matière de parallélisme et de surcoût de synchronisation. Une expérimentation faite sur un modèle du transmetteur Wi-Fi 802.11a a permis d’atteindre une accélération d’environ 1.8 en utilisant deux threads. Avec 8 threads, bien que la charge de travail des différentes transactions n’était pas importante, nous avons pu atteindre une accélération d’environ 4.6, ce qui est un résultat très prometteur.
Resumo:
Traditionnellement, les applications orientées objets légataires intègrent différents aspects fonctionnels. Ces aspects peuvent être dispersés partout dans le code. Il existe différents types d’aspects : • des aspects qui représentent des fonctionnalités métiers ; • des aspects qui répondent à des exigences non fonctionnelles ou à d’autres considérations de conception comme la robustesse, la distribution, la sécurité, etc. Généralement, le code qui représente ces aspects chevauche plusieurs hiérarchies de classes. Plusieurs chercheurs se sont intéressés à la problématique de la modularisation de ces aspects dans le code : programmation orientée sujets, programmation orientée aspects et programmation orientée vues. Toutes ces méthodes proposent des techniques et des outils pour concevoir des applications orientées objets sous forme de composition de fragments de code qui répondent à différents aspects. La séparation des aspects dans le code a des avantages au niveau de la réutilisation et de la maintenance. Ainsi, il est important d’identifier et de localiser ces aspects dans du code légataire orienté objets. Nous nous intéressons particulièrement aux aspects fonctionnels. En supposant que le code qui répond à un aspect fonctionnel ou fonctionnalité exhibe une certaine cohésion fonctionnelle (dépendances entre les éléments), nous proposons d’identifier de telles fonctionnalités à partir du code. L’idée est d’identifier, en l’absence des paradigmes de la programmation par aspects, les techniques qui permettent l’implémentation des différents aspects fonctionnels dans un code objet. Notre approche consiste à : • identifier les techniques utilisées par les développeurs pour intégrer une fonctionnalité en l’absence des techniques orientées aspects • caractériser l’empreinte de ces techniques sur le code • et développer des outils pour identifier ces empreintes. Ainsi, nous présentons deux approches pour l’identification des fonctionnalités existantes dans du code orienté objets. La première identifie différents patrons de conception qui permettent l’intégration de ces fonctionnalités dans le code. La deuxième utilise l’analyse formelle de concepts pour identifier les fonctionnalités récurrentes dans le code. Nous expérimentons nos deux approches sur des systèmes libres orientés objets pour identifier les différentes fonctionnalités dans le code. Les résultats obtenus montrent l’efficacité de nos approches pour identifier les différentes fonctionnalités dans du code légataire orienté objets et permettent de suggérer des cas de refactorisation.
Resumo:
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Travail réalisé en cotutelle (Université de Paris IV-La Sorbonne).
Resumo:
À la base, les jeux de hasard et d’argent (JHA) se révèlent pour la grande majorité des gens une activité ludique agréable. On les associe effectivement aux loisirs, puisqu’ils répondent pratiquement aux mêmes besoins, dont la curiosité, le divertissement, la détente, la socialisation et la reconnaissance (Chevalier, 2003; Chevalier & Papineau, 2007; Paradis & Courteau, 2003). En contrepartie, ils constituent tout de même un risque d’excès. Bien que personne ne soit vraiment à l’abri de la dépendance, les écrits scientifiques montrent que certains groupes se révèlent particulièrement à risque. Avec les personnes qui souffrent de troubles mentaux et toxicomaniaques (Walters, 1997), la population correctionnelle se trouve parmi les individus les plus susceptibles de présenter des problèmes liés au jeu pathologique (Abbott, McKenna, & Giles, 2005; Ashcroft, Daniels, & Hart, 2004; Lahn, 2005). Or, si plusieurs études informent sur les habitudes de jeu précarcérales des hommes condamnés à l’emprisonnement, peu renseignent sur ce qu’il advient de cette pratique à l’intérieur des établissements de détention. Malgré une interdiction formelle des services correctionnels, on reconnaît pourtant la présence des JHA en prison (Abbott et al., 2005; Lahn & Grabosky, 2003; Nixon, Leigh, & Grabosky, 2006; Williams, Royston, & Hagen, 2005; Lahn, 2005). Cependant, la plupart des études se contentent trop souvent de dresser un portrait purement descriptif des types de jeux et des formes de mises. Une meilleure compréhension de cette pratique intra-muros se révèle essentielle, ne serait-ce que si l’on tient compte de la proportion non négligeable de détenus aux prises avec une telle dépendance. Cette thèse entend donc améliorer la compréhension de cette pratique dans les établissements de détention fédéraux du Québec, en se basant sur l’opinion et l’expérience de 51 hommes qui y sont incarcérés. Des entrevues qualitatives en français ont été effectuées avec des détenus québécois de plus de 18 ans, purgeant une peine d’emprisonnement minimale de vingt-quatre mois. Les résultats obtenus suite à des analyses thématiques sont répartis dans trois articles scientifiques. Le premier article décrit le déroulement des JHA intra-muros et analyse l’influence du milieu carcéral sur l’accès à ces activités et leur signification. Contrairement à nos attentes, le règlement interdisant les paris ne s’avère pas un obstacle central à leur pratique. Des éléments liés au contexte correctionnel et à la sentence en restreignent davantage la participation. La disponibilité et les bienfaits habituellement retirés des JHA, comme le plaisir et l’excitation, s’avèrent beaucoup plus limités que ce que ces activités offrent habituellement dans la société libre. Le second article étudie les conséquences potentielles des JHA, de même que la façon dont les détenus y réagissent. À la base, le seul fait que ces activités impliquent obligatoirement un échange d’argent, de biens de valeur ou de services rendus engendre pour tous les joueurs un risque de contracter des dettes. Une analyse dynamique montre que certaines frictions se développent autour des JHA, qui s’expliquent toutefois mieux par les caractéristiques du milieu carcéral. Le dernier article aborde les motifs qui justifient la participation ou non de la population correctionnelle à des JHA durant leur incarcération. Il tient compte des habitudes de jeu au cours des douze mois qui ont précédé la détention, soit des non-joueurs, des joueurs récréatifs et des joueurs problématiques. Pour la plupart des détenus, les JHA servent d’alternative ludique à l’ennui, mais certains les utilisent également dans le but de s’intégrer, voire indirectement de se protéger. Fait encore plus intéressant, malgré la présence de joueurs dépendants parmi les hommes interviewés, aucune des motivations généralement associées au jeu pathologique n’a été rapportée pour justifier la pratique des JHA en prison. En somme, les JHA demeurent généralement sans conséquence dans les établissements de détention québécois, puisque très peu de détenus semblent dépasser leurs limites et s’endetter. Les conflits entourant ces activités apparaissent surtout sous forme de querelles, suite à des doutes sur l’intégrité d’un joueur ou une défaite non assumée. Les événements violents, comme des règlements de compte, faisant suite à des dettes impayées se révèlent exceptionnels. Les résultats de cette thèse montrent également que certains joueurs pathologiques, malgré l’opportunité de s’adonner à des JHA, s’abstiennent ou cessent de miser au cours de leur incarcération. Ces dernières données permettent de réfléchir sur le concept de dépendance et sur les éléments prometteurs pour le traitement des joueurs problématiques incarcérés.
Resumo:
De manière générale, ma thèse examine les mécanismes des processus sociaux, économiques et politiques ayant contribué, souvent de manière contradictoire, à la (re)définition des critères d’adhésion au sein de la nation et de l’Etat. Elle le fait par le dialogue au sein de deux grands corps de littérature intimement liés, la citoyenneté et le transnationalisme, qui se sont penchés sur les questions d’appartenance, d’exclusion, de mobilité et d’accès aux droits chez les migrants transnationaux tout en soulignant la capacité accrue de l’Etat à réguler à la fois les déplacements de personnes et l’accès des migrants aux droits. Cette thèse remet en question trois principes qui influencent la recherche et les programmes d’action publique ayant trait au transnationalisme et à la citoyenneté des migrants, et remet en cause les approches analytiques hégémoniques et méthodologiques qui les sous-tendent. L’étude a été menée à deux niveaux distincts d’analyse empirique et analytique. D’une part, nous examinons les « technologies de la citoyenneté » (Ong 2003, Fujiwara 2008) qui ont été développées par le gouvernement pour transformer l’Argentine en une nation latino-américaine diverse et inclusive pendant la dernière décennie, en nous intéressant particulièrement à la création, par le Kirchnerisme, d’une « nouvelle légalité » pour les Paraguayens, les Boliviens et les Péruviens résidant dans le pays. D’autre part, nous analysons la « dimension horizontale des processus de citoyenneté » (Neveu 2005, Pickus and Skerry 2007, Gagné and Neveu 2009) chez ces migrants dans des aires urbaines, périphériques et rurales du partido de La Plata. Plus spécifiquement, nous examinons dans quelle mesure les conditions socioéconomiques des migrants ont changé suite à leur nouveau statut légal (en tant que ressortissants du MERCOSUR en Argentine, dont les droits sont égaux à ceux des citoyens) et aux politiques de « citoyenneté inclusive » déployées par le gouvernement. Cette thèse se penche particulièrement sur les fondations et l’incarnation (« embodiment ») des droits en examinant comment le nouveau statut légal des migrants se manifeste au quotidien en fonction de a) où ils vivent et travaillent, et b) leur statut social perçu par les autres migrants et non-migrants. D’une part, nous examinons les aires urbaines, périphériques et rurales de La Plata en tant que « zones de souveraineté graduée » (Ong 1999), où des régimes de gouvernementalité locaux spécifiques se sont développés en lien avec l’installation de groupes ethniques souvent distincts, et dont les droits et devoirs diffèrent de ceux d’autres zones. D’autre part, nous étudions la façon dont le statut social est produit à travers les interactions sociales quotidiennes en transposant des distinctions construites socialement telles que race, classe, genre et origine nationale, en systèmes d’exclusion formels (Gregory 2007). Notre analyse ethnographique de ce que nous appelons les « expériences de légalité » des migrants démontre que leur égalité formelle vis-à-vis des Argentins, loin d’être simplement donnée comme un nouveau statut légal uniformément garanti pour tous, est à la fois inégalement vécue par les divers migrants, et différemment respectée dans les zones géographiques dirigées par divers régimes de gouvernementalité (Foucault 1978).
Resumo:
Les WNTs sont des glycoprotéines sécrétées impliquées dans plusieurs processus tels que la spécification cellulaire, la prolifération, la différenciation, et beaucoup d’autres. Pour transmettre leur signal, les WNTs se lient aux récepteurs Frizzled (FZD) et au co-récepteur « Low-density-lipoprotein receptor Related Protein » (LRP) 6 ou 5, activant ainsi l’une des trois principales voies de signalisation: la voie de signalisation WNT/β-caténine (voie canonique), la voie « Planar Cell Polarity » (PCP) et la voie WNT/Ca2+ (voies non-canoniques). Des antagonistes de cette voie, les « Secreted Frizzled Related Protein » (SFRPs), peuvent aussi se lier aux WNTs pour empêcher leur liaison aux récepteurs FZDs. Bien que des rôles importants aient été associés à plusieurs composants de la voie des WNTs lors de la régulation de l’ovaire adulte, le fonctionnement exact de cette signalisation reste nébuleux. L’objectif global de cette thèse visait donc à mieux comprendre la voie de signalisation des WNTs au niveau de l’ovaire adulte de souris, par la caractérisation de deux autres composants de cette voie, FZD1 et SFRP4. La création et l’analyse de souris Fzd1 et Sfrp4 KO ont démontré que FZD1 est nécessaire pour la régulation des gènes associés à l’expansion du cumulus, dans le complexe ovocyte-cumulus (COC). Nous avons aussi constaté que SFRP4 avait un rôle à jouer lors de la régulation des gènes associés à l’expansion du cumulus mais cette fois, au niveau des cellules de la granulosa. Finalement, les résultats in vivo et in vitro de cette étude ont suggéré que la voie PCP, contrairement à la voie canonique, pourrait être modulée dans les cellules de la granulosa des souris Sfrp4 KO, possiblement grâce au signal induit par WNT4 et WNT5a. Ces données ont permis de créer un modèle hypothétique représentant la régulation de la signalisation ovarienne par les WNTs. Ce modèle servira de base pour l’élaboration de futurs projets de recherche visant à comprendre davantage la signalisation ovarienne et les possibles effets de sa dérégulation lors de processus pathologiques. Ces connaissances pourront ensuite être appliquées chez l’humain afin de traiter plusieurs maladies ou dérèglements ovariens.
Resumo:
Cette thèse est une étude analytique et comparative des conceptions éthiques autochtones, à travers des discours coloniaux de deux régions de l'Amérique : le Pérou et le Québec. Le but ultime de cette étude est permettre de découvrir les principes de ces éthiques des communautés autochtones et de les faire participer au débat et à la création d'éthiques interculturelles et écologiques pertinentes pour le monde contemporain. À cette fin, ce travail se consacre à l'étude des traditions orales autochtones, et plus particulièrement à la littérature de source orale coloniale. Plus précisément, nous étudions deux chroniques coloniales autochtones des Andes : le Manuscrit de Huarochirí et la Relation de Joan Santa Cruz Pachacuti, ainsi que les relations de deux missionnaires jésuites en Nouvelle-France : Paul Lejeune et Jean de Brébeuf. Étant donné que ces textes ne peuvent être considérés comme des transcriptions littérales des traditions orales autochtones, nous optons pour une méthodologie qui prend en compte à la fois les locus de l'énonciation, les traditions discursives et les processus de textualisation de la mémoire, ainsi que les relations contextuelles (référentielles, intertextuelles et interpersonnelles) et les instances d’une analyse « éthicologique ». Du côté des textes des Andes, des dynamiques éthiques synthétisées comme une « éthique de la réciprocité » sont dégagées. Cette dernière se veut hautement écologique, prend en considération la cohabitation avec toutes les entités de l’environnement (humaines et non humaines) et, par conséquent, peut être considérée comme un effort pour répondre aux défis imposés par le contexte dans lequel elles vivent. En ce qui concerne les textes québécois, leurs principes éthiques se résument en une « éthique du respect », celle-ci pouvant également être considérée comme une éthique écologique. De fait, on y observe l’absence d’une réelle séparation entre l’être humain et les autres entités de son milieu, remplacée par une continuité fluide de relations entre celles-ci, formant un « cercle sacré » de relations. À partir de ces résultats, un bilan comparatif est dressé et montre que les différences sont pour la plupart de nature formelle. En effet, les éthiques sont ancrées dans des réalités sociohistoriques différentes puisqu’elles se réfèrent à différents environnements et aux coutumes qui y sont reliés. En termes de similitudes, celles-ci se résument au concept de « cosmoéthique du cercle » qui révèle une conception de l'éthique comme un processus dynamique mettant en jeu non seulement les humains, mais aussi l'environnement et ce qui échappe à l’appréhension palpable du monde. Enfin, une tentative est faite, celle de donner une perspective à certains principes dégagés lors des analyses, montrant qu’elles peuvent impliquer une complexité parfois niée ou écartée par certains philosophes occidentaux contemporains. Ainsi, ce travail montre que l’étude de discours proprement autochtones est une porte d’accès à leurs manières de concevoir l’éthique et peut donc contribuer au travail interculturel de la philosophie et, plus précisément de l’éthique.
Resumo:
Les dérivés cyclopropaniques di-accepteurs représentent des intermédiaires synthétiques précieux dans l’élaboration de structures moléculaires complexes, ayant des applications dans plusieurs domaines de la chimie. Au cours de cet ouvrage, nous nous sommes intéressés à la synthèse de ces unités sous forme énantioenrichie en utilisant la cyclopropanation d’alcènes par catalyse avec des complexes de Rh(II) utilisant des composés diazoïques di-accepteurs comme substrats. Suite au développement initial d’une méthode de cyclopropanation d’alcènes catalytique asymétrique utilisant des nitro diazocétones, de multiples études expérimentales quant au mécanisme de stéréoinduction dans ce type de réaction ont été effectuées. Nous avons alors pu identifier le groupement p-méthoxyphénylcétone du substrat et le catalyseur Rh2(S-TCPTTL)4 comme étant une combinaison clé pour l’atteinte de diastéréosélectivités et d’excès énantiomères élevés. Ceci a mené au développement de deux autres méthodes de cyclopropanation stéréosélectives distinctes, utilisant soit une cyano diazocétone ou un céto diazoester. Nous avons démontré l’utilité des dérivés cyclopropaniques énantioenrichis obtenus par ces trois méthodes dans une panoplie de manipulations synthétiques, dont l’addition nucléophile d’amines et de cuprates, la cycloaddition formelle avec un aldéhyde, et la synthèse de dérivés cyclopropaniques importants en chimie médicinale. Une étude structurelle approfondie des complexes de Rh(II) chiraux nous a permis de déterminer les facteurs responsables de leur pouvoir d’énantioinduction dans notre système réactionnel, ce qui a d’énormes implications dans d’autres méthodologies utilisant ces mêmes catalyseurs. Le dévoilement d’une conformation inattendue dite ‘All-up’, ainsi que de la présence d’interactions stabilisantes régissant la rigidité de cet arrangement se sont avérés cruciaux dans notre compréhension du mécanisme. Dans le cadre de cette investigation, nous avons développé une méthode générale pour la synthèse de complexes de Rh(II) hétéroleptiques, multipliant ainsi le nombre de catalyseurs accessibles dans l’élaboration éventuelle de nouvelles réactions stéréosélectives, et nous permettant d’effectuer une étude structurelle plus détaillée. De plus, nous avons développé une méthode particulièrement efficace pour la synthèse d’un autre type de dérivé cyclopropanique di-accepteur par catalyse avec des complexes de Rh(II), les cyano-cyclopropylphosphonates. Les produits de cette transformation sont obtenus avec des énantiosélectivités élevées, et sont des substrats intéressants pour des réactions tandem d’ouverture de cycle par addition nucléophile / oléfination de composés carbonylés. De plus, ces composés sont des précurseurs de molécules utiles en chimie médicinale tels que les acides aminocyclopropylphosphoniques.
Resumo:
Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée de ses documents visuels et audio‐visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
L’introduction aux concepts unificateurs dans l’enseignement des mathématiques privilégie typiquement l’approche axiomatique. Il n’est pas surprenant de constater qu’une telle approche tend à une algorithmisation des tâches pour augmenter l’efficacité de leur résolution et favoriser la transparence du nouveau concept enseigné (Chevallard, 1991). Cette réponse classique fait néanmoins oublier le rôle unificateur du concept et n’encourage pas à l’utilisation de sa puissance. Afin d’améliorer l’apprentissage d’un concept unificateur, ce travail de thèse étudie la pertinence d’une séquence didactique dans la formation d’ingénieurs centrée sur un concept unificateur de l’algèbre linéaire: la transformation linéaire (TL). La notion d’unification et la question du sens de la linéarité sont abordées à travers l’acquisition de compétences en résolution de problèmes. La séquence des problèmes à résoudre a pour objet le processus de construction d’un concept abstrait (la TL) sur un domaine déjà mathématisé, avec l’intention de dégager l’aspect unificateur de la notion formelle (Astolfi y Drouin, 1992). À partir de résultats de travaux en didactique des sciences et des mathématiques (Dupin 1995; Sfard 1991), nous élaborons des situations didactiques sur la base d’éléments de modélisation, en cherchant à articuler deux façons de concevoir l’objet (« procédurale » et « structurale ») de façon à trouver une stratégie de résolution plus sûre, plus économique et réutilisable. En particulier, nous avons cherché à situer la notion dans différents domaines mathématiques où elle est applicable : arithmétique, géométrique, algébrique et analytique. La séquence vise à développer des liens entre différents cadres mathématiques, et entre différentes représentations de la TL dans les différents registres mathématiques, en s’inspirant notamment dans cette démarche du développement historique de la notion. De plus, la séquence didactique vise à maintenir un équilibre entre le côté applicable des tâches à la pratique professionnelle visée, et le côté théorique propice à la structuration des concepts. L’étude a été conduite avec des étudiants chiliens en formation au génie, dans le premier cours d’algèbre linéaire. Nous avons mené une analyse a priori détaillée afin de renforcer la robustesse de la séquence et de préparer à l’analyse des données. Par l’analyse des réponses au questionnaire d’entrée, des productions des équipes et des commentaires reçus en entrevus, nous avons pu identifier les compétences mathématiques et les niveaux d’explicitation (Caron, 2004) mis à contribution dans l’utilisation de la TL. Les résultats obtenus montrent l’émergence du rôle unificateur de la TL, même chez ceux dont les habitudes en résolution de problèmes mathématiques sont marquées par une orientation procédurale, tant dans l’apprentissage que dans l’enseignement. La séquence didactique a montré son efficacité pour la construction progressive chez les étudiants de la notion de transformation linéaire (TL), avec le sens et les propriétés qui lui sont propres : la TL apparaît ainsi comme un moyen économique de résoudre des problèmes extérieurs à l’algèbre linéaire, ce qui permet aux étudiants d’en abstraire les propriétés sous-jacentes. Par ailleurs, nous avons pu observer que certains concepts enseignés auparavant peuvent agir comme obstacles à l’unification visée. Cela peut ramener les étudiants à leur point de départ, et le rôle de la TL se résume dans ces conditions à révéler des connaissances partielles, plutôt qu’à guider la résolution.
Vénus et Neptune en Crète : la fonction dramatique des divinités dans Idoménée de Danchet et Campra.
Resumo:
Ce mémoire porte sur le rôle des divinités dans la structure dramatique de la tragédie en musique Idoménée d’Antoine Danchet et d’André Campra, originalement créée en 1712 et remaniée en 1731. L’étude répond à des questions d’ordre structurel quant à l’évolution du genre et montre de quelle façon la représentation des dieux dans Idoménée est liée à une ouverture formelle qui annonce la disparition du prologue, puisque les divinités n’y sont plus confinées à une fonction de louange du roi, mais contribuent activement à lancer l’action dramatique dès cette partie liminaire de l’opéra. Par un bref aperçu historique de la tragédie lyrique et des traditions mythologiques se rapportant à Vénus et à Neptune, ce mémoire questionne la place de ces dieux dans l’univers des hommes, tel que l’envisage la tragédie lyrique, qui démontre, comme on le sait, une propension à unifier les mondes surnaturel et humain. Dans Idoménée, cette unification passe en grande partie par l’usage d’un prologue qui fait office de premier acte, en assurant aux divinités en question une fonction essentielle à la structure dramatique.
Resumo:
La partie création de ce mémoire se veut soutenue par une tension narrative reliée à la curiosité suscitée par le personnage principal, de prime abord énigmatique, qui se dévoile de façon capricieuse par un changement constant de focalisation et de temporalité. Nathan vit à une ère où l’humanité a frôlé l’extinction, et où tout est à repenser après l’annihilation du virus ramenant les morts à la vie. N’ayant pas été témoin de ces horreurs, ses plus grandes préoccupations concernent son cheminement vers l’authenticité. Saltimbanque de métier, il voyage de communauté en communauté, où chacune a fait ses choix pour recréer le monde. Sa volonté de prôner l’art dans un processus de reconstruction sociale et sa poursuite d’une image perdue le pousseront toujours plus loin dans ses pérégrinations; vers des réalités qui le conduiront à redéfinir son univers. La partie essai s’interroge sur les procédés formant la tension narrative des romans d’Émile Ajar, pseudonyme laissant deviner la plume expérimentée de Romain Gary qui se réinvente dans l’anonymat. L’attention est centrée sur les jeux de narration, le rôle actanciel des personnages et l’orchestration formelle des récits, à savoir s’ils sont assez similaires pour lier les opus et les constituer en une série unifiée. Cette réflexion à la recherche de l’essence de l’oeuvre ajarienne, touchante par ses antihéros souvent démunis dans leur quête existentielle, a été une inspiration pour la rédaction de Le jour où la Terre en avait vu d’autres. Les rêves de Nathan sont racontés à la première personne, rejoignant certaines modalités ajariennes où la psyché des protagonistes se révèle par une narration au “je”. Les questionnements sur la tension narrative ont été déclencheurs de cette première démarche d’écriture romanesque, même si elle est située dans un cadre complètement autre et use d’une plume bien différente de celle d’Ajar.