199 resultados para Rivière Longue
Resumo:
Afin d’adresser la variabilité interindividuelle observée dans la réponse pharmacocinétique à de nombreux médicaments, nous avons créé un panel de génotypage personnalisée en utilisant des méthodes de conception et d’élaboration d’essais uniques. Celles-ci ont pour but premier de capturer les variations génétiques présentent dans les gènes clés impliqués dans les processus d'absorption, de distribution, de métabolisme et d’excrétion (ADME) de nombreux agents thérapeutiques. Bien que ces gènes et voies de signalement sont impliqués dans plusieurs mécanismes pharmacocinétiques qui sont bien connues, il y a eu jusqu’à présent peu d'efforts envers l’évaluation simultanée d’un grand nombre de ces gènes moyennant un seul outil expérimental. La recherche pharmacogénomique peut être réalisée en utilisant deux approches: 1) les marqueurs fonctionnels peuvent être utilisés pour présélectionner ou stratifier les populations de patients en se basant sur des états métaboliques connus; 2) les marqueurs Tag peuvent être utilisés pour découvrir de nouvelles corrélations génotype-phénotype. Présentement, il existe un besoin pour un outil de recherche qui englobe un grand nombre de gènes ADME et variantes et dont le contenu est applicable à ces deux modèles d'étude. Dans le cadre de cette thèse, nous avons développé un panel d’essais de génotypage de 3,000 marqueurs génétiques ADME qui peuvent satisfaire ce besoin. Dans le cadre de ce projet, les gènes et marqueurs associés avec la famille ADME ont été sélectionnés en collaboration avec plusieurs groupes du milieu universitaire et de l'industrie pharmaceutique. Pendant trois phases de développement de cet essai de génotypage, le taux de conversion pour 3,000 marqueurs a été amélioré de 83% à 97,4% grâce à l'incorporation de nouvelles stratégies ayant pour but de surmonter les zones d'interférence génomiques comprenant entre autres les régions homologues et les polymorphismes sous-jacent les régions d’intérêt. La précision du panel de génotypage a été validée par l’évaluation de plus de 200 échantillons pour lesquelles les génotypes sont connus pour lesquels nous avons obtenu une concordance > 98%. De plus, une comparaison croisée entre nos données provenant de cet essai et des données obtenues par différentes plateformes technologiques déjà disponibles sur le marché a révélé une concordance globale de > 99,5%. L'efficacité de notre stratégie de conception ont été démontrées par l'utilisation réussie de cet essai dans le cadre de plusieurs projets de recherche où plus de 1,000 échantillons ont été testés. Nous avons entre autre évalué avec succès 150 échantillons hépatiques qui ont été largement caractérisés pour plusieurs phénotypes. Dans ces échantillons, nous avons pu valider 13 gènes ADME avec cis-eQTL précédemment rapportés et de découvrir et de 13 autres gènes ADME avec cis eQTLs qui n'avaient pas été observés en utilisant des méthodes standard. Enfin, à l'appui de ce travail, un outil logiciel a été développé, Opitimus Primer, pour aider pour aider au développement du test. Le logiciel a également été utilisé pour aider à l'enrichissement de cibles génomiques pour d'expériences séquençage. Le contenu ainsi que la conception, l’optimisation et la validation de notre panel le distingue largement de l’ensemble des essais commerciaux couramment disponibles sur le marché qui comprennent soit des marqueurs fonctionnels pour seulement un petit nombre de gènes, ou alors n’offre pas une couverture adéquate pour les gènes connus d’ADME. Nous pouvons ainsi conclure que l’essai que nous avons développé est et continuera certainement d’être un outil d’une grande utilité pour les futures études et essais cliniques dans le domaine de la pharmacocinétique, qui bénéficieraient de l'évaluation d'une longue liste complète de gènes d’ADME.
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.
Resumo:
Les personnes non-voyantes montrent dans les différents aspects de leurs vies qu’elles sont capables de s’adapter à la privation visuelle en utilisant les capacités intactes comme l’ouï ou le toucher. Elles montrent qu’elles peuvent bien évoluer dans leur environnement en absence de vision et démontrent même des fois des habiletés supérieures à celles des personnes voyantes. La recherche de ces dernières décennies s’est beaucoup intéressée aux capacités adaptatives des non-voyants surtout avec l’avènement des nouvelles techniques d’imagerie qui ont permis d’investiguer des domaines qui ne l’étaient pas ou l’étaient difficilement avant. Les capacités supérieures des non voyants dans l’utilisation plus efficace des informations auditives et tactiles semblent avoir leur base neuronale dans le dans le cortex visuel désafférenté, qui continu à être fonctionnel après la privation sensorielle et s’en trouve recruté pour le traitement de stimulations dites intermodales : auditives, tactiles et même montre une implication dans des processus de plus haut niveau, comme la mémoire ou le langage. Cette implication fonctionnelle intermodale résulte de la plasticité du cortex visuel c'est-à-dire sa capacité à changer sa structure, sa fonction et d’adapter ses interactions avec les autres systèmes en l’absence de vision. La plasticité corticale n’est pas exclusive au cortex visuel mais est un état permanent de tout le cerveau. Pour mesurer l’activité du cortex visuel des non voyants, une mesure d’excitabilité de ses neurones consiste à mesurer le temps de recouvrement de l’onde N1 en potentiels évoqués, qui est plus rapide chez les non voyants dans la modalité auditive. En effet, les réponses en potentiels et champs évoqués ont été utilisés en EEG/MEG pour mettre en évidence des changements plastiques dans le cortex visuel des non-voyants pour le traitement de stimuli dans les modalités auditives et tactiles. Ces réponses étaient localisées dans les régions postérieures chez les non voyants contrairement aux contrôles voyants. Un autre type de réponse auditive a reçu moins d’intérêt dans la recherche concernant la réorganisation fonctionnelle en relation avec la privation sensorielle, il s’agit de la réponse auditive oscillatoire (Auditory Steady-State Response ASSR). C’est une réponse qui a l’avantage d’osciller au rythme de stimulation et d’être caractérisé par une réponse des aires auditives étiquetée à la fréquence de stimulation. Cette étiquette se présente sous la forme qu’un pic d’énergie spectrale important qui culmine aux fréquences présentes dans la stimulation. Elle a également l’avantage d’être localisée dans les régions auditives primaires, de là tout changement de localisation de cette réponse chez des non voyants en faveur des régions visuelles pourrait être considéré comme une évidence de la réorganisation fonctionnelle qui s’opère après une privation sensorielle précoce. Le but de cette thèse est donc d’utiliser la réponse oscillatoire à l’écoute des sons modulés en amplitude (MA) pour mettre en évidence les corrélats de la réorganisation fonctionnelle dans le cortex visuel des non-voyants précoces. La modulation de la réponse auditive dans les régions visuelles nous permettra de montrer qu’une réorganisation est possible chez les non-voyants pour ce traitement intermodal. La première étude est une validation du paradigme expérimental «frequency tagged sounds». Il s’agit de montrer qu’une tâche de détection de changement dans la stimulation, permet de moduler la réponse ASSR aux sons modulés en amplitude en vue de l’utiliser dans les études chez les non voyants et dans les conditions d’une privation visuelle transitoire (avec les yeux bandés). Un groupe de sujets voyants ont réalisé une tâche de détection de changement dans la stimulation les yeux ouverts dans deux conditions : écoute active qui consiste à détecter un changement dans la fréquence porteuse de la modulation en appuyant avec l’index droit sur un bouton de réponse et une condition d’écoute passive. Les sons étaient présentés en écoute monaurale et dichotique. Les résultats ont montré une différence significative à l’occurrence du changement dans la stimulation en écoute dichotique seulement. Les schémas de plus grande réponse controlatérale et de suppression binaurale décrit dans la littérature ont été confirmés. La deuxième étude avait pour but de mettre en évidence une réorganisation rapide de la réponse ASSR chez un groupe de sujets voyants dans les conditions de privation visuelle transitoire de courte durée, par bandage des yeux pendant six heures. Le même protocole expérimental que la première étude a été utilisé en écoute active seulement. Les résultats montrent que dans ces conditions une modulation de la réponse corticale en écoute dichotique dans les régions visuelles est possible. Ces sources d’activité occipitale adoptent une propriété du cortex auditif qui est le battement binaural, c'est-à-dire l’oscillation de la réponse ASSR à la différence des fréquences présentées dans chaque oreille. Cet effet est présent chez la moitié des sujets testés. La représentation corticale des sources occipitales évolue durant la période de privation et montre un déplacement des sources d’activité dans la direction antéropostérieure à la fin de la période de privation. La troisième étude a permis de comparer le traitement de la réponse ASSR dans un groupe de non-voyants congénitaux à un groupe de voyants contrôles, pour investiguer les corrélats de la réorganisation fonctionnelle de cette réponse après une privation sensorielle de longue durée c'est-à-dire chez des non voyants congénitaux. Les résultats montrent des différences significatives dans la représentation spectrale de la réponse entre les deux groupes avec néanmoins des activations temporales importantes aussi bien chez les non voyants que chez les contrôles voyants. Des sources distribuées ont été localisées dans les régions associatives auditives dans les deux groupes à la différence des non voyants où il y avait en plus l’implication des régions temporales inférieures, connues comme étant activées par la vision des objets chez les voyants et font partie de la voie visuelle du quoi. Les résultats présentés dans le cadre de cette thèse vont dans le sens d’une réorganisation rapide de la réponse auditive oscillatoire après une privation visuelle transitoire de courte durée par l’implication des régions visuelles dans le traitement de la réponse ASSR par l’intermédiaire du démasquage de connections existantes entre le cortex visuel et le cortex auditif. La privation visuelle de longue durée, elle conduit à des changements plastiques, d’une part intra modaux par l’extension de l’activité aux régions temporales supérieures et médianes. D’autre part, elle induit des changements inter modaux par l’implication fonctionnelle des régions temporales inférieures visuelles dans le traitement des sons modulés en amplitude comme objets auditifs alors qu’elles sont normalement dédiées au traitement des objets visuels. Cette réorganisation passe probablement par les connections cortico-corticales.
Resumo:
Le phénomène du décrochage scolaire est encore très présent dans notre société, particulièrement chez les garçons. Notre mémoire s’intéresse à la question et vise à mieux comprendre la dynamique motivationnelle d’un échantillon (N=11) d’élèves masculins considéré comme étant « à risque » de décrochage au 3e cycle d’une école primaire de Montréal. De plus, notre expérimentation vise spécifiquement à décrire l’influence de l’utilisation d’une activité pédagogique dite « motivante » : le jeu éducatif numérique « Math en Jeu » sur la dynamique motivationnelle à apprendre en mathématiques. Il s’agit d’une étude de cas avec une approche mixte de collecte de données. Nos résultats révèlent quatre profils de dynamique motivationnelle chez les élèves de notre échantillon : 1) les élèves en difficulté en mathématiques, 2) les élèves démotivés et 3) les élèves démotivés et en difficulté en mathématiques, puis, 4) des cas plus complexes. Notre analyse montre que « Math en Jeu » suscite un grand intérêt chez tous les élèves de notre échantillon. L’influence du jeu sur la dynamique motivationnelle semble toutefois mieux convenir aux élèves avec des dynamiques motivationnelles de type « démotivé » ou « démotivé et en difficulté en mathématiques » et dans une certaine mesure, certains élèves catégorisés comme étant des « cas complexes ». Nos résultats indiquent que le jeu pourrait notamment avoir une certaine influence sur le sentiment de compétence à réussir de l’élève. Toutefois, pour être en mesure de mieux décrire et analyser ces influences, il serait préférable de mener des recherches sur une plus longue durée, dans un contexte naturel de classe et sur un échantillon d’élèves plus grand.
Resumo:
Cette recherche vise à voir s’il existe une différence entre les familles favorisées et celles défavorisées en ce qui concerne le rapport qu’elles entretiennent avec les devoirs à la maison. D’après quelques écrits, la réalisation des devoirs peut être plus difficile en milieu défavorisé (Carvalho, 2009; Cooper, Lindsay et Nye, 2000; Dolle, 2007; Grolnick, Benjet, Kurowski, et Apostoleris, 1997 ; Hoover-Dempsey, Bassler et Brissie, 1992; Kronholz, 1997; Odum, 1994; Scott-Jones, 1984 ; Symeou, 2009), et c’est cette problématique qui est concernée dans ce travail. Les participants sont quatorze parents d’élèves du deuxième cycle du primaire de deux écoles, une dans la région montréalaise (milieu défavorisé) et une dans la région des Laurentides (milieu favorisé). Pour réaliser la comparaison, sept parents de chacun des milieux ont été interviewés à l’aide d’un questionnaire portant sur le processus des devoirs, sur la participation parentale et sur leur sentiment de compétence à aider leur enfant durant les devoirs. Les résultats ont montré que la réalisation des devoirs est plus longue en milieu défavorisé et que les conflits sont plus présents dans ce type de milieu. Aussi, la motivation des enfants à l’égard des devoirs en milieu défavorisé est plus faible, ce qui pourrait expliquer le fait que les parents de ce milieu semblent offrir plus de soutien lors des devoirs. Par ailleurs, le soutien des pères lors des devoirs semble être plus fréquent en milieu favorisé et cette situation pourrait s’expliquer par les conditions de travail plus favorables comparativement à celles des pères en milieu défavorisé.
Resumo:
L’érosion des berges est un processus clé de la dynamique fluviale. Elle influence considérablement la charge sédimentaire des rivières et contrôle l’évolution latérale des chenaux. Les méthodes de caractérisation des mécanismes et des variables affectant l’érosion des berges sont toutefois imprécises et difficiles à appliquer. Ce projet a pour objectif de caractériser la dynamique actuelle des berges de deux tributaires contrastés du Saint-Laurent : les rivières Saint-François et Batiscan. Le premier objectif vise à quantifier les caractéristiques géotechniques de deux tronçons des rivières à l’étude près de l’embouchure avec le Saint-Laurent en décrivant la stratigraphie à différents sites typiques et en recueillant des échantillons de sédiments afin de mesurer différentes variables géotechniques (granulométrie, limites d’Atterberg, résistance à l’érosion mécanique, résistance à l’érosion fluviale). Le second objectif vise à quantifier les principales caractéristiques hydrodynamiques (précipitations, débits, cisaillements, vitesses) des deux sections de rivière. Le troisième et dernier objectif cherche à mesurer les taux d’érosion à l’échelle saisonnière en utilisant des relevés GPS et des chaînes d’érosion et à identifier les mécanismes d’érosion qui opèrent sur les rivières. Les résultats montrent une érosion importante des berges sur chacun des tributaires, mais les mécanismes qui la cause diffèrent. La Batiscan possède des berges dont le matériel est cohésif et ses berges sont principalement marquées par des ruptures de masse. La Saint-François présente des berges peu cohésives ce qui favorise l’érosion fluviale. Le taux de recul sur la rivière Saint-François est de l’ordre de 1 à 3 m/an dans certaines sections de la rivière. Une nouvelle méthode de mesure du cisaillement critique d’érosion fluviale à l’aide d’un chenal expérimental a été élaborée. Les cisaillements critiques obtenus se situent entre 1,19 et 13,41 Pa. Les résultats montrent que les facteurs jouant sur l’érosion des berges ont une variabilité intrinsèque et systémique difficile à mesurer. Le protocole expérimental développé dans ce projet s’est toutefois avéré utile pour étudier les principales variables qui influencent l’érosion des berges, tout en quantifiant les taux d’érosion et les mécanismes d’érosion de berge de deux tributaires importants du fleuve Saint-Laurent. Ce protocole pourrait être utile dans d’autres contextes.
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.
Resumo:
L'agriculture biologique est issue d'une longue lutte du consommateur et du citoyen pour connaître et contrôler la qualité de son alimentation. Sa popularité montante confirme que la disponibilité de l'information sur l'offre joue un rôle économique et social central auprès de la demande. Cette tendance appuie l'émergence d'un nouvel élément au sein du corpus des droits de la personne : le droit à l'information. Cette étude aborde les étapes de sa formation et prend pour exemple la filière agroalimentaire biologique. Elle représente un modèle avant-gardiste de l'hybridation entre le droit privé et le droit public. Nous examinons en premier lieu comment l'activité des secteurs agroalimentaires civils et privés a contribué à fomenter le désir d'information du consommateur, pour ensuite le mettre en péril. Parallèlement à cela, nous proposons d'analyser les effets et l'influence du corpus de droits et de principes du développement durable sur la filière biologique, mais surtout sur la reconnaissance du besoin d'information pour le consommateur. Enfin, nous faisons un tour d'horizon de la réglementation publique de l'appellation biologique, de son label et de son étiquette. Pour cela, nous évaluons les mesures en place selon les critères de la véracité, de l'accessibilité et de l'exhaustivité de l'information divulguée au consommateur. À la lumière de notre analyse, le consommateur peut tirer ses propres conclusions sur les meilleures réponses normatives à ses besoins. Quelles mesures entre le droit transnational, le droit international et le droit national offrent le meilleur résultat? Laquelle de ces formes juridiques s'avère en mesure de promouvoir une consommation responsable où le consommateur ne fait plus face aux obstacles à son choix éclairé?
Resumo:
Les poissons vivant au sein d’une rivière sont soumis à des variations circadiennes de température pouvant influencer la croissance, la digestion et le métabolisme standard. Les modèles bioénergétiques utilisant les fonctions métaboliques pour déterminer la croissance d’un poisson ont souvent été élaborés avec des poissons acclimatés à des températures constantes. Ces modèles pourraient sous-estimer l’énergie dépensée par un poisson soumis à des températures fluctuantes. En utilisant la respirométrie par débit intermittent, les objectifs de ce travail étaient : (1) de quantifier les différences entre les taux métaboliques standards de poissons acclimatés à une température constante (20.2 oC ± 0.5 oC) et à des fluctuations circadiennes de température (19.8 oC ± 2.0 oC; 19.5 oC ± 3.0 oC) et (2) comparer deux méthodologies pour calculer les taux métaboliques standards de poissons sujets aux fluctuations circadiennes de températures : respirométrie (a) en température constante ou (b) en température fluctuante. Les poissons acclimatés à des fluctuations circadiennes de température ont des taux métaboliques standards plus élevés que des poissons acclimatés à une température constante. À 20.2 oC ± 0.5 oC, les taux métabolique standards ont été de 25% à 32% plus bas pour des poissons maintenus à une température constante que pour des poissons gardés sous des fluctuations circadiennes de température. Les méthodologies utilisées pour estimer les taux métaboliques standards de poissons sujets aux fluctuations de température offrent des résultats similaires.
Resumo:
La recherche de nouvelles voies de correction de la scoliose idiopathique a une longue histoire. Le traitement conventionnel de la scoliose idiopathique est présenté par le port du corset ou par la correction opératoire de la déformation. Depuis leur introduction, les deux méthodes ont prouvé leur efficacité. Cependant, malgré des caractéristiques positives évidentes, ces méthodes peuvent causer un nombre important d'effets indésirables sur la santé du patient. Les techniques sans fusion pour le traitement de la scoliose semblent être une alternative perspective de traitement traditionnel, car ils apportent moins de risques et des complications chirurgicales que les méthodes conventionnelles avec la conservation de la mobilité du disque intravertébral. Cependant, l'utilisation de techniques mentionnées exige une connaissance profonde de la modulation de croissance vertébrale. L'objectif principal de la présente étude est d'estimer le potentiel d'agrafes à l’AMF de moduler la croissance des vertèbres porcines en mesurant la croissance osseuse sur la plaque de croissance de vertèbres instrumentées en comparaison avec le groupe contrôle. La méthode est basée sur la loi de Hueter-Volkmann. Nous avons choisi NiTi agrafes à l’AMF pour notre étude et les porcs de race Landrace comme un animal expérimental. Les agrafes ont été insérés sur 5 niveaux thoracique de T6 à T11. En outre, les radiographies ont été prises toutes les 2 semaines. La présence d'agrafes en alliage à mémoire de forme a produit la création de courbes scoliotiques significatives dans 4 de 6 animaux chargés et le ralentissement considérable de la croissance osseuse (jusqu'à 35,4%) comparativement aux groupes contrôle et sham. L'étude a démontré in vivo le potentiel d'agrafes en alliage à mémoire de formes de moduler la croissance des vertèbres en créant des courbes scoliotiques sur les radiographies et en ralentissant le taux de croissance sur les plaques de croissance instrumenté. La position précise de l'agrafe est essentielle pour la modulation de croissance osseuse et le développement de la scoliose expérimentale.
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.
Resumo:
La variabilité spatiale et temporelle de l’écoulement en rivière contribue à créer une mosaïque d’habitat dynamique qui soutient la diversité écologique. Une des questions fondamentales en écohydraulique est de déterminer quelles sont les échelles spatiales et temporelles de variation de l’habitat les plus importantes pour les organismes à divers stades de vie. L’objectif général de la thèse consiste à examiner les liens entre la variabilité de l’habitat et le comportement du saumon Atlantique juvénile. Plus spécifiquement, trois thèmes sont abordés : la turbulence en tant que variable d’habitat du poisson, les échelles spatiales et temporelles de sélection de l’habitat et la variabilité individuelle du comportement du poisson. À l’aide de données empiriques détaillées et d’analyses statistiques variées, nos objectifs étaient de 1) quantifier les liens causaux entre les variables d’habitat du poisson « usuelles » et les propriétés turbulentes à échelles multiples; 2) tester l’utilisation d’un chenal portatif pour analyser l’effet des propriétés turbulentes sur les probabilités de capture de proie et du comportement alimentaire des saumons juvéniles; 3) analyser les échelles spatiales et temporelles de sélection de l’habitat dans un tronçon l’été et l’automne; 4) examiner la variation individuelle saisonnière et journalière des patrons d’activité, d’utilisation de l’habitat et de leur interaction; 5) investiguer la variation individuelle du comportement spatial en relation aux fluctuations environnementales. La thèse procure une caractérisation détaillée de la turbulence dans les mouilles et les seuils et montre que la capacité des variables d’habitat du poisson usuelles à expliquer les propriétés turbulentes est relativement basse, surtout dans les petites échelles, mais varie de façon importante entre les unités morphologiques. D’un point de vue pratique, ce niveau de complexité suggère que la turbulence devrait être considérée comme une variable écologique distincte. Dans une deuxième expérience, en utilisant un chenal portatif in situ, nous n’avons pas confirmé de façon concluante, ni écarté l’effet de la turbulence sur la probabilité de capture des proies, mais avons observé une sélection préférentielle de localisations où la turbulence était relativement faible. La sélection d’habitats de faible turbulence a aussi été observée en conditions naturelles dans une étude basée sur des observations pour laquelle 66 poissons ont été marqués à l’aide de transpondeurs passifs et suivis pendant trois mois dans un tronçon de rivière à l’aide d’un réseau d’antennes enfouies dans le lit. La sélection de l’habitat était dépendante de l’échelle d’observation. Les poissons étaient associés aux profondeurs modérées à micro-échelle, mais aussi à des profondeurs plus élevées à l’échelle des patchs. De plus, l’étendue d’habitats utilisés a augmenté de façon asymptotique avec l’échelle temporelle. L’échelle d’une heure a été considérée comme optimale pour décrire l’habitat utilisé dans une journée et l’échelle de trois jours pour décrire l’habitat utilisé dans un mois. Le suivi individuel a révélé une forte variabilité inter-individuelle des patrons d’activité, certains individus étant principalement nocturnes alors que d’autres ont fréquemment changé de patrons d’activité. Les changements de patrons d’activité étaient liés aux variables environnementales, mais aussi à l’utilisation de l’habitat des individus, ce qui pourrait signifier que l’utilisation d’habitats suboptimaux engendre la nécessité d’augmenter l’activité diurne, quand l’apport alimentaire et le risque de prédation sont plus élevés. La variabilité inter-individuelle élevée a aussi été observée dans le comportement spatial. La plupart des poissons ont présenté une faible mobilité la plupart des jours, mais ont occasionnellement effectué des mouvements de forte amplitude. En fait, la variabilité inter-individuelle a compté pour seulement 12-17% de la variabilité totale de la mobilité des poissons. Ces résultats questionnent la prémisse que la population soit composée de fractions d’individus sédentaires et mobiles. La variation individuelle journalière suggère que la mobilité est une réponse à des changements des conditions plutôt qu’à un trait de comportement individuel.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
Bien que ce soit un procédé industriel répandu, les films de copolymères à blocs préparés par trempage (« dip-coating ») sont moins étudiés que ceux obtenus par tournette (« spin-coating »). Pourtant, il est possible grâce à cette technique de contrôler précisément les caractéristiques de ces films. Au-delà de la méthode de fabrication, la capacité de modifier la morphologie des films trempés à l’aide d’autres facteurs externes est un enjeu primordial pour leur utilisation dans les nanotechnologies. Nous avons choisi, ici, d’étudier l’influence d’une petite molécule sur la morphologie de films supramoléculaires réalisés par « dip-coating » à partir de solutions de poly(styrène-b-4-vinyl pyridine) (PS-P4VP) dans le tétrahydrofurane (THF). En présence de 1-naphtol (NOH) et d’1-acide napthoïque (NCOOH), qui se complexent par pont hydrogène au bloc P4VP, ces films donnent, respectivement, une morphologie en nodules (sphères) et en stries (cylindres horizontaux). Des études par spectroscopie infrarouge ont permis de mesurer la quantité de petite molécule dans ces films minces, qui varie avec la vitesse de retrait mais qui s’avère être identique pour les deux petites molécules, à une vitesse de retrait donnée. Cependant, des études thermiques ont montré qu’une faible fraction de petite molécule est dispersée dans le PS (davantage de NOH que de NCOOH à cause de la plus faible liaison hydrogène du premier). La vitesse de retrait est un paramètre clé permettant de contrôler à la fois l’épaisseur et la composition du film supramoléculaire. L’évolution de l’épaisseur peut être modélisée par deux régimes récemment découverts. Aux faibles vitesses, l’épaisseur décroît (régime de capillarité), atteint un minimum, puis augmente aux vitesses plus élevées (régime de drainage). La quantité de petite molécule augmente aux faibles vitesses pour atteindre un plateau correspondant à la composition de la solution aux vitesses les plus élevées. Des changements de morphologie, à la fois liés à l’épaisseur et à la quantité de petite molécule, sont alors observés lorsque la vitesse de retrait est modifiée. Le choix du solvant est aussi primordial dans le procédé de « dip-coating » et a été étudié en utilisant le chloroforme, qui est un bon solvant pour les deux blocs. Il s’avère qu’à la fois la composition ainsi que la morphologie des films de PS-P4VP complexés sont différentes par rapport aux expériences réalisées dans le THF. Premièrement, la quantité de petite molécule reste constante avec la vitesse de retrait mais les films sont plus riches en NCOOH qu’en NOH. Deuxièmement, la morphologie des films contenant du NOH présente des stries ainsi que des lamelles à plat, tandis que seules ces dernières sont observables pour le NCOOH. Ce comportement est essentiellement dû à la quantité différente de petite molécule modulée par leur force de complexation différente avec le P4VP dans le chloroforme. Enfin, ces films ont été utilisés pour l’adsorption contrôlée de nanoparticules d’or afin de guider leur organisation sur des surfaces recouvertes de PS-P4VP. Avant de servir comme gabarits, un recuit en vapeurs de solvant permet soit d’améliorer l’ordre à longue distance des nodules de P4VP, soit de modifier la morphologie des films selon le solvant utilisé (THF ou chloroforme). Ils peuvent être ensuite exposés à une solution de nanoparticules d’or de 15 nm de diamètre qui permet leur adsorption sélective sur les nodules (ou stries) de P4VP.