8 resultados para pacs: expert systems and other ai software and techniques
em Université de Montréal, Canada
Resumo:
Lors de ces dix dernières années, le coût de la maintenance des systèmes orientés objets s'est accru jusqu' à compter pour plus de 70% du coût total des systèmes. Cette situation est due à plusieurs facteurs, parmi lesquels les plus importants sont: l'imprécision des spécifications des utilisateurs, l'environnement d'exécution changeant rapidement et la mauvaise qualité interne des systèmes. Parmi tous ces facteurs, le seul sur lequel nous ayons un réel contrôle est la qualité interne des systèmes. De nombreux modèles de qualité ont été proposés dans la littérature pour contribuer à contrôler la qualité. Cependant, la plupart de ces modèles utilisent des métriques de classes (nombre de méthodes d'une classe par exemple) ou des métriques de relations entre classes (couplage entre deux classes par exemple) pour mesurer les attributs internes des systèmes. Pourtant, la qualité des systèmes par objets ne dépend pas uniquement de la structure de leurs classes et que mesurent les métriques, mais aussi de la façon dont celles-ci sont organisées, c'est-à-dire de leur conception, qui se manifeste généralement à travers les patrons de conception et les anti-patrons. Dans cette thèse nous proposons la méthode DEQUALITE, qui permet de construire systématiquement des modèles de qualité prenant en compte non seulement les attributs internes des systèmes (grâce aux métriques), mais aussi leur conception (grâce aux patrons de conception et anti-patrons). Cette méthode utilise une approche par apprentissage basée sur les réseaux bayésiens et s'appuie sur les résultats d'une série d'expériences portant sur l'évaluation de l'impact des patrons de conception et des anti-patrons sur la qualité des systèmes. Ces expériences réalisées sur 9 grands systèmes libres orientés objet nous permettent de formuler les conclusions suivantes: • Contre l'intuition, les patrons de conception n'améliorent pas toujours la qualité des systèmes; les implantations très couplées de patrons de conception par exemple affectent la structure des classes et ont un impact négatif sur leur propension aux changements et aux fautes. • Les classes participantes dans des anti-atrons sont beaucoup plus susceptibles de changer et d'être impliquées dans des corrections de fautes que les autres classes d'un système. • Un pourcentage non négligeable de classes sont impliquées simultanément dans des patrons de conception et dans des anti-patrons. Les patrons de conception ont un effet positif en ce sens qu'ils atténuent les anti-patrons. Nous appliquons et validons notre méthode sur trois systèmes libres orientés objet afin de démontrer l'apport de la conception des systèmes dans l'évaluation de la qualité.
Resumo:
Un objectif principal du génie logiciel est de pouvoir produire des logiciels complexes, de grande taille et fiables en un temps raisonnable. La technologie orientée objet (OO) a fourni de bons concepts et des techniques de modélisation et de programmation qui ont permis de développer des applications complexes tant dans le monde académique que dans le monde industriel. Cette expérience a cependant permis de découvrir les faiblesses du paradigme objet (par exemples, la dispersion de code et le problème de traçabilité). La programmation orientée aspect (OA) apporte une solution simple aux limitations de la programmation OO, telle que le problème des préoccupations transversales. Ces préoccupations transversales se traduisent par la dispersion du même code dans plusieurs modules du système ou l’emmêlement de plusieurs morceaux de code dans un même module. Cette nouvelle méthode de programmer permet d’implémenter chaque problématique indépendamment des autres, puis de les assembler selon des règles bien définies. La programmation OA promet donc une meilleure productivité, une meilleure réutilisation du code et une meilleure adaptation du code aux changements. Très vite, cette nouvelle façon de faire s’est vue s’étendre sur tout le processus de développement de logiciel en ayant pour but de préserver la modularité et la traçabilité, qui sont deux propriétés importantes des logiciels de bonne qualité. Cependant, la technologie OA présente de nombreux défis. Le raisonnement, la spécification, et la vérification des programmes OA présentent des difficultés d’autant plus que ces programmes évoluent dans le temps. Par conséquent, le raisonnement modulaire de ces programmes est requis sinon ils nécessiteraient d’être réexaminés au complet chaque fois qu’un composant est changé ou ajouté. Il est cependant bien connu dans la littérature que le raisonnement modulaire sur les programmes OA est difficile vu que les aspects appliqués changent souvent le comportement de leurs composantes de base [47]. Ces mêmes difficultés sont présentes au niveau des phases de spécification et de vérification du processus de développement des logiciels. Au meilleur de nos connaissances, la spécification modulaire et la vérification modulaire sont faiblement couvertes et constituent un champ de recherche très intéressant. De même, les interactions entre aspects est un sérieux problème dans la communauté des aspects. Pour faire face à ces problèmes, nous avons choisi d’utiliser la théorie des catégories et les techniques des spécifications algébriques. Pour apporter une solution aux problèmes ci-dessus cités, nous avons utilisé les travaux de Wiels [110] et d’autres contributions telles que celles décrites dans le livre [25]. Nous supposons que le système en développement est déjà décomposé en aspects et classes. La première contribution de notre thèse est l’extension des techniques des spécifications algébriques à la notion d’aspect. Deuxièmement, nous avons défini une logique, LA , qui est utilisée dans le corps des spécifications pour décrire le comportement de ces composantes. La troisième contribution consiste en la définition de l’opérateur de tissage qui correspond à la relation d’interconnexion entre les modules d’aspect et les modules de classe. La quatrième contribution concerne le développement d’un mécanisme de prévention qui permet de prévenir les interactions indésirables dans les systèmes orientés aspect.
Resumo:
Cette thèse s’intéresse aux choix institutionnels des législateurs. Elle propose une analyse diachronique et comparative du développement des Chambre Nationale des Députés argentines et chiliennes des années 1940 aux années 2000. Inspiré de la théorie du Cartel (Cox et McCubbins, 1993), ce travail se concentre sur le rôle des partis politiques dans ce développement institutionnel. Il montre qu’en dépit de leurs différences, les partis uniques, coalitions, forces majoritaires ou minoritaires qui ont dirigé ces chambres ont adopté un large éventail de règles et de normes organisationnelles qui les avantagent. Ils se sont, en un mot, comportés comme des coalitions procédurales. L’analyse des modifications des règles de fonctionnement de ces chambres et de leurs systèmes de direction et de commissions montre que les partis et coalitions au pouvoir ont, pendant cette période, renforcé leur pouvoir, contrôlé l’agenda législatif, structuré les systèmes de commission et adopté des règles qui leur ont profité. Les résultats obtenus suggèrent en particulier que les coalitions qui ont dirigé la chambre Chilienne ont installé certains de leurs membres à plusieurs postes comme les présidences d’assemblée et de commissions. Ils montrent l’existence d’un pouvoir de véto sur l’agenda législative plus importante au Chili qu’en Argentine. L’étude du cas argentin montre que les partis au pouvoir ont, en particulier depuis les années 1960, conservé le contrôle de la chambre, non seulement en modifiant les règles et les structures du système de commissions, mais également en créant et distribuant à l’opposition des postes permanents mais sans réel pouvoir. Cette analyse confirme également les résultats obtenus par de récentes études concernant ce champ de recherche, notamment le professionnalisme du système de commission chilien et le caractère amateur des législateurs argentins. A l’inverse, elle met à jour des différences, négligées jusqu’alors, entre l’Argentine et le Chili concernant le contrôle de l’agenda législatif. Cette thèse est divisée en sept chapitres. Le premier introduit le sujet, l’hypothèse générale et les questions posées par la thèse, en expliquant également pourquoi les choix institutionnels des législateurs importent. Le chapitre II présente la théorie et la méthodologie. Il propose une définition du développement institutionnel et explicite les prédictions et critères permettant de tester l’hypothèse générale. Les chapitre III et IV, qui concernent respectivement l’Argentine et le Chili, décrivent le système politique de chaque pays et l’organisation des chambres durant la période étudiée. Les chapitre IV et VI, respectivement pour l’Argentine et le Chili, analysent les réformes des règles régissant les chambres, l’évolution de l’autorité qui les dirige et celle du système de commission. Ces chapitres se concluent par un résumé des différents schémas mis en évidence et une évaluation préliminaire de l’hypothèse générale. En conclusion, le chapitre VII résume les découvertes, donne un verdict global sur la fécondité de la théorie et suggère de nouvelles pistes de recherche.
Resumo:
Quand le E-learning a émergé il ya 20 ans, cela consistait simplement en un texte affiché sur un écran d'ordinateur, comme un livre. Avec les changements et les progrès dans la technologie, le E-learning a parcouru un long chemin, maintenant offrant un matériel éducatif personnalisé, interactif et riche en contenu. Aujourd'hui, le E-learning se transforme de nouveau. En effet, avec la prolifération des systèmes d'apprentissage électronique et des outils d'édition de contenu éducatif, ainsi que les normes établies, c’est devenu plus facile de partager et de réutiliser le contenu d'apprentissage. En outre, avec le passage à des méthodes d'enseignement centrées sur l'apprenant, en plus de l'effet des techniques et technologies Web2.0, les apprenants ne sont plus seulement les récipiendaires du contenu d'apprentissage, mais peuvent jouer un rôle plus actif dans l'enrichissement de ce contenu. Par ailleurs, avec la quantité d'informations que les systèmes E-learning peuvent accumuler sur les apprenants, et l'impact que cela peut avoir sur leur vie privée, des préoccupations sont soulevées afin de protéger la vie privée des apprenants. Au meilleur de nos connaissances, il n'existe pas de solutions existantes qui prennent en charge les différents problèmes soulevés par ces changements. Dans ce travail, nous abordons ces questions en présentant Cadmus, SHAREK, et le E-learning préservant la vie privée. Plus précisément, Cadmus est une plateforme web, conforme au standard IMS QTI, offrant un cadre et des outils adéquats pour permettre à des tuteurs de créer et partager des questions de tests et des examens. Plus précisément, Cadmus fournit des modules telles que EQRS (Exam Question Recommender System) pour aider les tuteurs à localiser des questions appropriées pour leur examens, ICE (Identification of Conflits in Exams) pour aider à résoudre les conflits entre les questions contenu dans un même examen, et le Topic Tree, conçu pour aider les tuteurs à mieux organiser leurs questions d'examen et à assurer facilement la couverture des différent sujets contenus dans les examens. D'autre part, SHAREK (Sharing REsources and Knowledge) fournit un cadre pour pouvoir profiter du meilleur des deux mondes : la solidité des systèmes E-learning et la flexibilité de PLE (Personal Learning Environment) tout en permettant aux apprenants d'enrichir le contenu d'apprentissage, et les aider à localiser nouvelles ressources d'apprentissage. Plus précisément, SHAREK combine un système recommandation multicritères, ainsi que des techniques et des technologies Web2.0, tels que le RSS et le web social, pour promouvoir de nouvelles ressources d'apprentissage et aider les apprenants à localiser du contenu adapté. Finalement, afin de répondre aux divers besoins de la vie privée dans le E-learning, nous proposons un cadre avec quatre niveaux de vie privée, ainsi que quatre niveaux de traçabilité. De plus, nous présentons ACES (Anonymous Credentials for E-learning Systems), un ensemble de protocoles, basés sur des techniques cryptographiques bien établies, afin d'aider les apprenants à atteindre leur niveau de vie privée désiré.
Resumo:
Les systèmes cholinergique et dopaminergique jouent un rôle prépondérant dans les fonctions cognitives. Ce rôle est exercé principalement grâce à leur action modulatrice de l’activité des neurones pyramidaux du cortex préfrontal. L’interaction pharmacologique entre ces systèmes est bien documentée mais les études de leurs interactions neuroanatomiques sont rares, étant donné qu’ils sont impliqués dans une transmission diffuse plutôt que synaptique. Ce travail de thèse visait à développer une expertise pour analyser ce type de transmission diffuse en microscopie confocale. Nous avons étudié les relations de microproximité entre ces différents systèmes dans le cortex préfrontal médian (mPFC) de rats et souris. En particulier, la densité des varicosités axonales en passant a été quantifiée dans les segments des fibres cholinergiques et dopaminergiques à une distance mutuelle de moins de 3 µm ou à moins de 3 µm des somas de cellules pyramidales. Cette microproximité était considérée comme une zone d’interaction probable entre les éléments neuronaux. La quantification était effectuée après triple-marquage par immunofluorescence et acquisition des images de 1 µm par microscopie confocale. Afin d’étudier la plasticité de ces relations de microproximité, cette analyse a été effectuée dans des conditions témoins, après une activation du mPFC et dans un modèle de schizophrénie par déplétion des neurones cholinergiques du noyau accumbens. Les résultats démontrent que 1. Les fibres cholinergiques interagissent avec des fibres dopaminergiques et ce sur les mêmes neurones pyramidaux de la couche V du mPFC. Ce résultat suggère différents apports des systèmes cholinergique et dopaminergique dans l’intégration effectuée par une même cellule pyramidale. 2. La densité des varicosités en passant cholinergiques et dopaminergiques sur des segments de fibre en microproximité réciproque est plus élevée comparé aux segments plus distants les uns des autres. Ce résultat suggère un enrichissement du nombre de varicosités axonales dans les zones d’interaction. 3. La densité des varicosités en passant sur des segments de fibre cholinergique en microproximité de cellules pyramidales, immunoúactives pour c-Fos après une stimulation visuelle et une stimulation électrique des noyaux cholinergiques projetant au mPFC est plus élevée que la densité des varicosités de segments en microproximité de cellules pyramidales non-activées. Ce résultat suggère un enrichissement des varicosités axonales dépendant de l’activité neuronale locale au niveau de la zone d'interaction avec d'autres éléments neuronaux. 4. La densité des varicosités en passant des fibres dopaminergiques a été significativement diminuée dans le mPFC de rats ayant subi une déplétion cholinergique dans le noyau accumbens, comparée aux témoins. Ces résultats supportent des interrelations entre la plasticité structurelle des varicosités dopaminergiques et le fonctionnement cortical. L’ensemble des donneès démontre une plasticité de la densité locale des varicosités axonales en fonction de l’activité neuronale locale. Cet enrichissement activité-dépendant contribue vraisemblablement au maintien d’une interaction neurochimique entre deux éléments neuronaux.
Resumo:
Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.
Resumo:
Chez les plantes à fleurs, l’ovaire est l’organe reproducteur femelle et il interagit de façon importante avec les gamètes mâles durant la croissance, le guidage, la réception et la rupture du tube pollinique ainsi que la fusion des gamètes. Le processus débute lorsque de nombreux gènes de l’ovule sont activés à longue distance lors de la réception du pollen sur le stigmate. Afin d’explorer les signaux provenant de l’ovule ayant un impact important sur les interactions pollen–pistil, particulièrement les molécules sécrétées impliquées dans la signalisation espècespécifique, l’expression génique des ovules sous forme d’ARNm ainsi et la sécrétion protéique ont été étudiées chez Solanum chacoense, une espèce diploïde de pomme de terre sauvage. S. chacoense a subi beaucoup d’hybridation interspécifique avec d’autres espèces sympathiques de solanacées, facilitant ainsi grandement l’étude des interactions pollen–ovule de façon espècespécifique ainsi que leur évolution. Dans ce projet, des ovules provenant de trois conditions différentes ont été comparés: des ovules matures de type sauvage, des ovules légèrement immatures, récoltés deux jours avant l’anthèse et des ovules provenant du mutant frk1 pour lesquels le sac embryonnaire est absent. Un séquençage d’ARN à haut débit a d’abord été effectué sur les ovules de type sauvage de S. chacoense afin de générer un assemblage de référence comprenant 33852 séquences codantes. D’autres séquençages ont été effectués sur les trois conditions d’ovules et sur les feuilles afin de faire une analyse d’expression différentielle des gènes. En comparaison avec les ovules de type sauvage, 818 gènes sont réprimés dans les ovules du mutant frk1. Un sous-groupe de 284 gènes, étaient également sous-exprimés dans les ovules légèrement immatures, suggérant un rôle spécifique dans les stades tardifs de la maturation du sac embryonnaire (stade de développent FG6 à FG7) ainsi que du guidage du tube pollinique, puisque ni les ovules du mutant frk1 ni ceux légèrement immatures ne sont capables d’attirer les tubes polliniques lors d’essais de croissance semi in vivo. De plus, 21% de ces gènes sont des peptides riches en cystéines (CRPs). En utilisant un transcriptome assemblé de novo provenant de deux proches parents de S. chacoense, S. gandarillasii et S. tarijense, une analyse d’orthologie a été effectuée sur ces CRPs, révélant une grande variabilité et une évolution rapide chez les solanacées. De nouveaux motifs de cystéine uniques à cette famille ont également été découverts. En comparant avec des études similaires chez Arabidopsis, le sac embryonnaire de S. chacoense montre un transcriptome fortement divergent, particulièrement en en ce qui a trait à la catégorisation fonctionnelle des gènes et de la similarité entre les gènes orthologues. De plus,même si la glycosylation n’est pas requise lors du guidage mycropylaire du tube pollinique chez Arabidopsis, Torenia ou le maïs, des extraits d’ovules glycosylés de S. chacoense sont capables d’augmenter la capacité de guidage de 18%. Cette étude est donc la première à montrer une corrélation entre glycosylation et le guidage du tube pollinique par l’ovule. En complément à l’approche transcriptomique, une approche protéomique portant sur les protéine sécrétées par l’ovule (le secrétome) a été utilisée afin d’identifier des protéines impliquées dans l’interaction entre ovule et tube pollinique. Des exsudats d’ovules matures (capables d’attirer le tube pollinique) et d’ovules immatures (incapables d’attirer le tube pollinique) ont été récoltés en utilisant une nouvelle méthode d’extraction par gravité permettant de réduire efficacement les contaminants cytosoliques à moins de 1% de l’échantillon. Un total de 305 protéines sécrétées par les ovules (OSPs) ont été identifiées par spectrométrie de masse, parmi lesquelles 58% étaient spécifiques aux ovules lorsque comparées avec des données de protéines sécrétées par des tissus végétatifs. De plus, la sécrétion de 128 OSPs est augmentée dans les ovules matures par rapport aux ovules immatures. Ces 128 protéines sont donc considérées en tant que candidates potentiellement impliquées dans la maturation tardive de l’ovule et dans le guidage du tube pollinique. Cette étude a également montré que la maturation du sac embryonnaire du stade FG6 au stade FG7 influence le niveau de sécrétion de 44% du sécrétome total de l’ovule. De façon surprenante, la grande majorité (83%) de ces protéines n’est pas régulée au niveau de l’ARN, soulignant ainsi l’importance de cette approche dans l’étude du guidage du tube pollinique comme complément essentiel aux études transcriptomiques. Parmi tous les signaux sécrétés par l’ovule et reliés au guidage, obtenus à partir des approches transcriptomiques et protéomiques décrites ci-haut, nous avons spécifiquement évalué l’implication des CRPs dans le guidage du tube pollinique par l’ovule chez S. chacoense, vu l’implication de ce type de protéine dans les interactions pollen-pistil et le guidage du tube pollinique chez d’autres espèces. Au total, 28 CRPs étaient présentes dans les ovules capables d’attirer le tube pollinique tout en étant absentes dans les ovules incapables de l’attirer, et ce, soit au niveau de l’ARNm et/ou au niveau du sécrétome. De celles-ci, 17 CRPs ont été exprimées dans un système bactérien et purifiées en quantité suffisante pour tester le guidage. Alors que des exsudats d’ovules ont été utilisés avec succès pour attirer par chimiotactisme le tube pollinique, les candidats exprimés dans les bactéries n’ont quant à eux pas été capables d’attirer les tubes polliniques. Comme l’utilisation de systèmes d’expression hétérologue eucaryote peut permettre un meilleur repliement et une plus grande activité des protéines, les candidats restants seront de nouveau exprimés, cette fois dans un système de levure ainsi que dans un système végétal pour produire les peptides sécrétés. Ceux-ci seront ensuite utilisés lors d’essais fonctionnels pour évaluer leur capacité à guider les tubes polliniques et ainsi isoler les attractants chimiques responsable du guidage du tube pollinique chez les solanacées comme S. chacoense.