39 resultados para Fonctionnalités
Resumo:
Les auteurs présentent un survol des logiciels de portails de bibliothèque. La notion de portail de bibliothèque est d’abord définie, puis les principales fonctionnalités de ce type de produit (métarecherche, personnalisation, authentification) sont présentées et expliquées. Un aperçu du marché des logiciels de portail est ensuite donné. Des questions reliées à la fiabilité des résultats et à la formation des utilisateurs sont également soulevées. // The authors present a brief review of software for library portals. The concept of library portals is defined and their main functionalities subsequently presented and explained (meta search engines, personalization, authentication). A general survey of the market for portal software is given before addressing certain questions about the reliability of their results and user training.
Proposition de nouvelles fonctionnalités WikiSIG pour supporter le travail collaboratif en Geodesign
Resumo:
L’émergence du Web 2.0 se matérialise par de nouvelles technologies (API, Ajax…), de nouvelles pratiques (mashup, geotagging…) et de nouveaux outils (wiki, blog…). Il repose principalement sur le principe de participation et de collaboration. Dans cette dynamique, le Web à caractère spatial et cartographique c’est-à-dire, le Web géospatial (ou GéoWeb) connait lui aussi de fortes transformations technologiques et sociales. Le GéoWeb 2.0 participatif se matérialise en particulier par des mashups entre wikis et géobrowsers (ArgooMap, Geowiki, WikiMapia, etc.). Les nouvelles applications nées de ces mashups évoluent vers des formes plus interactives d’intelligence collective. Mais ces applications ne prennent pas en compte les spécificités du travail collaboratif, en particulier la gestion de traçabilité ou l’accès dynamique à l’historique des contributions. Le Geodesign est un nouveau domaine fruit de l’association des SIG et du design, permettant à une équipe multidisciplinaire de travailler ensemble. Compte tenu de son caractère émergent, le Geodesign n’est pas assez défini et il requiert une base théorique innovante, de nouveaux outils, supports, technologies et pratiques afin de s’adapter à ses exigences complexes. Nous proposons dans cette thèse de nouvelles fonctionnalités de type WikiSIG, bâties sur les principes et technologies du GéoWeb 2.0 et visant en particulier à supporter la dimension collaborative du processus de Geodesign. Le WikiSIG est doté de fonctionnalités wiki dédiées à la donnée géospatiale (y compris dans sa composante géométrique : forme et localisation) permettant d’assurer, de manière dynamique, la gestion documentée des versions des objets et l’accès à ces versions (et de leurs métadonnées), facilitant ainsi le travail collaboratif en Geodesign. Nous proposons également la deltification qui consiste en la capacité de comparer et d’afficher les différences entre deux versions de projets. Finalement la pertinence de quelques outils du géotraitement et « sketching » est évoquée. Les principales contributions de cette thèse sont d’une part d’identifier les besoins, les exigences et les contraintes du processus de Geodesign collaboratif, et d’autre part de proposer des nouvelles fonctionnalités WikiSIG répondant au mieux à la dimension collaborative du processus. Pour ce faire, un cadre théorique est dressé où nous avons identifié les exigences du travail collaboratif de Geodesign et proposé certaines fonctionnalités WikiSIG innovantes qui sont par la suite formalisés en diagrammes UML. Une maquette informatique est aussi développée de façon à mettre en oeuvre ces fonctionnalités, lesquelles sont illustrées à partir d’un cas d’étude simulé, traité comme preuve du concept. La pertinence de ces fonctionnalités développées proposées est finalement validée par des experts à travers un questionnaire et des entrevues. En résumé, nous montrons dans cette thèse l’importance de la gestion de la traçabilité et comment accéder dynamiquement à l’historique dans un processus de Geodesign. Nous proposons aussi d’autres fonctionnalités comme la deltification, le volet multimédia supportant l’argumentation, les paramètres qualifiant les données produites, et la prise de décision collective par consensus, etc.
Resumo:
L'article présente quelques éléments de la procédure mise en place pour traiter un corpus écrit comportant 617 textes (près de 500 000 mots) relatifs aux eurorégions. Complexe et hétérogène à plusieurs titres (technique, linguistique, éditorial, générique, énonciatif), le corpus pose la difficulté majeure de l’appréhension de données multilingues (français, italien, espagnol, anglais, allemand, néerlandais). Sa manipulation a nécessité une réflexion adaptée et une démarche de modélisation que nous qualifions d’« agile » en raison de son caractère souple et itératif. La plateforme d’analyse élaborée permet de disposer de résultats utiles à l’analyse qualitative ultérieure du discours eurorégional. Elle articule un logiciel d'analyse morphosyntaxique éprouvé (TreeTagger) à des programmes (Perl) et à une base de données (SQLite) développés pour optimiser les requêtes multilingues simultanées et l’exportation automatique des résultats. Les fonctionnalités liées à la localisation contextualisée de mots- pivots, au recueil de dénominations et à la détection de segments répétés nous servent ici de guides pour exprimer les besoins de la recherche, les problèmes rencontrés et les solutions proposées. L'analyse d'observables récurrents, à savoir les notions de décision et de responsabilité, illustre le propos.
Resumo:
O presente estudo teve como objetivo analisar em que medida o envolvimento de uma jovem de 19 anos, com incapacidade intelectual, na elaboração de um portefólio de transição para a vida ativa, se revela um processo promotor do autoconhecimento e exploração pessoal, através de uma identificação mais abrangente das suas experiências, interesses e competências funcionais. O efeito valorativo da elaboração do portefólio - processo desenvolvido ao longo de 27 sessões - no reconhecimento de experiências e interações positivas de funcionalidade que sejam tomadas, pela própria jovem, como um ponto de partida para novas oportunidades no domínio de uma vida adulta autónoma, foi avaliado através da condução de uma entrevista – nos momentos pré e pós elaboração do portefólio – e do registo contínuo da participação da jovem ao longo das sessões. O guião da entrevista procurou incorporar tópicos que permitissem obter, através da perspetiva da jovem, um retrato da sua funcionalidade e do seu perfil pessoal. Socorremo-nos de técnicas de análise de conteúdo para examinar mudanças no conteúdo do discurso da jovem, procurando, com base nessa análise, quantificar e analisar a diversidade de experiências, interesses, funcionalidades e suportes reconhecidas pela própria antes e após elaboração do portefólio. Os resultados deste estudo indicam que a elaboração do portefólio promoveu a construção de um maior autoconhecimento, pela jovem, das suas competências, interesses e aspirações - havendo no momento pós-elaboração do portefólio uma maior referência a aspetos positivos da sua funcionalidade, nestas dimensões de análise. Assim, este estudo parece sugerir que o processo de elaboração do portefólio poder-se-á afigurar como uma metodologia facilitadora na condução de uma transição consonante com os princípios avançados na abordagem de planeamento centrado na pessoa.
Resumo:
Les étudiants gradués et les professeurs (les chercheurs, en général), accèdent, passent en revue et utilisent régulièrement un grand nombre d’articles, cependant aucun des outils et solutions existants ne fournit la vaste gamme de fonctionnalités exigées pour gérer correctement ces ressources. En effet, les systèmes de gestion de bibliographie gèrent les références et les citations, mais ne parviennent pas à aider les chercheurs à manipuler et à localiser des ressources. D'autre part, les systèmes de recommandation d’articles de recherche et les moteurs de recherche spécialisés aident les chercheurs à localiser de nouvelles ressources, mais là encore échouent dans l’aide à les gérer. Finalement, les systèmes de gestion de contenu d'entreprise offrent les fonctionnalités de gestion de documents et des connaissances, mais ne sont pas conçus pour les articles de recherche. Dans ce mémoire, nous présentons une nouvelle classe de systèmes de gestion : système de gestion et de recommandation d’articles de recherche. Papyres (Naak, Hage, & Aïmeur, 2008, 2009) est un prototype qui l’illustre. Il combine des fonctionnalités de bibliographie avec des techniques de recommandation d’articles et des outils de gestion de contenu, afin de fournir un ensemble de fonctionnalités pour localiser les articles de recherche, manipuler et maintenir les bibliographies. De plus, il permet de gérer et partager les connaissances relatives à la littérature. La technique de recommandation utilisée dans Papyres est originale. Sa particularité réside dans l'aspect multicritère introduit dans le processus de filtrage collaboratif, permettant ainsi aux chercheurs d'indiquer leur intérêt pour des parties spécifiques des articles. De plus, nous proposons de tester et de comparer plusieurs approches afin de déterminer le voisinage dans le processus de Filtrage Collaboratif Multicritère, de telle sorte à accroître la précision de la recommandation. Enfin, nous ferons un rapport global sur la mise en œuvre et la validation de Papyres.
Resumo:
Communication présentée le 11 novembre 2009 au Premier Congrès des milieux documentaires du Québec, au Palais des congrès de Montréal. Sur le même sujet, voir également http://hdl.handle.net/1866/2813.
Resumo:
L'utilisation des méthodes formelles est de plus en plus courante dans le développement logiciel, et les systèmes de types sont la méthode formelle qui a le plus de succès. L'avancement des méthodes formelles présente de nouveaux défis, ainsi que de nouvelles opportunités. L'un des défis est d'assurer qu'un compilateur préserve la sémantique des programmes, de sorte que les propriétés que l'on garantit à propos de son code source s'appliquent également au code exécutable. Cette thèse présente un compilateur qui traduit un langage fonctionnel d'ordre supérieur avec polymorphisme vers un langage assembleur typé, dont la propriété principale est que la préservation des types est vérifiée de manière automatisée, à l'aide d'annotations de types sur le code du compilateur. Notre compilateur implante les transformations de code essentielles pour un langage fonctionnel d'ordre supérieur, nommément une conversion CPS, une conversion des fermetures et une génération de code. Nous présentons les détails des représentation fortement typées des langages intermédiaires, et les contraintes qu'elles imposent sur l'implantation des transformations de code. Notre objectif est de garantir la préservation des types avec un minimum d'annotations, et sans compromettre les qualités générales de modularité et de lisibilité du code du compilateur. Cet objectif est atteint en grande partie dans le traitement des fonctionnalités de base du langage (les «types simples»), contrairement au traitement du polymorphisme qui demande encore un travail substantiel pour satisfaire la vérification de type.
Resumo:
Ce mémoire vise à recenser les avantages et les inconvénients de l'utilisation du langage de programmation fonctionnel dynamique Scheme pour le développement de jeux vidéo. Pour ce faire, la méthode utilisée est d'abord basée sur une approche plus théorique. En effet, une étude des besoins au niveau de la programmation exprimés par ce type de développement, ainsi qu'une description détaillant les fonctionnalités du langage Scheme pertinentes au développement de jeux vidéo sont données afin de bien mettre en contexte le sujet. Par la suite, une approche pratique est utilisée en effectuant le développement de deux jeux vidéo de complexités croissantes: Space Invaders et Lode Runner. Le développement de ces jeux vidéo a mené à l'extension du langage Scheme par plusieurs langages spécifiques au domaine et bibliothèques, dont notamment un système de programmation orienté objets et un système de coroutines. L'expérience acquise par le développement de ces jeux est finalement comparée à celle d'autres développeurs de jeux vidéo de l'industrie qui ont utilisé Scheme pour la création de titres commerciaux. En résumé, l'utilisation de ce langage a permis d'atteindre un haut niveau d'abstraction favorisant la modularité des jeux développés sans affecter les performances de ces derniers.
Resumo:
De nos jours, les logiciels doivent continuellement évoluer et intégrer toujours plus de fonctionnalités pour ne pas devenir obsolètes. C'est pourquoi, la maintenance représente plus de 60% du coût d'un logiciel. Pour réduire les coûts de programmation, les fonctionnalités sont programmées plus rapidement, ce qui induit inévitablement une baisse de qualité. Comprendre l’évolution du logiciel est donc devenu nécessaire pour garantir un bon niveau de qualité et retarder le dépérissement du code. En analysant à la fois les données sur l’évolution du code contenues dans un système de gestion de versions et les données quantitatives que nous pouvons déduire du code, nous sommes en mesure de mieux comprendre l'évolution du logiciel. Cependant, la quantité de données générées par une telle analyse est trop importante pour être étudiées manuellement et les méthodes d’analyses automatiques sont peu précises. Dans ce mémoire, nous proposons d'analyser ces données avec une méthode semi automatique : la visualisation. Eyes Of Darwin, notre système de visualisation en 3D, utilise une métaphore avec des quartiers et des bâtiments d'une ville pour visualiser toute l'évolution du logiciel sur une seule vue. De plus, il intègre un système de réduction de l'occlusion qui transforme l'écran de l'utilisateur en une fenêtre ouverte sur la scène en 3D qu'il affiche. Pour finir, ce mémoire présente une étude exploratoire qui valide notre approche.
Resumo:
Cette recherche part du constat de l’utilisation des nouvelles technologies qui se généralise dans l’enseignement universitaire (tant sur campus qu’en enseignement à distance), et traite cette question sous trois aspects institutionnel, pédagogique et technologique. La recherche a été menée à travers quinze universités canadiennes où nous avons interrogé vingt-quatre universitaires, nommément des responsables de centres de pédagogie universitaire et des experts sur la question de l’intégration des technologies à l’enseignement universitaire. Pour le volet institutionnel, nous avons eu recours à un cadre théorique qui met en relief le changement de structure et de fonctionnement des universités à l’ère d’Internet, suivant le modèle théorique de l’Open System Communications Net de Kershaw et Safford (1998, 2001). Les résultats, à l’aune de ce modèle, confirment que les universités conventionnelles sont dans une phase de transformation due à l’utilisation des technologies de l'information et de la communication (TIC). De plus, les cours hybrides, la bimodalité, des universités entièrement à distance visant une clientèle estudiantine au-delà des frontières régionales et nationales, des universités associant plusieurs modèles, des universités fonctionnant à base d’intelligence artificielle, sont les modèles principaux qui ont la forte possibilité de s’imposer dans le paysage universitaire nord-américain au cours des prochaines décennies. Enfin, à la lumière du modèle théorique, nous avons exploré le rôle de l’université, ainsi en transformation, au sein de la société tout comme les rapports éventuels entre les institutions universitaires. S’agissant de l’aspect pédagogique, nous avons utilisé une perspective théorique fondée sur le modèle du Community of Inquiry (CoI) de Garrison, Anderson et Archer (2000), revu par Vaughan et Garrison (2005) et Garrison et Arbaugh (2007) qui prône notamment une nouvelle culture de travail à l’université fondée sur trois niveaux de présence. Les résultats indiquent l’importance d’éléments relatifs à la présence d’enseignement, à la présence cognitive et à la présence sociale, comme le suggère le modèle. Cependant, la récurrence -dans les trois niveaux de présence- de certains indicateurs, suggérés par les répondants, tels que l’échange d’information, la discussion et la collaboration, nous ont amenés à conclure à la non-étanchéité du modèle du CoI. De plus, certaines catégories, de par leur fréquence d’apparition dans les propos des interviewés, mériteraient d’avoir une considération plus grande dans les exigences pédagogiques que requiert le nouveau contexte prévalant dans les universités conventionnelles. C’est le cas par exemple de la catégorie « cohésion de groupe ». Enfin, dans le troisième volet de la recherche relatif à la dimension technologique, nous nous sommes inspirés du modèle théorique d’Olapiriyakul et Scher (2006) qui postule que l’infrastructure dans l’enseignement doit être à la fois une technologie pédagogique et une technologie d’apprentissage pour les étudiants (instructional technology and student learning technology). Partant de cette approche, le volet technologique de notre recherche a consisté à identifier les fonctionnalités exigées de la technologie pour induire une évolution institutionnelle et pédagogique. Les résultats à cet égard ont indiqué que les raisons pour lesquelles les universités choisissent d’intégrer les TIC à l’enseignement ne sont pas toujours d’ordre pédagogique, ce qui explique que la technologie elle-même ne revête pas forcément les qualités a priori requises pour une évolution pédagogique et institutionnelle. De ce constat, les technologies appropriées pour une réelle évolution pédagogique et institutionnelle des universités ont été identifiées.
Resumo:
Nous proposons une approche basée sur la formulation interactive des requêtes. Notre approche sert à faciliter des tâches d’analyse et de compréhension du code source. Dans cette approche, l’analyste utilise un ensemble de filtres de base (linguistique, structurel, quantitatif, et filtre d’interactivité) pour définir des requêtes complexes. Ces requêtes sont construites à l’aide d’un processus interactif et itératif, où des filtres de base sont choisis et exécutés, et leurs résultats sont visualisés, changés et combinés en utilisant des opérateurs prédéfinis. Nous avons évalués notre approche par l’implantation des récentes contributions en détection de défauts de conception ainsi que la localisation de fonctionnalités dans le code. Nos résultats montrent que, en plus d’être générique, notre approche aide à la mise en œuvre des solutions existantes implémentées par des outils automatiques.
Resumo:
Ce mémoire présente une implantation de la création paresseuse de tâches desti- née à des systèmes multiprocesseurs à mémoire distribuée. Elle offre un sous-ensemble des fonctionnalités du Message-Passing Interface et permet de paralléliser certains problèmes qui se partitionnent difficilement de manière statique grâce à un système de partitionnement dynamique et de balancement de charge. Pour ce faire, il se base sur le langage Multilisp, un dialecte de Scheme orienté vers le traitement parallèle, et implante sur ce dernier une interface semblable à MPI permettant le calcul distribué multipro- cessus. Ce système offre un langage beaucoup plus riche et expressif que le C et réduit considérablement le travail nécessaire au programmeur pour pouvoir développer des programmes équivalents à ceux en MPI. Enfin, le partitionnement dynamique permet de concevoir des programmes qui seraient très complexes à réaliser sur MPI. Des tests ont été effectués sur un système local à 16 processeurs et une grappe à 16 processeurs et il offre de bonnes accélérations en comparaison à des programmes séquentiels équiva- lents ainsi que des performances acceptables par rapport à MPI. Ce mémoire démontre que l’usage des futures comme technique de partitionnement dynamique est faisable sur des multiprocesseurs à mémoire distribuée.
Resumo:
L’application des métaux de transition à la fonctionnalisation directe a ouvert la voie à une nouvelle classe de réactions pour la formation de liens carbone-carbone. De par l'omniprésence des liaisons C–H, l’introduction de nouvelles fonctionnalités chimiques par voie directe et pré-activation minimale s’impose comme une stratégie de synthèse très attrayante. Ainsi, il est envisageable de préparer de manière rapide et efficace des supports complexes menant à des molécules complexes, qui pourraient être utiles dans divers domaines de la chimie. L'objectif principal de la présente thèse vise la fonctionnalisation directe des arènes hétérocycliques et non hétérocycliques et, plus précisément, les techniques d’arylation. Dans un premier temps, nous allons aborder le thème de l’arylation directe tout en mettant l’accent sur les pyridines (Chapitre 1). Ces molécules sont à la base d'une multitude de composés biologiquement actifs et jouent un rôle important dans le domaine des sciences des matériaux, de l’agrochimie et de la synthèse des produits naturels. Dans un deuxième temps, nous discuterons de nos travaux sur l’arylation directe catalysé par un complex de palladium sur des ylures de N-iminopyridinium en soulignant la dérivatisation du sel de pyridinium après une phénylation sp2 (Chapitre 2). L’étude de ce procédé nous a permis de mettre en lumière plusieurs découvertes importantes, que nous expliquerons en détails une à une : l’arylation benzylique directe lorsque des ylures N-iminopyridinium substituées avec un groupement alkyl à la position 2 sont utilisés comme partenaires dans la réaction; les allylations Tsuji-Trost catalysée par un complex de palladium; et l’alkylation directe et sans métal via une catalyse par transfert de phase. Plusieurs défis restent à relever pour le développement de procédés directs utilisant des métaux de transition peu coûteux, d’autant plus que la synthèse par transformation directe des pyridines 2-alcényles, lesquelles sont pertinentes sur le plan pharmacologique, n’a pas encore été rapportée à ce jour. Avec cette problématique en tête, nous avons réussi à mettre au point une alcénylation directe catalysé par un complex de cuivre sur des ylures de N-iminopyridinium. Nous discuterons également d’une nouvelle méthode pour la préparation des iodures de vinyle utilisés dans les couplages. Ces réactions sont non seulement remarquablement chimiosélectives, mais sont aussi applicables à plusieurs substrats (Chapitre 3). En optimisant ce procédé direct, nous avons découvert une façon unique de synthétiser les pyrazolo[1,5-a]pyridines 2-substituées (Chapitre 4). Le mécanisme global met en jeu une séquence tandem de fonctionnalisation-cyclisation directe et un procédé direct en cascade, qui n’avais jamais été rapporté. Cela simplifie ansi la synthèse autrement compliquée de ces substrats en y apportant une solution à un problème de longue date. Dans les deux derniers chapitres, nous examinerons en détail les techniques d’arylation directe qui n'impliquent pas les partenaires de couplage hétérocycliques. Entre autres, au Chapitre 5, nous soulignerons notre découverte d’un umpolung dirigé et catalysé par un complexe de palladium du benzène et de quelques autres dérivés arènes. Il s’agit là du premier cas de fonctionnalisation directe dans laquelle le groupe directeur se trouve sur le partenaire halogène et il s’ajoute à la courte liste d’exemples connus dans la littérature rapportant une arylation directe du benzène. Finalement, au Chapitre 6, nous passerons en revue une nouvelle arylation directe catalysée au fer, qui se veut un procédé peu coûteux, durable et présentant une économie d’atomes. Nous discutons des substrats possibles ainsi des études mécanistiques réalisés.
Resumo:
L’augmentation du nombre d’usagers de l’Internet a entraîné une croissance exponentielle dans les tables de routage. Cette taille prévoit l’atteinte d’un million de préfixes dans les prochaines années. De même, les routeurs au cœur de l’Internet peuvent facilement atteindre plusieurs centaines de connexions BGP simultanées avec des routeurs voisins. Dans une architecture classique des routeurs, le protocole BGP s’exécute comme une entité unique au sein du routeur. Cette architecture comporte deux inconvénients majeurs : l’extensibilité (scalabilité) et la fiabilité. D’un côté, la scalabilité de BGP est mesurable en termes de nombre de connexions et aussi par la taille maximale de la table de routage que l’interface de contrôle puisse supporter. De l’autre côté, la fiabilité est un sujet critique dans les routeurs au cœur de l’Internet. Si l’instance BGP s’arrête, toutes les connexions seront perdues et le nouvel état de la table de routage sera propagé tout au long de l’Internet dans un délai de convergence non trivial. Malgré la haute fiabilité des routeurs au cœur de l’Internet, leur résilience aux pannes est augmentée considérablement et celle-ci est implantée dans la majorité des cas via une redondance passive qui peut limiter la scalabilité du routeur. Dans cette thèse, on traite les deux inconvénients en proposant une nouvelle approche distribuée de BGP pour augmenter sa scalabilité ainsi que sa fiabilité sans changer la sémantique du protocole. L’architecture distribuée de BGP proposée dans la première contribution est faite pour satisfaire les deux contraintes : scalabilité et fiabilité. Ceci est accompli en exploitant adéquatement le parallélisme et la distribution des modules de BGP sur plusieurs cartes de contrôle. Dans cette contribution, les fonctionnalités de BGP sont divisées selon le paradigme « maître-esclave » et le RIB (Routing Information Base) est dupliqué sur plusieurs cartes de contrôle. Dans la deuxième contribution, on traite la tolérance aux pannes dans l’architecture élaborée dans la première contribution en proposant un mécanisme qui augmente la fiabilité. De plus, nous prouvons analytiquement dans cette contribution qu’en adoptant une telle architecture distribuée, la disponibilité de BGP sera augmentée considérablement versus une architecture monolithique. Dans la troisième contribution, on propose une méthode de partitionnement de la table de routage que nous avons appelé DRTP pour diviser la table de BGP sur plusieurs cartes de contrôle. Cette contribution vise à augmenter la scalabilité de la table de routage et la parallélisation de l’algorithme de recherche (Best Match Prefix) en partitionnant la table de routage sur plusieurs nœuds physiquement distribués.
Resumo:
La conception de systèmes hétérogènes exige deux étapes importantes, à savoir : la modélisation et la simulation. Habituellement, des simulateurs sont reliés et synchronisés en employant un bus de co-simulation. Les approches courantes ont beaucoup d’inconvénients : elles ne sont pas toujours adaptées aux environnements distribués, le temps d’exécution de simulation peut être très décevant, et chaque simulateur a son propre noyau de simulation. Nous proposons une nouvelle approche qui consiste au développement d’un simulateur compilé multi-langage où chaque modèle peut être décrit en employant différents langages de modélisation tel que SystemC, ESyS.Net ou autres. Chaque modèle contient généralement des modules et des moyens de communications entre eux. Les modules décrivent des fonctionnalités propres à un système souhaité. Leur description est réalisée en utilisant la programmation orientée objet et peut être décrite en utilisant une syntaxe que l’utilisateur aura choisie. Nous proposons ainsi une séparation entre le langage de modélisation et la simulation. Les modèles sont transformés en une même représentation interne qui pourrait être vue comme ensemble d’objets. Notre environnement compile les objets internes en produisant un code unifié au lieu d’utiliser plusieurs langages de modélisation qui ajoutent beaucoup de mécanismes de communications et des informations supplémentaires. Les optimisations peuvent inclure différents mécanismes tels que le regroupement des processus en un seul processus séquentiel tout en respectant la sémantique des modèles. Nous utiliserons deux niveaux d’abstraction soit le « register transfer level » (RTL) et le « transaction level modeling » (TLM). Le RTL permet une modélisation à bas niveau d’abstraction et la communication entre les modules se fait à l’aide de signaux et des signalisations. Le TLM est une modélisation d’une communication transactionnelle à un plus haut niveau d’abstraction. Notre objectif est de supporter ces deux types de simulation, mais en laissant à l’usager le choix du langage de modélisation. De même, nous proposons d’utiliser un seul noyau au lieu de plusieurs et d’enlever le bus de co-simulation pour accélérer le temps de simulation.