983 resultados para Transposition didactique et technologie


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dissertação de Mestrado apresentada à Universidade Fernando Pessoa como parte dos requisitos para obtenção do grau de Mestre em Gestão da Qualidade.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este relatório foi elaborado no âmbito do lote 7 (Inserção Curricular da Intercompreensão) do projeto MIRIADI. Trata-se de um lote cujo objetivo é desenvolver processos de integração curricular da Intercompreensão (IC) à distância em grupos plurilingues, a partir de trabalhos experimentais levados a cabo no terreno e realizados numa lógica de investigação-ação, tendo em vista compreender as “condições de exequibilidade” desta abordagem didática nos curricula de aprendizagem de línguas e de formação. Procura-se, em particular, identificar empiricamente permeabilidades e resistências dos contextos e dos atores educativos face à IC como conceito prático com relevância profissional, bem como vantagens e limites do ponto de vista da aprendizagem linguística que possam justificar o seu valor educativo. A Intercompreensão tem vindo, nas últimas décadas, a percorrer um percurso de destaque em Didática de Línguas (sobretudo Estrangeiras) na Europa e fora dela, em particular no âmbito das atuais abordagens plurais, ocupando um lugar de visibilidade nos discursos e práticas de investigação e formação desta disciplina e contribuindo para a tonalidade da sua voz mais propriamente politico-ideológica (Alarcão, Andrade, Araújo e Sá, Melo-Pfeifer & Santos, 2009). Contudo, a presença do conceito nos espaços concretos de educação em línguas (tais como escolas, liceus, universidades e outras instituições) é extremamente débil, limitando-se a algumas experiências pontuais, sob o impulso (e mesmo a condução), na maior parte dos casos, dos investigadores e tendo como finalidade principal a produção de conhecimento didático (Degache & Tavares, 2011). Assim, pouco se sabe ainda do que pode ser efetivamente o contributo da IC para o projeto educativo das instituições, e muito menos do modo como o conceito pode ser integrado em práticas curriculares continuadas e sistemáticas de educação em línguas, sabendo-se que estas mesmas práticas são reguladas por múltiplas instâncias, internas e externas, objetivas e subjetivas, que atuam a vários níveis (macro, meso, micro) e que não podem deixar de ser consideradas. O lote 7 de Miriadi propõe abordar estas questões, relativas à integração curricular da IC, a partir de uma outra lógica epistemológica, uma lógica que não busca propostas desenhadas a partir dos resultados da investigação e orientadas para a transferência do conhecimento, ou seja, que não reflete uma perspetiva aplicacionista do saber didático. Ao invés, o trabalho realizado por este lote entende o currículo como uma construção dinâmica que se (re)define e se (re)negocia em função dos contextos específicos em que ocorre, atribuindo-lhe por conseguinte uma natureza contingente, situada, intersubjetiva e local. Nesta perspetiva sócio-construtivista, em que o currículo é uma co-construção que ocorre entre sujeitos precisos nas suas ações educativas quotidianas, a integração curricular da IC produz-se no âmbito destas ações, ou, dito de outra forma, através de práticas situadas nas especificidades e possibilidades que oferecem os contextos concretos, em particular os sujeitos que deles fazem parte. Esta perspetiva de trabalho do lote 7 parece-nos ser a mais coerente com o posicionamento teórico relativamente à IC enquanto conceito didático do projeto MIRIADI. Com efeito, está amplamente estudado que a IC tem vindo a ser tratada segundo diferentes pontos de vista, de acordo com as escolas epistemológicas e as proveniências e ancoragens disciplinares dos seus autores (para uma revisão recente, ver Araújo e Sá, 2013; Olliver, 2013). No âmbito do percurso específico de investigação/formação/intervenção do grupo e-Gala (www.e-gala.eu), no seio do qual emergiu MIRIADI, em particular das suas mais disseminadas realizações – as plataformas Galanet (www.galanet.eu) e Galapro (www-galapro.eu/sessions) -, a IC é abordada numa perspetiva socio-construtivista do saber e da relação comunicativa. Dito de outra forma, MIRIADI define a IC como um processo e uma prática interacional que ocorre entre sujeitos, atores sociais que vivem em diferentes línguas e que se implicam coletivamente num quadro dialógico “où le grand enjeu devient la construction d’un territoire de parole partagé” (Araújo e Sá, Degache & Spita, 2010: 26). Esta aceção interacionista (e plurilingue e intercultural) é complementada pelo recurso a meios de comunicação tecnológicos. Definido o enquadramento conceptual e metodológico do lote7, importa agora explicitar como se desenvolveu o trabalho ao longo dos seus 36 meses de execução. O lote organizou-se em 3 grandes etapas, que envolveram toda a equipa: Etapa 1. Identificação e caracterização de contextos de ensino e formação linguística suscetíveis de poderem beneficiar de uma integração curricular da IC (plurilingue e à distância) (os resultados desta etapa encontram-se na Prestation 7.1. do projeto, referida na nota anterior). Etapa 2. Planificação e desenvolvimento de múltiplas e diversificadas iniciativas de divulgação da IC nesses mesmos contextos, destinadas à comunidade educativa na generalidade (públicos, professores/formadores, órgãos de gestão, funcionários, etc.), tendo em vista a sua familiarização com a IC enquanto conceito didático e prática de educação em línguas, de modo a criar condições (e aberturas) para a sua integração curricular; uma atenção especial foi dada à formação dos agentes educativos. Etapa 3. Planificação, experimentação e avaliação, numa lógica de investigação-ação e em rede (aproveitando-se as potencialidades das plataformas Galapro e Galanet), de propostas de integração curricular da IC; pretendia-se, em especial, com estas propostas, identificar contributos da IC para a qualidade dos projetos educativos dos contextos de integração caracterizados (na etapa 1), mas também constrangimentos, fragilidades, obstáculos e resistências, numa abordagem crítica do conceito que fosse sensível às propriedades dos espaços-alvo de educação em línguas. Neste sentido, foram recolhidos, analisados e discutidos, em função das suas características contextuais (definidas na etapa 1), dados empíricos de natureza diversa (produções dos alunos, transcrições de excertos de aulas, testemunhos espontâneos de alunos e professores, respostas a questionários, entre outros). Este Rapport é um produto da Etapa 3. Trata-se de um documento multimédia, que pretende dar acesso sistematizado e crítico aos discursos e vozes de sujeitos reais que experienciaram propostas didáticas concretas de IC elaboradas durante esta etapa do lote. Mais concretamente, este relatório oferece 6 narrativas de estudos de caso (3 em contexto de ensino secundário e outros 3 no ensino superior), realizados em vários países (Brasil, França, Itália Portugal e República da Maurícia), contendo uma descrição detalhada das situações educativas experimentadas e uma análise dos dados recolhidos, com apresentação dos recursos e materiais utilizados e testemunhos dos sujeitos concretos (professores e alunos). Incluem-se igualmente os instrumentos de recolha de dados e alguns exemplos dos mesmos. Cada narrativa obedece a uma mesma estrutura discursiva, de forma a mais facilmente poderem ser comparáveis, permitindo a extração de conclusões transversais aos vários estudos: introdução; descrição do contexto de intervenção; descrição da intervenção (objetivos, atividades, com acesso aos recursos utilizados, e avaliação); resultados obtidos; conclusões e implicações A secção final, “Témoignages”, apresenta-se sob a forma de um conjunto de vídeos e podcasts, identificados de acordo com a instituição parceira do projeto que os recolheu e organizados segundo três critérios: • as línguas dos locutores (espanhol, francês, italiano e português); • os contextos de formação onde decorreram as experiências de IC (ensino secundário e ensino universitário); • o tipo de intervenientes nas experiências de IC (alunos ou professores). Assume-se mais uma vez, neste Rapport, as dinâmicas de trabalho plurilingue da equipa Miriadi, cuja rentabilidade para a produção do conhecimento didático foi analisada e evidenciada no âmbito de projetos anteriores (ver Melo-Pfeifer, 2014) e se encontra ilustrada, numa outra linguagem, nos nossos postais (disponíveis no Facebook). Assim, com exceção desta introdução, que foi traduzida para francês (ver acima), o documento encontra-se nas línguas de trabalho dos membros da equipa que o redigiram.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Court rapport de la conférence Access 2005 tenue à Edmonton, Canada. Résumé des idées et tendances principales exposées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans une époque de changements des moyens de représentation et communication en architecture, cette recherche porte sur l’enseignement de la conception architecturale et plus spécifiquement sur l’apport que l’informatique pourrait avoir dans ce processus. En nous basant sur une méthodologie qualitative, exploratoire et participative, nous y procédons par enchainement de questions, celle de départ étant la suivante: Comment l’enseignement de la conception architecturale pourrait tirer avantage des moyens numériques? Notre objectif est de proposer des méthodes et des outils d’apprentissage aux étudiants en architecture pour enrichir leurs démarches de conception grâce à l’ordinateur. Après une revue de la littérature dans le domaine, et un approfondissement de l’étude sur le rôle des référents architecturaux et sur la conception intégrée, nous avons procédé à une observation exploratoire du travail des étudiants en atelier d’architecture. Ces premières étapes de la recherche ont permis de dégager des discordances entre les positions théoriques et la pratique en l’atelier, pour concrétiser ultérieurement la question de recherche. Dans le but de discerner des méthodes efficaces et innovatrices pour répondre aux discordances identifiées, nous avons engagé une étude de la littérature sur les théories cognitives par rapport aux connaissances, l’apprentissage et la conception. Certaines stratégies ont pu être définies, notamment la nécessité de représentation multimodale des référents architecturaux, l’importance de représenter le processus et non seulement le résultat, ainsi que l’avantage d’inciter les étudiants à travailler dans leur ‘zone proximale’ de développement. Suite à ces recherches, une méthode d’enseignement complémentaire a été définie. Elle propose aux étudiants des explorations de l’objet en conception basées sur la manipulation des savoir-faire architecturaux. Cette méthode a été opérationnalisée d’un point de vue pédagogique ainsi que didactique et mise à l’épreuve auprès des étudiants en atelier. Un prototype de librairie de référents architecturaux interactifs (LibReArchI) a été créé dans ce but. Elle a été conçue en tant qu’environnement de conception et espace de partage de savoir-faire entre étudiants et enseignants. Les principaux résultats de cette recherche démontrent le rôle positif de la méthode proposée pour le transfert des savoir-faire architecturaux lors de l’apprentissage en atelier. Son potentiel d’assister la conception intégrée et de stimuler l’émergence d’idées a été constaté. Au niveau théorique, un modèle d’un cycle du processus de design avec le numérique a été esquissé. En conclusion, des avenues de développements futurs de cette recherche sont proposées.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le design d'éclairage est une tâche qui est normalement faite manuellement, où les artistes doivent manipuler les paramètres de plusieurs sources de lumière pour obtenir le résultat désiré. Cette tâche est difficile, car elle n'est pas intuitive. Il existe déjà plusieurs systèmes permettant de dessiner directement sur les objets afin de positionner ou modifier des sources de lumière. Malheureusement, ces systèmes ont plusieurs limitations telles qu'ils ne considèrent que l'illumination locale, la caméra est fixe, etc. Dans ces deux cas, ceci représente une limitation par rapport à l'exactitude ou la versatilité de ces systèmes. L'illumination globale est importante, car elle ajoute énormément au réalisme d'une scène en capturant toutes les interréflexions de la lumière sur les surfaces. Ceci implique que les sources de lumière peuvent avoir de l'influence sur des surfaces qui ne sont pas directement exposées. Dans ce mémoire, on se consacre à un sous-problème du design de l'éclairage: la sélection et la manipulation de l'intensité de sources de lumière. Nous présentons deux systèmes permettant de peindre sur des objets dans une scène 3D des intentions de lumière incidente afin de modifier l'illumination de la surface. De ces coups de pinceau, le système trouve automatiquement les sources de lumière qui devront être modifiées et change leur intensité pour effectuer les changements désirés. La nouveauté repose sur la gestion de l'illumination globale, des surfaces transparentes et des milieux participatifs et sur le fait que la caméra n'est pas fixe. On présente également différentes stratégies de sélection de modifications des sources de lumière. Le premier système utilise une carte d'environnement comme représentation intermédiaire de l'environnement autour des objets. Le deuxième système sauvegarde l'information de l'environnement pour chaque sommet de chaque objet.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La survie des réseaux est un domaine d'étude technique très intéressant ainsi qu'une préoccupation critique dans la conception des réseaux. Compte tenu du fait que de plus en plus de données sont transportées à travers des réseaux de communication, une simple panne peut interrompre des millions d'utilisateurs et engendrer des millions de dollars de pertes de revenu. Les techniques de protection des réseaux consistent à fournir une capacité supplémentaire dans un réseau et à réacheminer les flux automatiquement autour de la panne en utilisant cette disponibilité de capacité. Cette thèse porte sur la conception de réseaux optiques intégrant des techniques de survie qui utilisent des schémas de protection basés sur les p-cycles. Plus précisément, les p-cycles de protection par chemin sont exploités dans le contexte de pannes sur les liens. Notre étude se concentre sur la mise en place de structures de protection par p-cycles, et ce, en supposant que les chemins d'opération pour l'ensemble des requêtes sont définis a priori. La majorité des travaux existants utilisent des heuristiques ou des méthodes de résolution ayant de la difficulté à résoudre des instances de grande taille. L'objectif de cette thèse est double. D'une part, nous proposons des modèles et des méthodes de résolution capables d'aborder des problèmes de plus grande taille que ceux déjà présentés dans la littérature. D'autre part, grâce aux nouveaux algorithmes, nous sommes en mesure de produire des solutions optimales ou quasi-optimales. Pour ce faire, nous nous appuyons sur la technique de génération de colonnes, celle-ci étant adéquate pour résoudre des problèmes de programmation linéaire de grande taille. Dans ce projet, la génération de colonnes est utilisée comme une façon intelligente d'énumérer implicitement des cycles prometteurs. Nous proposons d'abord des formulations pour le problème maître et le problème auxiliaire ainsi qu'un premier algorithme de génération de colonnes pour la conception de réseaux protegées par des p-cycles de la protection par chemin. L'algorithme obtient de meilleures solutions, dans un temps raisonnable, que celles obtenues par les méthodes existantes. Par la suite, une formulation plus compacte est proposée pour le problème auxiliaire. De plus, nous présentons une nouvelle méthode de décomposition hiérarchique qui apporte une grande amélioration de l'efficacité globale de l'algorithme. En ce qui concerne les solutions en nombres entiers, nous proposons deux méthodes heurisiques qui arrivent à trouver des bonnes solutions. Nous nous attardons aussi à une comparaison systématique entre les p-cycles et les schémas classiques de protection partagée. Nous effectuons donc une comparaison précise en utilisant des formulations unifiées et basées sur la génération de colonnes pour obtenir des résultats de bonne qualité. Par la suite, nous évaluons empiriquement les versions orientée et non-orientée des p-cycles pour la protection par lien ainsi que pour la protection par chemin, dans des scénarios de trafic asymétrique. Nous montrons quel est le coût de protection additionnel engendré lorsque des systèmes bidirectionnels sont employés dans de tels scénarios. Finalement, nous étudions une formulation de génération de colonnes pour la conception de réseaux avec des p-cycles en présence d'exigences de disponibilité et nous obtenons des premières bornes inférieures pour ce problème.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Réalisé en cotutelle avec l'Université Bordeaux 1 (France)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'utilisation des méthodes formelles est de plus en plus courante dans le développement logiciel, et les systèmes de types sont la méthode formelle qui a le plus de succès. L'avancement des méthodes formelles présente de nouveaux défis, ainsi que de nouvelles opportunités. L'un des défis est d'assurer qu'un compilateur préserve la sémantique des programmes, de sorte que les propriétés que l'on garantit à propos de son code source s'appliquent également au code exécutable. Cette thèse présente un compilateur qui traduit un langage fonctionnel d'ordre supérieur avec polymorphisme vers un langage assembleur typé, dont la propriété principale est que la préservation des types est vérifiée de manière automatisée, à l'aide d'annotations de types sur le code du compilateur. Notre compilateur implante les transformations de code essentielles pour un langage fonctionnel d'ordre supérieur, nommément une conversion CPS, une conversion des fermetures et une génération de code. Nous présentons les détails des représentation fortement typées des langages intermédiaires, et les contraintes qu'elles imposent sur l'implantation des transformations de code. Notre objectif est de garantir la préservation des types avec un minimum d'annotations, et sans compromettre les qualités générales de modularité et de lisibilité du code du compilateur. Cet objectif est atteint en grande partie dans le traitement des fonctionnalités de base du langage (les «types simples»), contrairement au traitement du polymorphisme qui demande encore un travail substantiel pour satisfaire la vérification de type.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse est consacrée à la complexité basée sur le paradigme des preuves interactives. Les classes ainsi définies ont toutes en commun qu’un ou plusieurs prouveurs, infiniment puissants, tentent de convaincre un vérificateur, de puissance bornée, de l’appartenance d’un mot à un langage. Nous abordons ici le modèle classique, où les participants sont des machines de Turing, et le modèle quantique, où ceux-ci sont des circuits quantiques. La revue de littérature que comprend cette thèse s’adresse à un lecteur déjà familier avec la complexité et l’informatique quantique. Cette thèse présente comme résultat la caractérisation de la classe NP par une classe de preuves interactives quantiques de taille logarithmique. Les différentes classes sont présentées dans un ordre permettant d’aborder aussi facilement que possible les classes interactives. Le premier chapitre est consacré aux classes de base de la complexité ; celles-ci seront utiles pour situer les classes subséquemment présentées. Les chapitres deux et trois présentent respectivement les classes à un et à plusieurs prouveurs. La présentation du résultat ci-haut mentionné est l’objet du chapitre quatre.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse envisage un ensemble de méthodes permettant aux algorithmes d'apprentissage statistique de mieux traiter la nature séquentielle des problèmes de gestion de portefeuilles financiers. Nous débutons par une considération du problème général de la composition d'algorithmes d'apprentissage devant gérer des tâches séquentielles, en particulier celui de la mise-à-jour efficace des ensembles d'apprentissage dans un cadre de validation séquentielle. Nous énumérons les desiderata que des primitives de composition doivent satisfaire, et faisons ressortir la difficulté de les atteindre de façon rigoureuse et efficace. Nous poursuivons en présentant un ensemble d'algorithmes qui atteignent ces objectifs et présentons une étude de cas d'un système complexe de prise de décision financière utilisant ces techniques. Nous décrivons ensuite une méthode générale permettant de transformer un problème de décision séquentielle non-Markovien en un problème d'apprentissage supervisé en employant un algorithme de recherche basé sur les K meilleurs chemins. Nous traitons d'une application en gestion de portefeuille où nous entraînons un algorithme d'apprentissage à optimiser directement un ratio de Sharpe (ou autre critère non-additif incorporant une aversion au risque). Nous illustrons l'approche par une étude expérimentale approfondie, proposant une architecture de réseaux de neurones spécialisée à la gestion de portefeuille et la comparant à plusieurs alternatives. Finalement, nous introduisons une représentation fonctionnelle de séries chronologiques permettant à des prévisions d'être effectuées sur un horizon variable, tout en utilisant un ensemble informationnel révélé de manière progressive. L'approche est basée sur l'utilisation des processus Gaussiens, lesquels fournissent une matrice de covariance complète entre tous les points pour lesquels une prévision est demandée. Cette information est utilisée à bon escient par un algorithme qui transige activement des écarts de cours (price spreads) entre des contrats à terme sur commodités. L'approche proposée produit, hors échantillon, un rendement ajusté pour le risque significatif, après frais de transactions, sur un portefeuille de 30 actifs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les tâches de vision artificielle telles que la reconnaissance d’objets demeurent irrésolues à ce jour. Les algorithmes d’apprentissage tels que les Réseaux de Neurones Artificiels (RNA), représentent une approche prometteuse permettant d’apprendre des caractéristiques utiles pour ces tâches. Ce processus d’optimisation est néanmoins difficile. Les réseaux profonds à base de Machine de Boltzmann Restreintes (RBM) ont récemment été proposés afin de guider l’extraction de représentations intermédiaires, grâce à un algorithme d’apprentissage non-supervisé. Ce mémoire présente, par l’entremise de trois articles, des contributions à ce domaine de recherche. Le premier article traite de la RBM convolutionelle. L’usage de champs réceptifs locaux ainsi que le regroupement d’unités cachées en couches partageant les même paramètres, réduit considérablement le nombre de paramètres à apprendre et engendre des détecteurs de caractéristiques locaux et équivariant aux translations. Ceci mène à des modèles ayant une meilleure vraisemblance, comparativement aux RBMs entraînées sur des segments d’images. Le deuxième article est motivé par des découvertes récentes en neurosciences. Il analyse l’impact d’unités quadratiques sur des tâches de classification visuelles, ainsi que celui d’une nouvelle fonction d’activation. Nous observons que les RNAs à base d’unités quadratiques utilisant la fonction softsign, donnent de meilleures performances de généralisation. Le dernière article quand à lui, offre une vision critique des algorithmes populaires d’entraînement de RBMs. Nous montrons que l’algorithme de Divergence Contrastive (CD) et la CD Persistente ne sont pas robustes : tous deux nécessitent une surface d’énergie relativement plate afin que leur chaîne négative puisse mixer. La PCD à "poids rapides" contourne ce problème en perturbant légèrement le modèle, cependant, ceci génère des échantillons bruités. L’usage de chaînes tempérées dans la phase négative est une façon robuste d’adresser ces problèmes et mène à de meilleurs modèles génératifs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Depuis l’introduction de la mécanique quantique, plusieurs mystères de la nature ont trouvé leurs explications. De plus en plus, les concepts de la mécanique quantique se sont entremêlés avec d’autres de la théorie de la complexité du calcul. De nouvelles idées et solutions ont été découvertes et élaborées dans le but de résoudre ces problèmes informatiques. En particulier, la mécanique quantique a secoué plusieurs preuves de sécurité de protocoles classiques. Dans ce m´emoire, nous faisons un étalage de résultats récents de l’implication de la mécanique quantique sur la complexité du calcul, et cela plus précisément dans le cas de classes avec interaction. Nous présentons ces travaux de recherches avec la nomenclature des jeux à information imparfaite avec coopération. Nous exposons les différences entre les théories classiques, quantiques et non-signalantes et les démontrons par l’exemple du jeu à cycle impair. Nous centralisons notre attention autour de deux grands thèmes : l’effet sur un jeu de l’ajout de joueurs et de la répétition parallèle. Nous observons que l’effet de ces modifications a des conséquences très différentes en fonction de la théorie physique considérée.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire vise à recenser les avantages et les inconvénients de l'utilisation du langage de programmation fonctionnel dynamique Scheme pour le développement de jeux vidéo. Pour ce faire, la méthode utilisée est d'abord basée sur une approche plus théorique. En effet, une étude des besoins au niveau de la programmation exprimés par ce type de développement, ainsi qu'une description détaillant les fonctionnalités du langage Scheme pertinentes au développement de jeux vidéo sont données afin de bien mettre en contexte le sujet. Par la suite, une approche pratique est utilisée en effectuant le développement de deux jeux vidéo de complexités croissantes: Space Invaders et Lode Runner. Le développement de ces jeux vidéo a mené à l'extension du langage Scheme par plusieurs langages spécifiques au domaine et bibliothèques, dont notamment un système de programmation orienté objets et un système de coroutines. L'expérience acquise par le développement de ces jeux est finalement comparée à celle d'autres développeurs de jeux vidéo de l'industrie qui ont utilisé Scheme pour la création de titres commerciaux. En résumé, l'utilisation de ce langage a permis d'atteindre un haut niveau d'abstraction favorisant la modularité des jeux développés sans affecter les performances de ces derniers.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

De nos jours, les logiciels doivent continuellement évoluer et intégrer toujours plus de fonctionnalités pour ne pas devenir obsolètes. C'est pourquoi, la maintenance représente plus de 60% du coût d'un logiciel. Pour réduire les coûts de programmation, les fonctionnalités sont programmées plus rapidement, ce qui induit inévitablement une baisse de qualité. Comprendre l’évolution du logiciel est donc devenu nécessaire pour garantir un bon niveau de qualité et retarder le dépérissement du code. En analysant à la fois les données sur l’évolution du code contenues dans un système de gestion de versions et les données quantitatives que nous pouvons déduire du code, nous sommes en mesure de mieux comprendre l'évolution du logiciel. Cependant, la quantité de données générées par une telle analyse est trop importante pour être étudiées manuellement et les méthodes d’analyses automatiques sont peu précises. Dans ce mémoire, nous proposons d'analyser ces données avec une méthode semi automatique : la visualisation. Eyes Of Darwin, notre système de visualisation en 3D, utilise une métaphore avec des quartiers et des bâtiments d'une ville pour visualiser toute l'évolution du logiciel sur une seule vue. De plus, il intègre un système de réduction de l'occlusion qui transforme l'écran de l'utilisateur en une fenêtre ouverte sur la scène en 3D qu'il affiche. Pour finir, ce mémoire présente une étude exploratoire qui valide notre approche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'un des modèles d'apprentissage non-supervisé générant le plus de recherche active est la machine de Boltzmann --- en particulier la machine de Boltzmann restreinte, ou RBM. Un aspect important de l'entraînement ainsi que l'exploitation d'un tel modèle est la prise d'échantillons. Deux développements récents, la divergence contrastive persistante rapide (FPCD) et le herding, visent à améliorer cet aspect, se concentrant principalement sur le processus d'apprentissage en tant que tel. Notamment, le herding renonce à obtenir un estimé précis des paramètres de la RBM, définissant plutôt une distribution par un système dynamique guidé par les exemples d'entraînement. Nous généralisons ces idées afin d'obtenir des algorithmes permettant d'exploiter la distribution de probabilités définie par une RBM pré-entraînée, par tirage d'échantillons qui en sont représentatifs, et ce sans que l'ensemble d'entraînement ne soit nécessaire. Nous présentons trois méthodes: la pénalisation d'échantillon (basée sur une intuition théorique) ainsi que la FPCD et le herding utilisant des statistiques constantes pour la phase positive. Ces méthodes définissent des systèmes dynamiques produisant des échantillons ayant les statistiques voulues et nous les évaluons à l'aide d'une méthode d'estimation de densité non-paramétrique. Nous montrons que ces méthodes mixent substantiellement mieux que la méthode conventionnelle, l'échantillonnage de Gibbs.