998 resultados para Ingénierie dirigée par les modèles
Resumo:
Statistical data (1959-1977) of the trawling fishery off the continental shelf of Côte d'Ivoire has been fitted to the Fox (PRODFIT) global model. Owing to the proliferation of baliste (B. capriscus) since the years 1971-1972, data were divided into two groups. Maximum Sustainable Yield MSY: PMMC in the text), for the whole of commercial species in the continental shelf, decreased from 8800t to 5900t between the two periods; the difference represents balistes potentialities at bottom level. The model has also been fitted to data which concern Sciaenidae coastal community and Sparidae community which are parts by the 50 m isobathe. Deep layer (50-120m) MSY is at 2350t during the whole period of study. Until 1977, this potentiality was never reached, because of the low productivity of the Sparidae community.
Resumo:
L’ingénierie dirigée par les modèles (IDM) est un paradigme d’ingénierie du logiciel bien établi, qui préconise l’utilisation de modèles comme artéfacts de premier ordre dans les activités de développement et de maintenance du logiciel. La manipulation de plusieurs modèles durant le cycle de vie du logiciel motive l’usage de transformations de modèles (TM) afin d’automatiser les opérations de génération et de mise à jour des modèles lorsque cela est possible. L’écriture de transformations de modèles demeure cependant une tâche ardue, qui requiert à la fois beaucoup de connaissances et d’efforts, remettant ainsi en question les avantages apportés par l’IDM. Afin de faire face à cette problématique, de nombreux travaux de recherche se sont intéressés à l’automatisation des TM. L’apprentissage de transformations de modèles par l’exemple (TMPE) constitue, à cet égard, une approche prometteuse. La TMPE a pour objectif d’apprendre des programmes de transformation de modèles à partir d’un ensemble de paires de modèles sources et cibles fournis en guise d’exemples. Dans ce travail, nous proposons un processus d’apprentissage de transformations de modèles par l’exemple. Ce dernier vise à apprendre des transformations de modèles complexes en s’attaquant à trois exigences constatées, à savoir, l’exploration du contexte dans le modèle source, la vérification de valeurs d’attributs sources et la dérivation d’attributs cibles complexes. Nous validons notre approche de manière expérimentale sur 7 cas de transformations de modèles. Trois des sept transformations apprises permettent d’obtenir des modèles cibles parfaits. De plus, une précision et un rappel supérieurs à 90% sont enregistrés au niveau des modèles cibles obtenus par les quatre transformations restantes.
Resumo:
Cette thèse a pour but d’améliorer l’automatisation dans l’ingénierie dirigée par les modèles (MDE pour Model Driven Engineering). MDE est un paradigme qui promet de réduire la complexité du logiciel par l’utilisation intensive de modèles et des transformations automatiques entre modèles (TM). D’une façon simplifiée, dans la vision du MDE, les spécialistes utilisent plusieurs modèles pour représenter un logiciel, et ils produisent le code source en transformant automatiquement ces modèles. Conséquemment, l’automatisation est un facteur clé et un principe fondateur de MDE. En plus des TM, d’autres activités ont besoin d’automatisation, e.g. la définition des langages de modélisation et la migration de logiciels. Dans ce contexte, la contribution principale de cette thèse est de proposer une approche générale pour améliorer l’automatisation du MDE. Notre approche est basée sur la recherche méta-heuristique guidée par les exemples. Nous appliquons cette approche sur deux problèmes importants de MDE, (1) la transformation des modèles et (2) la définition précise de langages de modélisation. Pour le premier problème, nous distinguons entre la transformation dans le contexte de la migration et les transformations générales entre modèles. Dans le cas de la migration, nous proposons une méthode de regroupement logiciel (Software Clustering) basée sur une méta-heuristique guidée par des exemples de regroupement. De la même façon, pour les transformations générales, nous apprenons des transformations entre modèles en utilisant un algorithme de programmation génétique qui s’inspire des exemples des transformations passées. Pour la définition précise de langages de modélisation, nous proposons une méthode basée sur une recherche méta-heuristique, qui dérive des règles de bonne formation pour les méta-modèles, avec l’objectif de bien discriminer entre modèles valides et invalides. Les études empiriques que nous avons menées, montrent que les approches proposées obtiennent des bons résultats tant quantitatifs que qualitatifs. Ceux-ci nous permettent de conclure que l’amélioration de l’automatisation du MDE en utilisant des méthodes de recherche méta-heuristique et des exemples peut contribuer à l’adoption plus large de MDE dans l’industrie à là venir.
Resumo:
La recherche en génie logiciel a depuis longtemps tenté de mieux comprendre le processus de développement logiciel, minimalement, pour en reproduire les bonnes pratiques, et idéalement, pour pouvoir le mécaniser. On peut identifier deux approches majeures pour caractériser le processus. La première approche, dite transformationnelle, perçoit le processus comme une séquence de transformations préservant certaines propriétés des données à l’entrée. Cette idée a été récemment reprise par l’architecture dirigée par les modèles de l’OMG. La deuxième approche consiste à répertorier et à codifier des solutions éprouvées à des problèmes récurrents. Les recherches sur les styles architecturaux, les patrons de conception, ou les cadres d’applications s’inscrivent dans cette approche. Notre travail de recherche reconnaît la complémentarité des deux approches, notamment pour l’étape de conception: dans le cadre du développement dirigé par les modèles, nous percevons l’étape de conception comme l’application de patrons de solutions aux modèles reçus en entrée. Il est coutume de définir l’étape de conception en termes de conception architecturale, et conception détaillée. La conception architecturale se préoccupe d’organiser un logiciel en composants répondant à un ensemble d’exigences non-fonctionnelles, alors que la conception détaillée se préoccupe, en quelque sorte, du contenu de ces composants. La conception architecturale s’appuie sur des styles architecturaux qui sont des principes d’organisation permettant d’optimiser certaines qualités, alors que la conception détaillée s’appuie sur des patrons de conception pour attribuer les responsabilités aux classes. Les styles architecturaux et les patrons de conception sont des artefacts qui codifient des solutions éprouvées à des problèmes récurrents de conception. Alors que ces artefacts sont bien documentés, la décision de les appliquer reste essentiellement manuelle. De plus, les outils proposés n’offrent pas un support adéquat pour les appliquer à des modèles existants. Dans cette thèse, nous nous attaquons à la conception détaillée, et plus particulièrement, à la transformation de modèles par application de patrons de conception, en partie parce que les patrons de conception sont moins complexes, et en partie parce que l’implémentation des styles architecturaux passe souvent par les patrons de conception. Ainsi, nous proposons une approche pour représenter et appliquer les patrons de conception. Notre approche se base sur la représentation explicite des problèmes résolus par ces patrons. En effet, la représentation explicite du problème résolu par un patron permet : (1) de mieux comprendre le patron, (2) de reconnaître l’opportunité d’appliquer le patron en détectant une instance de la représentation du problème dans les modèles du système considéré, et (3) d’automatiser l’application du patron en la représentant, de façon déclarative, par une transformation d’une instance du problème en une instance de la solution. Pour vérifier et valider notre approche, nous l’avons utilisée pour représenter et appliquer différents patrons de conception et nous avons effectué des tests pratiques sur des modèles générés à partir de logiciels libres.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Ce volume est incomplet de son commencement, avec lequel ont disparu son titre et le nom de son auteur.
Resumo:
Les éléments que nous nous proposons de présenter lors de ce colloque sont le fruit d’une articulation dynamique entre dispositifs de recherche et élaboration de dispositifs de formation: notre pratique de formateur d’enseignants et chargée à ce titre de leur accompagnement professionnel (ingénierie de formation) se nourrit de notre réflexion de chercheur et vice versa. Dégager des axes de réflexion et construire des outils susceptibles d'être un appui pour la formation, nous a conduit à travailler préférentiellement sur l'activité réelle, observée in situ, des enseignants. Pour cela nous avons privilégié l'utilisation des dispositifs d'auto-confrontation qui consistent à enregistrer sous forme vidéo des temps de situations d'enseignement puis à les analyser avec les enseignants concernés, d'abord en tête-à-tête enseignant/chercheur (auto-confrontation simple: l'enseignant explicite ses actions) puis en petits groupes (des temps significatifs des séances enregistrées sont projetées à un petit groupe de volontaires ayant tous participé à la première phase d'auto-confrontation simple). Il s'agit alors de comparer les pratiques effectives, d'expliciter les modèles théoriques, les a priori empiriques, les contraintes qui ont présidé au choix des actions
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
[…] Le but de la présente étude consiste à rechercher des manifestations empiriques qui rendent compte d'une relation entre des modèles éducationnels différents et des séries d'activités d'apprentissage. Pour réaliser cet objectif, il importe dans une première étape, d'expliciter les différents modèles éducationnels retenus et qui peuvent être des facteurs d'orientations ou d'influences des activités d'apprentissage au niveau universitaire. Ensuite, on précisera comment s'effectue la sélection des activités d'apprentissage qui sont supposées être engendrées par ces modèles éducationnels. Une troisième étape servira à expliciter la méthode utilisée pour recueillir de l’information sur les modèles éducationnels et les activités d'apprentissage. La fin de ce chapitre annoncera les hypothèses de la recherche. [...]
Resumo:
La recension des écrits scientifiques à laquelle nous avons procédé a souligné clairement de très hautes fréquences de redoublement chez les jeunes d’âge scolaire relevant des enseignements primaire et post-primaire, dans les ex-colonies françaises d’Afrique occidentale et centrale (Burkina-Faso, Sénégal, Gabon). Au Burkina Faso, le taux moyen de redoublement observé au post-primaire a été d’environ 30 % au cours du quinquennat 2007/2008 à 2012/2013. La région du Centre-Ouest est celle qui en a enregistré le taux le plus élevé (33,1 %) sur les treize régions administratives du pays au cours de la période mentionnée, ce qui a justifié son choix dans le cadre de cette étude. L’objectif général visait à déterminer, dans le microsystème qu’est l’école au post-primaire général public, les caractéristiques des représentations sociales (RS) et des modèles d’intervention éducative (MIE) valorisés chez des enseignants et des directions d’écoles qui sont en relation avec le redoublement d’élèves habitant la région ciblée. L’étude menée est quantitative et de type descriptif. Dans le cadre de celle-ci nous avons fait usage d’une démarche d’enquête par questionnaire auprès d’un échantillon de convenance, stratifié et pondéré constitué de 199 enseignantes et enseignants, incluant un membre du personnel de direction pour chacune des institutions de provenance des sujets (N = 14 directions). Le résultat majeur est spécifique aux enseignants titulaires du CAPES (diplôme pédagogique le plus élevé) qui travaillent dans les communes urbaines où les écoles présentent un seuil élevé de redoublement (21 % et plus). Il suggère des caractéristiques qui correspondent à des profils de valorisation élevés de la représentation positive du redoublement d’une part, et de celle de l’externalité des causes du phénomène, d’autre part. Les principales caractéristiques des MIE privilégiés par ces derniers rapportent, quant à elles, une valorisation moyenne ou faible du MIE 3 (hétérostructuration coactive) et concomitamment une valorisation élevée du MIE 4 (interstructuration cognitive). Cependant, les données recueillies auprès des directions d’écoles dont la taille sous-échantillonnale demeure restreinte n’ont permis qu’une interprétation limitée hors de laquelle notre discours s’avérerait hautement spéculatif. Les enseignants et les directions d’école pourront bénéficier de l’intégration des données issues de l’étude au plan de la formation continue. Ils pourront par conséquent questionner leurs pratiques pédagogiques et leurs attitudes au regard des causes et des effets réels du redoublement sur la réussite et la persévérance scolaire des jeunes au post-primaire. Cela dans un contexte, où la scolarisation de base obligatoire de 10 ans constitue un objectif visé à l’horizon 2025 par le gouvernement du Burkina Faso dans le cadre de la réforme éducative engagée depuis 2007.
Resumo:
La causalité au sens de Granger est habituellement définie par la prévisibilité d'un vecteur de variables par un autre une période à l'avance. Récemment, Lutkepohl (1990) a proposé de définir la non-causalité entre deux variables (ou vecteurs) par la non-prévisibilité à tous les délais dans le futur. Lorsqu'on considère plus de deux vecteurs (ie. lorsque l'ensemble d'information contient les variables auxiliaires), ces deux notions ne sont pas équivalentes. Dans ce texte, nous généralisons d'abord les notions antérieures de causalités en considérant la causalité à un horizon donné h arbitraire, fini ou infini. Ensuite, nous dérivons des conditions nécessaires et suffisantes de non-causalité entre deux vecteurs de variables (à l'intérieur d'un plus grand vecteur) jusqu'à un horizon donné h. Les modèles considérés incluent les autoregressions vectorielles, possiblement d'ordre infini, et les modèles ARIMA multivariés. En particulier, nous donnons des conditions de séparabilité et de rang pour la non-causalité jusqu'à un horizon h, lesquelles sont relativement simples à vérifier.
Resumo:
Cet article illustre l’applicabilité des méthodes de rééchantillonnage dans le cadre des tests multiples (simultanés), pour divers problèmes économétriques. Les hypothèses simultanées sont une conséquence habituelle de la théorie économique, de sorte que le contrôle de la probabilité de rejet de combinaisons de tests est un problème que l’on rencontre fréquemment dans divers contextes économétriques et statistiques. À ce sujet, on sait que le fait d’ignorer le caractère conjoint des hypothèses multiples peut faire en sorte que le niveau de la procédure globale dépasse considérablement le niveau désiré. Alors que la plupart des méthodes d’inférence multiple sont conservatrices en présence de statistiques non-indépendantes, les tests que nous proposons visent à contrôler exactement le niveau de signification. Pour ce faire, nous considérons des critères de test combinés proposés initialement pour des statistiques indépendantes. En appliquant la méthode des tests de Monte Carlo, nous montrons comment ces méthodes de combinaison de tests peuvent s’appliquer à de tels cas, sans recours à des approximations asymptotiques. Après avoir passé en revue les résultats antérieurs sur ce sujet, nous montrons comment une telle méthodologie peut être utilisée pour construire des tests de normalité basés sur plusieurs moments pour les erreurs de modèles de régression linéaires. Pour ce problème, nous proposons une généralisation valide à distance finie du test asymptotique proposé par Kiefer et Salmon (1983) ainsi que des tests combinés suivant les méthodes de Tippett et de Pearson-Fisher. Nous observons empiriquement que les procédures de test corrigées par la méthode des tests de Monte Carlo ne souffrent pas du problème de biais (ou sous-rejet) souvent rapporté dans cette littérature – notamment contre les lois platikurtiques – et permettent des gains sensibles de puissance par rapport aux méthodes combinées usuelles.