988 resultados para Inflow Forecast
Resumo:
This thesis is the Logistics Development Forum's assignment and the work dealing with the development of the Port of Helsinki as part of Helsinki hub. The Forum aims to develop logistics efficiency through public-private co-operation and development of the port is clearly dependent on both factors. Freight volumes in the Port of Helsinki are the biggest single factor in hub and, therefore, the role of the port of the entire hub development is strong. The aim is to look at how the port will develop as a result of changes in the foreign trade of Finland and the Northern European logistics trends in 25 years time period. Work includes the current state analysis and scenario work. The analyses are intended to find out, which trends are the most important in the port volume development. The change and effect of trends is examined through scenarios based on current state. Based on the work, the structure of Finnish export industry and international demand are in the key role in the port volume development. There is significant difference between demands of Finnish exporting products in different export markets and the development between the markets has different impacts on the port volumes by mass and cargo type. On the other hand, the Finnish economy is stuck in a prolonged recession and competition between ports has become a significant factor in the individual port's volume development. Ecological valuesand regulations have changed the competitive landscape and maritime transport emissions reductions has become an important competitive factor for short routes in the Baltic Sea, such as in the link between Helsinki and Tallinn.
Resumo:
This master thesis presents a study on the requisite cooling of an activated sludge process in paper and pulp industry. The energy consumption of paper and pulp industry and it’s wastewater treatment plant in particular is relatively high. It is therefore useful to understand the wastewater treatment process of such industries. The activated sludge process is a biological mechanism which degrades carbonaceous compounds that are present in waste. The modified activated sludge model constructed here aims to imitate the bio-kinetics of an activated sludge process. However, due to the complicated non-linear behavior of the biological process, modelling this system is laborious and intriguing. We attempt to find a system solution first using steady-state modelling of Activated Sludge Model number 1 (ASM1), approached by Euler’s method and an ordinary differential equation solver. Furthermore, an enthalpy study of paper and pulp industry’s vital pollutants was carried out and applied to revise the temperature shift over a period of time to formulate the operation of cooling water. This finding will lead to a forecast of the plant process execution in a cost-effective manner and management of effluent efficiency. The final stage of the thesis was achieved by optimizing the steady state of ASM1.
Resumo:
Tässä kandidaatintyössä perehdytään biokaasun syntyprosessiin ja sen hyödyntämismahdollisuuksiin, sekä vertaillaan biokaasun tuotannon määrää Suomessa ja Saksassa. Työssä tarkastellaan biokaasuvoimalan kannattavuutta keskikokoisen maatilan yhteydessä Etelä-Savossa ja käydään läpi biokaasuvoimalalle Suomessa myönnettäviä tukimuotoja. Tukimuotojen lisäksi käydään läpi erilaisia lupia ja hyväksyntöjä, joita maatilan yhteyteen rakennettava biokaasu-voimalaitos tarvitsee. Työn toisessa osassa käydään läpi aurinkoenergian hyödyntämismahdollisuuksia, aurinkosähköjärjestelmän komponentteja, sekä perehdytään aurinkopaneelin toimintaperiaatteeseen. Tarkastellaan biokaasuvoimalan lisäksi myös aurinkovoimalan kannattavuutta maatilan yhteydessä ja vertaillaan biokaasu- ja aurinkovoimalan ominaisuuksia keskenään. Lisäksi vertaillaan aurinkosähkön tuotantoa Suomessa ja Saksassa. Työn tavoitteena on selvittää biokaasu- ja aurinkosähkövoimalan kannattavuus esimerkkimaatilalla. Biokaasulaitoksen hinta-arvio saatiin vastauksena tarjouspyyntöön ja aurinkosähköjärjestelmän hinta arvioitiin kotimaisten toimittajien aurinkosähköpakettien hintojen avulla. Biokaasuvoimalan sähköntuottoennuste sekä huolto- ja käyttökustannukset perustuvat kirjallisuudesta saatuihin arvoihin. Aurinkovoimalan sähköntuottoennuste ja paneelien suuntauksen vaikutusta tuotantoon laskettiin PVGIS:n laskurilla sekä HOMER-ohjelmistolla. Kannattavuuslaskelmien perusteella kumpikaan voimalaitostyyppi ei tutkituilla voimalaitosten suuruuksilla ole kannattava 20 tai edes 30 vuoden pitoajalla esimerkkimaatilalla nykyisellä sähkönhinnalla ja tukitasolla. Aurinkosähköjärjestelmälle saadaan kuitenkin 20 vuoden takaisinmaksuaika, jos se hankitaan ilman lainarahaa. Tällöin voidaan ajatella, että laitos on kannattava. Biokaasulaitoksen kannattavuutta parantaisivat tukien ja sähkön hinnan nousun ohella kaasun ja lämmön myyntimahdollisuudet, joita esimerkkimaatilalla ei ole. Aurinkovoimalan kannattavuutta parantaisivat puolestaan tukien ja korkeamman sähkön hinnan lisäksi paremmin paneelien tuotantoa seuraava kulutus, jolloin pienempi osuus sähköstä päätyisi myyntiin.
Resumo:
Diplomityön tavoitteena on tutkia kysyntäennusteiden hyödyntämistä valmistavan teollisuusyrityksen tuotannossa ja varastonhallinnassa. Työn alussa esitellään kysynnän tuntemiseen ja ennustamiseen liittyvään teoriaan, jonka jälkeen tutkitaan teorian tarjoamia mahdollisuuksia linkittää kysyntäennusteet tuotannon ja varastonhallinnan avuksi. Työn empiria osassa kuvataan ensin Peikko Group Oy:n kysyntäennusteiden nykytilanne. Tämän jälkeen vertaillaan kahden eri lähestymistavan soveltuvuutta, joilla kohdeyritys voisi mahdollisesti rakentaa tuotannolle ja varastonhallinnalle tarpeellisia kysyntäennusteita päätöksenteon tueksi. Tuotannon kannalta työn keskeisin tulos on kysyntäennusteiden pohjalta muodostettu kuormaennuste ja varastonhallinnan kannalta tarvittavan ennustetarkkuuden määrittäminen, jotta ennusteita voitaisiin hyödyntää varastonohjausparametrien määrityksessä.
Resumo:
Some Ecological Factors Affecting the Input and Population Levels of Total and Faecal Coliforms and Salmonella in Twelve Mile Creek, Lake Ontario and Sewage Waters Near St. Catharines, Ontario. Supervisor: Dr. M. Helder. The present study was undertaken to investigate the role of some ecological factors on sewage-Dorne bacteria in waters near St. Catharines, Ontario. Total and faecal coliform levels and the presence of Salmonella were monitored for a period of a year along with determination of temperature, pH, dissolved oxygen, total dissolved solids, nitrate N, total phosphate P and ammonium N. Bacteriological tests for coliform analysis were done according to APHA Standard Methods by the membrane filtration technique. The grab sampling technique was employed for all sampling. Four sample sites were chosen in the Port Dalhousie beach area to determine what bacteriological or physical relationship the sites had to each other. The sample sites chosen were the sewage inflow to and the effluent from the St. Catharines (Port Dalhousie) Pollution Control Plant, Twelve Mile Creek below the sewage outfall and Lake Ontario at the Lakeside Park beach. The sewage outfall was located in Twelve Mile Creek, approximately 80 meters from the creek junction with the beach and piers on Lake Ontario. Twelve Mile Creek normally carried a large volume of water from the WeIland Canal which was diverted through the DeCew Generating Station located on the Niagara Escarpment. An additional sample site, which was thought to be free of industrial wastes, was chosen at Twenty Mile Creek, also in the Niagara Region of Ontarioo 3 There were marked variations in bacterial numbers at each site and between each site, but trends to lower_numbers were noted from the sewage inflow to Lake Ontario. Better correlations were noted between total and faecal coliform population levels and total phosphate P and ammonium N in Twenty Mile Creek. Other correlations were observed for other sample stations, however, these results also appeared to be random in nature. Salmonella isolations occurred more frequently during the winter and spring months when water temperatures were minimal at all sample stations except the sewage inflow. The frequency of Salmonella isolations appeared to be related to increased levels of total and faecal coli forms in the sewage effluent. However, no clear relationships were established in the other sample stations. Due to the presence of Salmonella and high levels of total and faecal coliform indicator organisms, the sanitary quality of Lake Ontario and Twelve Mile Creek at the sample sites seemed to be impaired over the major portion of the study period.
Resumo:
For the past 20 years, researchers have applied the Kalman filter to the modeling and forecasting the term structure of interest rates. Despite its impressive performance in in-sample fitting yield curves, little research has focused on the out-of-sample forecast of yield curves using the Kalman filter. The goal of this thesis is to develop a unified dynamic model based on Diebold and Li (2006) and Nelson and Siegel’s (1987) three-factor model, and estimate this dynamic model using the Kalman filter. We compare both in-sample and out-of-sample performance of our dynamic methods with various other models in the literature. We find that our dynamic model dominates existing models in medium- and long-horizon yield curve predictions. However, the dynamic model should be used with caution when forecasting short maturity yields
Resumo:
This paper assesses the empirical performance of an intertemporal option pricing model with latent variables which generalizes the Hull-White stochastic volatility formula. Using this generalized formula in an ad-hoc fashion to extract two implicit parameters and forecast next day S&P 500 option prices, we obtain similar pricing errors than with implied volatility alone as in the Hull-White case. When we specialize this model to an equilibrium recursive utility model, we show through simulations that option prices are more informative than stock prices about the structural parameters of the model. We also show that a simple method of moments with a panel of option prices provides good estimates of the parameters of the model. This lays the ground for an empirical assessment of this equilibrium model with S&P 500 option prices in terms of pricing errors.
Resumo:
The purpose of this paper is to characterize the optimal time paths of production and water usage by an agricultural and an oil sector that have to share a limited water resource. We show that for any given water stock, if the oil stock is sufficiently large, it will become optimal to have a phase during which the agricultural sector is inactive. This may mean having an initial phase during which the two sectors are active, then a phase during which the water is reserved for the oil sector and the agricultural sector is inactive, followed by a phase during which both sectors are active again. The agricultural sector will always be active in the end as the oil stock is depleted and the demand for water from the oil sector decreases. In the case where agriculture is not constrained by the given natural inflow of water once there is no more oil, we show that oil extraction will always end with a phase during which oil production follows a pure Hotelling path, with the implicit price of oil net of extraction cost growing at the rate of interest. If the natural inflow of water does constitute a constraint for agriculture, then oil production never follows a pure Hotelling path, because its full marginal cost must always reflect not only the imputed rent on the finite oil stock, but also the positive opportunity cost of water.
Resumo:
Comme son titre l'indique, ce mémoire traite de la légitimité du recours à l'action déclaratoire en droit international privé québécois. L'action déclaratoire, qu'elle soit introduite par déclaration ou par requête, a pour but de faire prononcer un tribunal sur l'existence ou l'inexistence de droits et obligations des parties. Bien que très ancienne, l'action déclaratoire n'était que peu utilisée au Québec jusqu'à l'avènement en 1966 de la requête en jugement déclaratoire dans notre Code de procédure civile. Aujourd'hui, cette action est largement utilisée en droit public dans le cadre du pouvoir de surveillance et de contrôle de la Cour supérieure, mais aussi dans le contexte du droit international privé comme une stratégie de défense, ou parfois d'attaque, dans le cadre d'un litige international. Fondamentalement, la finalité de cette action est d'offrir un mécanisme de protection judiciaire des droits d'un individu lorsque les autres recours ne sont pas disponibles ou accessibles, et de permettre un recours efficace hors du cadre traditionnel de la procédure ordinaire. Dès lors, il semble contestable d'utiliser en droit international privé l'action en jugement déclaratoire pour bloquer les procédures ordinaires autrement applicables. L'objet de cette étude est ainsi de démontrer que bien que le recours à l'action déclaratoire soit légitime en droit international privé, son utilisation actuelle à des fins stratégiques en présence, ou en prévision, d'une action ordinaire intentée dans une autre juridiction, paraît difficilement justifiable. Ainsi, la première partie de ce mémoire est consacrée à l'étude de la légitimité de l'action déclaratoire en droit international privé québécois, et la seconde partie s'intéresse aux effets d'une requête en jugement déclaratoire étrangère sur la procédure internationale au Québec.
Resumo:
Voting records indicate that dissents in monetary policy committees are frequent and predictability regressions show that they help forecast future policy decisions. In order to study whether the latter relation is causal, we construct a model of committee decision making and dissent where members' decisions are not a function of past dissents. The model is estimated using voting data from the Bank of England and the Riksbank. Stochastic simulations show that the decision-making frictions in our model help account for the predictive power of current dissents. The effect of insti- tutional characteristics and structural parameters on dissent rates is examined using simulations as well.
Resumo:
Cette étude porte sur la vitalité des institutions collégiales situées dans trois régions administratives : Abitibi-Témiscamingue, Côte-Nord et Gaspésie –Îles de-la-Madeleine. Ces régions sont et seront aux prises avec une conjoncture démographique défavorable qui risque fort de miner leurs effectifs étudiants déjà bien faibles. Parmi celles-ci, nous cherchons à connaître les régions administratives ainsi que les institutions collégiales les plus à risque de subir des compressions ou de faire appel à des subventions gouvernementales spéciales afin de demeurer viables. Ce questionnement est dédoublé d’une considération méthodologique : comment pouvons-nous quantifier ce rapport de force entre les institutions? Afin de répondre aux exigences de cette question de recherche, un indicateur composite a été construit à l'aide de la sommation de nombreux indices regroupant cinq dimensions jugées essentielles à une telle étude : la vitalité démographique des institutions, la force de rétention du bassin étudiant interne, la force d’attraction exercée sur le bassin étudiant externe, la vulnérabilité financière ainsi que la vitalité de l'offre de formation. En vertu des résultats de l’indicateur composite, les régions se classent selon l’ordre suivants : l’Abitibi Témiscamingue, la Côte-Nord, la Gaspésie – Îles de la Madeleine. Pour les institutions collégiales, on distingue trois sous-groupes, le premier composé du Cégep de Sept-Îles et des campus de Gaspé et de Rouyn-Noranda, le deuxième, du Cégep de Baie- Comeau et du campus de Val-d’Or et le troisième, des Centres d’études collégiales des Îles et de Baie-des-Chaleurs ainsi que du campus d'Amos.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Ma thèse est composée de trois chapitres reliés à l'estimation des modèles espace-état et volatilité stochastique. Dans le première article, nous développons une procédure de lissage de l'état, avec efficacité computationnelle, dans un modèle espace-état linéaire et gaussien. Nous montrons comment exploiter la structure particulière des modèles espace-état pour tirer les états latents efficacement. Nous analysons l'efficacité computationnelle des méthodes basées sur le filtre de Kalman, l'algorithme facteur de Cholesky et notre nouvelle méthode utilisant le compte d'opérations et d'expériences de calcul. Nous montrons que pour de nombreux cas importants, notre méthode est plus efficace. Les gains sont particulièrement grands pour les cas où la dimension des variables observées est grande ou dans les cas où il faut faire des tirages répétés des états pour les mêmes valeurs de paramètres. Comme application, on considère un modèle multivarié de Poisson avec le temps des intensités variables, lequel est utilisé pour analyser le compte de données des transactions sur les marchés financières. Dans le deuxième chapitre, nous proposons une nouvelle technique pour analyser des modèles multivariés à volatilité stochastique. La méthode proposée est basée sur le tirage efficace de la volatilité de son densité conditionnelle sachant les paramètres et les données. Notre méthodologie s'applique aux modèles avec plusieurs types de dépendance dans la coupe transversale. Nous pouvons modeler des matrices de corrélation conditionnelles variant dans le temps en incorporant des facteurs dans l'équation de rendements, où les facteurs sont des processus de volatilité stochastique indépendants. Nous pouvons incorporer des copules pour permettre la dépendance conditionnelle des rendements sachant la volatilité, permettant avoir différent lois marginaux de Student avec des degrés de liberté spécifiques pour capturer l'hétérogénéité des rendements. On tire la volatilité comme un bloc dans la dimension du temps et un à la fois dans la dimension de la coupe transversale. Nous appliquons la méthode introduite par McCausland (2012) pour obtenir une bonne approximation de la distribution conditionnelle à posteriori de la volatilité d'un rendement sachant les volatilités d'autres rendements, les paramètres et les corrélations dynamiques. Le modèle est évalué en utilisant des données réelles pour dix taux de change. Nous rapportons des résultats pour des modèles univariés de volatilité stochastique et deux modèles multivariés. Dans le troisième chapitre, nous évaluons l'information contribuée par des variations de volatilite réalisée à l'évaluation et prévision de la volatilité quand des prix sont mesurés avec et sans erreur. Nous utilisons de modèles de volatilité stochastique. Nous considérons le point de vue d'un investisseur pour qui la volatilité est une variable latent inconnu et la volatilité réalisée est une quantité d'échantillon qui contient des informations sur lui. Nous employons des méthodes bayésiennes de Monte Carlo par chaîne de Markov pour estimer les modèles, qui permettent la formulation, non seulement des densités a posteriori de la volatilité, mais aussi les densités prédictives de la volatilité future. Nous comparons les prévisions de volatilité et les taux de succès des prévisions qui emploient et n'emploient pas l'information contenue dans la volatilité réalisée. Cette approche se distingue de celles existantes dans la littérature empirique en ce sens que ces dernières se limitent le plus souvent à documenter la capacité de la volatilité réalisée à se prévoir à elle-même. Nous présentons des applications empiriques en utilisant les rendements journaliers des indices et de taux de change. Les différents modèles concurrents sont appliqués à la seconde moitié de 2008, une période marquante dans la récente crise financière.
Resumo:
Il semble y avoir des attentes réciproques non comblées en formation initiale à l’enseignement des mathématiques. Cherchant à comprendre la genèse de ces attentes, nous nous sommes intéressée à la vision que les étudiants nourrissent des phénomènes d’enseignement. Ayant postulé que les étudiants ont une vision déterministe de ces phénomènes, et considérant que leur anticipation oriente leur projet de formation, nous nous sommes attaquée au problème de la rencontre des projets des étudiants et des formateurs. Deux objectifs généraux ont été formulés : le premier concerne la description des projets de formation des étudiants tandis que le second concerne l’expérimentation d’une séquence de situations susceptible de faire évoluer leurs projets. Cette recherche a été menée auprès de 58 étudiants du baccalauréat en enseignement en adaptation scolaire et sociale d’une même université, lesquels entamaient leur formation initiale à l’enseignement des mathématiques. Afin d’explorer les projets qu’ils nourrissent a priori, tous les étudiants ont complété un questionnaire individuel sur leur vision des mathématiques et de leur enseignement et ont participé à une première discussion de groupe sur le sujet. Une séquence de situations probabilistes leur a ensuite été présentée afin d’induire une complexification de leur projet. Enfin, cette expérimentation a été suivie d’une seconde discussion de groupe et complétée par la réalisation de huit entretiens individuels. Il a été mis en évidence que la majorité des étudiants rencontrés souhaitent avant tout évoluer en tant qu’enseignant, en développant leur capacité à enseigner et à faire apprendre ou comprendre les mathématiques. Bien que certaines visées se situent dans une perspective transmissive, celles-ci ne semblent pas représentatives de l’ensemble des projets "visée". De plus, même si la plupart des étudiants rencontrés projettent de développer des connaissances relatives aux techniques et aux méthodes d’enseignement, la sensibilité à la complexité dont certains projets témoignent ne permet plus de réduire les attentes des étudiants à l’endroit de leur formation à la simple constitution d’un répertoire de techniques d’enseignement réputées efficaces. En ce qui a trait aux modes d’anticipation relevés a priori, nos résultats mettent en relief des anticipations se rattachant d’abord à un mode adaptatif, puis à un mode prévisionnel. Aucune anticipation se rattachant à un mode prospectif n’a été recensée a priori. La séquence a permis aux étudiants de s’engager dans une dialectique d’action, de formulation et de validation, elle les a incités à recourir à une approche stochastique ainsi qu’à porter un jugement de probabilité qui prenne en compte la complexité de la situation. A posteriori, nous avons observé que les projets "visée" de certains étudiants se sont complexifiés. Nous avons également noté un élargissement de la majorité des projets, lesquels considèrent désormais les autres sommets du triangle didactique. Enfin, des anticipations se rattachant à tous les modes d’anticipation ont été relevées. Des anticipations réalisées grâce à un mode prospectif permettent d’identifier des zones d’incertitude et de liberté sur lesquelles il est possible d’agir afin d’accroître la sensibilité à la complexité des situations professionnelles à l’intérieur desquelles les futurs enseignants devront se situer.
Resumo:
Les changements sont faits de façon continue dans le code source des logiciels pour prendre en compte les besoins des clients et corriger les fautes. Les changements continus peuvent conduire aux défauts de code et de conception. Les défauts de conception sont des mauvaises solutions à des problèmes récurrents de conception ou d’implémentation, généralement dans le développement orienté objet. Au cours des activités de compréhension et de changement et en raison du temps d’accès au marché, du manque de compréhension, et de leur expérience, les développeurs ne peuvent pas toujours suivre les normes de conception et les techniques de codage comme les patrons de conception. Par conséquent, ils introduisent des défauts de conception dans leurs systèmes. Dans la littérature, plusieurs auteurs ont fait valoir que les défauts de conception rendent les systèmes orientés objet plus difficile à comprendre, plus sujets aux fautes, et plus difficiles à changer que les systèmes sans les défauts de conception. Pourtant, seulement quelques-uns de ces auteurs ont fait une étude empirique sur l’impact des défauts de conception sur la compréhension et aucun d’entre eux n’a étudié l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes. Dans cette thèse, nous proposons trois principales contributions. La première contribution est une étude empirique pour apporter des preuves de l’impact des défauts de conception sur la compréhension et le changement. Nous concevons et effectuons deux expériences avec 59 sujets, afin d’évaluer l’impact de la composition de deux occurrences de Blob ou deux occurrences de spaghetti code sur la performance des développeurs effectuant des tâches de compréhension et de changement. Nous mesurons la performance des développeurs en utilisant: (1) l’indice de charge de travail de la NASA pour leurs efforts, (2) le temps qu’ils ont passé dans l’accomplissement de leurs tâches, et (3) les pourcentages de bonnes réponses. Les résultats des deux expériences ont montré que deux occurrences de Blob ou de spaghetti code sont un obstacle significatif pour la performance des développeurs lors de tâches de compréhension et de changement. Les résultats obtenus justifient les recherches antérieures sur la spécification et la détection des défauts de conception. Les équipes de développement de logiciels doivent mettre en garde les développeurs contre le nombre élevé d’occurrences de défauts de conception et recommander des refactorisations à chaque étape du processus de développement pour supprimer ces défauts de conception quand c’est possible. Dans la deuxième contribution, nous étudions la relation entre les défauts de conception et les fautes. Nous étudions l’impact de la présence des défauts de conception sur l’effort nécessaire pour corriger les fautes. Nous mesurons l’effort pour corriger les fautes à l’aide de trois indicateurs: (1) la durée de la période de correction, (2) le nombre de champs et méthodes touchés par la correction des fautes et (3) l’entropie des corrections de fautes dans le code-source. Nous menons une étude empirique avec 12 défauts de conception détectés dans 54 versions de quatre systèmes: ArgoUML, Eclipse, Mylyn, et Rhino. Nos résultats ont montré que la durée de la période de correction est plus longue pour les fautes impliquant des classes avec des défauts de conception. En outre, la correction des fautes dans les classes avec des défauts de conception fait changer plus de fichiers, plus les champs et des méthodes. Nous avons également observé que, après la correction d’une faute, le nombre d’occurrences de défauts de conception dans les classes impliquées dans la correction de la faute diminue. Comprendre l’impact des défauts de conception sur l’effort des développeurs pour corriger les fautes est important afin d’aider les équipes de développement pour mieux évaluer et prévoir l’impact de leurs décisions de conception et donc canaliser leurs efforts pour améliorer la qualité de leurs systèmes. Les équipes de développement doivent contrôler et supprimer les défauts de conception de leurs systèmes car ils sont susceptibles d’augmenter les efforts de changement. La troisième contribution concerne la détection des défauts de conception. Pendant les activités de maintenance, il est important de disposer d’un outil capable de détecter les défauts de conception de façon incrémentale et itérative. Ce processus de détection incrémentale et itérative pourrait réduire les coûts, les efforts et les ressources en permettant aux praticiens d’identifier et de prendre en compte les occurrences de défauts de conception comme ils les trouvent lors de la compréhension et des changements. Les chercheurs ont proposé des approches pour détecter les occurrences de défauts de conception, mais ces approches ont actuellement quatre limites: (1) elles nécessitent une connaissance approfondie des défauts de conception, (2) elles ont une précision et un rappel limités, (3) elles ne sont pas itératives et incrémentales et (4) elles ne peuvent pas être appliquées sur des sous-ensembles de systèmes. Pour surmonter ces limitations, nous introduisons SMURF, une nouvelle approche pour détecter les défauts de conception, basé sur une technique d’apprentissage automatique — machines à vecteur de support — et prenant en compte les retours des praticiens. Grâce à une étude empirique portant sur trois systèmes et quatre défauts de conception, nous avons montré que la précision et le rappel de SMURF sont supérieurs à ceux de DETEX et BDTEX lors de la détection des occurrences de défauts de conception. Nous avons également montré que SMURF peut être appliqué à la fois dans les configurations intra-système et inter-système. Enfin, nous avons montré que la précision et le rappel de SMURF sont améliorés quand on prend en compte les retours des praticiens.