897 resultados para estimation and filtering


Relevância:

80.00% 80.00%

Publicador:

Resumo:

The application of automated correlation optimized warping (ACOW) to the correction of retention time shift in the chromatographic fingerprints of Radix Puerariae thomsonii (RPT) was investigated. Twenty-seven samples were extracted from 9 batches of RPT products. The fingerprints of the 27 samples were established by the HPLC method. Because there is a retention time shift in the established fingerprints, the quality of these samples cannot be correctly evaluated by using similarity estimation and principal component analysis (PCA). Thus, the ACOW method was used to align these fingerprints. In the ACOW procedure, the warping parameters, which have a significant influence on the alignment result, were optimized by an automated algorithm. After correcting the retention time shift, the quality of these RPT samples was correctly evaluated by similarity estimation and PCA. It is demonstrated that ACOW is a practical method for aligning the chromatographic fingerprints of RPT. The combination of ACOW, similarity estimation, and PCA is shown to be a promising method for evaluating the quality of Traditional Chinese Medicine.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Nowadays, dropping out in B.Sc. courses practically occurs in all Universities of the contemporary world. Undergraduate student withdraw could means several losses as, to the student, not to graduate, to the teacher, for not accomplishing his goal as educator, to the university, for not attending its mission, to the society, economic and social losses and also to the family for unfulfilling the dreams. The objective of this research is to present a quantitative study on the dropping out rate in the Agricultural Engineering B.Sc. program (BSAGENG) at State University of Campinas (UNICAMP), seeking to contribute to the understanding of this issue. It has been determined the dropping out rate from 1995 to 2006 based on the university official data, by employing four different methods of calculation. Three of the methods revealed that dropping out rate is very close to the graduation index, i.e., close to 50%. Regardless of the adopted method for the dropping rate estimation and the statistics demonstrating that the agricultural engineering undergraduate course at UNICAMP figures falls within similar courses normality in Brazil, it should be recognized that a public institution of education should be concerned in presenting such figures. A detailed and deep analysis must be outlined in further studies seeking for specific actions aiming to reduce dropping out process.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Kaasukaarihitsauksessa suojakaasuna käytetään yleensä argonin ja hiilidioksidin tai argonin ja heliumin seoksia. Suojakaasu vaikuttaa useisiin hitsausominaisuuksiin, jotka puolestaan vaikuttavat hitsauksen laatuun ja tuottavuuteen. Automaattisella suojakaasun tunnistuksella ja virtausmäärän mittauksella voitaisiin tehdä hitsauksesta paitsi käyttäjän kannalta yksinkertaisempaa, myös laadukkaampaa. Työn tavoite on löytää mahdollisimman edullinen ja kuitenkin mahdollisimman tarkasti kaasuseoksia tunnistava menetelmä, jota voitaisiin hyödyntää MIG/MAG-hitsauskoneeseen sisäänrakennettuna. Selvä etu on, jos menetelmällä voidaan mitata myös kaasun virtausmäärä. Äänennopeus kaasumaisessa väliaineessa on aineen atomi- ja molekyylirakenteesta ja lämpötilasta riippuva ominaisuus, joka voidaan mitata melko edullisesti. Äänennopeuden määritys perustuu ääniaallon kulkuajan mittaamiseen tunnetun pituisella matkalla. Kaasun virtausnopeus on laskettavissa myötä- ja vastavirtaan mitattujen kulkuaikojen erotuksen avulla. Rakennettu mittauslaitteisto koostuu kahdesta ultraäänimuuntimesta, joiden halkaisija on 10 mm ja jotka toimivat sekä lähettimenä että vastaanottimena. Muuntimet ovat 140 mm:n etäisyydellä toisistaan virtauskanavassa, jossa suojakaasu virtaa yhdensuuntaisesti äänen kanssa. Virtauskanava on putki, jossa on käytetty elastisia materiaaleja, jotta ääniaaltojen eteneminen kanavan runkoa pitkin minimoituisi. Kehitetty algoritmi etsii kahden lähetetyn 40 kHz:n taajuisen kanttiaaltopulssin aiheuttaman vasteen perusteella ääniaallon saapumisajanhetken. Useiden mittausten, tulosten lajittelun ja suodatuksen jälkeen tuntemattomalle kaasulle lasketaan lämpötilakompensoitu vertailuluku. Tuntematon kaasu tunnistetaan vertailemalla lukua tunnettujen kaasuseosten mitattuihin vertailulukuihin. Laitteisto tunnistaa seokset, joissa heliumin osuus argonissa on enintään 50 %. Hiilidioksidia sisältävät argonin seokset puolestaan tunnistetaan puhtaaseen hiilidioksidiin asti jopa kahden prosenttiyksikön tarkkuudella. Kaasun tilavuusvirtausmittauksen tarkkuus on noin 1,0 l/min.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The focus in this thesis is to study both technical and economical possibilities of novel on-line condition monitoring techniques in underground low voltage distribution cable networks. This thesis consists of literature study about fault progression mechanisms in modern low voltage cables, laboratory measurements to determine the base and restrictions of novel on-line condition monitoring methods, and economic evaluation, based on fault statistics and information gathered from Finnish distribution system operators. This thesis is closely related to master’s thesis “Channel Estimation and On-line Diagnosis of LV Distribution Cabling”, which focuses more on the actual condition monitoring methods and signal theory behind them.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This study presents a review of theories of the so-called post-industrial society, and proposes that the concept of post-industrial society can be used to understand the recent developments of the World Wide Web, often described as Web 2.0 or social Web. The study combines theories ranging from post-war management science and cultural studies to software development, and tries to build a holistic view of the development of the post-industrial society, and especially the Internet. The discourse on the emergence of a post-industrial society after the World Wars has addressed the ways in which the growing importance of information, and innovations in digital communications technology, are changing our society. It is furthermore deeply connected with the discourse on the postmodern society, which emphasizes cultural fragmentation, intertextuality, and pluralism. The Internet age is characterized by increasing masses of information that are managed through various technologies. While 1990s Internet technologies often used the network as a traditional broadcasting channel with added interactivity, Web 2.0 technologies are specifically designed to utilize the network model by facilitating communication between various services and devices, and analyzing the relationships between users and objects in order to produce intelligent insight. The wide adoption of the Internet, and recently of Internet-enabled mobile devices, is furthermore continuously producing new ways of communicating, consuming, and producing. Applications of the social Web, such as social media or social networking services, are permanently changing our traditional social, cultural, and economic practices. The study first presents an overview of the post-industrial society, the Internet, and the concept of Web 2.0. Then the concept of social Web is described with an analysis of the term social media, the brief histories of the interactive Web and social networking services, and a description of the concept ―long tail‖, used to represent the masses of information available in the Web that do not receive mainstream attention. Finally, methods for retrieving and filtering information, modeling social and cultural relationships, and communicating with customers, are presented.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Stochastic differential equation (SDE) is a differential equation in which some of the terms and its solution are stochastic processes. SDEs play a central role in modeling physical systems like finance, Biology, Engineering, to mention some. In modeling process, the computation of the trajectories (sample paths) of solutions to SDEs is very important. However, the exact solution to a SDE is generally difficult to obtain due to non-differentiability character of realizations of the Brownian motion. There exist approximation methods of solutions of SDE. The solutions will be continuous stochastic processes that represent diffusive dynamics, a common modeling assumption for financial, Biology, physical, environmental systems. This Masters' thesis is an introduction and survey of numerical solution methods for stochastic differential equations. Standard numerical methods, local linearization methods and filtering methods are well described. We compute the root mean square errors for each method from which we propose a better numerical scheme. Stochastic differential equations can be formulated from a given ordinary differential equations. In this thesis, we describe two kind of formulations: parametric and non-parametric techniques. The formulation is based on epidemiological SEIR model. This methods have a tendency of increasing parameters in the constructed SDEs, hence, it requires more data. We compare the two techniques numerically.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The pumping processes requiring wide range of flow are often equipped with parallelconnected centrifugal pumps. In parallel pumping systems, the use of variable speed control allows that the required output for the process can be delivered with a varying number of operated pump units and selected rotational speed references. However, the optimization of the parallel-connected rotational speed controlled pump units often requires adaptive modelling of both parallel pump characteristics and the surrounding system in varying operation conditions. The available information required for the system modelling in typical parallel pumping applications such as waste water treatment and various cooling and water delivery pumping tasks can be limited, and the lack of real-time operation point monitoring often sets limits for accurate energy efficiency optimization. Hence, alternatives for easily implementable control strategies which can be adopted with minimum system data are necessary. This doctoral thesis concentrates on the methods that allow the energy efficient use of variable speed controlled parallel pumps in system scenarios in which the parallel pump units consist of a centrifugal pump, an electric motor, and a frequency converter. Firstly, the suitable operation conditions for variable speed controlled parallel pumps are studied. Secondly, methods for determining the output of each parallel pump unit using characteristic curve-based operation point estimation with frequency converter are discussed. Thirdly, the implementation of the control strategy based on real-time pump operation point estimation and sub-optimization of each parallel pump unit is studied. The findings of the thesis support the idea that the energy efficiency of the pumping can be increased without the installation of new, more efficient components in the systems by simply adopting suitable control strategies. An easily implementable and adaptive control strategy for variable speed controlled parallel pumping systems can be created by utilizing the pump operation point estimation available in modern frequency converters. Hence, additional real-time flow metering, start-up measurements, and detailed system model are unnecessary, and the pumping task can be fulfilled by determining a speed reference for each parallel-pump unit which suggests the energy efficient operation of the pumping system.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Switching power supplies are usually implemented with a control circuitry that uses constant clock frequency turning the power semiconductor switches on and off. A drawback of this customary operating principle is that the switching frequency and harmonic frequencies are present in both the conducted and radiated EMI spectrum of the power converter. Various variable-frequency techniques have been introduced during the last decade to overcome the EMC problem. The main objective of this study was to compare the EMI and steady-state performance of a switch mode power supply with different spread-spectrum/variable-frequency methods. Another goal was to find out suitable tools for the variable-frequency EMI analysis. This thesis can be divided into three main parts: Firstly, some aspects of spectral estimation and measurement are presented. Secondly, selected spread spectrum generation techniques are presented with simulations and background information. Finally, simulations and prototype measurements from the EMC and the steady-state performance are carried out in the last part of this work. Combination of the autocorrelation function, the Welch spectrum estimate and the spectrogram were used as a substitute for ordinary Fourier methods in the EMC analysis. It was also shown that the switching function can be used in preliminary EMC analysis of a SMPS and the spectrum and autocorrelation sequence of a switching function correlates with the final EMI spectrum. This work is based on numerous simulations and measurements made with the prototype. All these simulations and measurements are made with the boost DC/DC converter. Four different variable-frequency modulation techniques in six different configurations were analyzed and the EMI performance was compared to the constant frequency operation. Output voltage and input current waveforms were also analyzed in time domain to see the effect of the spread spectrum operation on these quantities. According to the results presented in this work, spread spectrum modulation can be utilized in power converter for EMI mitigation. The results from steady-state voltage measurements show, that the variable-frequency operation of the SMPS has effect on the voltage ripple, but the ripple measured from the prototype is still acceptable in some applications. Both current and voltage ripple can be controlled with proper main circuit and controller design.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Time series analysis can be categorized into three different approaches: classical, Box-Jenkins, and State space. Classical approach makes a basement for the analysis and Box-Jenkins approach is an improvement of the classical approach and deals with stationary time series. State space approach allows time variant factors and covers up a broader area of time series analysis. This thesis focuses on parameter identifiablity of different parameter estimation methods such as LSQ, Yule-Walker, MLE which are used in the above time series analysis approaches. Also the Kalman filter method and smoothing techniques are integrated with the state space approach and MLE method to estimate parameters allowing them to change over time. Parameter estimation is carried out by repeating estimation and integrating with MCMC and inspect how well different estimation methods can identify the optimal model parameters. Identification is performed in probabilistic and general senses and compare the results in order to study and represent identifiability more informative way.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Diplomityön päätavoitteena on vapauttaa pääomaa kohdeyrityksen käyttöpääoman komponenteista tuottavia investointeja varten. Tutkimus on toteutettu konstruktiivisena case-tutkimuksena. Aineistona on tieteellisen kirjallisuuden lisäksi käytetty tilinpäätösraportteja, tuotannossa käytettävien komponenttien ja valmistettavien tuotteiden tuote- ja tuoteryhmäkohtaisia tietoja sekä yrityksen avainhenkilöiden haastatteluja. Kysynnän epävarmuus ja liiketoiminnan kausiluonteisuus aiheuttavat vaihteluita yrityksen käyttöpääomatarpeeseen, ja näihin vaihteluihin yrityksen tulisi kyetä vastaamaan. Työn tuloksia ovat käyttöpääoman ennuste- ja optimimittaristot sekä 16 yritykselle räätälöityä käyttöpääoman hallinnan keinoa. Keinoja ovat muun muassa tilauspisteiden jatkuva päivittäminen ja tiiviimpi toimittajayhteistyö. Mittaaminen, optimitason määrittäminen ja hallintakeinojen määritys ja toteutus muodostavat käyttöpääoman hallinnan syklin, jonka tulisi toistua käyttöpääoman hallinnassa. Käyttöpääomasta vapautunut pääoma tulee sijoittaa yrityksen tuottaviin investointeihin. Investointien myötä yrityksen kannattavuus ja maksuvalmius paranevat. Tulevaisuudessa, parantuneen maksuvalmiuden myötä on käyttöpääoman hallinnan strategia määritettävä uudelleen.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This Master’s Thesis analyses the effectiveness of different hedging models on BRICS (Brazil, Russia, India, China, and South Africa) countries. Hedging performance is examined by comparing two different dynamic hedging models to conventional OLS regression based model. The dynamic hedging models being employed are Constant Conditional Correlation (CCC) GARCH(1,1) and Dynamic Conditional Correlation (DCC) GARCH(1,1) with Student’s t-distribution. In order to capture the period of both Great Moderation and the latest financial crisis, the sample period extends from 2003 to 2014. To determine whether dynamic models outperform the conventional one, the reduction of portfolio variance for in-sample data with contemporaneous hedge ratios is first determined and then the holding period of the portfolios is extended to one and two days. In addition, the accuracy of hedge ratio forecasts is examined on the basis of out-of-sample variance reduction. The results are mixed and suggest that dynamic hedging models may not provide enough benefits to justify harder estimation and daily portfolio adjustment. In this sense, the results are consistent with the existing literature.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Mineraalien rikastamiseen käytetään useita fysikaalisia ja kemiallisia menetelmiä. Prosessi sisältää malmin hienonnuksen, rikastuksen ja lopuksi vedenpoistamisen rikastelietteestä. Malmin rikastamiseen käytetään muun muassa vaahdotusta, liuotusta, magneettista rikastusta ja tiheyseroihin perustuvia rikastusmenetelmiä. Rikastuslietteestä voidaan poistaa vettä sakeuttamalla ja suodattamalla. Rikastusprosessin ympäristövaikutuksia voidaan arvioida laskemalla tuotteen vesijalanjälki, joka kertoo valmistamiseen kulutetun veden määrän. Tässä kirjallisuustyössä esiteltiin mineraalien käsittelymenetelmiä sekä prosessijätevesien puhdistusmenetelmiä. Kirjallisuuslähteiden pohjalta selvitettiin Pyhäsalmen kaivoksella valmistetun kuparianodin vesijalanjälki sekä esitettiin menetelmiä, joilla prosessiin tarvittavan raakaveden kulutusta voitaisiin vähentää. Pyhäsalmella kuparirikasteesta valmistetun kuparianodin vesijalanjälki on 240 litraa H2O ekvivalenttia tuotettua tonnia kohden. Pyhäsalmen prosessin raakaveden kulutusta voidaan vähentää lisäämällä sisäistä vedenkierrätystä. Kalsiumsulfaatin saostuminen putkiin ja pumppuihin on ilmentynyt ongelmaksi vedenkierrätyksen lisäämisessä. Kalsiumsulfaattia voidaan erottaa vedestä membraaneihin, ioninvaihtoon ja sähkökemiaan perustuvilla tekniikoilla. Vaihtoehdossa, jossa johdetaan kaikista kolmesta vaahdotuksesta saatavat rikastuslietteen ja rikastushiekan sakeutuksien ylitteet sekä suodatuksien suodosvedet samaan vedenkäsittelyyn voidaan kattaa arviolta noin 65 % koko veden tarpeesta. Raakavettä säästetään vuodessa 3,4 Mm^3 ja samalla rikastushiekka-altaiden tarvittava koko pienenee, joka vähentää ympäristöriskejä.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les modèles à sur-représentation de zéros discrets et continus ont une large gamme d'applications et leurs propriétés sont bien connues. Bien qu'il existe des travaux portant sur les modèles discrets à sous-représentation de zéro et modifiés à zéro, la formulation usuelle des modèles continus à sur-représentation -- un mélange entre une densité continue et une masse de Dirac -- empêche de les généraliser afin de couvrir le cas de la sous-représentation de zéros. Une formulation alternative des modèles continus à sur-représentation de zéros, pouvant aisément être généralisée au cas de la sous-représentation, est présentée ici. L'estimation est d'abord abordée sous le paradigme classique, et plusieurs méthodes d'obtention des estimateurs du maximum de vraisemblance sont proposées. Le problème de l'estimation ponctuelle est également considéré du point de vue bayésien. Des tests d'hypothèses classiques et bayésiens visant à déterminer si des données sont à sur- ou sous-représentation de zéros sont présentées. Les méthodes d'estimation et de tests sont aussi évaluées au moyen d'études de simulation et appliquées à des données de précipitation agrégées. Les diverses méthodes s'accordent sur la sous-représentation de zéros des données, démontrant la pertinence du modèle proposé. Nous considérons ensuite la classification d'échantillons de données à sous-représentation de zéros. De telles données étant fortement non normales, il est possible de croire que les méthodes courantes de détermination du nombre de grappes s'avèrent peu performantes. Nous affirmons que la classification bayésienne, basée sur la distribution marginale des observations, tiendrait compte des particularités du modèle, ce qui se traduirait par une meilleure performance. Plusieurs méthodes de classification sont comparées au moyen d'une étude de simulation, et la méthode proposée est appliquée à des données de précipitation agrégées provenant de 28 stations de mesure en Colombie-Britannique.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les logiciels de correction grammaticale commettent parfois des détections illégitimes (fausses alertes), que nous appelons ici surdétections. La présente étude décrit les expériences de mise au point d’un système créé pour identifier et mettre en sourdine les surdétections produites par le correcteur du français conçu par la société Druide informatique. Plusieurs classificateurs ont été entraînés de manière supervisée sur 14 types de détections faites par le correcteur, en employant des traits couvrant di-verses informations linguistiques (dépendances et catégories syntaxiques, exploration du contexte des mots, etc.) extraites de phrases avec et sans surdétections. Huit des 14 classificateurs développés sont maintenant intégrés à la nouvelle version d’un correcteur commercial très populaire. Nos expériences ont aussi montré que les modèles de langue probabilistes, les SVM et la désambiguïsation sémantique améliorent la qualité de ces classificateurs. Ce travail est un exemple réussi de déploiement d’une approche d’apprentissage machine au service d’une application langagière grand public robuste.