895 resultados para error estimate


Relevância:

20.00% 20.00%

Publicador:

Resumo:

The optimization of most pesticide and fertilizer applications is based on overall grove conditions. In this work we measurements. Recently, Wei [9, 10] used a terrestrial propose a measurement system based on a ground laser scanner to LIDAR to measure tree height, width and volume developing estimate the volume of the trees and then extrapolate their foliage a set of experiments to evaluate the repeatability and surface in real-time. Tests with pear trees demonstrated that the accuracy of the measurements, obtaining a coefficient of relation between the volume and the foliage can be interpreted as variation of 5.4% and a relative error of 4.4% in the linear with a coefficient of correlation (R) of 0.81 and the foliar estimation of the volume but without real-time capabilities. surface can be estimated with an average error less than 5 %.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Electronic canopy characterization is an important issue in tree crop management. Ultrasonic and optical sensors are the most used for this purpose. The objective of this work was to assess the performance of an ultrasonic sensor under laboratory and field conditions in order to provide reliable estimations of distance measurements to apple tree canopies. To this purpose, a methodology has been designed to analyze sensor performance in relation to foliage ranging and to interferences with adjacent sensors when working simultaneously. Results show that the average error in distance measurement using the ultrasonic sensor in laboratory conditions is ±0.53 cm. However, the increase of variability in field conditions reduces the accuracy of this kind of sensors when estimating distances to canopies. The average error in such situations is ±5.11 cm. When analyzing interferences of adjacent sensors 30 cm apart, the average error is ±17.46 cm. When sensors are separated 60 cm, the average error is ±9.29 cm. The ultrasonic sensor tested has been proven to be suitable to estimate distances to the canopy in field conditions when sensors are 60 cm apart or more and could, therefore, be used in a system to estimate structural canopy parameters in precision horticulture.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this work, a LIDAR-based 3D Dynamic Measurement System is presented and evaluated for the geometric characterization of tree crops. Using this measurement system, trees were scanned from two opposing sides to obtain two three-dimensional point clouds. After registration of the point clouds, a simple and easily obtainable parameter is the number of impacts received by the scanned vegetation. The work in this study is based on the hypothesis of the existence of a linear relationship between the number of impacts of the LIDAR sensor laser beam on the vegetation and the tree leaf area. Tests performed under laboratory conditions using an ornamental tree and, subsequently, in a pear tree orchard demonstrate the correct operation of the measurement system presented in this paper. The results from both the laboratory and field tests confirm the initial hypothesis and the 3D Dynamic Measurement System is validated in field operation. This opens the door to new lines of research centred on the geometric characterization of tree crops in the field of agriculture and, more specifically, in precision fruit growing.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This work proposes the detection of red peaches in orchard images based on the definition of different linear color models in the RGB vector color space. The classification and segmentation of the pixels of the image is then performed by comparing the color distance from each pixel to the different previously defined linear color models. The methodology proposed has been tested with images obtained in a real orchard under natural light. The peach variety in the orchard was the paraguayo (Prunus persica var. platycarpa) peach with red skin. The segmentation results showed that the area of the red peaches in the images was detected with an average error of 11.6%; 19.7% in the case of bright illumination; 8.2% in the case of low illumination; 8.6% for occlusion up to 33%; 12.2% in the case of occlusion between 34 and 66%; and 23% for occlusion above 66%. Finally, a methodology was proposed to estimate the diameter of the fruits based on an ellipsoidal fitting. A first diameter was obtained by using all the contour pixels and a second diameter was obtained by rejecting some pixels of the contour. This approach enables a rough estimate of the fruit occlusion percentage range by comparing the two diameter estimates.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La necesidad de evaluar la evapotranspiración a escala regional para la gestión de regadíos ha hecho que sean innumerables los intentos por aplicar imágenes AVHRR-NOAA en la determinación el flujo de calor sensible. La principal limitación de estos métodos es la estimación de la resistencia aerodinámica. El parámetro crítico en la expresión de la resistencia aerodinámica es kB-1. La parametrización de kB-1 ha sido infructuosa a escala regional por no disponer hasta ahora de medidas de flujo de calor sensible a escala del píxel AVHRR en superficies heterogéneas y durante toda una temporada de riegos. Para resolver esta medida de flujo se ha desarrollado el cintilómetro. En la primera parte de este trabajo se estudia la representatividad espacial de las medidas del cintilómetro. El núcleo de esta aportación consiste en la correlación entre el parámetro kB-1, el NDVI y la altura solar. Los buenos resultados obtenidos (r2=0.81) ofrecen una nueva metodología para determinar el flujo de calor sensible. La estimación de kB-1, las imágenes AVHRR y los datos meteorológicos permiten calcular el flujo de calor sensible durante toda la temporada de riegos con errores inferiores al 20%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Location information is becoming increasingly necessary as every new smartphone incorporates a GPS (Global Positioning System) which allows the development of various applications based on it. However, it is not possible to properly receive the GPS signal in indoor environments. For this reason, new indoor positioning systems are being developed. As indoors is a very challenging scenario, it is necessary to study the precision of the obtained location information in order to determine if these new positioning techniques are suitable for indoor positioning.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Approximate models (proxies) can be employed to reduce the computational costs of estimating uncertainty. The price to pay is that the approximations introduced by the proxy model can lead to a biased estimation. To avoid this problem and ensure a reliable uncertainty quantification, we propose to combine functional data analysis and machine learning to build error models that allow us to obtain an accurate prediction of the exact response without solving the exact model for all realizations. We build the relationship between proxy and exact model on a learning set of geostatistical realizations for which both exact and approximate solvers are run. Functional principal components analysis (FPCA) is used to investigate the variability in the two sets of curves and reduce the dimensionality of the problem while maximizing the retained information. Once obtained, the error model can be used to predict the exact response of any realization on the basis of the sole proxy response. This methodology is purpose-oriented as the error model is constructed directly for the quantity of interest, rather than for the state of the system. Also, the dimensionality reduction performed by FPCA allows a diagnostic of the quality of the error model to assess the informativeness of the learning set and the fidelity of the proxy to the exact model. The possibility of obtaining a prediction of the exact response for any newly generated realization suggests that the methodology can be effectively used beyond the context of uncertainty quantification, in particular for Bayesian inference and optimization.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Investointi- ja energiantuotantokustannusten arviointi ja määrittäminen projektin alkuvaiheessa on olennainen osa voimalaitoksen elinkaaritiedon hallintaa. Tällöin tehdään investointi- ja energiantuotantokustannusten vertailua voimalaitosten kesken, joiden perusteella käytettävä voimalaitoskonsepti valitaan kompromissina toisaalta taloudellisen ja toisaalta suorituskyvyiltään tehokkaan voimalaitoksen väliltä. Koska investointikustannukset vaikuttavat suuresti energiatuotantokustannuksiin, on investointikustannusten arvioimisella suuri rooli voimalaitoskonseptia valittaessa. Investointikustannusten arviointimenetelmien käyttö eri projektivaiheissa riippuu pitkälti käytettävästä toteutuneesta kustannustiedosta sekä siitä, mihin tarkkuustasoon on kunkin projektin vaiheessa tarkoituksenmukaista pyrkiä. Suuren kustannusdatan avulla päästään vähilläkin lähtötiedoilla hyvään kustannusarvion tarkkuuteen. Projektin alkuvaiheessa ei kuitenkaan kannata uhrata liikaa aikaa kustannusarvion laatimiseen, koska arvioinnin kustannus kasvaa tarkkuuden myötä. Tässä työssä pyrittiin löytämään riippuvuussuhteita voimalaitosten kustannusten ja suoritusarvojen välille. Havaittujen riippuvuussuhteiden perusteella määritettiin in-vestointi- ja sähköntuotantokustannukset noin 50:lle voimalaitokselle. Investointi-kustannukset jaettiin 23:een kustannuskomponenttiin koneiden ja laitteiden sekä ra-kennusteknisten töiden kustannusryhmiin. Lisäksi kokonaisinvestointiin sisältyy projektikustannukset, rakennusaikaiset korot ja varaus. Laskettujen voimalaitosten avulla muodostettiin oma laskentaohjelmisto investointi- ja energiantuotantokustan-nusten arviointiin sekä talletukseen. Ohjelmistolla pyritään yhdenmukaistamaan kustannusarvioiden laadintaa samalla vähentäen arvioissa esiintyvää inhimillisen virheen todennäköisyyttä.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tässä työssä tutkitaan ohjelmistoarkkitehtuurisuunnitteluominaisuuksien vaikutusta erään client-server –arkkitehtuuriin perustuvan mobiilipalvelusovelluksen suunnittelu- ja toteutusaikaan. Kyseinen tutkimus perustuu reaalielämän projektiin, jonka kvalitatiivinen analyysi paljasti arkkitehtuurikompponenttien välisten kytkentöjen merkittävästi vaikuttavan projektin työmäärään. Työn päätavoite oli kvantitatiivisesti tutkia yllä mainitun havainnon oikeellisuus. Tavoitteen saavuttamiseksi suunniteltiin ohjelmistoarkkitehtuurisuunnittelun mittaristo kuvaamaan kyseisen järjestelmän alijärjestelmien arkkitehtuuria ja luotiin kaksi suunniteltua mittaristoa käyttävää, työmäärää (komponentin suunnittelu-, toteutus- ja testausaikojen summa) arvioivaa mallia, joista toinen on lineaarinen ja toinen epälineaarinen. Näiden mallien kertoimet sovitettiin optimoimalla niiden arvot epälineaarista gloobaalioptimointimenetelmää, differentiaalievoluutioalgoritmia, käyttäen, niin että mallien antamat arvot vastasivat parhaiten mitattua työmäärää sekä kaikilla ominaisuuksilla eli attribuuteilla että vain osalla niistä (yksi jätettiin vuorotellen pois). Kun arkkitehtuurikompenttien väliset kytkennät jätettiin malleista pois, mitattujen ja arvoitujen työmäärien välinen ero (ilmaistuna virheenä) kasvoi eräässä tapauksessa 367 % entisestä tarkoittaen sitä, että näin muodostettu malli vastasi toteutusaikoja huonosti annetulla ainestolla. Tämä oli suurin havaitu virhe kaikkien poisjätettyjen ominaisuuksien kesken. Saadun tuloksen perusteella päätettiin, että kyseisen järjestelmän toteutusajat ovat vahvasti riippuvaisia kytkentöjen määrästä, ja näin ollen kytkentöjen määrä oli mitä todennäköisemmin kaikista tärkein työmäärään vaikuttava tekijä tutkitun järjestelmän arkkitehtuurisuunnittelussa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tutkimuksen tavoitteena on selvittää analyytikoiden ennustevirheiden suuruus sekä jakauma. Keskeisenä tavoitteena on selvittää, kuinka paljon yrityksen toimiala ja markkina-arvo vaikuttavat ennustevirheen suuruuteen ja tätä kautta vääristävät osakkeiden hinnoittelua. Tutkimus olettaa, että osakkeiden hinnoittelu perustuu tuotto-odotuksiin eli analyytikoiden tulosennusteisiin sekä riskiin. Tutkimuksessa on käytetty kvantitatiivisia menetelmiä. Tutkimusaineistona on käytetty Helsingin pörssin päälistalla vuosina 1998 – 1999 olleita yrityksiä, joille on annettu tulosennusteita. Tulosennusteet on poimittu manuaalisesti REUTTERS:in tietokannasta. Tulosennusteet vuosille 1998 - 1999 eivät ole selvästi positiivisia tai negatiivisia. Ennustevirheet eivät myöskään ole jakautuneet selvästi toimialan mukaan. Kuitenkin vuonna 1999 ”teollisuus” sekä ”palvelut” toimialoille annettiin selvästi liian pessimistisiä ennusteita. Myöskään yhtiön markkina-arvolla ei ole selvää yhteyttä ennustevirheen suuruuteen. Kuitenkin vuonna 1999 isojen yhtiöiden tuloksista on annettu liian pessimistisiä ja pienten liian positiivisia arvioita. Etsittäessä ennustevirheen selittäjiä regressioanalyysin avulla, vahvimmiksi selittäjiksi nousivat analyytikoiden määrä per yhtiö ja analyytikkoennusteiden keskihajonta. Selittäjät saavuttivat 40 prosentin selitysasteen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The prediction filters are well known models for signal estimation, in communications, control and many others areas. The classical method for deriving linear prediction coding (LPC) filters is often based on the minimization of a mean square error (MSE). Consequently, second order statistics are only required, but the estimation is only optimal if the residue is independent and identically distributed (iid) Gaussian. In this paper, we derive the ML estimate of the prediction filter. Relationships with robust estimation of auto-regressive (AR) processes, with blind deconvolution and with source separation based on mutual information minimization are then detailed. The algorithm, based on the minimization of a high-order statistics criterion, uses on-line estimation of the residue statistics. Experimental results emphasize on the interest of this approach.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Free induction decay (FID) navigators were found to qualitatively detect rigid-body head movements, yet it is unknown to what extent they can provide quantitative motion estimates. Here, we acquired FID navigators at different sampling rates and simultaneously measured head movements using a highly accurate optical motion tracking system. This strategy allowed us to estimate the accuracy and precision of FID navigators for quantification of rigid-body head movements. Five subjects were scanned with a 32-channel head coil array on a clinical 3T MR scanner during several resting and guided head movement periods. For each subject we trained a linear regression model based on FID navigator and optical motion tracking signals. FID-based motion model accuracy and precision was evaluated using cross-validation. FID-based prediction of rigid-body head motion was found to be with a mean translational and rotational error of 0.14±0.21 mm and 0.08±0.13(°) , respectively. Robust model training with sub-millimeter and sub-degree accuracy could be achieved using 100 data points with motion magnitudes of ±2 mm and ±1(°) for translation and rotation. The obtained linear models appeared to be subject-specific as inter-subject application of a "universal" FID-based motion model resulted in poor prediction accuracy. The results show that substantial rigid-body motion information is encoded in FID navigator signal time courses. Although, the applied method currently requires the simultaneous acquisition of FID signals and optical tracking data, the findings suggest that multi-channel FID navigators have a potential to complement existing tracking technologies for accurate rigid-body motion detection and correction in MRI.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis studies evaluation of software development practices through an error analysis. The work presents software development process, software testing, software errors, error classification and software process improvement methods. The practical part of the work presents results from the error analysis of one software process. It also gives improvement ideas for the project. It was noticed that the classification of the error data was inadequate in the project. Because of this it was impossible to use the error data effectively. With the error analysis we were able to show that there were deficiencies in design and analyzing phases, implementation phase and in testing phase. The work gives ideas for improving error classification and for software development practices.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el sector suroriental de la Cuenca del Ebro, la inclinación paleomagnética obtenida en las sucesiones aluviales oligocenas es considerablemente menor que la esperable, si se considera la paleolatitud de referencia calculada para esa región durante el Oligoceno. Este error de inclinación puede deberse a diversos factores, como el control hidrodinámica de las partículas magnéticas en el medio deposicional, la compactación diferencial del sedimento durante el enterramiento, o bien a la deformación tectónica. Este trabajo se ha centrado en su estudio en dos sucesiones dominantemente aluviales, donde previamente se había establecido su magnetoestratigrafia. Las litofacies aluviales y lacustres estudiadas se han agrupado en cinco grupos: areniscas grises, areniscas rojas y versicolores, limos rojos, lutitas rojas y calizas. Se ha demostrado la existencia de una correlación entre la abundancia de filosilicatos y el error de inclinación. De esta manera, las litofacies con un bajo porcentaje de filosilicatos (calizas y areniscas grises) presentan errores de unos 5', estadisticarnente no significativos, con respecto a la inclinación de referencia. Por el contrario, en materiales con un porcentaje más elevado de filosilicatos (limos y arcillas) el error puede llegar a los 25'. Este hecho no tiene repercusión en la interpretación de las polaridades magnéticas, pero si en las reconstmcciones palinspásticas y paleogeográficas basadas en los cálculos de paleolatitudes a partir de las paleoinclinaciones. Los resultados obtenidos demuestran la necesidad de cautela en la propuesta de conclusiones basadas exclusivamente en este tipo de información.