986 resultados para Precise Point Positioning
Resumo:
En este trabajo hemos cuantificado las tasas de deformación actual de la cuenca del Bajo Segura (NE del corredor de cizalla de la Bética oriental), a partir del análisis de una red GPS con 11 vértices geodésicos. Se han analizado los datos de cuatro campañas GPS entre junio de 1999 y enero de 2013, que han sido procesados con la versión 6.2 del software GIPSY-OASIS. Este software utiliza la técnica de posicionamiento puntual de precisión conocido por las siglas PPP. Se observa un acortamiento ~N-S en toda la cuenca de mayor magnitud en el sur, en la zona de falla del Bajo Segura, con valores que varían de oeste a este entre 0,73 y 0,24 mm/año. En el borde septentrional de la cuenca, en la zona de falla de Crevillente, los valores de acortamiento N-S son menores. Sin embargo, en esta falla se ha observado un movimiento lateral sinistrorso que, en la componente E-O, varía entre 0,44 y 0,75 mm/año.
Resumo:
O princípio do posicionamento por GNSS baseia-se, resumidamente, na resolução de um problema matemático que envolve a observação das distâncias do utilizador a um conjunto de satélites com coordenadas conhecidas. A posição resultante pode ser calculada em modo absoluto ou relativo. O posicionamento absoluto necessita apenas de um recetor para a determinação da posição. Por sua vez, o posicionamento relativo implica a utilização de estações de referência e envolve a utilização de mais recetores para além do pertencente ao próprio utilizador. Assim, os métodos mais utilizados na determinação da posição de uma plataforma móvel, com exatidão na ordem dos centímetros, baseiam-se neste último tipo de posicionamento. Contudo, têm a desvantagem de estarem dependentes de estações de referência, com um alcance limitado, e requerem observações simultâneas dos mesmos satélites por parte da estação e do recetor. Neste sentido foi desenvolvida uma nova metodologia de posicionamento GNSS em modo absoluto, através da modelação ou remoção dos erros associados a cada componente das equações de observação, da utilização de efemérides precisas e correções aos relógios dos satélites. Este método de posicionamento tem a designação Precise Point Positioning (PPP) e permite manter uma elevada exatidão, equivalente à dos sistemas de posicionamento relativo. Neste trabalho, após um estudo aprofundado do tema, foi desenvolvida uma aplicação PPP, de índole académica, com recurso à biblioteca de classes C++ do GPS Toolkit, que permite determinar a posição e velocidade do recetor em modo cinemático e em tempo real. Esta aplicação foi ensaiada utilizando dados de observação de uma estação estática (processados em modo cinemático) e de uma estação em movimento instalada no NRP Auriga. Os resultados obtidos permitiram uma exatidão para a posição na ordem decimétrica e para a velocidade na ordem do cm/s.
Resumo:
This paper presents an overview of technical solutions for regional area precise GNSS positioning services such as in Queensland. The research focuses on the technical and business issues that currently constrain GPS-based local area Real Time Kinematic (RTK) precise positioning services so as to operate in future across larger regional areas, and therefore support services in agriculture, mining, utilities, surveying, construction, and others. The paper first outlines an overall technical framework that has been proposed to transition the current RTK services to future larger scale coverage. The framework enables mixed use of different reference GNSS receiver types, dual- or triple-frequency, single or multiple systems, to provide RTK correction services to users equipped with any type of GNSS receivers. Next, data processing algorithms appropriate for triple-frequency GNSS signals are reviewed and some key performance benefits of using triple carrier signals for reliable RTK positioning over long distances are demonstrated. A server-based RTK software platform is being developed to allow for user positioning computations at server nodes instead of on the user's device. An optimal deployment scheme for reference stations across a larger-scale network has been suggested, given restrictions such as inter-station distances, candidates for reference locations, and operational modes. For instance, inter-station distances between triple-frequency receivers can be extended to 150km, which doubles the distance between dual-frequency receivers in the existing RTK network designs.
Resumo:
Modernized GPS and GLONASS, together with new GNSS systems, BeiDou and Galileo, offer code and phase ranging signals in three or more carriers. Traditionally, dual-frequency code and/or phase GPS measurements are linearly combined to eliminate effects of ionosphere delays in various positioning and analysis. This typical treatment method has imitations in processing signals at three or more frequencies from more than one system and can be hardly adapted itself to cope with the booming of various receivers with a broad variety of singles. In this contribution, a generalized-positioning model that the navigation system independent and the carrier number unrelated is promoted, which is suitable for both single- and multi-sites data processing. For the synchronization of different signals, uncalibrated signal delays (USD) are more generally defined to compensate the signal specific offsets in code and phase signals respectively. In addition, the ionospheric delays are included in the parameterization with an elaborate consideration. Based on the analysis of the algebraic structures, this generalized-positioning model is further refined with a set of proper constrains to regularize the datum deficiency of the observation equation system. With this new model, uncalibrated signal delays (USD) and ionospheric delays are derived for both GPS and BeiDou with a large dada set. Numerical results demonstrate that, with a limited number of stations, the uncalibrated code delays (UCD) are determinate to a precision of about 0.1 ns for GPS and 0.4 ns for BeiDou signals, while the uncalibrated phase delays (UPD) for L1 and L2 are generated with 37 stations evenly distributed in China for GPS with a consistency of about 0.3 cycle. Extra experiments concerning the performance of this novel model in point positioning with mixed-frequencies of mixed-constellations is analyzed, in which the USD parameters are fixed with our generated values. The results are evaluated in terms of both positioning accuracy and convergence time.
Resumo:
Se il lavoro dello storico è capire il passato come è stato compreso dalla gente che lo ha vissuto, allora forse non è azzardato pensare che sia anche necessario comunicare i risultati delle ricerche con strumenti propri che appartengono a un'epoca e che influenzano la mentalità di chi in quell'epoca vive. Emergenti tecnologie, specialmente nell’area della multimedialità come la realtà virtuale, permettono agli storici di comunicare l’esperienza del passato in più sensi. In che modo la storia collabora con le tecnologie informatiche soffermandosi sulla possibilità di fare ricostruzioni storiche virtuali, con relativi esempi e recensioni? Quello che maggiormente preoccupa gli storici è se una ricostruzione di un fatto passato vissuto attraverso la sua ricreazione in pixels sia un metodo di conoscenza della storia che possa essere considerato valido. Ovvero l'emozione che la navigazione in una realtà 3D può suscitare, è un mezzo in grado di trasmettere conoscenza? O forse l'idea che abbiamo del passato e del suo studio viene sottilmente cambiato nel momento in cui lo si divulga attraverso la grafica 3D? Da tempo però la disciplina ha cominciato a fare i conti con questa situazione, costretta soprattutto dall'invasività di questo tipo di media, dalla spettacolarizzazione del passato e da una divulgazione del passato parziale e antiscientifica. In un mondo post letterario bisogna cominciare a pensare che la cultura visuale nella quale siamo immersi sta cambiando il nostro rapporto con il passato: non per questo le conoscenze maturate fino ad oggi sono false, ma è necessario riconoscere che esiste più di una verità storica, a volte scritta a volte visuale. Il computer è diventato una piattaforma onnipresente per la rappresentazione e diffusione dell’informazione. I metodi di interazione e rappresentazione stanno evolvendo di continuo. Ed è su questi due binari che è si muove l’offerta delle tecnologie informatiche al servizio della storia. Lo scopo di questa tesi è proprio quello di esplorare, attraverso l’utilizzo e la sperimentazione di diversi strumenti e tecnologie informatiche, come si può raccontare efficacemente il passato attraverso oggetti tridimensionali e gli ambienti virtuali, e come, nel loro essere elementi caratterizzanti di comunicazione, in che modo possono collaborare, in questo caso particolare, con la disciplina storica. La presente ricerca ricostruisce alcune linee di storia delle principali fabbriche attive a Torino durante la seconda guerra mondiale, ricordando stretta relazione che esiste tra strutture ed individui e in questa città in particolare tra fabbrica e movimento operaio, è inevitabile addentrarsi nelle vicende del movimento operaio torinese che nel periodo della lotta di Liberazione in città fu un soggetto politico e sociale di primo rilievo. Nella città, intesa come entità biologica coinvolta nella guerra, la fabbrica (o le fabbriche) diventa il nucleo concettuale attraverso il quale leggere la città: sono le fabbriche gli obiettivi principali dei bombardamenti ed è nelle fabbriche che si combatte una guerra di liberazione tra classe operaia e autorità, di fabbrica e cittadine. La fabbrica diventa il luogo di "usurpazione del potere" di cui parla Weber, il palcoscenico in cui si tengono i diversi episodi della guerra: scioperi, deportazioni, occupazioni .... Il modello della città qui rappresentata non è una semplice visualizzazione ma un sistema informativo dove la realtà modellata è rappresentata da oggetti, che fanno da teatro allo svolgimento di avvenimenti con una precisa collocazione cronologica, al cui interno è possibile effettuare operazioni di selezione di render statici (immagini), di filmati precalcolati (animazioni) e di scenari navigabili interattivamente oltre ad attività di ricerca di fonti bibliografiche e commenti di studiosi segnatamente legati all'evento in oggetto. Obiettivo di questo lavoro è far interagire, attraverso diversi progetti, le discipline storiche e l’informatica, nelle diverse opportunità tecnologiche che questa presenta. Le possibilità di ricostruzione offerte dal 3D vengono così messe a servizio della ricerca, offrendo una visione integrale in grado di avvicinarci alla realtà dell’epoca presa in considerazione e convogliando in un’unica piattaforma espositiva tutti i risultati. Divulgazione Progetto Mappa Informativa Multimediale Torino 1945 Sul piano pratico il progetto prevede una interfaccia navigabile (tecnologia Flash) che rappresenti la pianta della città dell’epoca, attraverso la quale sia possibile avere una visione dei luoghi e dei tempi in cui la Liberazione prese forma, sia a livello concettuale, sia a livello pratico. Questo intreccio di coordinate nello spazio e nel tempo non solo migliora la comprensione dei fenomeni, ma crea un maggiore interesse sull’argomento attraverso l’utilizzo di strumenti divulgativi di grande efficacia (e appeal) senza perdere di vista la necessità di valicare le tesi storiche proponendosi come piattaforma didattica. Un tale contesto richiede uno studio approfondito degli eventi storici al fine di ricostruire con chiarezza una mappa della città che sia precisa sia topograficamente sia a livello di navigazione multimediale. La preparazione della cartina deve seguire gli standard del momento, perciò le soluzioni informatiche utilizzate sono quelle fornite da Adobe Illustrator per la realizzazione della topografia, e da Macromedia Flash per la creazione di un’interfaccia di navigazione. La base dei dati descrittivi è ovviamente consultabile essendo contenuta nel supporto media e totalmente annotata nella bibliografia. È il continuo evolvere delle tecnologie d'informazione e la massiccia diffusione dell’uso dei computer che ci porta a un cambiamento sostanziale nello studio e nell’apprendimento storico; le strutture accademiche e gli operatori economici hanno fatto propria la richiesta che giunge dall'utenza (insegnanti, studenti, operatori dei Beni Culturali) di una maggiore diffusione della conoscenza storica attraverso la sua rappresentazione informatizzata. Sul fronte didattico la ricostruzione di una realtà storica attraverso strumenti informatici consente anche ai non-storici di toccare con mano quelle che sono le problematiche della ricerca quali fonti mancanti, buchi della cronologia e valutazione della veridicità dei fatti attraverso prove. Le tecnologie informatiche permettono una visione completa, unitaria ed esauriente del passato, convogliando tutte le informazioni su un'unica piattaforma, permettendo anche a chi non è specializzato di comprendere immediatamente di cosa si parla. Il miglior libro di storia, per sua natura, non può farlo in quanto divide e organizza le notizie in modo diverso. In questo modo agli studenti viene data l'opportunità di apprendere tramite una rappresentazione diversa rispetto a quelle a cui sono abituati. La premessa centrale del progetto è che i risultati nell'apprendimento degli studenti possono essere migliorati se un concetto o un contenuto viene comunicato attraverso più canali di espressione, nel nostro caso attraverso un testo, immagini e un oggetto multimediale. Didattica La Conceria Fiorio è uno dei luoghi-simbolo della Resistenza torinese. Il progetto è una ricostruzione in realtà virtuale della Conceria Fiorio di Torino. La ricostruzione serve a arricchire la cultura storica sia a chi la produce, attraverso una ricerca accurata delle fonti, sia a chi può poi usufruirne, soprattutto i giovani, che, attratti dall’aspetto ludico della ricostruzione, apprendono con più facilità. La costruzione di un manufatto in 3D fornisce agli studenti le basi per riconoscere ed esprimere la giusta relazione fra il modello e l’oggetto storico. Le fasi di lavoro attraverso cui si è giunti alla ricostruzione in 3D della Conceria: . una ricerca storica approfondita, basata sulle fonti, che possono essere documenti degli archivi o scavi archeologici, fonti iconografiche, cartografiche, ecc.; . La modellazione degli edifici sulla base delle ricerche storiche, per fornire la struttura geometrica poligonale che permetta la navigazione tridimensionale; . La realizzazione, attraverso gli strumenti della computer graphic della navigazione in 3D. Unreal Technology è il nome dato al motore grafico utilizzato in numerosi videogiochi commerciali. Una delle caratteristiche fondamentali di tale prodotto è quella di avere uno strumento chiamato Unreal editor con cui è possibile costruire mondi virtuali, e che è quello utilizzato per questo progetto. UnrealEd (Ued) è il software per creare livelli per Unreal e i giochi basati sul motore di Unreal. E’ stata utilizzata la versione gratuita dell’editor. Il risultato finale del progetto è un ambiente virtuale navigabile raffigurante una ricostruzione accurata della Conceria Fiorio ai tempi della Resistenza. L’utente può visitare l’edificio e visualizzare informazioni specifiche su alcuni punti di interesse. La navigazione viene effettuata in prima persona, un processo di “spettacolarizzazione” degli ambienti visitati attraverso un arredamento consono permette all'utente una maggiore immersività rendendo l’ambiente più credibile e immediatamente codificabile. L’architettura Unreal Technology ha permesso di ottenere un buon risultato in un tempo brevissimo, senza che fossero necessari interventi di programmazione. Questo motore è, quindi, particolarmente adatto alla realizzazione rapida di prototipi di una discreta qualità, La presenza di un certo numero di bug lo rende, però, in parte inaffidabile. Utilizzare un editor da videogame per questa ricostruzione auspica la possibilità di un suo impiego nella didattica, quello che le simulazioni in 3D permettono nel caso specifico è di permettere agli studenti di sperimentare il lavoro della ricostruzione storica, con tutti i problemi che lo storico deve affrontare nel ricreare il passato. Questo lavoro vuole essere per gli storici una esperienza nella direzione della creazione di un repertorio espressivo più ampio, che includa gli ambienti tridimensionali. Il rischio di impiegare del tempo per imparare come funziona questa tecnologia per generare spazi virtuali rende scettici quanti si impegnano nell'insegnamento, ma le esperienze di progetti sviluppati, soprattutto all’estero, servono a capire che sono un buon investimento. Il fatto che una software house, che crea un videogame di grande successo di pubblico, includa nel suo prodotto, una serie di strumenti che consentano all'utente la creazione di mondi propri in cui giocare, è sintomatico che l'alfabetizzazione informatica degli utenti medi sta crescendo sempre più rapidamente e che l'utilizzo di un editor come Unreal Engine sarà in futuro una attività alla portata di un pubblico sempre più vasto. Questo ci mette nelle condizioni di progettare moduli di insegnamento più immersivi, in cui l'esperienza della ricerca e della ricostruzione del passato si intreccino con lo studio più tradizionale degli avvenimenti di una certa epoca. I mondi virtuali interattivi vengono spesso definiti come la forma culturale chiave del XXI secolo, come il cinema lo è stato per il XX. Lo scopo di questo lavoro è stato quello di suggerire che vi sono grosse opportunità per gli storici impiegando gli oggetti e le ambientazioni in 3D, e che essi devono coglierle. Si consideri il fatto che l’estetica abbia un effetto sull’epistemologia. O almeno sulla forma che i risultati delle ricerche storiche assumono nel momento in cui devono essere diffuse. Un’analisi storica fatta in maniera superficiale o con presupposti errati può comunque essere diffusa e avere credito in numerosi ambienti se diffusa con mezzi accattivanti e moderni. Ecco perchè non conviene seppellire un buon lavoro in qualche biblioteca, in attesa che qualcuno lo scopra. Ecco perchè gli storici non devono ignorare il 3D. La nostra capacità, come studiosi e studenti, di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio che il 3D porta con sè, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Una ricostruzione storica può essere molto utile dal punto di vista educativo non sono da chi la visita ma, anche da chi la realizza. La fase di ricerca necessaria per la ricostruzione non può fare altro che aumentare il background culturale dello sviluppatore. Conclusioni La cosa più importante è stata la possibilità di fare esperienze nell’uso di mezzi di comunicazione di questo genere per raccontare e far conoscere il passato. Rovesciando il paradigma conoscitivo che avevo appreso negli studi umanistici, ho cercato di desumere quelle che potremo chiamare “leggi universali” dai dati oggettivi emersi da questi esperimenti. Da punto di vista epistemologico l’informatica, con la sua capacità di gestire masse impressionanti di dati, dà agli studiosi la possibilità di formulare delle ipotesi e poi accertarle o smentirle tramite ricostruzioni e simulazioni. Il mio lavoro è andato in questa direzione, cercando conoscere e usare strumenti attuali che nel futuro avranno sempre maggiore presenza nella comunicazione (anche scientifica) e che sono i mezzi di comunicazione d’eccellenza per determinate fasce d’età (adolescenti). Volendo spingere all’estremo i termini possiamo dire che la sfida che oggi la cultura visuale pone ai metodi tradizionali del fare storia è la stessa che Erodoto e Tucidide contrapposero ai narratori di miti e leggende. Prima di Erodoto esisteva il mito, che era un mezzo perfettamente adeguato per raccontare e dare significato al passato di una tribù o di una città. In un mondo post letterario la nostra conoscenza del passato sta sottilmente mutando nel momento in cui lo vediamo rappresentato da pixel o quando le informazioni scaturiscono non da sole, ma grazie all’interattività con il mezzo. La nostra capacità come studiosi e studenti di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio sottinteso al 3D, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Le esperienze raccolte nelle pagine precedenti ci portano a pensare che in un futuro non troppo lontano uno strumento come il computer sarà l’unico mezzo attraverso cui trasmettere conoscenze, e dal punto di vista didattico la sua interattività consente coinvolgimento negli studenti come nessun altro mezzo di comunicazione moderno.
Resumo:
Recent advancements in the area of nanotechnology have brought us into a new age of pervasive computing devices. These computing devices grow ever smaller and are being used in ways which were unimaginable before. Recent interest in developing a precise indoor positioning system, as opposed to existing outdoor systems, has given way to much research heading into the area. The use of these small computing devices offers many conveniences for usage in indoor positioning systems. This thesis will deal with using small computing devices Raspberry Pi’s to enable and improve position estimation of mobile devices within closed spaces. The newly patented Orthogonal Perfect DFT Golay coding sequences will be used inside this scenario, and their positioning properties will be tested. After that, testing and comparisons with other coding sequences will be done.
Resumo:
This research investigates how to obtain accurate and reliable positioning results with global navigation satellite systems (GNSS). The work provides a theoretical framework for reliability control in GNSS carrier phase ambiguity resolution, which is the key technique for precise GNSS positioning in centimetre levels. The proposed approach includes identification and exclusion procedures of unreliable solutions and hypothesis tests, allowing the reliability of solutions to be controlled in the aspects of mathematical models, integer estimation and ambiguity acceptance tests. Extensive experimental results with both simulation and observed data sets effectively demonstrate the reliability performance characteristics based on the proposed theoretical framework and procedures.
Resumo:
The paper presents a geometry-free approach to assess the variation of covariance matrices of undifferenced triple frequency GNSS measurements and its impact on positioning solutions. Four independent geometryfree/ ionosphere-free (GFIF) models formed from original triple-frequency code and phase signals allow for effective computation of variance-covariance matrices using real data. Variance Component Estimation (VCE) algorithms are implemented to obtain the covariance matrices for three pseudorange and three carrier-phase signals epoch-by-epoch. Covariance results from the triple frequency Beidou System (BDS) and GPS data sets demonstrate that the estimated standard deviation varies in consistence with the amplitude of actual GFIF error time series. The single point positioning (SPP) results from BDS ionosphere-free measurements at four MGEX stations demonstrate an improvement of up to about 50% in Up direction relative to the results based on a mean square statistics. Additionally, a more extensive SPP analysis at 95 global MGEX stations based on GPS ionosphere-free measurements shows an average improvement of about 10% relative to the traditional results. This finding provides a preliminary confirmation that adequate consideration of the variation of covariance leads to the improvement of GNSS state solutions.
Resumo:
A new analytical model has been suggested for the hysteretic behaviour of beams. The model can be directly used in a response analysis without bothering to locate the precise point where the unloading commences. The model can efficiently simulate several types of realistic softening hysteretic loops. This is demonstrated by computing the response of cantilever beams under sinusoidal and random loadings. Results are presented in the form of graphs for maximum deflection, bending moment and shear
Resumo:
Les effets des lésions de la moelle épinière sur la locomotion sont souvent évalués sur un tapis roulant avec une surface plane, ce qui demande peu d’implication active des structures supraspinales. L’objectif du présent travail est d’évaluer si un type d’entraînement nécessitant une plus grande part de contrôle volontaire (c.-à-d. supraspinal) pourrait améliorer la récupération de la marche chez le chat après une hémilésion unilatérale spinale au niveau thoracique (T10). Pour ce faire, pendant 6 semaines les chats ont été entrainés sur un tapis roulant conventionnel ou sur un tapis-échelle roulante, tâche requérant un placement des pattes plus précis. Les paramètres de la marche ont été évalués par cinématique et électromyographie (EMG) avant et une fois par semaine pendant 6 semaines après lésion. Nos résultats comparant la marche sur tapis conventionnel à celle sur échelle roulante montrent des différences dans les excursions angulaires et les couplages entre les membres. On observe aussi des différences dans l’amplitude des EMG notamment une augmentation de la deuxième bouffée du muscle Semitendineux (St) sur l’échelle roulante. Après l’hémilésion spinale cette bouffée disparait du côté de la lésion tandis qu’elle est maintenue du côté intact. Après l’entrainement sur échelle roulante, on observe des changements de trajectoire de la patte et une disparition du pied tombant (foot drag) qui suggèrent une amélioration du contrôle de la musculature distale. Nos résultats montrent que le patron locomoteur observé sur tapis conventionnel est influencé par le type d’entraînement procuré. De plus, certains paramètres de la locomotion suggèrent que l’entraînement sur échelle roulante, qui requiert plus de contrôle supraspinal, favorise une meilleure récupération de la marche après lésion spinale.
Resumo:
A caracterização da variabilidade espacial dos atributos do solo é indispensável para subsidiar práticas agrícolas de maneira sustentável. A utilização da geoestatística para caracterizar a variabilidade espacial desses atributos, como a resistência mecânica do solo à penetração (RP) e a umidade gravimétrica do solo (UG), é, hoje, prática usual na agricultura de precisão. O resultado da análise geoestatística é dependente da densidade amostral e de outros fatores, como o método de georreferencimento utilizado. Desta forma, o presente trabalho teve como objetivo comparar dois métodos de georreferenciamento para a caracterização da variabilidade espacial da RP e da UG, bem como a correlação espacial dessas variáveis. Foi implantada uma malha amostral de 60 pontos, espaçados em 20 m. Para as medições da RP, utilizou-se de penetrógrafo eletrônico e, para a determinação da UG, utilizou-se de trado holandês (profundidade de 0,0-0,1 m). As amostras foram georreferenciadas, utilizando-se do método de Posicionamento por Ponto Simples (PPS), com de (retirar) receptor GPS de navegação, e Posicionamento Relativo Semicinemático, com receptor GPS geodésico L1. Os resultados indicaram que o georreferenciamento realizado pelo PPS não interferiu na caracterização da variabilidade espacial da RP e da UG, assim como na estrutura espacial da relação dos atributos.
Resumo:
In the absence of the selective availability, which was turned off on May 1, 2000, the ionosphere can be the largest source of error in GPS positioning and navigation. Its effects on GPS observable cause a code delays and phase advances. The magnitude of this error is affected by the local time of the day, season, solar cycle, geographical location of the receiver and Earth's magnetic field. As it is well known, the ionosphere is the main drawback for high accuracy positioning, when using single frequency receivers, either for point positioning or relative positioning of medium and long baselines. The ionosphere effects were investigated in the determination of point positioning and relative positioning using single frequency data. A model represented by a Fourier series type was implemented and the parameters were estimated from data collected at the active stations of RBMC (Brazilian Network for Continuous Monitoring of GPS satellites). The data input were the pseudorange observables filtered by the carrier phase. Quality control was implemented in order to analyse the adjustment and to validate the significance of the estimated parameters. Experiments were carried out in the equatorial region, using data collected from dual frequency receivers. In order to validate the model, the estimated values were compared with ground truth. For point and relative positioning of baselines of approximately 100 km, the values of the discrepancies indicated an error reduction better than 80% and 50% respectively, compared to the processing without the ionospheric model. These results give an indication that more research has to be done in order to provide support to the L1 GPS users in the Equatorial region.
Resumo:
One of the main drawbacks of the GPS accuracy for L1 users is the error due to ionosphere. This error depends on the total electron content presents in the ionosphere, as well as of the carrier frequency. Some models have been developed to correct GPS observables of the systematic error due to the ionosphere. The model more known and used is the Klobuchar model, which corrected 50-60% of the ionospheric error approximately. Alternatively, IGS (International GNSS Service) also has developed a model called Global Ionospheric Map (GIM). These maps, in format IONEX, are available in the site of the IGS, and one of the applications of them is to correct the GPS observables of the error due to ionosphere. This work aims at evaluating the quality of GPS point positioning using the IGS ionospheric model in the southerm region of Brazil. Tests carried out had shown an average improvement in the horizontal and vertical determination of 44% and 77%, respectively, when GIM is used in the point positioning.
Resumo:
The ionosphere is a major source of systematic error in the GPS observables. As this error is directly proportional to the TEC (Total Electron Content), the quality of GPS positioning (especially with single frequency receivers) can be significantly affected by regular changes of TEC. The ionosphere factor is even more relevant in the Brazilian region, where ionospheric phenomena, such as the Equatorial Anomaly, intensify these variations. Taking the above mentioned factors into account, experiments were conducted in this research to evaluate the daily and seasonal behavior of the TEC and the point positioning with GPS (single frequency) in periods of high and low solar activity in the Brazilian region. The results showed a direct correlation between the decrease in electrons density in the ionosphere (period of low solar activity) and improvement in positioning accuracy, as well as a large influence of Equatorial Anomaly on the results of point positioning.
Resumo:
The present experiment aimed to study the influence of point positioning in an irradiated field to produce a planialtimetric plant. A planialtimetric evaluation was carried out in a 14-acre experimental area with well-defined topographic variations. Planialtimetric maps were designed using manual procedures, Datageosis and Topoesalq. Datageosis built all the curves after numerical surface modeling. Topoesalq provided only height reports and the drawing of curves was done manually. The third method was a manual procedure. Because there were planialtimetry representation differences, longitudinal profiles were used in the sites where there was a great divergence among plants. When obtained profiles and plants were compared, it was verified that the one produced by Datageosis represented the relief plant better. Later, only the irradiated field points were evaluated and each point presented positioned readings before and after each relief map variation. The processing through the three methods resulted in significant plants of the local planialtimetry, according to the control profiles. It was concluded that the planning of the field procedure should be suitable to the posterior treatment method of obtained data in order to make a planialtimetric plant to accord to the evaluated local topography.