997 resultados para dados técnicos
Resumo:
Esta pesquisa estuda o Fundo Operação Empresa-FUNDOPEM do Estado do Rio Grande do Sul, visando analisar como a desconcentração industrial foi tratada na sua formulação e execução durante os quatro governos do período de 1988 a 2000. Os dados foram coletados através de análise documental e de entrevistas semi-estruturadas com os Secretários de Estado, responsáveis pela gestão do FUNDOPEM, no período analisado, com representantes de entidades de classe patronal e dos trabalhadores, com representante de organizações de caráter regional e com técnicos do governo estadual. Todos com alto conhecimento do tema e do objeto deste estudo. Constatou-se que o FUNDOPEM tem, nas suas justificativa e nos seus critérios, a tarefa de promover a desconcentração industrial, porém, 74,85% das empresas beneficiadas localizamse na Macro-região Nordeste, no eixo mais industrializado do Estado. Isto revela uma contradição entre a justificativa e a execução do Fundo, questionando as modalidades de concessão, uma vez que a descentralização industrial é apenas um dos fatores de composição do enquadramento perfeito, que concede o volume máximo de benefícios e não é fator excludente de projetos. Mesmo assim, o volume máximo foi concedido a empresas do eixo mais industrializado, mostrando o caráter não diretivo da gestão do FUNDOPEM. Ainda como resultado, discute-se preliminarmente a eficácia e a viabilidade de instrumentos de incentivo fiscal na promoção da desconcentração produtiva que, pelo seu alto custo, são necessariamente seletivos no enquadramento de empresas.
Resumo:
Esta pesquisa tem como tema a avaliação de ferramentas de mineração de dados disponíveis no mercado, de acordo com um site de descoberta do conhecimento, chamado Kdnuggets (http://www.kdnuggets.com). A escolha deste tema justifica-se pelo fato de tratar-se de uma nova tecnologia de informação que vem disponibilizando diversas ferramentas com grandes promessas e altos investimentos, mas que, por outro lado, ainda não é amplamente utilizada pelos tomadores de decisão das organizações. Uma das promessas desta tecnologia é vasculhar grandes bases de dados em busca de informações relevantes e desconhecidas e que não poderiam ser obtidas através de sistemas chamados convencionais. Neste contexto, realizar uma avaliação de algumas destas ferramentas pode auxiliar a estes decisores quanto à veracidade daquilo que é prometido sem ter de investir antes de estar seguro do cumprimento de tais promessas. O foco da pesquisa é avaliar sistemas que permitem a realização da análise de cesta de supermercado (market basket analysis) utilizando bases de dados reais de uma rede de supermercados. Os seus objetivos são: avaliar ferramentas de mineração de dados como fonte de informações relevantes para a tomada de decisão; identificar, através da revisão de literatura, as promessas da tecnologia e verificar se tais promessas são cumpridas pelas ferramentas; identificar e caracterizar ferramentas de mineração de dados disponíveis no mercado e comparar os tipos de resultados gerados pelas diferentes ferramentas e relatar problemas encontrados durante a aplicação destas ferramentas. O desenvolvimento do trabalho segue o método estudo de caso múltiplo: os dados foram coletados a partir da aplicação das ferramentas às bases de dados e da entrevista com tomadores de decisão da empresa. Foram seguidos procedimentos já utilizados de avaliação de sistemas para a realização desta pesquisa. A partir da análise dos dados coletados, pôde-se conhecer alguns problemas apresentados pelas ferramentas e concluiu-se que as ferramentas, que foram utilizadas neste trabalho, não estão prontas para serem disponibilizadas no mercado.
Resumo:
A dimensão de conflito relacionada à problemática ambiental, enquanto um problema social, é o elemento instigador do exercício de pesquisa proposto. Dotada de uma flexibilidade na formulação e estabelecimento de possíveis contornos e de uma inegável presença e relevância no cenário contemporâneo, a disputa pela definição legítima da problemática ambiental instala-se em distintos campos sociais. No presente exercício de pesquisa, a disputa por uma caracterização legítima da problemática ambiental é utilizada como a “porta-de-entrada”, através da qual objetiva-se uma aproximação com a dinâmica de disputa particular do campo tecnocientífico, vinculado às “ciências rurais” e delimitado pelo recorte estadual do Rio Grande do Sul. Pretende-se distinguir os macro posicionamentos envolvidos em uma disputa e, concomitantemente, resgatar estratégias peculiares a cada um destes, destacando a constante interação existente entre as mesmas. Um momento final é reservado à tentativa de estabelecer o vínculo entre uma disputa pela problemática ambiental no campo tecnocientífico e o confronto entre distintas construções da noção de desenvolvimento rural. Foram entrevistados mediadores técnicos gaúchos vinculados às instituições de pesquisa, ensino e extensão considerados de relevância no cenário. Para a seleção dos agentes entrevistados, bem como para a delimitação das instituições, recorreu-se ao auxílio de informantes qualificados. Estabelecido um panorama inicial este foi, freqüentemente, refinado e consagrado na etapa de campo através da confirmação/complementação proporcionada pelos próprios agentes entrevistados. Utilizou-se um roteiro de entrevistas subdividido em quatro blocos: origem e trajetória social; problemática ambiental e agricultura; ciência e tecnologia e desenvolvimento rural. A polaridade principal estabelece-se entre os agentes, dominantes no campo, simpatizantes do modelo de modernização da agricultura e, no pólo oposto, os dominados, partidários da agroecologia. A problemática ambiental é percebida, do lado dos dominantes, sob o ponto de vista dos impactos no meio físico, estes passíveis de serem contornados através de técnicas de menor impacto ambiental e cientificamente embasadas. Já, por parte dos dominados, ressalta-se o elo entre a problemática ambiental e um modelo de modernização da agricultura, este reconhecido como insustentável. A disputa prossegue em um jogo de estratégias em constante interação, tendo por objetivo circunscrever aos domínios de cada grupo as abordagens particulares da problemática ambiental e, em decorrência, a tentativa de dotá-las de autoridade/legitimidade no campo tecnocientífico. Da seqüência de estratégias utilizadas destaca-se o forte apelo, por parte dos dominantes no campo, à denominada “boa ciência”, sendo esta considerada a instância legítima. No pólo oposto, os dominados esforçamse por consagrar sua proposição central, a agroecologia. Igualmente, no exercício discursivo em torno do desenvolvimento rural, os agentes resgatam a polaridade “boa ciência” x agroecologia.
Resumo:
O Resource Description Framework (RDF) é uma infra-estrutura, que possibilita a codificação, troca e reuso de metadata estruturado. Metadata é dados sobre dados. O termo refere a qualquer dado usado para ajudar a identificação, descrição e localização de recursos eletrônicos na rede. O RDF permite adicionar declarações, sinônimos e palavras que não estão presentes nos recursos, mas que são pertinentes a eles. Uma declaração RDF pode ser desenhada usando diagramas de arcos e nodos, onde os nodos representam os recursos e os arcos representam as propriedades nomeadas. O modelo básico consiste em recursos, propriedades e objetos. Todas as coisas sendo descritas pelas declarações RDF são chamadas de recursos. Um recurso pode ser uma página da Web inteira ou um elemento específico HTML ou XML dentro de um documento fonte. Uma propriedade é um aspecto específico, característica, atributo, ou relação usada para descrever um recurso. O objeto pode ser um outro recurso ou um literal. Estas três partes, juntas, formam uma declaração RDF. O resultado do parser para recursos com metadata RDF, é um conjunto de declarações referentes aquele recurso. A declaração destas propriedades e a semântica correspondente delas estão definidas no contexto do RDF como um RDF schema. Um esquema não só define as propriedades do recurso (por exemplo, título, autor, assunto, tamanho, cor, etc.), mas também pode definir os tipos de recursos sendo descritos (livros, páginas Web, pessoas, companhias, etc.). O RDF schema, provê um sistema básico de tipos necessários para descrever tais elementos e definir as classes de recursos. Assim, os recursos constituindo este sistema de tipos se tornam parte do modelo RDF de qualquer descrição que os usa. A geração de modelos RDF pode ser conseguida através de algoritmos implementados com linguagens de programação tradicionais e podem ser embutidos em páginas HTML, documentos XML e até mesmo em imagens. Com relação a modelos em imagens, servidores Web específicos são usados para simular dois recursos sobre o mesmo URI, servindo ora a imagem ora a descrição RDF. Uma alternativa para armazenar e manipular grande quantidade de declarações RDF é usar a tecnologia de banco de dados relacional. Abordagens para armazenar declarações RDF em banco de dados relacional foram propostas, mas todas elas mantêm modelos diversos de diferentes fontes. Critérios de avaliação como tempo de carga, proliferação de tabelas, espaço, dados mantidos e custo de instruções SQL foram definidos. Duas abordagens apresentaram resultados satisfatórios. Com uma nova abordagem proposta por este trabalho se obteve melhores resultados principalmente no aspecto de consultas. A nova proposta provê mecanismos para que o usuário faça seu próprio modelo relacional e crie suas consultas. O conhecimento necessário pelo usuário se limita em parte aos modelos mantidos e ao esquema RDF.
Resumo:
A presente dissertação insere-se no contexto de um projeto global de pesquisa, em desenvolvimento no GESID-PPGA/EA/UFRGS, com a cooperação de algumas universidades estrangeiras. Tal projeto tem como tema a percepção do processo decisório individual e a influência da cultura nacional e da experiência decisória. Para estudar a inter-relação destes assuntos é preciso, antes de mais nada, elaborar um conjunto de instrumentos que permitam investigar a percepção das pessoas sobre a tomada de decisão. Este é o objetivo principal do presente trabalho, que refere-se à primeira fase desse projeto global: a partir da literatura, e do conhecimento de um grupo de pesquisadores, conceber e desenvolver um conjunto de instrumentos (quantitativos e qualitativos) válidos para estudar a decisão. E ainda estabelecer uma metodologia de aplicação desse instrumental, a qual possa determinar uma seqüência (ordem) e forma de aplicação mais adequada. Para tanto, primeiramente foram definidas as 3 questões de pesquisa, que nortearam o desenvolvimento dos instrumentos de pesquisa, as quais deverão ser investigadas no contexto do projeto global de pesquisa, e que podem ser resumidas da seguinte forma: (1) Independentemente da cultura nacional ou do nível de experiência decisória dos indivíduos é possível identificar fatores comuns (passos, princípios, insights) a respeito da forma como as pessoas percebem o processo decisório individual, especialmente se tomado o modelo de processo decisório da “Racionalidade limitada” de Simon (1947) como padrão de comparação? (2) A cultura atua como fator de diferenciação na percepção do processo decisório individual? (3) A Experiência Decisória (vivência) dos indivíduos influencia a forma como eles percebem o processo decisório individual? A definição destas 3 questões de pesquisa possibilitou a concepção dos instrumentos, nos quais posteriormente foi realizada uma validação de conteúdo (por uma comissão de juízes) e de sua seqüência de aplicação (testando-se diferentes ordens), bem como a verificação da sua fidedignidade (através do Teste-reteste). Com este processo obteve-se os seguintes resultados: (1) projeto global consolidado; (2) conjunto de instrumentos de pesquisa concebido e validado; (3) seqüência de aplicação do instrumental definida e validada; (4) quadro de construtos definido fornecendo subsídios para a definição de um protocolo de análise de dados; (5) concepção de um método para verificação da "contaminação" de instrumentos de pesquisa.
Resumo:
Este trabalho tem por objetivo mostrar a adaptação das estratégias de uma empresa fornecedora de equipamentos de transmissão de dados, a PARKS S/A COMUNICAÇÕES DIGITAIS, frente às mudanças do mercado de telecomunicações no Brasil Através de uma análise de caso, evidenciaram-se as mudanças ocorridas no mercado de telecomunicações, a percepção desta empresa para tais mudanças e a orientação estratégica adotada para os seus próprios setores, a saber, o comercial, o industrial, o financeiro, o de recursos humanos e qualidade e o de engenharia. O estudo das mudanças ocorridas neste mercado abrangeu dois períodos, quais sejam, o anterior à privatização e os anos de 1997 até 2000, ressaltando-se, porém, que a análise se centrou neste último, o qual foi analisado mais detalhadamente. Uma vez identificadas as principais mudanças ocorridas na empresa escolhida para o estudo de caso - PARKS S/A Comunicações -, através de observação e da vivência do autor, bem como de contribuições relatadas por colegas da empresa, igualmente participantes do processo, este trabalho analisa estas mudanças uma a uma, mostrando o reflexo das mesmas na estrutura da empresa, procurando explicar como se deu o fenômeno e, assim, contribuindo para a compreensão de processos análogos que venham a ocorrer em um futuro próximo.
Resumo:
Atualmente, o enorme volume de informações armazenadas em bancos de dados de organizações ultrapassa a capacidade dos tradicionais métodos de análise dos dados baseados em consultas, pois eles se tornaram insuficientes para analisar o conteúdo quanto a algum conhecimento implícito e importante na grande massa de dados. A partir disto, a mineração de dados tem-se transformado em um tópico importante de pesquisa, porque provê um conjunto de técnicas e ferramentas capazes de inteligente e automaticamente assistir o ser humano na análise de uma enorme quantidade de dados à procura de conhecimento relevante e que está encoberto pelos demais dados. O presente trabalho se propõe a estudar e a utilizar a mineração de dados considerando os aspectos temporais. Através de um experimento realizado sobre os dados da Secretaria da Saúde do Estado do Rio Grande do Sul, com a aplicação de uma metodologia para a mineração de dados temporais, foi possível identificar padrões seqüenciais nos dados. Este experimento procurou descobrir padrões seqüenciais de comportamento em internações médicas, objetivando obter modelos de conhecimento dos dados temporais e representá-los na forma de regras temporais. A descoberta destes padrões seqüenciais permitiu comprovar tradicionais comportamentos dos tratamentos médicos efetuados, detectar situações anômalas, bem como, acompanhar a evolução das doenças existentes.
Resumo:
Existe uma necessidade latente de pesquisar, filtrar e manipular informações disponíveis em diversos formatos irregulares, entre elas as informações distribuídas na WWW (World Wide Web). Esses tipos de dados são semi-estruturados, pois não possuem uma estrutura explícita e regular, o que dificulta sua manipulação. Este trabalho apresenta como proposta o projeto de uma ferramenta para realizar a extração semântica e semi-automática de dados semi-estruturados. O usuário especifica, através de uma interface visual, um exemplo da estrutura hierárquica do documento e de seu relacionamento com os conceitos da ontologia, gerando uma gramática descritiva da estrutura implícita do mesmo. A partir dessa gramática, a ferramenta realiza a extração dos próximos documentos de forma automática, reestruturando o resultado em um formato regular de dados, neste caso, XML (eXtensible Markup Language). Além da conceituação do método de extração, são apresentados os experimentos realizados com o protótipo da ferramenta, bem como, os resultados obtidos nestes experimentos. Para a construção desta ferramenta, são analisadas características de outros métodos que constituem o estado da arte em extração de dados semi-estruturados.
Resumo:
O presente trabalho de investigação teve o objetivo de analisar a atuação técnica do preparador físico em conjunto com o treinador visando a orientação dos treinamentos das equipes de futebol profissional que participaram do Campeonato Brasileiro da série A, no ano de 2001. Essas equipes, representantes dos maiores clubes de futebol do país, além dos integrantes da comissão técnica, eram compostas pela equipe de apoio e pelos jogadores. Foram observadas que as atividades da comissão técnica em relação aos processos adotados nos períodos de treinamento são determinadas, em uma escala hierárquica, pelo treinador. São as bases teóricas e práticas dos trabalhos técnico-táticos orientados por ele, que condicionam todos os outros procedimentos na orientação dos treinamentos nos microciclos. No primeiro capítulo foram analisadas as estruturas técnicas e organizacionais dos clubes. No segundo, foi abordada a dimensão física no treinamento do futebolista. Já o terceiro capítulo discutiu as características do planejamento anual, destacando as etapas de preparação e competição dos treinamentos. No quarto, foram estudados os componentes técnicos e sua fundamentação teórica e metodológica. Finalmente, no quinto capítulo, foi descrita a organização coletiva das equipes do futebol. O processo de investigação foi desenvolvido através de uma perspectiva de corte qualitativo e caracterizado pelo método descritivo. Foram selecionados (28) vinte e oito clubes da primeira divisão do futebol brasileiro e realizaram-se (28) vinte e oito entrevistas semi-estruturadas com os preparadores físicos titulares desses clubes. Os dados coletados foram agrupados em unidades de significados e posteriormente em categorias de análise. Na interpretação desses dados ficou evidenciada a fragmentação no planejamento e nas ações do preparador físico junto ao treinador no decorrer das etapas do treinamento.
Resumo:
O objetivo dedste trabalho é investigar o projeto de banco de dados aplicado a Sistemas de Informações Geográficas (SIG), mais especificamente, do mapeamento de esquemas conceituais, orientado a objetos, para esquemas lógicos implementados por softwares de SIG comerciais. A transformação dos esquemas conceituais para os lógicos é realizado através da idedntificação de um conjunto de regras genéricas de mapeamento de qualquer esquema concecitual de banco de dados geográficos, baseados em um framework conceitual, para os esquemas lógicos proprietários dos diversos SIG existentes. A concretização desta tarefa de transformação é possível mediante a proposta de um ambiente de suporte. Esse ambiente fornece uma estrutura específica, constituída por uma linguagem formal, definida pelo padrão SAIF (Saptial Archive and Interchange Format), pela ferramenta FME (feature Manipulation Engine) e pela ferramenta CASE Rational Rose v.2000e. O conjunto de regras genéricas elaborado neste trabalho, é composto por dois subconjuntos. O primeiro define regras de correspondência, determinando uma relação entre os conceitos da realidade percebidos pelo Framework conceitual e a linguagem formal apresentada pelo padrão SAIF. O segundo subconjunto define regras de transformação, onde busca-se mapear os conceitos do paradigma da orientação a objetos par aos conceitos relacionais utilizazdos pela maioria dos softwares de SIG, disponíveis no mercado. Com a finalidade de validar a aplicabilidadee deste conjunto de regras de mapeamento e do ambiente de suporte proposto, este trabalho inclui também a implementação de um protótipo, o qual executa a automatização da trasnformação dos esquemas conceituais para os esquemas lógicos de banco de dados geográfico.
Resumo:
O presente trabalho realiza uma validação experimental, através da técnica de injeção de falhas por software, de sistemas de informações que utilizam gerenciadores de banco de dados distribuídos comerciais. Estes experimentos visam a obtenção de medidas da dependabilidade do SGBD utilizado, levantamento do custo de seus mecanismos de tolerância a falhas e a real aplicabilidade de SGBDs comerciais em sistemas de missão crítica. Procurou-se avaliar e validar as ferramentas de injeção de falhas utilizadas, no caso específico deste trabalho a ComFIRM e o FIDe. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho. Em seguida são apresentadas algumas ferramentas de injeção de falhas em sistemas distribuídos, bem como os modelos de falhas em banco de dados distribuídos. São analisados alguns estudos de aplicação de ferramentas de injeção de falhas em bancos de dados distribuídos. Concluída a revisão bibliográfica é apresentado o modelo de software e hardware que foi implementado, destacando o gerador de cargas de trabalho GerPro-TPC e o gerenciador de injeções e resultados GIR. O GerPro-TPC segue as especificações TPC-c para a simulação de um ambiente transacional comercial padrão e o GIR realiza a integração das ferramentas de injeção de falhas utilizadas, bem como a elaboração do cenário de falhas a injetar e a coleta dos resultados das falhas injetadas. Finalmente são descritos os experimentos realizados sobre o SGBD PROGRESS. São realizados 361 testes de injeções de falhas com aproximadamente 43.000 falhas injetadas em experimentos distintos. Utiliza-se dois modelos de falhas: um focado em falhas de comunicação e outro em falhas de hardware. Os erros resultantes das falhas injetadas foram classificados em erros ignorados/mascarados, erros leves, erros graves e erros catastróficos. Dos modelos de falhas utilizados as que mais comprometeram a dependabilidade do SGBD foram as falhas de hardware. As falhas de comunicação somente comprometeram a disponibilidade do sistema alvo.
Resumo:
o objetivo desta pesquisa foi mensurar o grau de importância dos componentes do processo educacional na construção das competências básicas prioritárias para uma instituição de ensino específico. Em virtude do objetivo geral da pesquisa, identificaram-se, também, as competências básicas requeridas dos técnicos de nível médio pelo mercado de trabalho paranaense. No referencial teórico analisou-se a evolução histórica brasileira e o contexto atual para se compreender a necessidade de uma educação eficaz, as competências básicas requeridas dos profissionais de hoje, a educação brasileira e, em especial, a educação profissional- seu histórico nacional e sua situação atual. Por fim, abordou-se nessa revisão, elementos do processo educacional que promovem o desenvolvimento de competências nos ambientes escolares. O método que caracteriza o desenvolvimento da presente pesquisa está fundamentado nos princípios do QFD - Quality Function Deployment. Os dados e informações para consolidar a pesquisa foram obtidos de forma bem diversificada, sendo, basicamente, através de pesquisas qualitativas e quantitativas, com dois públicos distintos: profissionais da área educacional e profissionais do mercado em geral Esta pesquisa utilizou o Centro Estadual de Educação Profissional de Curitiba como um estudo de caso em particular, entretanto seus métodos e grande parte dos resultados obtidos podem ser reutilizados para outras instituições públicas e privadas de ensino, principalmente localizadas no Estado do Paraná. A análise de dados foi efetuada sobre os componentes do processo educacional, que, para esta pesquisa, foram classificados em dois grandes grupos: processo ensino-aprendizagem e recursos, que por sua vez, foram subdivididos em recurso docente, discente, material e de gestão. Com a utilização do QFD, foram estabelecidos graus de importância para os componentes de cada recurso, bem como para os componentes do processo ensino-aprendizagem, o que possibilitou identificar os mais importantes para a construção das competências básicas na instituição de ensino em questão.
Resumo:
A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.
Resumo:
Nos Sistemas de Informação Geográfica (SIG), os aspectos temporais são importantes, principalmente, para representar o histórico de dados georreferenciados. Vários modelos conceituais de dados para SIG propõem classes e operações que permitem representar os aspectos espaciais e temporais das aplicações. Porém, ao nível do modelo interno dos sistemas atuais, as estruturas de dados armazenam e manipulam somente os aspectos espaciais dos dados geográficos, não contemplando os aspectos espaço-temporais propostos nos modelos conceituais. O objetivo desse trabalho é estender estruturas de dados do tipo quadtree para suporte ao armazenamento e à recuperação de dados espaço-temporais.