968 resultados para Armazenamento de dados
Resumo:
Esta pesquisa trata da memória tendo como campo de observação as entidades de preservação ferroviária enquanto organizações civis juridicamente constituídas que interpelam o poder público à preservação da memória ferroviária. No levantamento inicial foram identificadas 17 entidades, das quais são recortadas duas para aprofundamento da análise: Associação Fluminense de Preservação Ferroviária e o Movimento de Preservação Ferroviária, sediadas na cidade do Rio de Janeiro. A proposta é demonstrar como esses grupos se estruturam em torno dessa memória. Aprofundo o debate sobre a consolidação desse conceito como uma categoria instituída e proponho a reconstrução à luz dos debates atuais. Abordo em maior detalhe duas maneiras pelas quais os grupos entendem preservar a memória ferroviária: a operação de trens turísticos e o patrimônio cultural. Para alcançar seus objetivos esses grupos usam de diversas estratégias que vai da inclusão da comunidade à denúncia aos órgãos responsáveis pelo patrimônio da União, inclusive do direito a preservação da memória ferroviária pelo Estado. Há nesses espaços uma dupla interferência do corpo político e acadêmico que se retroalimentam. Uma das hipóteses é que a extinção da RFFSA intensificou a criação dessas entidades sob a justificativa da perda da identidade do trabalhador ferroviário. Utilizo o método de observação participante, da história oral e da internet – ferramenta comum na divulgação e armazenamento de dados desses grupos. Os referenciais teóricos estão representados nos debates sobre memória, patrimônio cultural e industrial, movimentos sociais, museus e turismo. E, concluo que as entidades são exemplos das formas como a sociedade civil se organiza perante a instituição política. As entidades do Rio contribuem para a preservação de uma parcela daquilo que pode representar uma dada memória ferroviária
Resumo:
O armazenamento de grandes quantidades de informações em bases de dados cria a necessidade de se usar Métodos de Acesso a esses dados de uma forma mais eficiente do que uma busca linear. Dessa forma, diversos Métodos de Acesso vêm sendo propostos há décadas. Desde os mais simples Métodos de Acesso como árvores B até os mais sofisticados Métodos de Acesso Métrico tem-se o mesmo objetivo: a eficiência na consulta. Para cada tipo de dados, para cada tipo de consulta, existe uma diferente forma de acesso mais adequada. Se os dados puderem ser ordenados, pode-se usar uma àrvore B. Na busca por pequenas cadeias de caracteres, pode-se utilizar uma árvore de sufixos. Com a evoluçãocomputacional, não se quer armazenar apenas números ou pequenas seqüências de texto. Já existem diversas bases de dados muito mais complexas, como seqüências de sons, imagens ou até mesmo vídeos armazenados. A complexidade desse tipo de dados e do tipo de consulta feita em cima deles gerou a necessidade de novos Métodos de Acesso. Os chamados Métodos de Acesso Métrico são estruturas capazes de acessar dados bastante complexos, como arquivos multimídia, com uma boa eficiência. Esse tipo de estrutura vem sendo estudada há muitos anos, mas a primeira delas realmente eficaz foi a árvore M. Depois dela, vários outros Métodos de Acesso Métricos surgiram, como a árvore Slim, M2, M+, DF, DBM aprimorando sua estrutura básica Esse trabalho propõe a árvore TM, que inova a forma como os dados são indexados, aprimorando a árvore M. Essa nova estrutura, usa o espaço métrico para a busca dos dados, o que é feito por todos Métodos de Acesso Métricos. Mas sua inovação está na forma como os dados são indexados, usando-se um espaço novo também proposto nesse trabalho, o espaço distorcido. Experimentos mostram uma melhora significativa na eficiência da consulta tanto em quantidade de acesso a disco quando em custo de processamento.
Resumo:
A coleta e o armazenamento de dados em larga escala, combinados à capacidade de processamento de dados que não necessariamente tenham relação entre si de forma a gerar novos dados e informações, é uma tecnologia amplamente usada na atualidade, conhecida de forma geral como Big Data. Ao mesmo tempo em que possibilita a criação de novos produtos e serviços inovadores, os quais atendem a demandas e solucionam problemas de diversos setores da sociedade, o Big Data levanta uma série de questionamentos relacionados aos direitos à privacidade e à proteção dos dados pessoais. Esse artigo visa proporcionar um debate sobre o alcance da atual proteção jurídica aos direitos à privacidade e aos dados pessoais nesse contexto, e consequentemente fomentar novos estudos sobre a compatibilização dos mesmos com a liberdade de inovação. Para tanto, abordará, em um primeiro momento, pontos positivos e negativos do Big Data, identificando como o mesmo afeta a sociedade e a economia de forma ampla, incluindo, mas não se limitando, a questões de consumo, saúde, organização social, administração governamental, etc. Em seguida, serão identificados os efeitos dessa tecnologia sobre os direitos à privacidade e à proteção dos dados pessoais, tendo em vista que o Big Data gera grandes mudanças no que diz respeito ao armazenamento e tratamento de dados. Por fim, será feito um mapeamento do atual quadro regulatório brasileiro de proteção a tais direitos, observando se o mesmo realmente responde aos desafios atuais de compatibilização entre inovação e privacidade.
Resumo:
EMAp - Escola de Matemática Aplicada
Resumo:
Aborda os conceitos iniciais que integram o geoprocessamento e os Sistemas de Informações Geográficas (SIG). Apresenta a definição de geoprocessamento e Sistemas de Informações Geográficas (SIG) e da estrutura de armazenamento dos dados (vetorial e matricial).
Resumo:
Material trata dos conceitos de “Variáveis Compostas Heterogêneas”, mais conhecidas como “registros”. Além dos conceitos teóricos, são apresentados exemplos de utilização de registros nos algoritmos, declaração de variáveis do tipo registro e acesso aos campos de um registro.
Resumo:
Apresentação das principais características das tabelas de ordenação. Esta animação tem por objetivo ilustrar o funcionamento de tabelas sem ordenação. É ilustrada nesta animação como é feito o processo de criação de tabelas sem ordenação, a inserção de dados nesta tabela, bem como a remoção, a atualização e pesquisas dos dados armazenados neste tipo de tabela.
Resumo:
Apresentação dos processos inerentes aos arquivos sem ordenação. Nesta animação é ilustrada como é feita a criação de um arquivo sem ordenação. Os processos de criação de arquivo, inserção, remoção, alteração e busca de dados em arquivos sem ordenação são ilustrados em dois níveis: nível conceitual, em que é mostrada a ideia geral; nível detalhado, em que é ilustrado a relação entre o disco HD e a memória buffer.
Resumo:
Apresentação das principais características das tabelas ordenadas. Esta animação tem por objetivo ilustrar o funcionamento de tabelas ordenadas segundo algum critério de ordenação. É ilustrada nesta animação como é feito o processo de criação de tabelas ordenadas pelo RA do aluno, a inserção de dados nesta tabela, bem como a remoção, a atualização e pesquisas dos dados armazenados neste tipo de tabela.
Resumo:
Nowadays several electronics devices support digital videos. Some examples of these devices are cellphones, digital cameras, video cameras and digital televisions. However, raw videos present a huge amount of data, millions of bits, for their representation as the way they were captured. To store them in its primary form it would be necessary a huge amount of disk space and a huge bandwidth to allow the transmission of these data. The video compression becomes essential to make possible information storage and transmission. Motion Estimation is a technique used in the video coder that explores the temporal redundancy present in video sequences to reduce the amount of data necessary to represent the information. This work presents a hardware architecture of a motion estimation module for high resolution videos according to H.264/AVC standard. The H.264/AVC is the most advanced video coder standard, with several new features which allow it to achieve high compression rates. The architecture presented in this work was developed to provide a high data reuse. The data reuse schema adopted reduces the bandwidth required to execute motion estimation. The motion estimation is the task responsible for the largest share of the gains obtained with the H.264/AVC standard so this module is essential for final video coder performance. This work is included in Rede H.264 project which aims to develop Brazilian technology for Brazilian System of Digital Television
Resumo:
In this work, we propose a two-stage algorithm for real-time fault detection and identification of industrial plants. Our proposal is based on the analysis of selected features using recursive density estimation and a new evolving classifier algorithm. More specifically, the proposed approach for the detection stage is based on the concept of density in the data space, which is not the same as probability density function, but is a very useful measure for abnormality/outliers detection. This density can be expressed by a Cauchy function and can be calculated recursively, which makes it memory and computational power efficient and, therefore, suitable for on-line applications. The identification/diagnosis stage is based on a self-developing (evolving) fuzzy rule-based classifier system proposed in this work, called AutoClass. An important property of AutoClass is that it can start learning from scratch". Not only do the fuzzy rules not need to be prespecified, but neither do the number of classes for AutoClass (the number may grow, with new class labels being added by the on-line learning process), in a fully unsupervised manner. In the event that an initial rule base exists, AutoClass can evolve/develop it further based on the newly arrived faulty state data. In order to validate our proposal, we present experimental results from a level control didactic process, where control and error signals are used as features for the fault detection and identification systems, but the approach is generic and the number of features can be significant due to the computationally lean methodology, since covariance or more complex calculations, as well as storage of old data, are not required. The obtained results are significantly better than the traditional approaches used for comparison
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)