854 resultados para Arquitetura de computador
Resumo:
A partir dos avanços obtidos pela industria farmacêutica surgiram diversos medicamentos para o combate de enfermidades. Esses medicamentos possuem efeito tópico similar porém com suaves modificações em sua estrutura bioquímica, com isso a concorrência entre as industrias farmacêuticas se torna cada vez mais acirrada. Como forma de comparar a efetividade desses medicamentos, surgem diversas metodologias, com o objetivo de encontrar qual seria o melhor medicamento para uma dada situação. Uma das metodologias estudadas é a comparação mista de tratamentos, cujo objetivo é encontrar a efetividade de determinadas drogas em estudos e/ou ensaios clínicos que abordem, mesmo que de maneira indireta, os medicamentos estudados. A utilização dessa metodologia é demasiadamente complexa pois requer conhecimento de linguagens de programação em ambientes estatísticos além do domínio sobre as metodologias aplicadas a essa técnica. O objetivo principal desse estudo é a criação de uma interface gráfica que facilite a utilização do MTC para usuários que não possuam conhecimento em linguagens de programação, que seja de código aberto e multiplataforma. A expectativa é que, com essa interface, a utilização de técnicas mais abrangentes e avançadas seja facilitada, além disso, venha tornar o ensinamento sobre o tema mais facilitado para pessoas que ainda não conhecem o método
Resumo:
Esta pesquisa tem como finalidade explorar os recursos de interação do usuário com a informação georreferenciada, utilizando o próprio ambiente físico e seus elementos como interface. A indexação geográfica de arquivos digitais e os recursos disponíveis pela computação móvel estabeleceram um novo modelo de interação com a informação. Cabe ao designer criar sistemas e interfaces que levem em consideração a localização do usuário no acesso da informação atribuída ao entorno. Foi identificado que as soluções desenvolvidas para esse propósito utilizam telas e outros aparatos tecnológicos que constrangem a relação do usuário com o ambiente e interferem na experiência interativa. Como desdobramento da pesquisa foi desenvolvido um aplicativo que dispensa a tela na visualização e interação com a camada informacional do ambiente físico. O sistema utiliza os sensores de localização e orientação presentes nos smartphones para interagir com o entorno mapeado e georreferenciado. Dessa forma, o usuário, ao apontar o aparelho e selecionar diretamente o objeto de interesse, recebe os dados atribuídos a ele. Sem a interferência de telas ou dispositivos imersivos, o próprio ambiente se apresenta como interface de interação, dispensando novos ícones ou símbolos e tornando a tecnologia mais sutil em seu uso cotidiano.
Resumo:
Na atualidade observa-se vastos estudos sobre os processos na área do Design acerca de como projetar experiências e prototipar interações entre pessoas e sistemas, e mesmo entre pessoas por intermédio de sistemas. Enquanto todo tipo de produto produz uma experiência de uso, com a evolução da interatividade as relações estabelecidas entre os usuários e os produtos tornaram-se mais complexas e modificaram-se ao longo dos anos. A abordagem teórica destinada a tratar essas questões também expandiu e diversificou-se simultaneamente. A partir de um estudo sobre os processos interativos e o campo teórico relacionado, foi possível identificar um fenômeno relativamente recente em interfaces nas quais pode ser verificado um alto nível de interação, a saber: os sistemas de recompensa. Cabe salientar que este termo foi emprestado da Neurociência, aonde é utilizado para descrever o circuito responsável pelo gerenciamento do comportamento através da indução de prazer e dor. Portanto, o autor desta dissertação propõe uma acepção do termo no âmbito do design de componentes interativos para designar o artifício, que muitas interfaces atuais incorporaram, de conceder aos usuários a possibilidade de apreciarem, ou não, determinado conteúdo em rede. Assim, pode-se compreender que o emprego do termo aqui é metafórico. Neste processo os usuários podem fornecer outros tipos de feedback ao sistema, como por exemplo um comentário, ou compartilhamento, estimulando assim uma série de desdobramentos interativos e repercussões para a experiência de uso do produto. Este trabalho propõe uma investigação qualitativa sobre as interações concernentes aos sistemas de recompensa, abordando tanto questões objetivas funcionais dos sistemas, quanto questões referentes ao feedback dos usuários. O Facebook será amplamente analisado, por ter sido uma interface pioneira na manipulação dos sistemas de recompensa, na qual estes componentes alcançaram um alto nível de desenvolvimento até este momento. A justificativa para esta pesquisa se deve a dois fatores particularmente relevantes: primeiro, a ausência de conteúdo significativo na literatura relacionada atual. Em segundo lugar, a notável expansão dos sistemas criados com esta finalidade, conforme será demonstrado no estudo. O objetivo deste projeto é compreender de que forma o design dos sistemas de recompensa influenciam o fluxo de interações e o comportamento dos usuários atualmente. Para tanto, esta pesquisa procura verificar como determinados aspectos teóricos do design - dedicados à compreensão da dinâmica de processos interativos - se aplicam a experiências reais de interação no mundo contemporâneo. Por exemplo, diversos modelos e frameworks nas áreas de HCI (Interação Humano-Computador), UX (experiência do usuário), e design de experiências destacam conceitos condizentes com aspectos identificados nos sistemas de recompensa que por sua vez encontram-se em processo de desenvolvimento, guiados por tendências comerciais de uma forma quase que intuitiva, no sentido de que pouca atenção tem sido dada na literatura sobre as bases neuronais que fazem este processo funcionar. Desta forma, pretende-se fornecer subsídios para uma melhor compreensão do impacto que os sistemas de recompensa analisados nesta dissertação desempenham sobre a experiência de uso entre consumidores e produtos delineados dentro deste paradigma
Resumo:
Este estudo tem como objetivo focalizar o Programa Um Computador por Aluno (PROUCA), buscando observar nas práticas pedagógicas de uma escola da rede municipal do Rio de Janeiro os processos de ressignificação e recontextualização, empreendidos naquele espaço. O PROUCA é desenvolvido em âmbito mundial, mas chegou à escola do município do Rio de Janeiro somente em 2010, enquanto a rede estadual já contava com o mesmo em algumas unidades escolares há mais tempo. Embasando-me em autores como McLaren (2000), Geertz (2008), André (2010), dentre outros, desde meados de 2010 e até o final do ano de 2012, foi desenvolvida uma pesquisa de cunho etnográfico na primeira escola do município do Rio de Janeiro a receber o PROUCA. No que se refere aos aspectos metodológicos, além da observação sistemática do cotidiano da Escola Conecta, foram utilizados recursos como conversas informais, entrevistas gravadas e transcritas, fotografias, participação em atividades da escola, além da coleta de informações em bibliografias específicas e consulta das matérias divulgadas pelo site oficial do PROUCA e do site do One Laptop per Child (OLPC), projeto que inspirou o PROUCA. Busco apoio em alguns dos aportes teórico-analíticos da Teoria do Discurso (TD) de Ernesto Laclau (2006, 2010, 2011, 2013) no sentido de fornecer subsídios interpretativos para significantes que aparecem nos discursos que circulavam nos espaços de realização da pesquisa, relacionando-os ao uso das tecnologias. No contato com a Escola, pude observar as dificuldades e as estratégias desenvolvidas para se colocar em prática e utilizar estes equipamentos tanto pelos/as alunos/as quanto pelos/as professores/as e os problemas relacionados à produção de um currículo escolar que atenda à atual política de resultados. Tais propostas apresentam-se vinculadas à idéia de inovação pedagógica e tentando entender como esta inovação de fato se deu, focalizei o caso do PROUCA e seu discurso de inclusão digital, entendendo-o como um discurso híbrido que tenta se fixar como inovador
Resumo:
Jogos educacionais constituem em uma importante ferramenta de ensino na área de Engenharia de Software, onde, muitas vezes, os alunos não passam por nenhum mecanismo de treinamento prático. Um jogo educacional de qualidade tem que ter objetivos educacionais bem definidos, motivar os alunos e efetivar a aprendizagem dos conteúdos. A aplicação de jogos no Ensino de Engenharia de Software deve ser realizada de forma sistemática e controlada com base em avaliação. A técnica Estatística de Experimentação permite a medição e a análise das variáveis envolvidas no processo de aplicação de jogos para que estes possam ser aplicados com qualidade. Para definir melhor os experimentos no uso de jogos para o ensino de Engenharia de Software, este trabalho propõe diretrizes para o planejamento de experimentos em jogos educacionais, de forma que permita verificar a influência e a significância da utilização desses jogos no ensino e aprendizado dos conceitos de Engenharia de Software. Um experimento com o SimulES-W foi realizado seguindo essas diretrizes, onde foi possível ser demonstrada sua aplicabilidade e simplicidade em sua definição. A experiência de uso do SimulES-W mostra que aprender com jogos de computador é divertido, interativo e que, apesar dos resultados obtidos não serem significativos estatisticamente, de certa forma contribui para o ensino da Engenharia de Software, não sendo necessariamente um conhecimento prévio do conteúdo.
Resumo:
Na atualidade observa-se vastos estudos sobre os processos na área do Design acerca de como projetar experiências e prototipar interações entre pessoas e sistemas, e mesmo entre pessoas por intermédio de sistemas. Enquanto todo tipo de produto produz uma experiência de uso, com a evolução da interatividade as relações estabelecidas entre os usuários e os produtos tornaram-se mais complexas e modificaram-se ao longo dos anos. A abordagem teórica destinada a tratar essas questões também expandiu e diversificou-se simultaneamente. A partir de um estudo sobre os processos interativos e o campo teórico relacionado, foi possível identificar um fenômeno relativamente recente em interfaces nas quais pode ser verificado um alto nível de interação, a saber: os sistemas de recompensa. Cabe salientar que este termo foi emprestado da Neurociência, aonde é utilizado para descrever o circuito responsável pelo gerenciamento do comportamento através da indução de prazer e dor. Portanto, o autor desta dissertação propõe uma acepção do termo no âmbito do design de componentes interativos para designar o artifício, que muitas interfaces atuais incorporaram, de conceder aos usuários a possibilidade de apreciarem, ou não, determinado conteúdo em rede. Assim, pode-se compreender que o emprego do termo aqui é metafórico. Neste processo os usuários podem fornecer outros tipos de feedback ao sistema, como por exemplo um comentário, ou compartilhamento, estimulando assim uma série de desdobramentos interativos e repercussões para a experiência de uso do produto. Este trabalho propõe uma investigação qualitativa sobre as interações concernentes aos sistemas de recompensa, abordando tanto questões objetivas funcionais dos sistemas, quanto questões referentes ao feedback dos usuários. O Facebook será amplamente analisado, por ter sido uma interface pioneira na manipulação dos sistemas de recompensa, na qual estes componentes alcançaram um alto nível de desenvolvimento até este momento. A justificativa para esta pesquisa se deve a dois fatores particularmente relevantes: primeiro, a ausência de conteúdo significativo na literatura relacionada atual. Em segundo lugar, a notável expansão dos sistemas criados com esta finalidade, conforme será demonstrado no estudo. O objetivo deste projeto é compreender de que forma o design dos sistemas de recompensa influenciam o fluxo de interações e o comportamento dos usuários atualmente. Para tanto, esta pesquisa procura verificar como determinados aspectos teóricos do design - dedicados à compreensão da dinâmica de processos interativos - se aplicam a experiências reais de interação no mundo contemporâneo. Por exemplo, diversos modelos e frameworks nas áreas de HCI (Interação Humano-Computador), UX (experiência do usuário), e design de experiências destacam conceitos condizentes com aspectos identificados nos sistemas de recompensa que por sua vez encontram-se em processo de desenvolvimento, guiados por tendências comerciais de uma forma quase que intuitiva, no sentido de que pouca atenção tem sido dada na literatura sobre as bases neuronais que fazem este processo funcionar. Desta forma, pretende-se fornecer subsídios para uma melhor compreensão do impacto que os sistemas de recompensa analisados nesta dissertação desempenham sobre a experiência de uso entre consumidores e produtos delineados dentro deste paradigma.
Resumo:
Desde os primórdios da humanidade, a descoberta do método de processamento cerebral do som, e consequentemente da música, fazem parte do imaginário humano. Portanto, as pesquisas relacionadas a este processo constituem um dos mais vastos campos de estudos das áreas de ciências. Dentre as inúmeras tentativas para compreensão do processamento biológico do som, o ser humano inventou o processo automático de composição musical, com o intuito de aferir a possibilidade da realização de composições musicais de qualidade sem a imposição sentimental, ou seja, apenas com a utilização das definições e estruturas de música existentes. Este procedimento automático de composição musical, também denominado música aleatória ou música do acaso, tem sido vastamente explorado ao longo dos séculos, já tendo sido utilizado por alguns dos grandes nomes do cenário musical, como por exemplo, Mozart. Os avanços nas áreas de engenharia e computação permitiram a evolução dos métodos utilizados para composição de música aleatória, tornando a aplicação de autômatos celulares uma alternativa viável para determinação da sequência de execução de notas musicais e outros itens utilizados durante a composição deste tipo de música. Esta dissertação propõe uma arquitetura para geração de música harmonizada a partir de intervalos melódicos determinados por autômatos celulares, implementada em hardware reconfigurável do tipo FPGA. A arquitetura proposta possui quatro tipos de autômatos celulares, desenvolvidos através dos modelos de vizinhança unidimensional de Wolfram, vizinhança bidimensional de Neumann, vizinhança bidimensional Moore e vizinhança tridimensional de Neumann, que podem ser combinados de 16 formas diferentes para geração de melodias. Os resultados do processamento realizado pela arquitetura proposta são melodias no formato .mid, compostas através da utilização de dois autômatos celulares, um para escolha das notas e outro para escolha dos instrumentos a serem emulados, de acordo com o protocolo MIDI. Para tal esta arquitetura é formada por três unidades principais, a unidade divisor de frequência, que é responsável pelo sincronismo das tarefas executadas pela arquitetura, a unidade de conjunto de autômatos celulares, que é responsável pelo controle e habilitação dos autômatos celulares, e a unidade máquina MIDI, que é responsável por organizar os resultados de cada iteração corrente dos autômatos celulares e convertê-los conforme a estrutura do protocolo MIDI, gerando-se assim o produto musical. A arquitetura proposta é parametrizável, de modo que a configuração dos dados que influenciam no produto musical gerado, como por exemplo, a definição dos conjuntos de regras para os autômatos celulares habilitados, fica a cargo do usuário, não havendo então limites para as combinações possíveis a serem realizadas na arquitetura. Para validação da funcionalidade e aplicabilidade da arquitetura proposta, alguns dos resultados obtidos foram apresentados e detalhados através do uso de técnicas de obtenção de informação musical.
Resumo:
Este trabalho apresenta a proposta de um middleware, chamado DistributedCL, que torna transparente o processamento paralelo em GPUs distribuídas. Com o suporte do middleware DistributedCL uma aplicação, preparada para utilizar a API OpenCL, pode executar de forma distribuída, utilizando GPUs remotas, de forma transparente e sem necessidade de alteração ou nova compilação do seu código. A arquitetura proposta para o middleware DistributedCL é modular, com camadas bem definidas e um protótipo foi construído de acordo com a arquitetura, onde foram empregados vários pontos de otimização, incluindo o envio de dados em lotes, comunicação assíncrona via rede e chamada assíncrona da API OpenCL. O protótipo do middleware DistributedCL foi avaliado com o uso de benchmarks disponíveis e também foi desenvolvido o benchmark CLBench, para avaliação de acordo com a quantidade dos dados. O desempenho do protótipo se mostrou bom, superior às propostas semelhantes, tendo alguns resultados próximos do ideal, sendo o tamanho dos dados para transmissão através da rede o maior fator limitante.
Resumo:
O objetivo desta dissertação é avaliar o desempenho de ambientes virtuais de roteamento construídos sobre máquinas x86 e dispositivos de rede existentes na Internet atual. Entre as plataformas de virtualização mais utilizadas, deseja-se identificar quem melhor atende aos requisitos de um ambiente virtual de roteamento para permitir a programação do núcleo de redes de produção. As plataformas de virtualização Xen e KVM foram instaladas em servidores x86 modernos de grande capacidade, e comparadas quanto a eficiência, flexibilidade e capacidade de isolamento entre as redes, que são os requisitos para o bom desempenho de uma rede virtual. Os resultados obtidos nos testes mostram que, apesar de ser uma plataforma de virtualização completa, o KVM possui desempenho melhor que o do Xen no encaminhamento e roteamento de pacotes, quando o VIRTIO é utilizado. Além disso, apenas o Xen apresentou problemas de isolamento entre redes virtuais. Também avaliamos o efeito da arquitetura NUMA, muito comum em servidores x86 modernos, sobre o desempenho das VMs quando muita memória e núcleos de processamento são alocados nelas. A análise dos resultados mostra que o desempenho das operações de Entrada e Saída (E/S) de rede pode ser comprometido, caso as quantidades de memória e CPU virtuais alocadas para a VM não respeitem o tamanho dos nós NUMA existentes no hardware. Por último, estudamos o OpenFlow. Ele permite que redes sejam segmentadas em roteadores, comutadores e em máquinas x86 para que ambientes virtuais de roteamento com lógicas de encaminhamento diferentes possam ser criados. Verificamos que ao ser instalado com o Xen e com o KVM, ele possibilita a migração de redes virtuais entre diferentes nós físicos, sem que ocorram interrupções nos fluxos de dados, além de permitir que o desempenho do encaminhamento de pacotes nas redes virtuais criadas seja aumentado. Assim, foi possível programar o núcleo da rede para implementar alternativas ao protocolo IP.
Resumo:
A busca do homem pela reprodução do movimento através das imagens é antiga. Tão antiga que é difícil fixar uma data para marcar a invenção do cinema. Para a indústria cinematográfica comercial, no entanto, esse marco costuma ser definitivo: o dia 28 de dezembro de 1895, por ocasião da primeira exibição pública paga de filmes dos Irmãos Lumiére com seu cinematógrafo. Mas o que parece ser inaugurado aí não é simplesmente uma técnica ilusória de reprodução do movimento, e sim um conceito de espetáculo que se sedimentou durante os dez ou vinte anos seguintes. Graças a interesses econômicos e ideológicos, o cinema passou de um exercício de escrita do movimento com a luz, para uma gramática muito bem sedimentada e padronizada. Junto com esse modelo de narrativa, determinou-se também a situação-cinema. Nela, o público é submetido a uma arquitetura de espectação estanque, que favorece a inatividade motora e a concentração na obra em detrimento da interação social e de uma postura participativa do espectador. Desde o surgimento da televisão e da videografia, porém, essa situação-cinema vem sendo contestada. Com essas novas tecnologias, seguidas pelo advento dos aparatos digitais, o audiovisual deixou de estar confinado às salas escuras, poltronas confortáveis e telas brancas. Todo e qualquer ambiente passou a ser uma paisagem de exibição audiovisual em potencial. Essa ruptura, por suas características estéticas, sociais, culturais, acabou encontrando na arte um campo de expansão. Ao longo dos últimos sessenta anos, a quantidade de aparelhos audiovisuais em circulação, portáteis, interativos só cresce. O resultado é que o audiovisual se tornou nosso principal meio para trocas de informações de toda ordem textual, visual, sonora etc. No seu dia-a-dia, o ser humano transita velozmente entre espaço físico e ciberespaço sem qualquer constrangimento. A materialidade é sempre um estímulo para acessar a virtualidade e vice-versa. Diante desse contexto cultural contemporâneo, de onipresença do audiovisual e de permanente troca entre essas duas janelas, é que este trabalho se posiciona. A busca aqui é por desvendar o ponto em que as duas dimensões de espaço e tempo se tangenciam e se mesclam. Deixam de ser ou para se tornar e. O pano de fundo para esse mergulho é justamente um exercício de exploração da potencialidade estética e criativa da exibição audiovisual entre todos os seus elementos constitutivos, incluindo aí o espectador participador. Assim se criam os cinemas para paisagens
Resumo:
O uso de sistemas computacionais para armazenamento, tratamento de dados e produção de informação, disseminou-se de maneira crescente nos últimos anos, e neste cenário estão incluídos os Sistemas de Informações Geográficas, os SIGs. A utilização de informação geográfica com acesso por computador é hoje a realidade de ambientes corporativos, entidades governamentais, escolas e residências. Esta dissertação apresenta uma proposta de modelagem de elementos de zoneamento urbano, baseada em uma ontologia de domínio. Ontologias são representadas como classes e atributos de um dado domínio. Na proposta apresentada, estas classes são exportadas para o formato XMI, resguardando as definições de classes, atributos e relacionamentos do domínio analisado e compondo um repositório de classes, permitindo, teoricamente, sua reutilização. Como exemplo da proposta, foi construída uma ontologia do Zoneamento Urbano do município de Macaé-RJ, seguindo a proposta do Plano Diretor Municipal, usando o editor Protégé. A ontologia construída foi exportada para o formato XMI, sendo a seguir criado um diagrama de classes, obtido através da importação das classes pelo software para modelagem de sistemas baseados no paradigma da OO, ArgoUML. Tal importação permite que a ontologia construída fique disponível na forma de um pacote de classes, que pode ser utilizado por aplicações que se baseiem no paradigma da OO para o desenvolvimento de sistemas de informação. Como forma de mostrar a utilização destas classes foi desenvolvido um protótipo utilizando o software ALOV Map, que oferece a visualização destas classes, na Web, como mapas temáticos.
Resumo:
A renderização de volume direta tornou-se uma técnica popular para visualização volumétrica de dados extraídos de fontes como simulações científicas, funções analíticas, scanners médicos, entre outras. Algoritmos de renderização de volume, como o raycasting, produzem imagens de alta qualidade. O seu uso, contudo, é limitado devido à alta demanda de processamento computacional e o alto uso de memória. Nesse trabalho, propomos uma nova implementação do algoritmo de raycasting que aproveita a arquitetura altamente paralela do processador Cell Broadband Engine, com seus 9 núcleos heterogêneos, que permitem renderização eficiente em malhas irregulares de dados. O poder computacional do processador Cell BE demanda um modelo de programação diferente. Aplicações precisam ser reescritas para explorar o potencial completo do processador Cell, que requer o uso de multithreading e código vetorizado. Em nossa abordagem, enfrentamos esse problema distribuindo a computação de cada raio incidente nas faces visíveis do volume entre os núcleos do processador, e vetorizando as operações da integral de iluminação em cada um. Os resultados experimentais mostram que podemos obter bons speedups reduzindo o tempo total de renderização de forma significativa.
Resumo:
Com a entrada em vigor do Protocolo de Quioto, intensificam-se as expectativas pela regulamentação de um mercado de créditos de carbono. No caso de esses créditos terem sua origem em projetos de reflorestamento ou de florestamento, conforme previsto pelos chamados Mecanismos de Desenvolvimento Limpo (MDL), vem a ser fundamental o estabelecimento de uma metodologia para quantificação de estoques de carbono armazenados sob a forma de biomassa vegetal. Este trabalho propõe, como um método informatizado para cálculo de estoque de carbono em florestas, um conjunto de funcionalidades e um modelo de dados cadastrais totalmente integrados com um Sistema de Informações Geográficas de arquitetura aberta. A partir de mapas e imagens geo-referenciadas e com base em dados obtidos de pequenos transectos, o sistema calcula a quantidade total de carbono estocada em toda a floresta. Além de permitir apresentar esses resultados para diferentes agentes armazenadores de carbono, como, por exemplo, segmentos de floresta ou cada espécie vegetal, o sistema mantém registro histórico de dados dendrométricos, o que virá permitir a geração de gráficos de curvas de crescimento e, por conseguinte, estimativas futuras.
Resumo:
Na década de 80, o surgimento de programas de computadores mais amigáveis para usuários e produtores de informação e a evolução tecnológica fizeram com que as instituições, públicas e privadas, se aperfeiçoassem em estudos sobre sistemas de produção cartográfica apoiados por computador, visando a implementação de Sistemas de Informação Geográfica (SIG). A pouca simultaneidade de forças entre órgãos interessados, resultou em uma grande quantidade de arquivos digitais com a necessidade de padronização. Em 2007, a Comissão Nacional de Cartografia (CONCAR) homologou a Estrutura de Dados Geoespaciais Vetoriais (EDGV) a fim de minimizar o problema da falta de padronização de bases cartográficas. A presente dissertação tem como foco elaborar uma metodologia de trabalho para o processo de conversão de bases cartográficas digitais existentes no padrão da Mapoteca Topográfica Digital (MTD), do Instituto Brasileiro de Geografia e Estatística (IBGE), para o padrão da EDGV, bem como suas potencialidades e limitações para integração e padronização de bases cartográficas digitais. Será feita uma aplicação da metodologia utilizando a carta topográfica de Saquarema, na escala de 1:50.000, vetorizada na Coordenação de Cartografia (CCAR) do IBGE e disponível na Internet. Como a EDGV foi elaborada segundo técnicas de modelagem orientada a objetos, foi necessário um mapeamento para banco de dados relacional, já que este ainda é utilizado pela maioria dos usuários e produtores de informação geográfica. Um dos objetivos específicos é elaborar um esquema de banco de dados, ou seja, um banco de dados vazio contendo todas as classes de objetos, atributos e seus respectivos domínios existentes na EDGV para que possa ser utilizado no processo de produção cartográfica do IBGE. Este esquema conterá todas as descrições dos objetos e de seus respectivos atributos, além de já permitir que o usuário selecione o domínio de um determinado atributo em uma lista pré definida, evitando que ocorra erro no preenchimento dados. Esta metodologia de trabalho será de grande importância para o processo de conversão das bases cartográficas existentes no IBGE e, com isso, gerar e disponibilizar bases cartográficas no padrão da EDGV.
Resumo:
Com o objetivo de investigar as relações da comunicação com o espaço urbano, a presente dissertação se debruça sobre o bairro de Marechal Hermes, localizado na zona norte do Rio de Janeiro. Parte da abordagem da história cultural para refletir sobre as cidades, como propõe Sandra Pesavento, buscando perceber a urbe em suas três dimensões: materialidade, sociabilidade e sensibilidade. O primeiro aspecto atribui relevância ao fato de Marechal Hermes ser um bairro centenário, com uma morfologia singular boa parte do seu traçado e arquitetura originais são ainda mantidos, a despeito das interferências dos usuários. Assim, o bairro acumula diferentes registros, guardando uma memória de múltiplas temporalidades e possibilidades narrativas. A sociabilidade no bairro se manifesta nas práticas de ocupação do espaço e numa convivência cotidiana que se estabelece em relações diretas laços familiares, de amizade, vizinhança mas também em interações que se dão pelas redes de tecnologia e comunicação. Há uma tessitura de vozes consonantes e dissonantes, que não excluem divergências e tensões, mas focalizam sempre o sentido do comum. Tais redes de relações se complementam com as imagens construídas pelo cinema e pela TV, uma vez que o bairro tem sido cenário frequente de inúmeras produções da indústria audiovisual, como filmes, novelas e seriados. Veiculadas na grande mídia e consumidas de maneira peculiar pelos moradores, essas imagens se integram a um imaginário partilhado que legitima o valor do lugar distinguindo sua materialidade e seu espírito. Com um olhar de dentro, buscando sempre a perspectiva dos moradores, manifesta-se neste trabalho passado e presente, num instantâneo de Marechal Hermes que perscruta o futuro em novos sonhos para o lugar