1000 resultados para Arquivos Fotográficos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta investigação procurou problematizar a relação fotografia e cidade, a partir da análise e da interpretação das imagens fotográficas de Porto Alegre veiculadas através dos álbuns editados nas décadas de 1920 e 1930. A partir de metodologia de análisequantitativa e qualitativa, tentou-se verificar a construção de uma visualidade de cidade calcado num imaginário de modernidade urbana. Por um lado, percorreu-se as páginas dos álbuns, tal flâneur percorre as ruas da cidade, buscando a tessitura de uma narrativa orientada pela disposição das imagens e pela relação entre as mesmas no interior de cada conjunto. Para cada um dos três álbuns, nessa direção, foi identificada uma narrativa, denominada olhar dirigido, olhar detido e olhar passageiro. Por outro lado, buscou-se identificar padrões de recorrência temática e formal na totalidade da amostra estudada, partindo-se do pressuposto de que o viés quantitativo permitiria visualizar a formação de sub-conjuntos orientados pela escolha dos motivos fotografados e pela escolha dos atributos estéticos e técnicos ao fotografá-los. As imagens fotográficas, assim, foram interpretadas a partir da relação entre visibilidade e invisibilidade, na qual elementos dissonantes do imaginário em voga são excluídos da cena fotografada, ao passo que outros elementos são valorizados como forma de enaltecer a visualidade propugnada. Por meio da seleção de determinadas imagens e da reunião das mesmas em uma coleção, os álbuns fotográficos, os produtores visuais deram a ver e fizeram ver uma Porto Alegre de feição moderna. Dessa forma, contribuíram para a construção e a veiculação de um imaginário de modernidade urbana, ao mesmo tempo em que contribuíram para enaltecer a memória de uma cidade moderna e propagar o esquecimento de uma cidade de traços coloniais que ainda se mantinham no espaço urbano.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo pretendia identificar o entendimento do cliente da área de business-to-business sobre a qualidade, o sacrifício e o valor percebidos, no processo para a tomada de decisão pela compra de produtos que estão passando pela transição de tecnologia analógica para a tecnologia digital. A pesquisa foi realizada por meio de um censo com as lojas de fotografia localizadas na cidade de São Paulo, consumidoras do produto Minilab Digital. Foi constatado que esse consumidor, por meio da utilização da tecnologia digital, reconhece o valor como vantagem (ganho), e que a estrutura do modelo de Zeithaml (1988) é adequada para esse mercado. Foram observados ainda a qualidade, o sacrifício e o risco percebidos por esse consumidor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A evolução da Computação Baseada em Clusters, impulsionada pelo avanço tecnológico e pelo custo relativamente baixo do hardware de PCs, tem levado ao surgimento de máquinas paralelas de porte cada vez maior, chegando à ordem das centenas e mesmo milhares de nós de processamento. Um dos principais problemas na implantação de clusters desse porte é o gerenciamento de E/S, pois soluções centralizadas de armazenamento de arquivos, como o NFS, rapidamente se tornam o gargalo dessa parte do sistema. Ao longo dos últimos anos, diversas soluções para esse problema têm sido propostas, tanto pela utilização de tecnologias especializadas de armazenamento e comunicação, como RAID e fibra ótica, como pela distribuição das funcionalidades do servidor de arquivos entre várias máquinas, objetivando a paralelização de suas operações. Seguindo essa última linha, o projeto NFSP (NFS Parallèle) é uma proposta de sistema de arquivos distribuído que estende o NFS padrão de forma a aumentar o desempenho das operações de leitura de dados pela distribuição do serviço em vários nós do cluster. Com essa abordagem, o NFSP objetiva aliar desempenho e escalabilidade aos benefícios do NFS, como a estabilidade de sua implementação e familiaridade de usuários e administradores com sua semântica de uso e seus procedimentos de configuração e gerenciamento. A proposta aqui apresentada, chamada de dNFSP, é uma extensão ao NFSP com o objetivo principal de proporcionar melhor desempenho a aplicações que explorem tanto a leitura como a escrita de dados, uma vez que essa última característica não é contemplada pelo modelo original A base para o funcionamento do sistema é um modelo de gerenciamento distribuído de meta-dados, que permite melhor escalabilidade e reduz o custo computacional sobre o meta-servidor original do NFSP, e também um mecanismo relaxado de manutenção de coerência baseado em LRC (Lazy Release Consistency), o qual permite a distribuição do serviço sem acarretar em operações onerosas de sincronização de dados. Um protótipo do modelo dNFSP foi implementado e avaliado com uma série de testes, benchmarks e aplicações. Os resultados obtidos comprovam que o modelo pode ser aplicado como sistema de arquivos para um cluster, efetivamente proporcionando melhor desempenho às aplicações e ao mesmo tempo mantendo um elevado nível de compatibilidade com as ferramentas e procedimentos habituais de administração de um cluster, em especial o uso de clientes NFS padrões disponíveis em praticamente todos os sistemas operacionais da atualidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Analisa a metodologia de organização e descrição de arquivos pessoais do Centro de Pesquisa e História Contemporânea do Brasil (CPDOC) da Fundação Getúlio Vargas (FGV), fazendo um histórico da instituição e uma análise das diferentes versões da metodologia do CPDOC, avaliando a importância que tiveram na evolução da organização e descrição deste tipo de arquivo no Brasil, relacionando-a com o debate teórico e com as normas de descrição arquivística ISAD(G), NOBRADE e ISAAR(CPF).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Atualmente, quando falamos em Internet, não podemos somente pensar em serviços que utilizam correio eletrônico ou acessam informações de sites através de um navegador. Dentre alguns serviços utilizados na Internet, podemos destacar a videoconferência. Videoconferência contempla, além do intercâmbio de áudio e vídeo entre duas pessoas ou grupos, também o compartilhamento de dados. Os serviços e protocolos definidos nas recomendações H.323 (para videoconferência) e T.120 (para a colaboração de dados) do ITU são bastante complexos e ocorrem muitos problemas na sua utilização em redes de pacotes funcionando segundo o princípio de best effort da Internet. Nesta dissertação de mestrado são apresentados alguns resultados do estudo realizado sobre o contexto de videoconferência, suas soluções e protocolos, com ênfase nos protocolos padronizados para colaboração de dados dentro de uma videoconferência e a sua estrutura. Esta dissertação também apresenta uma proposta de solução para uma aplicação que utilize transferência de arquivos nos moldes do padrão ITU T.127, mas que atenda aos requisitos de menor complexidade (tráfego e processamento). A proposta utiliza as estratégias de simplificação dos protocolos usados no contexto de colaboração de dados em ambiente que ainda mantenha compatibilidade com o ambiente T.120 e, sobretudo utilizando a Internet.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Alta disponibilidade (muitas vezes referenciada como HA, de High Availability) é uma característica de sistemas computacionais que são projetados para evitar ao máximo as interrupções, planejadas ou não, na prestação de serviços. Em alta disponibilidade, o ideal é haver poucas falhas e, mesmo quando estas acontecerem, que o seu tempo médio de reparo (ou MTTR, de Mean Time To Repair) seja tão pequeno quanto possível. Sistemas operacionais têm um papel importante em alta disponibilidade, sendo preferível o uso daqueles que possuam sistemas de arquivos seguros e relativamente independentes de ações por agentes humanos para a recuperação. Uma das abordagens para auxiliar a obter-se uma alta disponibilidade em sistemas de arquivos é a do tipo journaling, ou meta-data logging. Existe uma série de sistemas de arquivos para o sistema operacional Linux baseando-se nela, tais como ext3, JFS, ReiserFS e XFS. Este trabalho tem por objetivo propor uma metodologia de validação experimental para avaliar a eficiência do mecanismo para recuperação de sistemas de arquivos baseados em journaling, na ocorrência de falhas. Para isso, a técnica de validação empregada é a da injeção de falhas e o sistema sob teste é uma implementação do XFS. Foram utilizados os recursos de depuração do sistema operacional Linux (que permitem a utilização de métodos para interceptação e manipulação de chamadas de sistema) para a implementação de um injetor de falhas específico para sistemas de arquivos baseados em journaling, o qual foi chamado de FIJI (Fault Injector for Journaling fIlesystems). Manipular os parâmetros de chamadas de sistema (ou system calls) através do FIJI equivale a alterar as requisições feitas ao sistema operacional. A eficiência do mecanismo de journaling é medida injetando-se falhas e medindose o MTTR e a cobertura de falhas. Basicamente, o que procura-se fazer através do injetor de falhas FIJI é ignorar os logs do journaling e manipular uma quantidade de informações diferente daquela que foi solicitada originalmente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mesa redonda com Marcos Galindo Lima, professor da Universidade Federal de Pernambuco; Cláudia Lacombe Rocha, supervisora de Documentos Digitais do Arquivo Nacional, e Verena Alberti, coordenadora de Documentação do CPDOC. O objetivo da mesa é tratar dos desafios do mundo digital nas atividades de preservação, acesso e difusão de acervos, diante dos impactos teórico-metodológicos que vêm incidindo sobre a arquivologia com o advento dos documentos digitais. Seminário Desafios Arquivísticos contemporâneos - seminário em torno dos 40 anos do CPDOC