950 resultados para Design de Comunicação e Novos Media


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esse trabalho é uma imersão em campo, uma pesquisa qualitativa que esteve em contato direto com seu objeto, um grupo de jovens que se autodenominam de ratos. Esses jovens são moradores do Morro da Mangueira, mais precisamente da favela da Candelária, localizada na Zona Norte da cidade do Rio de Janeiro. As questões levantadas estão ligadas às relações sociais do cotidiano, como esses jovens são capazes de utilizar o corpo, em sua plenitude, e as tecnologias de informação e comunicação para construírem suas narrativas. São histórias contadas através das experiências do cotidiano, que os ajudam a demarcar suas territorialidades e os lugares, ambiências compartilhadas pelos afetos e, também, desafetos. Em campo, na Candelária, a pesquisa busca problematizar as relações corporais, o corpo como meio de comunicação em busca de sociabilidade, de reconhecimento social e cultural. A partir de uma questão levantada pelos próprios ratos, durante a pesquisa de campo, se percebeu a necessidade de imergir em um novo suporte de exploração comunicacional, as redes sociais da Internet, uma exploração netnografica. As relações entre os dois campos de exploração e análise foram fundamentais para uma melhor problematização dos processos de comunicação adotados por esses jovens. Foi importante perceber como as relações sociais de amizade, em meio ao grupo de amigos, e a configuração das noções de grupo, tribo e comunidade se configuram a partir da comunicação cotidiana. As análises de campo se basearam pelas apropriações e ressignificações da linguagem comunicativa, do corpo comunicativo e dos usos dos suportes de comunicação tecnológicos

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A relação causal entre métodos de projeto e a usabilidade de produtos de comunicação e informação foi o tema desse estudo que buscou identificar o estado da arte sobre um processo de projeto que resulte em mais usabilidade na web. A partir dessa identificação, avaliou-se as melhorias que poderiam ser adotadas nos processos de desenvolvimento de interfaces utilizados por uma equipe específica da Fundação Oswaldo Cruz (CTIC - Fiocruz). Entendeu-se que um método de projeto deve estar atualizado em relação aos conhecimentos de áreas como a Ergonomia, a Interação Humano-computador e o Design de Interação. Para isso, adotou-se a hipótese de que o processo de projeto deve combinar três aspectos: a) um significativo envolvimento do usuário ao longo do processo; b) o uso de sucessivas iterações para configurar o produto e c) uma combinação mínima de técnicas relacionadas a objetivos específicos de cada fase de uma abordagem de Design Centrado no Usuário. Para contribuir com o desenvolvimento de métodos e técnicas que melhorem a usabilidade, descreveu-se as características dos métodos registrados na literatura e praticados por profissionais externos à Fundação Oswaldo Cruz (Fiocruz). A partir dessas informações, o estudo direcionou-se para o segundo objetivo específico: identificar melhorias nos métodos e técnicas aplicáveis no caso do CTIC Fiocruz. Através da combinação da revisão de literatura e da pesquisa de campo foram produzidas informações sobre tipos de fluxo dos métodos, tipos de envolvimento dos usuários, quantidade e gravidade de problemas de usabilidade observadas pelos profissionais e a validade de base geral de método para diferentes produtos. A primeira rodada de entrevista foi realizada para melhor entender o contexto da hipótese e a relação entre suas variáveis. A segunda rodada identificou as características do processo de projeto utilizado no CTIC. A partir dessas informações, aplicou-se duas técnicas com profissionais externos. Um questionário on-line foi utilizado para levantar informações bem específicas, em sua maioria de características quantitativas. A última técnica aplicada foi um card sorting on-line que apresentou um caso de projeto em que os profissionais indicaram quais técnicas seriam utilizadas diante de dois cenários diferentes: um mais favorável e outro restritivo. A análise demonstrou que a maioria dos profissionais acredita que os problemas de usabilidade são consequência da falta de determinadas abordagens e técnicas. Por isso, esses profissionais combinam fluxos iterativos com um significativo envolvimento do usuário no processo. Foram sugeridas melhorias para o método utilizado no CTIC sintetizadas através de um processo de Design Centrado no Usuário como ponto de partida que aplica o conceito tradicional de usabilidade (performance). Assim que possível, esse processo deve ser aperfeiçoado ao incluir o conceito de experiência do usuário que considera também os aspectos emocionais e hedonômicos na interação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Essa pesquisa inspirou-se nos movimentos sociais recentes relacionados à abertura de materiais digitais para compartilhamento, (re) uso e remixagem no ciberespaço. Assim, partimos da seguinte problemática: como desenvolver atos de currículo capazes de contribuir para a produção de Recursos Educacionais Abertos (REA) para a docência e aprendizagem na cibercultura? O objetivo foi desenvolver um dispositivo-metodológico como ato de currículo que atualiza a pesquisa-formação para o design de situações de aprendizagemensino e de artefatos pedagógicos que contemplem a autoria dos praticantes culturais. Para atingir o proposto, foi desenvolvido um dispositivo que atualiza o método da pesquisa-formação para a docência e aprendizagem na cibercultura (SANTOS, 2005; 2014) com alguns princípios da pesquisa-design (GRAVEMEIJER; COBB, 2006; van den AKKER, 1999; BROWN, 1992; COLLINS, 1992; NEWMAN, 1990; KELLY, 2003; RAMOS; STRUCHINER, 2008) para propiciar a produção de artefatos digitais utilizando os recursos oferecidos pelas plataformas da Web 2.0. A pesquisa-design formação, como método e o design interativo aberto como dispositivo, foram criados com o objetivo de sistematizar o processo de construção e implementação de atos de currículos e arquitetar percursos abertos em plataformas da Web 2.0. A metodologia proposta parte da bricolagem da pesquisa-formação multirreferencial na cibercultura com a pesquisa-design. A pesquisa está estruturada em quatro conceitos-tema importantes: a) educar na cibercultura: mídias em destaque; b) Design na Web 2.0: faça você mesmo e de preferência acompanhado; c) Professor-autor e a sua construção epistemológica e metodológica, e; d) Professor-autor em formação: enunciação, negociação e autoria. Essa pesquisa revelou alguns achados nas dimensões referente ao design como produto e processo, método e atos de currículo, que têm a intenção de contribuir para: a) a sistematização de processos de aprendizagemensino, promovendo a produção de artefatos digitais abertos por professores e alunos; b) o design estrutural e proposicional das atividades pedagógicas; c) a formação de sujeitos-autores na cibercultura. Portanto, esta pesquisa contribuiu para a autorização e autonomização dos praticantes culturais através da metodologia pesquisa-design formação bem como a disponibilização de materiais digitais abertos na cibercultura.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tratando do tema dos meios de comunicação e de seus usos, esta dissertação discute as possíveis transformações nas práticas de leitura diante do surgimento dos novos suportes textuais baseados na tecnologia digital. O estudo mantém seu escopo de análise nas práticas de leitura por lazer estabelecidas em livros impressos e em livros eletrônicos (e-books) que são consumidos em e-readers. Entre outros, discutem-se a questão da linearidade ou fragmentação da leitura, os hábitos de marcações e anotações, locais de leitura e posturas, preferências de suportes. Os dados analisados foram obtidos através de entrevistas com 16 leitores divididos em dois grupos, um de leitores de e-readers e outro de leitores do impresso. Os resultados foram estudados comparativamente e mostram semelhanças e diferenças nas práticas de leituras dos dois grupos, que podem ser associadas à nova tecnologia e ao leitor eletrônico, tanto quanto às intenções e motivos de leitura, ao formato do texto e às particularidades do leitor.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper investigates the design and modelling of an integrated device for acoustic resonance spectroscopy (ARS). Miniaturisation of such platforms can be achieved using MEMS technology thereby enabling scaling of device dimensions to investigate smaller specimens while simultaneously operating at higher frequencies. We propose an integrated device where the transducers are mounted in close proximity with the specimen to be analysed (e.g. by integrating ultrasound transducers within a microfluidic channel). A finite element (FE) model and a simplified analytical model have been constructed to predict the acoustic response of a sample embedded in such a device configuration. A FE simulation is performed in COMSOL by embedding the piezoelectric transducers in representative fluid media. Resonant frequencies associated with the measurement can be extracted from this data. The response of various media modelled through FEA matches with analytical predictions for a range of biological media. A variety of biological media may be identified by using the measured resonant frequencies as a signature of relevant physical characteristics. The paper establishes the modelling basis of an integrated acoustic resonant spectrometer that is then applied to examine the impact of geometrical scaling on system resolution. © 2013 IEEE.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A comparative study was conducted to reveal the differentiate effects of eight different filter media including gravel, zeolites, anthracite, shale, vermiculite, ceramic filter media, blast furnace steel slag and round ceramsite. The study mainly related to the eight different filter media's removal performances of organic matter, nitrogen and phosphorus in the vertical flow constructed wetland simulated system, which treating wastewater at hydraulic loading rate of 1000-2500 mm/d. The results indicated that the removal effects were closely related to the physical and chemical properties of medium materials. Anthracite-filled system had the highest removal rate for the total organic carbon (TOC), up to 70%, and the removal rates of other systems ranged from 20% to 30%. As for the five-day biochemical oxygen demand (BOD5), anthracite-filled and steel slag-filled systems had the highest removal rates, also up to 70%, as well as other systems all exceeded 50%. At the same time, for the total nitrogen (TN) and NH4(+)-N, the zeolites-filled and ceramic-filled systems had the best performances with the removal rates of more than 70%, the other way round, the removal rates of other systems were only about 20%. The distinguishable effects were also observed in removal performances of total phosphorus (TP) and total dissoluble phosphorus (TDP). The removal rates of TP and TDP in steel slag-filled systems were more than 90%, a much higher value, followed by that of the anthracite-filled system, more than 60%, but those of other systems being the less. Our study provided a potential mechanism to optimize the filter media design for the vertical flow constructed wetlands.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this review, the potential of mode-locked lasers based on advanced quantum-dot ( QD) active media to generate short optical pulses is analysed. A comprehensive review of experimental and theoretical work on related aspects is provided, including monolithic-cavity mode-locked QD lasers and external-cavity mode-locked QD lasers, as well as mode-locked solid-state and fibre lasers based on QD semiconductor saturable absorber mirrors. Performance comparisons are made for state-of-the-art experiments. Various methods for improving important characteristics of mode-locked pulses such as pulse duration, repetition rate, pulse power, and timing jitter through optimization of device design parameters or mode-locking methods are addressed. In addition, gain switching and self-pulsation of QD lasers are also briefly reviewed, concluding with the summary and prospects.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tese de Doutoramento apresentada à Universidade Fernando Pessoa como parte dos requisitos para obtenção do grau de Doutor em Ciências da Informação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Monografia apresentada à Universidade Fernando Pessoa para obtenção do grau Licenciada em Ciências Farmacêuticas

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Projeto de Pós-Graduação/Dissertação apresentado à Universidade Fernando Pessoa como parte dos requisitos para obtenção do grau de Mestre em Medicina Dentária

Relevância:

30.00% 30.00%

Publicador:

Resumo:

With the rapid growth of the Internet and digital communications, the volume of sensitive electronic transactions being transferred and stored over and on insecure media has increased dramatically in recent years. The growing demand for cryptographic systems to secure this data, across a multitude of platforms, ranging from large servers to small mobile devices and smart cards, has necessitated research into low cost, flexible and secure solutions. As constraints on architectures such as area, speed and power become key factors in choosing a cryptosystem, methods for speeding up the development and evaluation process are necessary. This thesis investigates flexible hardware architectures for the main components of a cryptographic system. Dedicated hardware accelerators can provide significant performance improvements when compared to implementations on general purpose processors. Each of the designs proposed are analysed in terms of speed, area, power, energy and efficiency. Field Programmable Gate Arrays (FPGAs) are chosen as the development platform due to their fast development time and reconfigurable nature. Firstly, a reconfigurable architecture for performing elliptic curve point scalar multiplication on an FPGA is presented. Elliptic curve cryptography is one such method to secure data, offering similar security levels to traditional systems, such as RSA, but with smaller key sizes, translating into lower memory and bandwidth requirements. The architecture is implemented using different underlying algorithms and coordinates for dedicated Double-and-Add algorithms, twisted Edwards algorithms and SPA secure algorithms, and its power consumption and energy on an FPGA measured. Hardware implementation results for these new algorithms are compared against their software counterparts and the best choices for minimum area-time and area-energy circuits are then identified and examined for larger key and field sizes. Secondly, implementation methods for another component of a cryptographic system, namely hash functions, developed in the recently concluded SHA-3 hash competition are presented. Various designs from the three rounds of the NIST run competition are implemented on FPGA along with an interface to allow fair comparison of the different hash functions when operating in a standardised and constrained environment. Different methods of implementation for the designs and their subsequent performance is examined in terms of throughput, area and energy costs using various constraint metrics. Comparing many different implementation methods and algorithms is nontrivial. Another aim of this thesis is the development of generic interfaces used both to reduce implementation and test time and also to enable fair baseline comparisons of different algorithms when operating in a standardised and constrained environment. Finally, a hardware-software co-design cryptographic architecture is presented. This architecture is capable of supporting multiple types of cryptographic algorithms and is described through an application for performing public key cryptography, namely the Elliptic Curve Digital Signature Algorithm (ECDSA). This architecture makes use of the elliptic curve architecture and the hash functions described previously. These components, along with a random number generator, provide hardware acceleration for a Microblaze based cryptographic system. The trade-off in terms of performance for flexibility is discussed using dedicated software, and hardware-software co-design implementations of the elliptic curve point scalar multiplication block. Results are then presented in terms of the overall cryptographic system.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In the last decade, we have witnessed the emergence of large, warehouse-scale data centres which have enabled new internet-based software applications such as cloud computing, search engines, social media, e-government etc. Such data centres consist of large collections of servers interconnected using short-reach (reach up to a few hundred meters) optical interconnect. Today, transceivers for these applications achieve up to 100Gb/s by multiplexing 10x 10Gb/s or 4x 25Gb/s channels. In the near future however, data centre operators have expressed a need for optical links which can support 400Gb/s up to 1Tb/s. The crucial challenge is to achieve this in the same footprint (same transceiver module) and with similar power consumption as today’s technology. Straightforward scaling of the currently used space or wavelength division multiplexing may be difficult to achieve: indeed a 1Tb/s transceiver would require integration of 40 VCSELs (vertical cavity surface emitting laser diode, widely used for short‐reach optical interconnect), 40 photodiodes and the electronics operating at 25Gb/s in the same module as today’s 100Gb/s transceiver. Pushing the bit rate on such links beyond today’s commercially available 100Gb/s/fibre will require new generations of VCSELs and their driver and receiver electronics. This work looks into a number of state‐of-the-art technologies and investigates their performance restraints and recommends different set of designs, specifically targeting multilevel modulation formats. Several methods to extend the bandwidth using deep submicron (65nm and 28nm) CMOS technology are explored in this work, while also maintaining a focus upon reducing power consumption and chip area. The techniques used were pre-emphasis in rising and falling edges of the signal and bandwidth extensions by inductive peaking and different local feedback techniques. These techniques have been applied to a transmitter and receiver developed for advanced modulation formats such as PAM-4 (4 level pulse amplitude modulation). Such modulation format can increase the throughput per individual channel, which helps to overcome the challenges mentioned above to realize 400Gb/s to 1Tb/s transceivers.