14 resultados para Wilson, Harold

em Repositório Científico do Instituto Politécnico de Lisboa - Portugal


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Recensão crítica do livro "Innis, H.(2011[1951]) O viés da comunicação. Petropólis, Vozes".

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resenha do livro "Innis, H.(2011[1951]) O viés da comunicação. Petropólis, Vozes".

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os contributos para pensar a comunicação, os media e a cultura de Harold A. Innis e Marshall McLuhan foram durante muitas décadas ou praticamente esquecidos ou ignorados, no caso de Innis, ou olhados com desconfiança ou fascínio, no caso de McLuhan, no seio do que se designa hoje por ciências da comunicação. Nos últimos anos, essa situação alterou-se significativamente e hoje Innis desperta um enorme interesse na teoria da comunicação e na economia política dos media. Estes dois autores canadianos, o primeiro escrevendo entre os anos 20 e 40 do século XX e o segundo a partir dos anos 50 e até ao final da década de 70, centraram a sua atenção nas formas/suportes técnicos através dos quais comunicamos e como esses dispositivos produzem efeitos a longo prazo na sociedade, na cultura, na política e na ordem do sensorium humano. Como se está já a ver, ao contrário das tradições mainstream norte-americanas do mesmo período, centradas na análises quantitativas de curto-médio prazo dos efeitos e usos dos contéudos das mensagens, Innis e McLuhan, optaram por formas ensaísticas, de história das civilizações, mobilizando recursos da cultura, da literatura, da economia e da tecnologia, que privilegiam a reflexão de longo prazo (mudanças na ordem social e no sensorium operadas à escala histórica, civilizacional). Embora esta perspectiva de largo alcance temporal tenha tido diversos cultores durante o século XIX e XX, como são exemplos Auguste Comte, Karl Marx, Arnold Toynbee, Oswald Spengler, entre outros, nos estudos de comunicação, ela tinha muito pouca tradição. O impacto destes teóricos radica na introdução na investigação em comunicação e media de uma problemática que durante muito tempo se encontrou ausente da quer na Europa, quer na América do Norte (particularmente nos EUA) que é a relação entre os modos (meios, técnicas) de comunicação e a sociedade. O seu maior contributo para os estudos sociológicos da comunicação foi chamar a atenção para os efeitos a longo prazo das formas técnicas de comunicação na sociedade e na cultura. Pela primeira vez, se questionou a dimensão técnica da comunicação. Ou seja, exploraram a ideia de que as técnicas de comunicação são responsáveis pela configuração das sociedades e da cultura; que os processos de comunicação e as instituições a eles associadas têm efeitos penetrantes na natureza das sociedades e no curso da sua história, erguendo novas constelações culturais; mudam os meios/os suportes técnicos através dos quais comunicamos, muda a cultura, muda a sociedade. Defendem que a história da comunicação é uma das grandes chave da historia universal, o que os faz ler a história universal à luz da história da comunicação. Há quem afirme que exploram uma certa determinação comunicacional da sociedade (perspectiva que já se encontrava presente nos economistas políticos alemães e nos primeiros sociólogos americanos, como Albion Small, William Sumner e Edward Ross, entre outros), segundo a qual a sociedade é um organismo, mas muito mais complexo do que propunha Herbert Spencer, um organismo com formas de consciência forjadas através da comunicação. Eu diria que isto é basicamente aquilo que une estes dois autores, tudo o resto tende a afastá-los como vou tentar mostrar de seguida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pretende-se, utilizando o Modelo da Elasticidade Linear em freeFEM++, determinar os esforços e deslocamentos de um edifício alto submetido apenas à acção do peso próprio da estrutura e, efectuar estudos comparativos dos resultados obtidos com o SAP2000. O trabalho inicia-se com a introdução da teoria da elasticidade linear, onde são feitas as deduções das Equações de Compatibilidade, Equilíbrio e as Leis Constitutivas, de modo a resolver numericamente o problema de Elasticidade Linear mencionado. O método de elementos finitos será implementado em freeFEM++ com auxílio do GMSH que é uma poderosa ferramenta com capacidade de gerar automaticamente malhas tridimensionais de elementos finitos e com relativa facilidade de pré e pós-processamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A perda de visão, causada por ambliopia (0.3%‐4%) e seus fatores de risco como estrabismo (2.1%‐4.6%) e erros refrativos não corrigidos (5%‐7.7%), representa um importante problema de saúde pública. O rastreio visual pré‐escolar é, assim, essencial para a deteção de ambliopia e fatores ambliogénicos (refrativos e estrábicos). Os programas de rastreio visual variam na sua aplicação em muitos países em toda a Europa e não se avalia sistematicamente a eficácia dos mesmos. Por esse motivo, é necessária discussão e reflexão sobre a temática: 1. Quais os programas de rastreio mais apropriados para fornecer um correto e atempado tratamento? 2. Será que os programas de rastreio são adequados para reduzir as desigualdades em saúde e o custo para os sistemas de saúde? Objetivo do estudo - Identificar práticas de referência no âmbito do rastreio visual infantil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Deficiência visual é um problema de saúde mundial que afeta 285 milhões de pessoas, 39 milhões apresentam cegueira e 246 milhões apresentam baixa visão. 65% das pessoas com baixa visão e 82% das pessoas cegas das pessoas apresentam mais de 50 anos de idade. Estima-se que cerca de 80% dos casos sejam preveníveis ou tratáveis. 20% da população residente em Portugal é idosa - mais de dois milhões de pessoas com 65 anos. 21% de pessoas vivem sozinhas em Portugal, maioria delas idosas, e geralmente no interior do país. 50% dos indivíduos submetidos a programas de rastreio visual apresentam alterações reversíveis da função visual, especialmente por não terem o erro refrativo corrigido ou por terem cataratas (deficiência visual reversível). 200.000 pessoas apresentam hipertensão ocular, das quais 1/3 sofre de glaucoma; 6.000 pessoas apresentam cegueira irreversível por glaucoma (esta doença pode ser prevenida através de assistência oftalmológica adequada); 15.000 diabéticos estarão em risco de cegar por retinopatia e maculopatia diabética (pode ser prevenida ou tratada, através de fotocoagulação da retina por laser e/ou por vitrectomia); 35.000 pessoas sofrem de baixa de visão: doenças da retina e da coroideia, nomeadamente DMLI, que afetará 5% das pessoas com mais de 55 anos e uma em cada 10 pessoas com mais de 65 anos; estima-se que 45 mil pessoas sofram de DMI: cerca de 30 mil tem tratamento possivel, que poderá ser determinante para travar a progressão da doenca para um estadio de deficiência visual com consequências nefastas para a qualidade vida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper suggests that the thought of the North-American critical theorist James W. Carey provides a relevant perspective on communication and technology. Having as background American social pragmatism and progressive thinkers of the beginning of the 20th century (as Dewey, Mead, Cooley, and Park), Carey built a perspective that brought together the political economy of Harold A. Innis, the social criticism of David Riesman and Charles W. Mills and incorporated Marxist topics such as commodification and sociocultural domination. The main goal of this paper is to explore the connection established by Carey between modern technological communication and what he called the “transmissive model”, a model which not only reduces the symbolic process of communication to instrumentalization and to information delivery, but also politically converges with capitalism as well as power, control and expansionist goals. Conceiving communication as a process that creates symbolic and cultural systems, in which and through which social life takes place, Carey gives equal emphasis to the incorporation processes of communication.If symbolic forms and culture are ways of conditioning action, they are also influenced by technological and economic materializations of symbolic systems, and by other conditioning structures. In Carey’s view, communication is never a disembodied force; rather, it is a set of practices in which co-exist conceptions, techniques and social relations. These practices configure reality or, alternatively, can refute, transform and celebrate it. Exhibiting sensitiveness favourable to the historical understanding of communication, media and information technologies, one of the issues Carey explored most was the history of the telegraph as an harbinger of the Internet, of its problems and contradictions. For Carey, Internet was seen as the contemporary heir of the communications revolution triggered by the prototype of transmission technologies, namely the telegraph in the 19th century. In the telegraph Carey saw the prototype of many subsequent commercial empires based on science and technology, a pioneer model for complex business management; an example of conflict of interest for the control over patents; an inducer of changes both in language and in structures of knowledge; and a promoter of a futurist and utopian thought of information technologies. After a brief approach to Carey’s communication theory, this paper focuses on his seminal essay "Technology and ideology. The case of the telegraph", bearing in mind the prospect of the communication revolution introduced by Internet. We maintain that this essay has seminal relevance for critically studying the information society. Our reading of it highlights the reach, as well as the problems, of an approach which conceives the innovation of the telegraph as a metaphor for all innovations, announcing the modern stage of history and determining to this day the major lines of development in modern communication systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia de Electrónica e Telecomunicações

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper presents a single precision floating point arithmetic unit with support for multiplication, addition, fused multiply-add, reciprocal, square-root and inverse squareroot with high-performance and low resource usage. The design uses a piecewise 2nd order polynomial approximation to implement reciprocal, square-root and inverse square-root. The unit can be configured with any number of operations and is capable to calculate any function with a throughput of one operation per cycle. The floatingpoint multiplier of the unit is also used to implement the polynomial approximation and the fused multiply-add operation. We have compared our implementation with other state-of-the-art proposals, including the Xilinx Core-Gen operators, and conclude that the approach has a high relative performance/area efficiency. © 2014 Technical University of Munich (TUM).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACT - I will explore and present the portrayal of violence in some British plays that were staged between 1951 and 1965, in order to discuss the role, impact and aim of its representation. Thus, I will consider John Whiting’s Saint’s Day (1951), Ann Jelicoe’s The Sport of my Mad Mother (1956), Arnold Wesker (Chicken Soup with Barley (1958), Harold Pinter’s Birthday Party (1958), David Rudkin’s Afore Night Come (1962) and Edward Bond’s Saved (1965). My aim is to discuss the way how theatre in the post WWII changed the traditional ways of representing violence. On one hand, violence and reality became more and more familiar and domestic, permitting a representation of multiple and non-agonic violence; and, on the other hand, the violence that was depicted often changed the way one perceived reality itself, being part of a socially engaged artistic attitude.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A comunicação apresentada reporta-se a um projeto em curso, que se propõe desenvolver uma análise alargada sobre os conteúdos e os propósitos dos jornais internos no nosso país nos dias de hoje. A finalidade desta comunicação que integra o colóquio de Relações Públicas subordinado ao tema “O Jornal de Empresa ao Serviço da Comunicação”, passa por identificar pela positiva certas caraterísticas que contribuem para o sucesso dos jornais internos (o que fazer, os do’s) e, por contraponto, o que evitar se se pretende alcançar a excelência nas publicações empresariais (o que não fazer, ou seja, os dont’s). O ponto de partida foi a reflexão sobre um conjunto de indicadores que constituem o fundamento da avaliação do júri que preside ao concurso do Grande Prémio da Associação Portuguesa de Comunicação da Empresa (APCE), nomeadamente no que se refere à categoria de “Publicação Interna”. Esta iniciativa foi criada em 1995 para distinguir a excelência na estratégia da comunicação organizacional, estimulando, reconhecendo e divulgando as iniciativas dos profissionais desta área. A ideia e a motivação para este projeto surgem a propósito da realização da exposição “Imprensa Empresarial em Portugal – 145 anos de Jornais de Empresa”, organizada pelo Dr. João Moreira dos Santos, para assinalar os 100 sobre a publicação, em 1915 nos EUA, da primeira obra dedicada aos jornais de empresa, pela mão de George Frederick Wilson, e ao mesmo tempo registar os 20 anos passados sobre a publicação da sua obra “Imprensa Empresarial – Da Informação à Comunicação”. No âmbito desta exposição comemorativa, realizada na Biblioteca Nacional, é dirigido um convite ao Grupo de Trabalho em Comunicação Organizacional e Institucional da SOPCOM (GT COI) e à Associação Portuguesa de Comunicação de Empresa (APCE) para a realização de um colóquio, que em simultâneo aproximasse o passado e o futuro da imprensa empresarial em Portugal e reunisse em debate académicos e responsáveis por publicações internas no mundo empresarial, com o objetivo de promover uma reflecção sobre o percurso, as caraterísticas, as limitações e as potencialidades, a função/utilidade do Jornal de Empresa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recent integrated circuit technologies have opened the possibility to design parallel architectures with hundreds of cores on a single chip. The design space of these parallel architectures is huge with many architectural options. Exploring the design space gets even more difficult if, beyond performance and area, we also consider extra metrics like performance and area efficiency, where the designer tries to design the architecture with the best performance per chip area and the best sustainable performance. In this paper we present an algorithm-oriented approach to design a many-core architecture. Instead of doing the design space exploration of the many core architecture based on the experimental execution results of a particular benchmark of algorithms, our approach is to make a formal analysis of the algorithms considering the main architectural aspects and to determine how each particular architectural aspect is related to the performance of the architecture when running an algorithm or set of algorithms. The architectural aspects considered include the number of cores, the local memory available in each core, the communication bandwidth between the many-core architecture and the external memory and the memory hierarchy. To exemplify the approach we did a theoretical analysis of a dense matrix multiplication algorithm and determined an equation that relates the number of execution cycles with the architectural parameters. Based on this equation a many-core architecture has been designed. The results obtained indicate that a 100 mm(2) integrated circuit design of the proposed architecture, using a 65 nm technology, is able to achieve 464 GFLOPs (double precision floating-point) for a memory bandwidth of 16 GB/s. This corresponds to a performance efficiency of 71 %. Considering a 45 nm technology, a 100 mm(2) chip attains 833 GFLOPs which corresponds to 84 % of peak performance These figures are better than those obtained by previous many-core architectures, except for the area efficiency which is limited by the lower memory bandwidth considered. The results achieved are also better than those of previous state-of-the-art many-cores architectures designed specifically to achieve high performance for matrix multiplication.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Single processor architectures are unable to provide the required performance of high performance embedded systems. Parallel processing based on general-purpose processors can achieve these performances with a considerable increase of required resources. However, in many cases, simplified optimized parallel cores can be used instead of general-purpose processors achieving better performance at lower resource utilization. In this paper, we propose a configurable many-core architecture to serve as a co-processor for high-performance embedded computing on Field-Programmable Gate Arrays. The architecture consists of an array of configurable simple cores with support for floating-point operations interconnected with a configurable interconnection network. For each core it is possible to configure the size of the internal memory, the supported operations and number of interfacing ports. The architecture was tested in a ZYNQ-7020 FPGA in the execution of several parallel algorithms. The results show that the proposed many-core architecture achieves better performance than that achieved with a parallel generalpurpose processor and that up to 32 floating-point cores can be implemented in a ZYNQ-7020 SoC FPGA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sparse matrix-vector multiplication (SMVM) is a fundamental operation in many scientific and engineering applications. In many cases sparse matrices have thousands of rows and columns where most of the entries are zero, while non-zero data is spread over the matrix. This sparsity of data locality reduces the effectiveness of data cache in general-purpose processors quite reducing their performance efficiency when compared to what is achieved with dense matrix multiplication. In this paper, we propose a parallel processing solution for SMVM in a many-core architecture. The architecture is tested with known benchmarks using a ZYNQ-7020 FPGA. The architecture is scalable in the number of core elements and limited only by the available memory bandwidth. It achieves performance efficiencies up to almost 70% and better performances than previous FPGA designs.