957 resultados para Biased Innovations


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A cada instante surgem novas soluções de aprendizagem, resultado da evolução tecnológica constante com que nos deparamos. Estas inovações potenciam uma transmissão do conhecimento entre o educador e o educando cada vez mais simplificada, rápida e eficiente. Alguns destes avanços têm em vista a centralização no aluno, através da delegação de tarefas e da disponibilização de conteúdos, investindo na autonomia e na auto-aprendizagem, de modo a que cada aluno crie o seu próprio método de estudo, e evolua gradualmente, com o acompanhamento de um professor ou sistema autónomo de aprendizagem. Com esta investigação, é pretendido fazer um estudo dos métodos de aprendizagem ao longo do tempo até à actualidade, enumerando algumas das ferramentas utilizadas no processo de aprendizagem, indicando os vários benefícios, bem como contrapartidas do uso das mesmas. Será também analisado um caso de estudo baseado numa destas ferramentas, descrevendo o seu funcionamento e modo de interacção entre as várias entidades participantes, apresentando os resultados obtidos. O caso de estudo consistirá na criação de um cenário específico de aprendizagem, na área da saúde, analisando-o em diferentes contextos, e evidenciando as características e benefícios de cada ambiente analisado, no processo aprendizagem. Será então demonstrado como é possível optimizar os processos de aprendizagem, utilizando ferramentas de informatização e automatização desses mesmos processos, de forma tornar o processo de ensino mais célere e eficaz, num ambiente controlável, e com as funcionalidades que a tecnologia actual permite.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Actualmente verifica-se que a complexidade dos sistemas informáticos tem vindo a aumentar, fazendo parte das nossas ferramentas diárias de trabalho a utilização de sistemas informáticos e a utilização de serviços online. Neste âmbito, a internet obtém um papel de destaque junto das universidades, ao permitir que alunos e professores possam interagir mais facilmente. A internet e a educação baseada na Web vêm oferecer acesso remoto a qualquer informação independentemente da localização ou da hora. Como consequência, qualquer pessoa com uma ligação à internet, ao poder adquirir informações sobre um determinado tema junto dos maiores peritos, obtém vantagens significativas. Os laboratórios remotos são uma solução muito valorizada no que toca a interligar tecnologia e recursos humanos em ambientes que podem estar afastados no tempo ou no espaço. A criação deste tipo de laboratórios e a sua utilidade real só é possível porque as tecnologias de comunicação emergentes têm contribuído de uma forma muito relevante para melhorar a sua disponibilização à distância. A necessidade de criação de laboratórios remotos torna-se imprescindível para pesquisas relacionadas com engenharia que envolvam a utilização de recursos escassos ou de grandes dimensões. Apoiado neste conceito, desenvolveu-se um laboratório remoto para os alunos de engenharia que precisam de testar circuitos digitais numa carta de desenvolvimento de hardware configurável, permitindo a utilização deste recurso de uma forma mais eficiente. O trabalho consistiu na criação de um laboratório remoto de baixo custo, com base em linguagens de programação open source, sendo utilizado como unidade de processamento um router da ASUS com o firmware OpenWrt. Este firmware é uma distribuição Linux para sistemas embutidos. Este laboratório remoto permite o teste dos circuitos digitais numa carta de desenvolvimento de hardware configurável em tempo real, utilizando a interface JTAG. O laboratório desenvolvido tem a particularidade de ter como unidade de processamento um router. A utilização do router como servidor é uma solução muito pouco usual na implementação de laboratórios remotos. Este router, quando comparado com um computador normal, apresenta uma capacidade de processamento e memória muito inferior, embora os testes efectuados provassem que apresenta um desempenho muito adequado às expectativas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na história da comunicação moderna, após o desenvolvimento da imprensa, o telégrafo desencadeou uma revolução nas comunicações da qual a Internet é a herdeira contemporânea. A reflexão sobre o telégrafo pode abrir perspectivas sobre as tendências, as possibilidades e os problemas colocados pela Internet. O telégrafo tem sido objecto de estudos que tendem a privilegiar sobretudo a história desta tecnologia, o contexto social e o seu significado institucional (ex. Thompson, 1947; Standage 2007 [1998]). James W. Carey, no seu ensaio “Technology and Ideology. The Case of the Telegraph”, propõe uma abordagem distinta. No telégrafo, vê o protótipo de muitos impérios comerciais de base científico-tecnológica que se lhe seguiram, um modelo pioneiro para a gestão de empresas complexas; um dos promotores da configuração nacional do mercado e de um sistema nacional de comunicações; e um catalisador de um pensamento futurista e utópico das tecnologias da informação. Tendo no horizonte a revolução das comunicações promovida pela Internet, o artigo revisita aquele ensaio seminal para explorar o alcance, mas também os problemas de uma perspectiva que concebe a inovação do telégrafo como uma metáfora para todas as inovações que anunciaram o período histórico da modernidade e que tem determinado até aos nossos dias as principais linhas de desenvolvimento das comunicações modernas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No passado, as acções publicitárias eram rotuladas como above the line e below the line, referindo-se à dicotomia de pontos de contacto com os públicos-alvo via Meios de Comunicação Social ou via Ponto de Venda. A esta dicotomia de meios e instrumentos, os anos 90 vieram trazer um terceiro ponto de contacto, crescentemente omnipresente e hegemónico, a world wide web ou rede, a que se acedia via computador. As acções de marketing e comunicação passaram então a rotular-se como online e offline, passando, não já a referir-se aos pontos de contacto, mas aos canais pelos quais circulavam as mensagens e acções das marcas. Desde o início deste século, o poder do digital veio crescendo, em software e hardware, em terminais e tecnologias, assistindo-se a uma transferência de esforços de comunicação, da esfera real para a esfera do digital. O deslumbramento pelo digital conquistou mesmo algumas marcas de dimensão mundial que hoje apostam integralmente o seu orçamento nesta forma de marketing, nas suas múltiplas facetas. Contudo, e porque se tem tornado óbvio que os públicos distribuem os seus favores por múltiplos touch points, para maximizar o impacto, assiste-se agora a um fenómeno único, potenciado por novas tecnologias que surgem todos os dias: em estratégias que se podem denominar de all-line, verifica-se a fusão entre dois mundos, mundo real e mundo digital, em múltiplas actividades de marketing que fazem convergir estas duas realidades em plataformas que vão do computador ao tablet, do smartphone à vending machine interactiva, do facebook ao Google maps, da imprensa tradicional ao pinterest. É esta convergência mundo real - mundo digital que abre agora novas oportunidades à comunicação publicitária, potenciando os ingredientes das marcas de sucesso no futuro: sensações (estímulo dos sentidos), intimidade e mistério, num cocktail suportado por uma nova criatividade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper suggests that the thought of the North-American critical theorist James W. Carey provides a relevant perspective on communication and technology. Having as background American social pragmatism and progressive thinkers of the beginning of the 20th century (as Dewey, Mead, Cooley, and Park), Carey built a perspective that brought together the political economy of Harold A. Innis, the social criticism of David Riesman and Charles W. Mills and incorporated Marxist topics such as commodification and sociocultural domination. The main goal of this paper is to explore the connection established by Carey between modern technological communication and what he called the “transmissive model”, a model which not only reduces the symbolic process of communication to instrumentalization and to information delivery, but also politically converges with capitalism as well as power, control and expansionist goals. Conceiving communication as a process that creates symbolic and cultural systems, in which and through which social life takes place, Carey gives equal emphasis to the incorporation processes of communication.If symbolic forms and culture are ways of conditioning action, they are also influenced by technological and economic materializations of symbolic systems, and by other conditioning structures. In Carey’s view, communication is never a disembodied force; rather, it is a set of practices in which co-exist conceptions, techniques and social relations. These practices configure reality or, alternatively, can refute, transform and celebrate it. Exhibiting sensitiveness favourable to the historical understanding of communication, media and information technologies, one of the issues Carey explored most was the history of the telegraph as an harbinger of the Internet, of its problems and contradictions. For Carey, Internet was seen as the contemporary heir of the communications revolution triggered by the prototype of transmission technologies, namely the telegraph in the 19th century. In the telegraph Carey saw the prototype of many subsequent commercial empires based on science and technology, a pioneer model for complex business management; an example of conflict of interest for the control over patents; an inducer of changes both in language and in structures of knowledge; and a promoter of a futurist and utopian thought of information technologies. After a brief approach to Carey’s communication theory, this paper focuses on his seminal essay "Technology and ideology. The case of the telegraph", bearing in mind the prospect of the communication revolution introduced by Internet. We maintain that this essay has seminal relevance for critically studying the information society. Our reading of it highlights the reach, as well as the problems, of an approach which conceives the innovation of the telegraph as a metaphor for all innovations, announcing the modern stage of history and determining to this day the major lines of development in modern communication systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the history of modern communication, after the development of the printing press, the telegraph unleashed a revolution in communications. Today, Internet is in many ways its heir. Reflections on the telegraph may open up perspectives concerning tendencies, possibilities and pitfalls of the Internet. The telegraph has been well explored in important literature on communication and media which tends to emphasize the history of this technology, its social context and institutional meaning [e.g. Robert L. Thompson, 1947, Tom Standage, 2007 [1998]. James W. Carey, the North- American critical cultural studies' mentor, in his essay "Technology and Ideology. The Case of the Telegraph" (2009 [1983]), suggests a distinctive approach. In the telegraph, Carey sees the prototype of many subsequent commercial empires based on science and technology, a pioneer model for complex business management; an example of interest struggle for the patents control; an inductor of changes both in language and in structures of knowledge; and a promoter of a futurist and utopian thought of information technologies. Having in mind a revolution in communications promoted by the Internet, this paper revisits this seminal essay to explore its great attainment, as well as the problems of this kind of approach which conceives the innovation of the telegraph as a metaphor for all the innovations announcing the modern stage of history and determining still today the major lines of development in modern communication systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O tema do sistema de automação da protecção diferencial de linha e comparação direccional é merecedor de uma nova abordagem devido às recentes inovações tecnológicas ocorridas desde o aparecimento dos relés digitais e à consequente comunicação entre os sistemas de protecção, em particular na comunicação entre protecções diferenciais de linha. A protecção diferencial de linha apresenta claras vantagens face às protecções actualmente utilizadas para a protecção de linhas de transmissão e distribuição, tais como, Protecção de Máximo Intensidade de Fase, Máximo Intensidade Homopolar Direccionale Protecção de Distância. Contudo, existem alguns problemas associados a este tipo de protecções, nomeadamente na comunicação entre relés. Para automação e comunicação de protecções diferenciais de linhas de transmissão, no caso da ocorrência de defeitos na zona protegida pelo sistema de protecção diferencial foi empregue um método inovador para este tipo de sistema. Uma vez que a eficácia da actuação das protecções diferenciais depende do rigor das variáveis que são necessárias enviar entre protecções que se encontram localizadas em subestações distintas, recorreu-se à utilização de um automatismo para comunicação entre relés suportado pelo desenvolvimento de novos algoritmos para detectar quase instantaneamente um defeito em qualquer zona de protecção de uma linha de transmissão. Estes algoritmos são baseados na Transformada de Park, pelo que, é introduzido um novo conceito neste tipo de protecções. Através destes algoritmos é possível atenuar os problemas associados à protecção diferencial de linha. No sentido de verificar a aplicabilidade destes algoritmos à protecção diferencial de linha são apresentados diversos casos de estudo. Através dos resultados obtidos também foi possível verificar as vantagens associadas à utilização dos algoritmos propostos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Não existe uma definição única de processo de memória de longo prazo. Esse processo é geralmente definido como uma série que possui um correlograma decaindo lentamente ou um espectro infinito de frequência zero. Também se refere que uma série com tal propriedade é caracterizada pela dependência a longo prazo e por não periódicos ciclos longos, ou que essa característica descreve a estrutura de correlação de uma série de longos desfasamentos ou que é convencionalmente expressa em termos do declínio da lei-potência da função auto-covariância. O interesse crescente da investigação internacional no aprofundamento do tema é justificado pela procura de um melhor entendimento da natureza dinâmica das séries temporais dos preços dos ativos financeiros. Em primeiro lugar, a falta de consistência entre os resultados reclama novos estudos e a utilização de várias metodologias complementares. Em segundo lugar, a confirmação de processos de memória longa tem implicações relevantes ao nível da (1) modelação teórica e econométrica (i.e., dos modelos martingale de preços e das regras técnicas de negociação), (2) dos testes estatísticos aos modelos de equilíbrio e avaliação, (3) das decisões ótimas de consumo / poupança e de portefólio e (4) da medição de eficiência e racionalidade. Em terceiro lugar, ainda permanecem questões científicas empíricas sobre a identificação do modelo geral teórico de mercado mais adequado para modelar a difusão das séries. Em quarto lugar, aos reguladores e gestores de risco importa saber se existem mercados persistentes e, por isso, ineficientes, que, portanto, possam produzir retornos anormais. O objetivo do trabalho de investigação da dissertação é duplo. Por um lado, pretende proporcionar conhecimento adicional para o debate da memória de longo prazo, debruçando-se sobre o comportamento das séries diárias de retornos dos principais índices acionistas da EURONEXT. Por outro lado, pretende contribuir para o aperfeiçoamento do capital asset pricing model CAPM, considerando uma medida de risco alternativa capaz de ultrapassar os constrangimentos da hipótese de mercado eficiente EMH na presença de séries financeiras com processos sem incrementos independentes e identicamente distribuídos (i.i.d.). O estudo empírico indica a possibilidade de utilização alternativa das obrigações do tesouro (OT’s) com maturidade de longo prazo no cálculo dos retornos do mercado, dado que o seu comportamento nos mercados de dívida soberana reflete a confiança dos investidores nas condições financeiras dos Estados e mede a forma como avaliam as respetiva economias com base no desempenho da generalidade dos seus ativos. Embora o modelo de difusão de preços definido pelo movimento Browniano geométrico gBm alegue proporcionar um bom ajustamento das séries temporais financeiras, os seus pressupostos de normalidade, estacionariedade e independência das inovações residuais são adulterados pelos dados empíricos analisados. Por isso, na procura de evidências sobre a propriedade de memória longa nos mercados recorre-se à rescaled-range analysis R/S e à detrended fluctuation analysis DFA, sob abordagem do movimento Browniano fracionário fBm, para estimar o expoente Hurst H em relação às séries de dados completas e para calcular o expoente Hurst “local” H t em janelas móveis. Complementarmente, são realizados testes estatísticos de hipóteses através do rescaled-range tests R/S , do modified rescaled-range test M - R/S e do fractional differencing test GPH. Em termos de uma conclusão única a partir de todos os métodos sobre a natureza da dependência para o mercado acionista em geral, os resultados empíricos são inconclusivos. Isso quer dizer que o grau de memória de longo prazo e, assim, qualquer classificação, depende de cada mercado particular. No entanto, os resultados gerais maioritariamente positivos suportam a presença de memória longa, sob a forma de persistência, nos retornos acionistas da Bélgica, Holanda e Portugal. Isto sugere que estes mercados estão mais sujeitos a maior previsibilidade (“efeito José”), mas também a tendências que podem ser inesperadamente interrompidas por descontinuidades (“efeito Noé”), e, por isso, tendem a ser mais arriscados para negociar. Apesar da evidência de dinâmica fractal ter suporte estatístico fraco, em sintonia com a maior parte dos estudos internacionais, refuta a hipótese de passeio aleatório com incrementos i.i.d., que é a base da EMH na sua forma fraca. Atendendo a isso, propõem-se contributos para aperfeiçoamento do CAPM, através da proposta de uma nova fractal capital market line FCML e de uma nova fractal security market line FSML. A nova proposta sugere que o elemento de risco (para o mercado e para um ativo) seja dado pelo expoente H de Hurst para desfasamentos de longo prazo dos retornos acionistas. O expoente H mede o grau de memória de longo prazo nos índices acionistas, quer quando as séries de retornos seguem um processo i.i.d. não correlacionado, descrito pelo gBm(em que H = 0,5 , confirmando- se a EMH e adequando-se o CAPM), quer quando seguem um processo com dependência estatística, descrito pelo fBm(em que H é diferente de 0,5, rejeitando-se a EMH e desadequando-se o CAPM). A vantagem da FCML e da FSML é que a medida de memória de longo prazo, definida por H, é a referência adequada para traduzir o risco em modelos que possam ser aplicados a séries de dados que sigam processos i.i.d. e processos com dependência não linear. Então, estas formulações contemplam a EMH como um caso particular possível.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Today all kinds of innovations and research work is done by partnerships of competent entities each having some specialized skills. Like the development of the global economy, global innovation partnerships have grown considerably and form the basis of most of the sophisticated innovations today. To further streamline and simplify such cooperation, several innovation networks have been formed, both at local and global levels. This paper discusses the different types of innovations and how cooperation can benefit innovation in terms of pooling of resources and sharing of risks. One example of an open global co-innovation network promoted by Tata Consultancy Services, the TCS COIN is taken as a case. It enables venture capitalists, consultants, research agencies, companies and universities form nodes of the network so that each entity can play a meaningful role in the innovation network. Further, two innovation projects implemented using the COIN are discussed. Innovation Networks like these could form the basis of a unique global innovation network, which is not owned by any company and is used by innovation partners globally to collaborate and conduct research and development.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Our society relies on energy for most of its activities. One application domain inciding heavily on the energy budget regards the energy consumption in residential and non-residential buildings. The ever increasing needs for energy, resulting from the industrialization of developing countries and from the limited scalability of the traditional technologies for energy production, raises both problems and opportunities. The problems are related to the devastating effects of the greenhouse gases produced by the burning of oil and gas for energy production, and from the dependence of whole countries on companies providing gas and oil. The opportunities are mostly technological, since novel markets are opening for both energy production via renewable sources, and for innovations that can rationalize energy usage. An enticing research effort can be the mixing of these two aspects, by leveraging on ICT technologies to rationalize energy production, acquisition, and consumption. The ENCOURAGE project aims to develop embedded intelligence and integration technologies that will directly optimize energy use in buildings and enable active participation in the future smart grid environment.The primary application domains targeted by the ENCOURAGE project are non-residential buildings (e.g.: campuses) and residential buildings (e.g.: neighborhoods). The goal of the project is to achieve 20% of energy savings through the improved interoperability between various types of energy generation, consumption and storage devices; interbuilding energy exchange; and systematic performance monitoring.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Physical computing has spun a true global revolution in the way in which the digital interfaces with the real world. From bicycle jackets with turn signal lights to twitter-controlled christmas trees, the Do-it-Yourself (DiY) hardware movement has been driving endless innovations and stimulating an age of creative engineering. This ongoing (r)evolution has been led by popular electronics platforms such as the Arduino, the Lilypad, or the Raspberry Pi, however, these are not designed taking into account the specific requirements of biosignal acquisition. To date, the physiological computing community has been severely lacking a parallel to that found in the DiY electronics realm, especially in what concerns suitable hardware frameworks. In this paper, we build on previous work developed within our group, focusing on an all-in-one, low-cost, and modular biosignal acquisition hardware platform, that makes it quicker and easier to build biomedical devices. We describe the main design considerations, experimental evaluation and circuit characterization results, together with the results from a usability study performed with volunteers from multiple target user groups, namely health sciences and electrical, biomedical, and computer engineering. Copyright © 2014 SCITEPRESS - Science and Technology Publications. All rights reserved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Expanding far beyond traditional applications at telecommunications wavelengths, the SiC photonic devices has recently proven its merits for working with visible range optical signals. Reconfigurable wavelength selectors are essential sub-systems for implementing reconfigurable WDM networks and optical signal processing. Visible range to telecom band spectral translation in SiC/Si can be accomplished using wavelength selector under appropriated optical bias, acting as reconfigurable active filters. In this paper we present a monolithically integrated wavelength selector based on a multilayer SiC/Si integrated optical filters that requires optical switches to select wavelengths. The selector filter is realized by using double pin/pin a-SiC:H photodetector with front and back biased optical gating elements. Red, green, blue and violet communication channels are transmitted together, each one with a specific bit sequence. The combined optical signal is analyzed by reading out the generated photocurrent, under different background wavelengths applied either from the front or the back side. The backgrounds acts as channel selectors that selects one or more channels by splitting portions of the input multi-channel optical signals across the front and back photodiodes. The transfer characteristics effects due to changes in steady state light, irradiation side and frequency are presented. The relationship between the optical inputs and the digital output levels is established. (C) 2014 Elsevier B.V. All rights reserved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Floating-point computing with more than one TFLOP of peak performance is already a reality in recent Field-Programmable Gate Arrays (FPGA). General-Purpose Graphics Processing Units (GPGPU) and recent many-core CPUs have also taken advantage of the recent technological innovations in integrated circuit (IC) design and had also dramatically improved their peak performances. In this paper, we compare the trends of these computing architectures for high-performance computing and survey these platforms in the execution of algorithms belonging to different scientific application domains. Trends in peak performance, power consumption and sustained performances, for particular applications, show that FPGAs are increasing the gap to GPUs and many-core CPUs moving them away from high-performance computing with intensive floating-point calculations. FPGAs become competitive for custom floating-point or fixed-point representations, for smaller input sizes of certain algorithms, for combinational logic problems and parallel map-reduce problems. © 2014 Technical University of Munich (TUM).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertation to obtain the degree of Master in Music - Artistic Interpretation

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mestrado em Intervenção Sócio-Organizacional na Saúde - Área de especialização: Políticas de Administração e Gestão dos Serviços de Saúde