7 resultados para Places of memory
em Instituto Politécnico do Porto, Portugal
Resumo:
This paper analyzes several natural and man-made complex phenomena in the perspective of dynamical systems. Such phenomena are often characterized by the absence of a characteristic length-scale, long range correlations and persistent memory, which are features also associated to fractional order systems. For each system, the output, interpreted as a manifestation of the system dynamics, is analyzed by means of the Fourier transform. The amplitude spectrum is approximated by a power law function and the parameters are interpreted as an underlying signature of the system dynamics. The complex systems under analysis are then compared in a global perspective in order to unveil and visualize hidden relationships among them.
Resumo:
A leitura da obra de Paul Auster, desde os primeiros poemas e ensaios até à mais recente ficção, revela uma constante reflexão metalinguística e metaficcional sobre o trabalho da escrita. Auster equaciona o problema da escrita enquanto acto, permitindo ao leitor acompanhar e participar desse processo de construção. A narrativa e a linguagem intelectualizam-se, tornam-se conscientes, o que possibilita uma aproximação privilegiada ao ensino da tradução de textos literários através da própria literatura. The Invention of Solitude é como uma arte poética inspirada na experiência efectiva do sujeito, enquanto escritor e tradutor. Podemos considerá-lo um romance-manifesto em duas partes (Portrait of an Invisible Man e The Book of Memory), com especial incidência na exploração analítica da cena da escrita, utilizando a personagem-escritor e suas vivências como cobaia neste processo de auto e heteroconhecimento. A partir da análise aplicada de The Invention of Solitude, este artigo irá remeter também para os ensaios de Ernest Gellner sobre Wittgenstein em Language and Solitude, entre outros escritores que se debruçaram igualmente sobre questões ligadas à tradução literária, como Dryden, Goethe, Nietzsche, Benjamin, Ortega y Gasset e Octávio Paz.
Resumo:
The last decade has witnessed a major shift towards the deployment of embedded applications on multi-core platforms. However, real-time applications have not been able to fully benefit from this transition, as the computational gains offered by multi-cores are often offset by performance degradation due to shared resources, such as main memory. To efficiently use multi-core platforms for real-time systems, it is hence essential to tightly bound the interference when accessing shared resources. Although there has been much recent work in this area, a remaining key problem is to address the diversity of memory arbiters in the analysis to make it applicable to a wide range of systems. This work handles diverse arbiters by proposing a general framework to compute the maximum interference caused by the shared memory bus and its impact on the execution time of the tasks running on the cores, considering different bus arbiters. Our novel approach clearly demarcates the arbiter-dependent and independent stages in the analysis of these upper bounds. The arbiter-dependent phase takes the arbiter and the task memory-traffic pattern as inputs and produces a model of the availability of the bus to a given task. Then, based on the availability of the bus, the arbiter-independent phase determines the worst-case request-release scenario that maximizes the interference experienced by the tasks due to the contention for the bus. We show that the framework addresses the diversity problem by applying it to a memory bus shared by a fixed-priority arbiter, a time-division multiplexing (TDM) arbiter, and an unspecified work-conserving arbiter using applications from the MediaBench test suite. We also experimentally evaluate the quality of the analysis by comparison with a state-of-the-art TDM analysis approach and consistently showing a considerable reduction in maximum interference.
Resumo:
A norfloxacina e o trimetoprim são dois antibióticos antibacterianos usados para o tratamento de infeções urinárias, intestinais e respiratórias. A maioria dos fármacos exige uma dosagem que garanta os níveis de segurança e eficácia de atuação. A necessidade de dosear os medicamentos e os seus metabolitos é assim um controlo imperioso e em muitos casos regular no tratamento de um paciente. Neste trabalho desenvolveram-se dois sensores eletroquímicos para a deteção da norfloxacina (NFX) e do trimetoprim (TMP), usando como superfície de suporte o carbono vítreo. A busca de novos materiais que conferiram maior seletividade e sensibilidade aos sistemas de deteção e por outro lado apresentem menores riscos para o paciente quando usados em dispositivos que permitam uma análise point-of-care, é especialmente importante e pode ser uma parte crucial do processo de decisão clínica. Assim, os polímeros molecularmente impresos enquadram-se nesse perfil e o seu uso tem vindo a ser cada vez mais avaliado. A impressão molecular é uma tecnologia capaz de produzir polímeros que incorporam as moléculas do analito e que após remoção por solventes específicos, permitem dotá-los de locais específicos de reconhecimento estereoquímico. A seleção do pirrol como polímero molecularmente impresso (MIP) permitiu construir com sucesso os sensores para doseamento dos antibióticos. A fim de aumentar a sensibilidade do método incorporou-se grafeno na superfície do elétrodo. Este material tem vindo a ser largamente utilizado devido às suas propriedades: estrutura molecular, condutividade elétrica e aumento da superfície são algumas das características que mais despertam o interesse para a sua aplicação neste projeto. Os sensores desenvolvidos foram incorporados em sistemas eletroquímicos. Os métodos voltamétricos aplicados foram a voltametria cíclica, a voltametria de onda quadrada e ainda a impedância. As condições de análise foram otimizadas no que respeita à polimerização do pirrol (concentração do polímero, número de ciclos de eletropolimerização e respetivos potenciais aplicados, tempo de incubação, solvente de remoção do analito), ao pH da solução do fármaco, à gama de concentrações dos antibióticos e aos parâmetros voltamétricos dos métodos de análise. Para cada um dos antibióticos um elétrodo não-impresso foi também preparado, usando o procedimento de polimerização mas sem a presença da molécula do analito, e foi usado como controlo. O sensor desenvolvido para o trimetoprim foi usado no doseamento do fármaco em amostras de urina. As amostras foram analisadas sem qualquer diluição, apenas foram centrifugadas para remoção de proteínas e algum interferente. Os sensores construídos apresentaram comportamento linear na gama de concentrações entre 102 e 107 mol/L. Os resultados mostram boa precisão (desvios padrão inferiores a 11%) e os limites de deteção foram de 8,317 e 1,307 mol/L para a norfloxacina e o trimetoprim, respetivamente. Para validação do método foram ainda efetuados ensaios de recuperação tendo obtido valores superiores a 94%.
Resumo:
This essay offers a reflection on the concepts of identity and personal narrative, a line of argument that is closely interlaced with a subject‘s capacity to self-representation. As self-representation is necessarily composed upon remembrance processes, the question of memory as an element that directly influences the formation of an individual‘s identity becomes an emergent topic. Bearing this objective in mind, I shall highlight the notion of biographic continuity, the ability to elaborate a personal narrative, as an essential prerogative to attain a sense of identitary cohesion and coherence. On the other hand, I will argue that not only experienced memories play a key role in this process; intermediated, received narratives from the past, memories transmitted either symbolically or by elder members of the group or, what has been meanwhile termed ―postmemory‖, also influence the development of an individual‘s identitary map. This theoretical framework will be illustrated with the novel Paul Schatz im Uhrenkasten, written by German post-Holocaust author Jan Koneffke.
Resumo:
Na União Europeia os sectores dos transportes e da indústria são ambos grandes consumidores de energia, mas são os edifícios residenciais e de serviços onde o consumo energético é maior, e em 2005, segundo a EnerBuilding, representavam cerca de 17% dos consumos de energia primária em termos nacionais. A energia gasta com a iluminação, o aquecimento, o arrefecimento e AQS das habitações, locais de trabalho e locais de lazer é superior à consumida pelos sectores dos transportes e da indústria. As habitações representam dois terços do consumo total de energia dos edifícios europeus, o qual aumenta todos os anos com a melhoria da qualidade de vida, traduzindo-se numa maior utilização dos sistemas de climatização. Neste sentido, e de acordo com o decreto-lei que transpõe para a legislação portuguesa a diretiva comunitária relativa ao desempenho energético dos edifícios, todos os Estados da União Europeia devem ter um sistema de certificação energética para informar o cidadão sobre a qualidade térmica dos edifícios, aquando da construção, da venda ou do arrendamento. Assim, entrou em vigor em Portugal, desde 1 de Janeiro de 2009, a obrigatoriedade de apresentação de um certificado de eficiência energética, no ato de compra, venda ou aluguer de edifícios novos e existentes. A certificação energética permite assim aos futuros utilizadores dos edifícios obter informação sobre os potenciais consumos de energia, no caso dos novos edifícios ou no caso de edifícios existentes sujeitos a grandes intervenções de reabilitação, dos seus consumos reais ou aferidos para padrões de utilização típicos, passando o consumo energético a integrar um conjunto dos aspetos importantes para a caracterização de qualquer edifício. Em edifícios de serviços, o certificado energético assegura aos utentes do edifício ou da fração que este reúne condições para garantir a eficiência energética e a adequada qualidade do ar interior. Uma vez que passamos 80% do nosso tempo em edifícios, e que isto se reflete num consumo cada vez mais elevado do sector residencial e dos serviços no consumo total energético do país, este trabalho pretende fazer a comparação dos vários equipamentos de aquecimento, de arrefecimento e de AQS e qual a influência dos mesmos na certificação energética de edifícios, e consequentemente na eficiência dos mesmos, sendo que a eficiência e a certificação energética de um edifício deve ser um aspeto relevante a levar em consideração no momento do planeamento ou da construção, bem como na aquisição de uma nova habitação. Um projeto concebido de modo a tirar proveito das condições climáticas, da orientação solar, dos ventos dominantes e utilizadas técnicas construtivas e os materiais adequados, é possível reduzir os gastos energéticos com a iluminação ou os sistemas de climatização.
Resumo:
Neste documento, são investigados vários métodos usados na inteligência artificial, com o objetivo de obter previsões precisas da evolução dos mercados financeiros. O uso de ferramentas lineares como os modelos AR, MA, ARMA e GARCH têm muitas limitações, pois torna-se muito difícil adaptá-los às não linearidades dos fenómenos que ocorrem nos mercados. Pelas razões anteriormente referidas, os algoritmos como as redes neuronais dinâmicas (TDNN, NARX e ESN), mostram uma maior capacidade de adaptação a estas não linearidades, pois não fazem qualquer pressuposto sobre as distribuições de probabilidade que caracterizam estes mercados. O facto destas redes neuronais serem dinâmicas, faz com que estas exibam um desempenho superior em relação às redes neuronais estáticas, ou outros algoritmos que não possuem qualquer tipo de memória. Apesar das vantagens reveladas pelas redes neuronais, estas são um sistema do tipo black box, o que torna muito difícil extrair informação dos pesos da rede. Isto significa que estes algoritmos devem ser usados com precaução, pois podem tornar-se instáveis.