890 resultados para Memory and resentment


Relevância:

80.00% 80.00%

Publicador:

Resumo:

The photographic image, either still or moving, is considered a fair and representative archive of past events, given its mirror nature of reproducing the world. However, in their purely documental function, photography or film do not represent the "tone" of the story that was recorded in the images. But it may be that it is the atmosphere that is expressed through the images that is able to awake memory and turn the story not only into something visible but also into something sensible.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Lossless compression algorithms of the Lempel-Ziv (LZ) family are widely used nowadays. Regarding time and memory requirements, LZ encoding is much more demanding than decoding. In order to speed up the encoding process, efficient data structures, like suffix trees, have been used. In this paper, we explore the use of suffix arrays to hold the dictionary of the LZ encoder, and propose an algorithm to search over it. We show that the resulting encoder attains roughly the same compression ratios as those based on suffix trees. However, the amount of memory required by the suffix array is fixed, and much lower than the variable amount of memory used by encoders based on suffix trees (which depends on the text to encode). We conclude that suffix arrays, when compared to suffix trees in terms of the trade-off among time, memory, and compression ratio, may be preferable in scenarios (e.g., embedded systems) where memory is at a premium and high speed is not critical.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

We are working on the confluence of knowledge management, organizational memory and emergent knowledge with the lens of complex adaptive systems. In order to be fundamentally sustainable organizations search for an adaptive need for managing ambidexterity of day-to-day work and innovation. An organization is an entity of a systemic nature, composed of groups of people who interact to achieve common objectives, making it necessary to capture, store and share interactions knowledge with the organization, this knowledge can be generated in intra-organizational or inter-organizational level. The organizations have organizational memory of knowledge of supported on the Information technology and systems. Each organization, especially in times of uncertainty and radical changes, to meet the demands of the environment, needs timely and sized knowledge on the basis of tacit and explicit. This sizing is a learning process resulting from the interaction that emerges from the relationship between the tacit and explicit knowledge and which we are framing within an approach of Complex Adaptive Systems. The use of complex adaptive systems for building the emerging interdependent relationship, will produce emergent knowledge that will improve the organization unique developing.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Trabalho de Projeto apresentado ao Instituto de Contabilidade e Administração do Porto para a obtenção do grau de Mestre em Tradução e Interpretação Especializadas, sob orientação do Dr. Manuel Fernando Moreira da Silva

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Actualmente, os sistemas embebidos estão presentes em toda a parte. Embora grande parte da população que os utiliza não tenha a noção da sua presença, na realidade, se repentinamente estes sistemas deixassem de existir, a sociedade iria sentir a sua falta. A sua utilização massiva deve-se ao facto de estarem practicamente incorporados em quase os todos dispositivos electrónicos de consumo, telecomunicações, automação industrial e automóvel. Influenciada por este crescimento, a comunidade científica foi confrontada com novos problemas distribuídos por vários domínios científicos, dos quais são destacados a gestão da qualidade de serviço e gestão de recursos - domínio encarregue de resolver problemas relacionados com a alocação óptima de recursos físicos, tais como rede, memória e CPU. Existe na literatura um vasto conjunto de modelos que propõem soluções para vários problemas apresentados no contexto destes domínios científicos. No entanto, não é possível encontrar modelos que lidem com a gestão de recursos em ambientes de execução cooperativos e abertos com restrições temporais utilizando coligações entre diferentes nós, de forma a satisfazer os requisitos não funcionais das aplicações. Devido ao facto de estes sistemas serem dinâmicos por natureza, apresentam a característica de não ser possível conhecer, a priori, a quantidade de recursos necessários que uma aplicação irá requerer do sistema no qual irá ser executada. Este conhecimento só é adquirido aquando da execução da aplicação. De modo a garantir uma gestão eficiente dos recursos disponíveis, em sistemas que apresentam um grande dinamismo na execução de tarefas com e sem restrições temporais, é necessário garantir dois aspectos fundamentais. O primeiro está relacionado com a obtenção de garantias na execução de tarefas de tempo-real. Estas devem sempre ser executadas dentro da janela temporal requirida. O segundo aspecto refere a necessidade de garantir que todos os recursos necessários à execução das tarefas são fornecidos, com o objectivo de manter os níveis de performance quer das aplicações, quer do próprio sistema. Tendo em conta os dois aspectos acima mencionados, o projecto CooperatES foi especificado com o objectivo de permitir a dispositivos com poucos recursos uma execução colectiva de serviços com os seus vizinhos, de modo a cumprir com as complexas restrições de qualidade de serviço impostas pelos utilizadores ou pelas aplicações. Decorrendo no contexto do projecto CooperatES, o trabalho resultante desta tese tem como principal objectivo avaliar a practicabilidade dos conceitos principais propostos no âmbito do projecto. O trabalho em causa implicou a escolha e análise de uma plataforma, a análise de requisitos, a implementação e avaliação de uma framework que permite a execução cooperativa de aplicações e serviços que apresentem requisitos de qualidade de serviço. Do trabalho desenvolvido resultaram as seguintes contribuições: Análise das plataformas de código aberto que possam ser utilizadas na implementação dos conceitos relacionados com o projecto CooperatES; Critérios que influenciaram a escolha da plataforma Android e um estudo focado na análise da plataforma sob uma perspectiva de sistemas de tempo-real; Experiências na implementação dos conceitos do projecto na plataforma Android; Avaliação da practicabilidade dos conceitos propostos no projecto CooperatES; Proposta de extensões que permitam incorporar características de sistemas de tempo real abertos na plataforma Android.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Neste trabalho pretende-se introduzir os conceitos associados à lógica difusa no controlo de sistemas, neste caso na área da robótica autónoma, onde é feito um enquadramento da utilização de controladores difusos na mesma. Foi desenvolvido de raiz um AGV (Autonomous Guided Vehicle) de modo a se implementar o controlador difuso, e testar o desempenho do mesmo. Uma vez que se pretende de futuro realizar melhorias e/ou evoluções optou-se por um sistema modular em que cada módulo é responsável por uma determinada tarefa. Neste trabalho existem três módulos que são responsáveis pelo controlo de velocidade, pela aquisição dos dados dos sensores e, por último, pelo controlador difuso do sistema. Após a implementação do controlador difuso, procedeu-se a testes para validar o sistema onde foram recolhidos e registados os dados provenientes dos sensores durante o funcionamento normal do robô. Este dados permitiram uma melhor análise do desempenho do robô. Verifica-se que a lógica difusa permite obter uma maior suavidade na transição de decisões, e que com o aumento do número de regras é possível tornar o sistema ainda mais suave. Deste modo, verifica-se que a lógica difusa é uma ferramenta útil e funcional para o controlo de aplicações. Como desvantagem surge a quantidade de dados associados à implementação, tais como, os universos de discurso, as funções de pertença e as regras. Ao se aumentar o número de regras de controlo do sistema existe também um aumento das funções de pertença consideradas para cada variável linguística; este facto leva a um aumento da memória necessária e da complexidade na implementação pela quantidade de dados que têm de ser tratados. A maior dificuldade no projecto de um controlador difuso encontra-se na definição das variáveis linguísticas através dos seus universos de discurso e das suas funções de pertença, pois a definição destes pode não ser a mais adequada ao contexto de controlo e torna-se necessário efectuar testes e, consequentemente, modificações à definição das funções de pertença para melhorar o desempenho do sistema. Todos os aspectos referidos são endereçados no desenvolvimento do AGV e os respectivos resultados são apresentados e analisados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

As emoções dos indivíduos e o contexto social do grupo onde estes estão inseridos têm influência no seu desempenho no que se refere ao desenvolvimento de várias tarefas, incluindo as que são realizadas via electrónica. O processo de geração de ideias em grupo mediado por computador tem vantagens consideráveis em relação ao processo de geração de ideias em grupo tradicional, nomeadamente no que se refere ao aumento da sinergia entre os elementos do grupo, à existência da memória de grupo e à possibilidade dos elementos estarem dispersos no espaço e no tempo. Com isto em mente, o presente trabalho pretende analisar a importância do estado de espírito do participante e a influência que os vários aspectos sociais têm no participante, para assim ser possível tomar determinadas acções com o objectivo de potenciar o desempenho dos utilizadores ao longo da reunião de geração de ideias. Neste trabalho é analisada a influência que o estado de espírito dos participantes e o contexto social das reuniões podem ter no sucesso de uma reunião de geração de ideias electrónica. Considerando a influência de estes factores, é proposto um modelo que inclui essas variáveis no processo de geração de ideias em grupo mediado por computador. Com isto pretende-se demonstrar que a inclusão do modelo proposto numa ferramenta de apoio à geração de ideias em grupo permite melhorar o desempenho individual e consequentemente o desempenho do grupo, bem como a interacção entre todos os elementos. Assim, este trabalho pretende gerar sugestões com o objectivo de manter os participantes atentos e motivados para as tarefas que têm de realizar, nomeadamente a tarefa de geração de ideias. Com o objectivo de aplicar o modelo proposto é também apresentado neste trabalho uma nova ferramenta de geração de ideias em computador que considera o contexto emocional e social da reunião, o S-IGTAI (Social Idea Generation Tool for Ambient Intelligence). Através das interacções entre os participantes e a ferramenta S-IGTAI, é recolhida informação que será o input do modelo proposto, sendo que o output serão as sugestões enviadas para o facilitador. Estas sugestões têm o propósito que o facilitador realize recomendações aos participantes no sentido de manter os seus estados de espírito num nível positivo e eliminar a influência negativa dos vários aspectos sociais, potenciando dessa forma o desempenho de todos os participantes. Com a finalidade de validar o modelo proposto e a nova ferramenta (S-IGTAI) é apresentado um caso de estudo neste documento que permite realizar a avaliação do trabalho desenvolvido.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Trabalho de Projecto para obtenção do grau de Mestre em Engenharia Civil

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Trabalho de Projecto para obtenção do grau de Mestre em Engenharia Civil na Área de Especialização em Estruturas

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Recent integrated circuit technologies have opened the possibility to design parallel architectures with hundreds of cores on a single chip. The design space of these parallel architectures is huge with many architectural options. Exploring the design space gets even more difficult if, beyond performance and area, we also consider extra metrics like performance and area efficiency, where the designer tries to design the architecture with the best performance per chip area and the best sustainable performance. In this paper we present an algorithm-oriented approach to design a many-core architecture. Instead of doing the design space exploration of the many core architecture based on the experimental execution results of a particular benchmark of algorithms, our approach is to make a formal analysis of the algorithms considering the main architectural aspects and to determine how each particular architectural aspect is related to the performance of the architecture when running an algorithm or set of algorithms. The architectural aspects considered include the number of cores, the local memory available in each core, the communication bandwidth between the many-core architecture and the external memory and the memory hierarchy. To exemplify the approach we did a theoretical analysis of a dense matrix multiplication algorithm and determined an equation that relates the number of execution cycles with the architectural parameters. Based on this equation a many-core architecture has been designed. The results obtained indicate that a 100 mm(2) integrated circuit design of the proposed architecture, using a 65 nm technology, is able to achieve 464 GFLOPs (double precision floating-point) for a memory bandwidth of 16 GB/s. This corresponds to a performance efficiency of 71 %. Considering a 45 nm technology, a 100 mm(2) chip attains 833 GFLOPs which corresponds to 84 % of peak performance These figures are better than those obtained by previous many-core architectures, except for the area efficiency which is limited by the lower memory bandwidth considered. The results achieved are also better than those of previous state-of-the-art many-cores architectures designed specifically to achieve high performance for matrix multiplication.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This paper presents a new parallel implementation of a previously hyperspectral coded aperture (HYCA) algorithm for compressive sensing on graphics processing units (GPUs). HYCA method combines the ideas of spectral unmixing and compressive sensing exploiting the high spatial correlation that can be observed in the data and the generally low number of endmembers needed in order to explain the data. The proposed implementation exploits the GPU architecture at low level, thus taking full advantage of the computational power of GPUs using shared memory and coalesced accesses to memory. The proposed algorithm is evaluated not only in terms of reconstruction error but also in terms of computational performance using two different GPU architectures by NVIDIA: GeForce GTX 590 and GeForce GTX TITAN. Experimental results using real data reveals signficant speedups up with regards to serial implementation.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Hyperspectral imaging can be used for object detection and for discriminating between different objects based on their spectral characteristics. One of the main problems of hyperspectral data analysis is the presence of mixed pixels, due to the low spatial resolution of such images. This means that several spectrally pure signatures (endmembers) are combined into the same mixed pixel. Linear spectral unmixing follows an unsupervised approach which aims at inferring pure spectral signatures and their material fractions at each pixel of the scene. The huge data volumes acquired by such sensors put stringent requirements on processing and unmixing methods. This paper proposes an efficient implementation of a unsupervised linear unmixing method on GPUs using CUDA. The method finds the smallest simplex by solving a sequence of nonsmooth convex subproblems using variable splitting to obtain a constraint formulation, and then applying an augmented Lagrangian technique. The parallel implementation of SISAL presented in this work exploits the GPU architecture at low level, using shared memory and coalesced accesses to memory. The results herein presented indicate that the GPU implementation can significantly accelerate the method's execution over big datasets while maintaining the methods accuracy.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Hyperspectral imaging has become one of the main topics in remote sensing applications, which comprise hundreds of spectral bands at different (almost contiguous) wavelength channels over the same area generating large data volumes comprising several GBs per flight. This high spectral resolution can be used for object detection and for discriminate between different objects based on their spectral characteristics. One of the main problems involved in hyperspectral analysis is the presence of mixed pixels, which arise when the spacial resolution of the sensor is not able to separate spectrally distinct materials. Spectral unmixing is one of the most important task for hyperspectral data exploitation. However, the unmixing algorithms can be computationally very expensive, and even high power consuming, which compromises the use in applications under on-board constraints. In recent years, graphics processing units (GPUs) have evolved into highly parallel and programmable systems. Specifically, several hyperspectral imaging algorithms have shown to be able to benefit from this hardware taking advantage of the extremely high floating-point processing performance, compact size, huge memory bandwidth, and relatively low cost of these units, which make them appealing for onboard data processing. In this paper, we propose a parallel implementation of an augmented Lagragian based method for unsupervised hyperspectral linear unmixing on GPUs using CUDA. The method called simplex identification via split augmented Lagrangian (SISAL) aims to identify the endmembers of a scene, i.e., is able to unmix hyperspectral data sets in which the pure pixel assumption is violated. The efficient implementation of SISAL method presented in this work exploits the GPU architecture at low level, using shared memory and coalesced accesses to memory.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

One of the main problems of hyperspectral data analysis is the presence of mixed pixels due to the low spatial resolution of such images. Linear spectral unmixing aims at inferring pure spectral signatures and their fractions at each pixel of the scene. The huge data volumes acquired by hyperspectral sensors put stringent requirements on processing and unmixing methods. This letter proposes an efficient implementation of the method called simplex identification via split augmented Lagrangian (SISAL) which exploits the graphics processing unit (GPU) architecture at low level using Compute Unified Device Architecture. SISAL aims to identify the endmembers of a scene, i.e., is able to unmix hyperspectral data sets in which the pure pixel assumption is violated. The proposed implementation is performed in a pixel-by-pixel fashion using coalesced accesses to memory and exploiting shared memory to store temporary data. Furthermore, the kernels have been optimized to minimize the threads divergence, therefore achieving high GPU occupancy. The experimental results obtained for the simulated and real hyperspectral data sets reveal speedups up to 49 times, which demonstrates that the GPU implementation can significantly accelerate the method's execution over big data sets while maintaining the methods accuracy.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Pain transmission at the spinal cord is modulated by descending actions that arise from supraspinal areas which collectively form the endogenous pain control system. Two key areas involved of the endogenous pain control system have a circunventricular location, namely the periaqueductal grey (PAG) and the locus coeruleus (LC). The PAG plays a crucial role in descending pain modulation as it conveys the input from higher brain centers to the spinal cord. As to the LC, it is involved in descending pain inhibition by direct noradrenergic projections to the spinal cord. In the context of neurological defects, several diseases may affect the structure and function of the brain. Hydrocephalus is a congenital or acquired disease characterized by an enlargement of the ventricles which leads to a distortion of the adjacent tissues, including the PAG and LC. Usually, patients suffering from hydrocephalus present dysfunctions in learning and memory and also motor deficits. It remains to be evaluated if lesions of the periventricular brain areas involved in pain control during hydrocephalus may affect descending pain control and, herein, affect pain responses. The studies included in the present thesis used an experimental model of hydrocephalus (the rat injected in the cisterna magna with kaolin) to study descending modulation of pain, focusing on the two circumventricular regions referred above (the PAG and the LC). In order to evaluate the effects of kaolin injection into the cisterna magna, we measured the degree of ventricular dilatation in sections encompassing the PAG by standard cytoarquitectonic stanings (thionin staining). For the LC, immunodetection of the noradrenaline-synthetizing enzyme tyrosine hydroxylase (TH) was performed, due to the noradrenergic nature of the LC neurons. In general, rats with kaolin-induced hydrocephalus presented a higher dilatation of the 4th ventricle, along with a tendency to a higher area of the PAG. Due to the validated role of detection the c-fos protooncogene as a marker of neuronal activation, we also studied neuronal activation in the several subnuclei which compose the PAG, namely the dorsomedial, dorsolateral, lateral and ventrolateral (VLPAG) parts. A decrease in the numbers of neurons immunoreactive for Fos protein (the product of activation of the c-fos protooncogene) was detected in rats injected with kaolin, whereas the remaining PAG subnuclei did not present changes in Fos-immunoreactive nuclei. Increases in the levels of TH in the LC, namely at the rostral parts of the nucleus, were detected in hydrocephalic animals. The following pain-related parameters were measured, namely 1) pain behavioural responses in a validated pain inflammatory test (the formalin test) and 2) the nociceptive activation of spinal cord neurons. A decrease in behavioral responses was detected in rats with kaolin-induced hydrocephalus was detected, namely in the second phase of the test (inflammatory phase). This is the phase of the formalin test in which the motor behaviour is less important, which is important since a semi-quantitative analysis of the motor performance of rats injected with kaolin indicates that these animals may present some motor impairments. Collectively, the results of the behavioral studies indicate that rats with kaolin-induced hydrocephalus exhibit hypoalgesia. A decrease in Fos expression was detected at the superficial dorsal layers of the spinal cord in rats with kaolin-induced hydrocephalus, further indicating that hydrocephalus decreases nociceptive responses. It remains to be ascertained if this is due to alterations in the PAG and LC in the rats with kaolin-induced hydrocephalus, which may affect descending pain modulation. It remains to be evaluated what are the mechanisms underlying the increased pain inhibition at the spinal dorsal horn in the hydrocephalus rats. Regarding the VLPAG, the decrease in neuronal activity may impair descending modulation. Since the LC has higher levels of TH in rats with kaolininduced hydrocephalus, which also appears to increase the noradrenergic innervation in the spinal dorsal horn, it is possible that an increase in the release of noradrenaline at the spinal cord accounts for pain inhibition. Our studies also determine the need to study in detail patients with hydrocephalus namely in what concerns their thresholds to pain and to perform imaging studies focused on the structure and function of pain control areas in the brain.