793 resultados para Memory Reconsolidation


Relevância:

20.00% 20.00%

Publicador:

Resumo:

En el marco de la recuperación de la memoria en relación con los hechos de la última dictadura militar es importante determinar los motivos ideológico-teológicos y prácticos que dificultaron una oposición significativa por parte de la jerarquía de la iglesia a la violación de los derechos humanos, e individualizar los argumentos que impulsaron un discurso y una praxis de reconciliación que privilegió el olvido de las víctimas y apoyó acríticamente los «proyectos de olvido», como la ley de punto final, entre otros. Para analizar dichos discursos y praxis se recurre principalmente a Johann Metz, quien, vinculado a la Escuela de Frankfurt, propone una razón anamnética del sufrimiento ajeno. La originalidad del proyecto es doble, por su contenido y por su enfoque: la confrontación del «servicio de reconciliación» eclesial con la «memoria de las víctimas». Hipótesis de trabajo: el discurso y la praxis eclesial en relación al «servicio de reconciliación» realizado por el Episcopado argentino a partir de 1981, pone de manifiesto: primero, que siguieron vinculados a la idea de "nación católica" (Zanatta 1996, Dri 1997, Esquivel 2004), lo que dificultó, junto a otros factores, la visibilización de las víctimas; segundo, a su vez, analizados a la luz de los aportes filosófico-teológicos mencionados, muestran una notable carencia en la valoración de la memoria de las víctimas, esperable en una reconciliación. Objetivo general: realizar un análisis crítico de los discursos y prácticas institucionales oficiales de la Iglesia católica en Argentina en relación con la memoria de las víctimas de la última dictadura militar. Objetivos específicos: confrontar las experiencias eclesiales argentinas recientes, y sus conceptualizaciones y tipos de argumentación, con una tradición de pensamiento que en relación al acontecimiento del Holocausto sitúa en el centro de la reflexión temas como el de la memoria, el sufrimiento de las víctimas, y un modo peculiar de tratamiento de los hechos históricos; además, individualizar y analizar los argumentos que dificultaron la búsqueda de la justicia y la memoria de las víctimas. Metodología y etapas. 1° Etapa: analizar y sistematizar algunos aspectos de las teorías del conocimiento histórico y de la razón comunicativa en determinadas obras de Benjamin, Bloch y Habermas; posteriormente, precisar la apropiación conceptual de las categorías histórico-filosóficas de dichas corrientes llevada a cabo por Metz para elaborar su «memoria de las víctimas». 2° Etapa: revisar el discurso y la praxis eclesial a partir de 1981 a la luz del marco teórico ya estudiado. Será necesario, por una parte, detenerse en las declaraciones eclesiales oficiales referidas al retorno de la democracia, a las leyes de punto final y obediencia debida, como así también, en el reconocimiento y pedido de perdón por las culpas del pasado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Magdeburg, Univ., Fak. für Naturwiss., Diss., 2012

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Performance monitoring, ERN, CRN, Pe, Memory, Llist learning, Emotion, IAPS, N2, Reinforcement Learning Hypothesis, Conflict Monitoring Hypothesis

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Magdeburg, Univ., Fak. für Naturwiss., Diss., 2013

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Magdeburg, Univ., Fak. für Elektrotechnik und Informationstechnik, Diss., 2013

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Magdeburg, Univ., Med. Fak., Diss., 2014

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The modern computer systems that are in use nowadays are mostly processor-dominant, which means that their memory is treated as a slave element that has one major task – to serve execution units data requirements. This organization is based on the classical Von Neumann's computer model, proposed seven decades ago in the 1950ties. This model suffers from a substantial processor-memory bottleneck, because of the huge disparity between the processor and memory working speeds. In order to solve this problem, in this paper we propose a novel architecture and organization of processors and computers that attempts to provide stronger match between the processing and memory elements in the system. The proposed model utilizes a memory-centric architecture, wherein the execution hardware is added to the memory code blocks, allowing them to perform instructions scheduling and execution, management of data requests and responses, and direct communication with the data memory blocks without using registers. This organization allows concurrent execution of all threads, processes or program segments that fit in the memory at a given time. Therefore, in this paper we describe several possibilities for organizing the proposed memory-centric system with multiple data and logicmemory merged blocks, by utilizing a high-speed interconnection switching network.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Advances in computer memory technology justify research towards new and different views on computer organization. This paper proposes a novel memory-centric computing architecture with the goal to merge memory and processing elements in order to provide better conditions for parallelization and performance. The paper introduces the architectural concepts and afterwards shows the design and implementation of a corresponding assembler and simulator.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Magdeburg, Univ., Fak. für Naturwiss., Diss., 2015

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Otto-von-Guericke-Universität Magdeburg, Fakultät für Naturwissenschaften, Univ., Dissertation, 2015

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this paper we explore the effect of bounded rationality on the convergence of individual behavior toward equilibrium. In the context of a Cournot game with a unique and symmetric Nash equilibrium, firms are modeled as adaptive economic agents through a genetic algorithm. Computational experiments show that (1) there is remarkable heterogeneity across identical but boundedly rational agents; (2) such individual heterogeneity is not simply a consequence of the random elements contained in the genetic algorithm; (3) the more rational agents are in terms of memory abilities and pre-play evaluation of strategies, the less heterogeneous they are in their actions. At the limit case of full rationality, the outcome converges to the standard result of uniform individual behavior.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The objective of this paper is to identify the role of memory in repeated contracts with moral hazard in financial intermediation. We use the database we have built containing the contracts signed by the European Bank for Reconstruction and Development EBRD between 1991 and 2003. Our framework is a standard setting of repeated moral hazard. After having controlled for the adverse selection component, we are able to prove that client reputation is the discrimination device according to which the bank fixes the amount of credit for the established clients. Our results unambiguously isolate the effect of memory in the bank's lending decisions.