803 resultados para Embodied
Resumo:
La legge n. 146 del 1990 ha istituito la Commissione di garanzia per l’attuazione della legge sullo sciopero nei servizi pubblici essenziali, un’authority deputata al controllo dell’effettivo bilanciamento del diritto di sciopero con gli altri diritti della persona di rango costituzionale nel caso dei servizi pubblici essenziali. Ad essa spettano alcuni poteri tra di loro eterogenei. Accanto a poteri propulsivi e sanzionatori, essa possiede poteri di tipo normativo. La legge prevede, infatti, che le prestazioni indispensabili e le altre misure necessarie al contemperamento siano determinate da accordi tra il datore di lavoro e le associazioni sindacali, mentre per il lavoro autonomo da codici di autoregolamentazione forniti da ognuna delle categorie interessate. Gli accordi e i codici di autoregolamentazione devono essere, comunque, sottoposti al vaglio della Commissione di garanzia la quale in ultimo stabilisce se essi siano idonei a realizzare il bilanciamento dei diritti in questione. Quando i soggetti indicati dalla legge non provvedano alla redazione dei suddetti atti, la Commissione interviene con l’emanazione di una provvisoria regolamentazione, la quale possiede natura di regolamento, giacchè partecipa dei caratteri della generalità ed astrattezza propri delle norme di legge. In effetti, anche altre authorities possiedono un potere normativo, che si sostanzia alle volte in un regolamento indipendente, altre in un regolamento simile ai regolamenti delegati ed altre al regolamento esecutivo. Poiché la legge n. 146 del 1990 prevede quali siano gli istituti idonei a realizzare il bilanciamento (preavviso, proclamazione scritta, procedure di raffreddamento e conciliazione, intervallo minimo, misure indicative delle prestazioni indispensabili), la provvisoria regolamentazione possiede i caratteri del regolamento esecutivo.
Resumo:
This PhD Thesis is composed of three chapters, each discussing a specific type of risk that banks face. The first chapter talks about Systemic Risk and how banks get exposed to it through the Interbank Funding Market. Exposures in the said market have Systemic Risk implications because the market creates linkages, where the failure of one party can affect the others in the market. By showing that CDS Spreads, as bank risk indicators, are positively related to their Net Interbank Funding Market Exposures, this chapter establishes the above Systemic Risk Implications of Interbank Funding. Meanwhile, the second chapter discusses how banks may handle Illiquidity Risk, defined as the possibility of having sudden funding needs. Illiquidity Risk is embodied in this chapter through Loan Commitments as they oblige banks to lend to its clients, up to a certain amount of funds at any time. This chapter points out that using Securitization as funding facility, could allow the banks to manage this Illiquidity Risk. To make this case, this chapter demonstrates empirically that banks having an increase in Loan Commitments, may experience an increase in risk profile but such can be offset by an accompanying increase in Securitization Activity. Lastly, the third chapter focuses on how banks manage Credit Risk also through Securitization. Securitization has a Credit Risk management property by allowing the offloading of risk. This chapter investigates how banks use such property by looking at the effect of securitization on the banks’ loan portfolios and overall risk and returns. The findings are that securitization is positively related to loan portfolio size and the portfolio share of risky loans, which translates to higher risk and returns. Thus, this chapter points out that Credit Risk management through Securitization may be have been done towards higher risk taking for high returns.
Resumo:
The perspective of the present project can be inscribed in the so-called “Social Cognition” framework, that in the last years moved from a focus on the individual mind toward embodied and participatory aspects of social understanding. Among the topics relevant for social cognition, the aim of the thesis was to shed more light on motor resonance and joint action, by using two well-known effects of cognitive psychology: “Affordance” and “Simon”. In the first part of the project, the Affordance effect has been considered, starting from Gibson to some post-Gibsonian theorizations. Particular attention has received the notion of “Micro-affordance”. The theoretical and empirical overview allows to understand how it can be possible to use the affordance effect to investigate the issue of motor resonance. A first study employed a priming paradigm and explored both in adults and school-age children the influence of a micro-affordance that can be defined dangerousness, and how motor resonance develops. The second part of the thesis focused on the Simon effect, starting with the presentation of the “stimulus–response (S–R) compatibility effect” to introduce the “Simon effect”. Particular attention has been dedicated to recent studies on the “joint Simon effect”. The reviewed empirical findings have been discussed in a wider theoretical perspective on joint action. The second study was aimed at investigating whether shared representations, as indexed by the presence of the joint Simon effect, are modulated by minimal ingroup–outgroup distinctions and by experienced interdependence between participants. The third study explored to what extent prior experience could modulate performance in task sharing, combining two paradigms of cognitive psychology, the joint Simon and the joint transfer-of-learning. In a general discussion the results obtained in the three studies have been summarized, emphasizing their original contribution and their importance within the Social Cognition research.
Resumo:
Negli ultimi vent’anni sono state proposte al livello internazionale alcune analisi dei problemi per le scienze nella scuola e diverse strategie per l’innovazione didattica. Molte ricerche hanno fatto riferimento a una nuova nozione di literacy scientifica, quale sapere fondamentale dell’educazione, indipendente dalle scelte professionali successive alla scuola. L’ipotesi di partenza di questa ricerca sostiene che alcune di queste analisi e l’idea di una nuova literacy scientifica di tipo non-vocazionale mostrino notevoli limiti quando rapportate al contesto italiano. Le specificità di quest’ultimo sono state affrontate, innanzitutto, da un punto di vista comparativo, discutendo alcuni documenti internazionali sull’insegnamento delle scienze. Questo confronto ha messo in luce la difficoltà di ottenere un insieme di evidenze chiare e definitive sui problemi dell’educazione scientifica discussi da questi documenti, in particolare per quanto riguarda i dati sulla crisi delle vocazioni scientifiche e sull’attitudine degli studenti verso le scienze. Le raccomandazioni educative e alcuni progetti curricolari internazionali trovano degli ostacoli decisivi nella scuola superiore italiana anche a causa di specificità istituzionali, come particolari principi di selezione e l’articolazione dei vari indirizzi formativi. Il presente lavoro si è basato soprattutto su una ricostruzione storico-pedagogica del curricolo di fisica, attraverso l’analisi delle linee guida nazionali, dei programmi di studio e di alcuni rappresentativi manuali degli ultimi decenni. Questo esame del curricolo “programmato” ha messo in luce, primo, il carattere accademico della fisica liceale e la sua debole rielaborazione culturale e didattica, secondo, l’impatto di temi e problemi internazionali sui materiali didattici. Tale impatto ha prodotto dei cambiamenti sul piano delle finalità educative e degli strumenti di apprendimento incorporati nei manuali. Nonostante l’evoluzione di queste caratteristiche del curricolo, tuttavia, l’analisi delle conoscenze storico-filosofiche utilizzate dai manuali ha messo in luce la scarsa contestualizzazione culturale della fisica quale uno degli ostacoli principali per l’insegnamento di una scienza più rilevante e formativa.
Resumo:
MFA and LCA methodologies were applied to analyse the anthropogenic aluminium cycle in Italy with focus on historical evolution of stocks and flows of the metal, embodied GHG emissions, and potentials from recycling to provide key features to Italy for prioritizing industrial policy toward low-carbon technologies and materials. Historical trend series were collected from 1947 to 2009 and balanced with data from production, manufacturing and waste management of aluminium-containing products, using a ‘top-down’ approach to quantify the contemporary in-use stock of the metal, and helping to identify ‘applications where aluminium is not yet being recycled to its full potential and to identify present and future recycling flows’. The MFA results were used as a basis for the LCA aimed at evaluating the carbon footprint evolution, from primary and electrical energy, the smelting process and the transportation, embodied in the Italian aluminium. A discussion about how the main factors, according to the Kaya Identity equation, they did influence the Italian GHG emissions pattern over time, and which are the levers to mitigate it, it has been also reported. The contemporary anthropogenic reservoirs of aluminium was estimated at about 320 kg per capita, mainly embedded within the transportation and building and construction sectors. Cumulative in-use stock represents approximately 11 years of supply at current usage rates (about 20 Mt versus 1.7 Mt/year), and it would imply a potential of about 160 Mt of CO2eq emissions savings. A discussion of criticality related to aluminium waste recovery from the transportation and the containers and packaging sectors was also included in the study, providing an example for how MFA and LCA may support decision-making at sectorial or regional level. The research constitutes the first attempt of an integrated approach between MFA and LCA applied to the aluminium cycle in Italy.
Resumo:
Die Großherzog Wilhelm Ernst Ausgabe deutscher Klassiker wurde seit 1904 bis in die Zwanziger Jahre hinein im Insel Verlag in Leipzig publiziert. Die Buchreihe hat nicht nur für den Verlag und die Druckerei Poeschel in der sie gedruckt wurde eine ganze Reihe von Neuerungen nach sich gezogen, auch für den deutschen Buchmarkt hat die Klassikerausgabe einen Meilenstein bedeutet. Sie hat einige Eigenschaften des Taschenbuches vorweggenommen. Sie orientierte sich an der Qualität bibliophiler Buchpublikationen, aber war dennoch preislich erschwinglich. Zeitgenössische Klassikerausgaben erschienen zumeist mit einem Kommentar. Nicht so die Großherzog Wilhelm Ernst Ausgabe. Der Text wurde zwar von führenden Wissenschaftlern editiert, aber sie war dennoch unkommentiert. Der Text war in einer Jenson-Antiqua gesetzt obwohl die Debatte um individuell gestaltete Künstlerschriften und die Diskussion um die als deutsche Schrift begriffene Fraktur unter den wichtigsten Protagonisten des deutschen Buchgewerbes ihren Höhepunkt noch nicht erreicht hatte. Ziel für die Klassikerausgabe war darüber hinaus, das zur Jahrhundertwende leicht angestaubte Image der Stadt Weimar aufzupolieren. Über das Patronat des Großherzogs hinaus hätte man die Gewinne aus dem Verkauf der Bücher der Permanenten Ausstellung für die Anschaffung von modernen Kunstobjekten zur Verfügung stellen wollen, die unter der Leitung von Harry Graf Kessler stand. Sieht man den Inhalt der Werke der in der Klassikerreihe erschienen Dichter Goethe, Schiller und Körner in einem ästhetischen Kontext mit dem der Philosophen Schopenhauer und Kant, wird im Spiegel der Formalästhetik der Klassikerausgabe Graf Kesslers Bildungs- und Kulturbegriff erkennbar, der sich in den Jahren nach der Jahrhundertwende zu seinem Lebenskunstideal verdichtete. Der zerrütteten Existenz der Zeitgenossen, wie Friedrich Nietzsche sie beschrieben hatte, sollte der Inhalt der Ausgabe in seiner modernen Form eine moderne Wertehaltung entgegensetzen. Die Lektüre der Klassiker sollte den deutschen Philister „entkrampfen“ und ihm ein Stück der verloren geglaubten Lebensfreude wieder zurück bringen, in dem dieser auch die Facetten des Lebensleids als normal hinnehmen und akzeptieren lernte. Die Klassikerausgabe repräsentierte aus diesem Grund auch den kulturellen und politischen Reformwillen und die gesellschaftlichen Vorstellungen die der Graf für ein modernes Deutschland als überfällig erachtete. Die Buchreihe war aus diesem Grund auch ein politisches Statement gegen die Beharrungskräfte im deutschen Kaiserreich. Die Klassikerreihe wurde in der buchhistorischen Forschung zwar als bedeutender Meilenstein charakterisiert und als „wichtiges“ oder gar „revolutionäres“ Werk der Zeit hervorgehoben, die Ergebnisse der Forschung kann man überspitzt aber in der Aussage zusammenfassen, dass es sich bei der Großherzog Wilhelm Ernst Ausgabe um einen „zufälligen Glückstreffer“ deutscher Buchgestaltung zu handeln scheint. Zumindest lassen die Aussagen, die bisher in dieser Hinsicht gemacht wurden, keine eindeutige Einordnung zu, außer vielleicht der, dass die Klassiker von der englischen Lebensreform inspiriert wurden und Henry van de Velde und William Morris einen Einfluss auf ihre äußere Form hatten. Gerade die Gedankenansätze dieser Beiden nutzte Graf Kessler aber für eigene Überlegungen, die ihn schließlich auch zu eigenen Vorstellungen von idealer Buchgestaltung brachten. Da für Kessler auch Gebrauchsgegenstände Kunst sein konnten, wird das Konzept der Klassikerausgabe bis zur Umsetzung in ihrer `bahnbrechenden´ Form in das ideengeschichtliche und ästhetische Denken des Grafen eingeordnet. Die Klassiker werden zwar in buchhistorischen Einzeluntersuchungen bezüglich ihrer Komponenten, dem Dünndruckpapier, ihrem Einband oder der Schrifttype exponiert. In buchwissenschaftlichen Überblicksdarstellungen wird ihr Einfluss hingegen weniger beachtet, denn verschiedene Kritiker bezogen sie seit ihrem ersten Erscheinen nicht als deutsches Kulturgut mit ein, denn sie lehnten sowohl die englischen Mitarbeiter Emery Walker, Edward Johnston, Eric Gill und Douglas Cockerell wie auch ihre Gestaltung als „welsche“ Buchausgabe ab. Richtig ist, die Großherzog Wilhelm Ernst Ausgabe hatte dieselbe Funktion wie die von Graf Kessler in Weimar konzipierten Kunstausstellungen und die dortige Kunstschule unter der Leitung seines Freundes Henry van de Velde. Auch das für Weimar geplante Theater, das unter der Leitung von Hugo von Hofmannsthal hätte stehen sollen und die Großherzog Wilhelm Ernst Schule, hätten dieselben Ideen der Moderne mit anderen Mitteln transportieren sollen, wie die Großherzog Wilhelm Ernst Ausgabe deutscher Klassiker.
Resumo:
Oggetto di questo lavoro è un’analisi dettagliata di un campione ristretto di riprese televisive della Quinta Sinfonia di Beethoven, con l’obiettivo di far emergere il loro meccanismo costruttivo, in senso sia tecnico sia culturale. Premessa dell’indagine è che ciascuna ripresa sia frutto di un’autorialità specifica che si sovrappone alle due già presenti in ogni esecuzione della Quinta Sinfonia, quella del compositore e quella dell’interprete, definita perciò «terza autorialità» riassumendo nella nozione la somma di contributi specifici che portano alla produzione di una ripresa (consulente musicale, regista, operatori di ripresa). La ricerca esamina i rapporti che volta a volta si stabiliscono fra i tre diversi piani autoriali, ma non mira a una ricostruzione filologica: l’obiettivo non è ricostruire le intenzioni dell’autore materiale quanto di far emergere dall’esame della registrazione della ripresa, così com’è data a noi oggi (spesso in una versione già più volte rimediata, in genere sotto forma di dvd commercializzato), scelte tecniche, musicali e culturali che potevano anche essere inconsapevoli. L’analisi dettagliata delle riprese conferma l’ipotesi di partenza che ci sia una sorta di sistema convenzionale, quasi una «solita forma» o approccio standardizzato, che sottende la gran parte delle riprese; gli elementi che si possono definire convenzionali, sia per la presenza sia per la modalità di trattamento, sono diversi, ma sono soprattutto due gli aspetti che sembrano esserne costitutivi: il legame con il rito del concerto, che viene rispettato e reincarnato televisivamente, con la costruzione di una propria, specifica aura; e la presenza di un paradigma implicito e sostanzialmente ineludibile che pone la maggior parte delle riprese televisive entro l’alveo della concezione della musica classica come musica pura, astratta, che deve essere compresa nei suoi propri termini.
Resumo:
In recent years, thanks to the technological advances, electromagnetic methods for non-invasive shallow subsurface characterization have been increasingly used in many areas of environmental and geoscience applications. Among all the geophysical electromagnetic methods, the Ground Penetrating Radar (GPR) has received unprecedented attention over the last few decades due to its capability to obtain, spatially and temporally, high-resolution electromagnetic parameter information thanks to its versatility, its handling, its non-invasive nature, its high resolving power, and its fast implementation. The main focus of this thesis is to perform a dielectric site characterization in an efficient and accurate way studying in-depth a physical phenomenon behind a recent developed GPR approach, the so-called early-time technique, which infers the electrical properties of the soil in the proximity of the antennas. In particular, the early-time approach is based on the amplitude analysis of the early-time portion of the GPR waveform using a fixed-offset ground-coupled antenna configuration where the separation between the transmitting and receiving antenna is on the order of the dominant pulse-wavelength. Amplitude information can be extracted from the early-time signal through complex trace analysis, computing the instantaneous-amplitude attributes over a selected time-duration of the early-time signal. Basically, if the acquired GPR signals are considered to represent the real part of a complex trace, and the imaginary part is the quadrature component obtained by applying a Hilbert transform to the GPR trace, the amplitude envelope is the absolute value of the resulting complex trace (also known as the instantaneous-amplitude). Analysing laboratory information, numerical simulations and natural field conditions, and summarising the overall results embodied in this thesis, it is possible to suggest the early-time GPR technique as an effective method to estimate physical properties of the soil in a fast and non-invasive way.
Resumo:
This thesis investigated affordances and verbal language to demonstrate the flexibility of embodied simulation processes. Starting from the assumption that both object/action understanding and language comprehension are tied to the context in which they take place, six studies clarified the factors that modulate simulation. The studies in chapter 4 and 5 investigated affordance activation in complex scenes, revealing the strong influence of the visual context, which included either objects and actions, on compatibility effects. The study in chapter 6 compared the simulation triggered by visual objects and objects names, showing differences depending on the kind of materials processed. The study in chapter 7 tested the predictions of the WAT theory, confirming that the different contexts in which words are acquired lead to the difference typically observed in the literature between concrete and abstract words. The study in chapter 8 on the grounding of abstract concepts tested the mapping of temporal contents on the spatial frame of reference of the mental timeline, showing that metaphoric congruency effects are not automatic, but flexibly mediated by the context determined by the goals of different tasks. The study in chapter 9 investigated the role of iconicity in verbal language, showing sound-to-shape correspondences when every-day object figures, result that validated the reality of sound-symbolism in ecological contexts. On the whole, this evidence favors embodied views of cognition, and supports the hypothesis of a high flexibility of simulation processes. The reported conceptual effects confirm that the context plays a crucial role in affordances emergence, metaphoric mappings activation and language grounding. In conclusion, this thesis highlights that in an embodied perspective cognition is necessarily situated and anchored to a specific context, as it is sustained by the existence of a specific body immersed in a specific environment.
Resumo:
L’intelligenza artificiale, ovvero lo studio e la progettazione di sistemi intelligenti, mira a riprodurre alcuni aspetti dell’intelligenza umana, come il linguaggio e il ragionamento deduttivo, nei computer. La robotica, invece, cerca spesso di ricreare nei robot comportamenti adattativi, come l’abilità di manipolare oggetti o camminare, mediante l’utilizzo di algoritmi in grado di generare comportamenti desiderati. Una volta realizzato uno di questi algoritmi specificamente per una certa abilità, si auspica che tale algoritmo possa essere riutilizzato per generare comportamenti più complessi fino a che il comportamento adattativo del robot non si mostri ad un osservatore esterno come intelligente; purtroppo questo non risulta sempre possibile e talvolta per generare comportamenti di maggiore complessità è necessario riscrivere totalmente gli algoritmi. Appare quindi evidente come nel campo della robotica l’attenzione sia incentrata sul comportamento, perché le azioni di un robot generano nuove stimolazioni sensoriali, che a loro volta influiscono sulle sue azioni future. Questo tipo di intelligenza artificiale (chiamata propriamente embodied cognition) differisce da quella propriamente detta per il fatto che l’intelligenza non emerge dall’introspezione ma dalle interazioni via via più complesse che la macchina ha con l’ambiente circostante. Gli esseri viventi presenti in natura mostrano, infatti, alcuni fenomeni che non sono programmati a priori nei geni, bensì frutto dell’interazione che l’organismo ha con l’ambiente durante le varie fasi del suo sviluppo. Volendo creare una macchina che sia al contempo autonoma e adattativa, si devono affrontare due problemi: il primo è relativo alla difficoltà della progettazione di macchine autonome, il secondo agli ingenti costi di sviluppo dei robot. Alla fine degli anni ’80 nasce la robotica evolutiva che, traendo ispirazione dall’evoluzione biologica, si basa sull’utilizzo di software in grado di rappresentare popolazioni di robot virtuali e la capacità di farli evolvere all’interno di un simulatore, in grado di rappresentare le interazioni tra mente e corpo del robot e l’ambiente, per poi realizzare fisicamente solo i migliori. Si utilizzano algoritmi evolutivi per generare robot che si adattano, anche dal punto di vista della forma fisica, all’ambiente in cui sono immersi. Nel primo capitolo si tratterà di vita ed evoluzione artificiali, concetti che verranno ripresi nel secondo capitolo, dedicato alle motivazioni che hanno portato alla nascita della robotica evolutiva, agli strumenti dei quali si avvale e al rapporto che ha con la robotica tradizionale e le sue declinazioni. Nel terzo capitolo si presenteranno i tre formalismi mediante i quali si sta cercando di fornire un fondamento teorico a questa disciplina. Infine, nel quarto capitolo saranno mostrati i problemi che ancora oggi non hanno trovato soluzione e le sfide che si devono affrontare trattando di robotica evolutiva.
Resumo:
Attraverso un excursus storico, teorico e metodologico, questa tesi di dottorato analizza la nascita, gli sviluppi e l’attuale dimensione costitutivo-identitaria dei Performance Studies, un ambito di ricerca accademica che, nato negli Stati Uniti alla fine degli anni Settanta, ha sempre palesato una natura restia nei confronti di qualunque tentativo definitorio. Se i Performance Studies concepiscono la performance sia come oggetto d’analisi sia come lente metodologica, e se, come evidenziato da Richard Schechner, praticamente tutto può essere “elevato a performance” e quindi indagato secondo le categorie analitiche di questa disciplina, ecco allora che, con uno slittamento transitivo e “meta-metodologico”, questa ricerca dottorale ha scelto come proprio oggetto di studio i Performance Studies stessi, osservandoli “as performance” e avvalendosi degli strumenti metodologici suggeriti dal suo stesso oggetto d’analisi. Questo lavoro indaga come l’oggetto di studio dei Performance Studies sia, seguendo la teoria schechneriana, il “behaved behavior”, e dunque come di conseguenza, il repertorio, prima ancora che l’archivio, possa essere considerato il fedele custode delle “pratiche incorporate”. Soffermandosi su esempi di “reenactment” performativo come quelli messi in atto da Marina Abramović e Clifford Owens, così come sui tentativi condotti dalla sezione dell’Intangible Cultural Heritage dell’UNESCO, suggerisce validi esempi di “archiviazione” della performance. L’elaborato prende poi in esame casi che esemplificano la proficua identificazione tra “studiare performance” e “fare performance”, sottolinea il ruolo cruciale e imprenscindibile determinato dal lavoro di ricerca sul campo inteso come “osservazione partecipante”, ed evidenzia il costante coinvolgimento sociale e politico assunto dai Performance Studies. Questa dissertazione affronta e supporta l’efficacia dei Performance Studies nel proporsi come uno strumento innovativo in grado di analizzare un mondo sempre più performativo nelle sue dinamiche. La loro natura tanto interdisciplinare quanto interculturale sembra farne una lente adeguata attraverso cui promuovere livelli diversi di performance dialogica tra culture localmente distinte ma globalmente assimilabili.
Resumo:
La publication de nombreuses œuvres, à la fois littéraires et picturales, entre 1870 et 1914, inspirées par l’épisode biblique du meurtre de Jean Baptiste par Salomé, s’inscrit dans une crise qui touche à cette époque, en Europe, aussi bien le sujet que la notion de représentation. Le mythe de Salomé permet de poursuivre une réflexion de nature littéraire, historique et esthétique concernant le processus d’autonomisation de l’art. À partir des sources bibliques et antiques, dans lesquelles Salomé et Jean Baptiste incarnent respectivement le monde païen en conflit avec le monde chrétien, ces deux personnages font graduellement leur entrée dans l’univers de la fiction. Ils sont au cœur de la transition d’une lecture transcendante — reliée particulièrement à la tradition catholique — de l’épisode tragique qui les unit, à une lecture immanente qui en fait deux instances purement esthétiques. La danseuse et le dernier des prophètes émergent dans la littérature et dans l’art occidentaux comme deux pôles symboliques, liés l’un à l’autre par différents types de relation, susceptibles d’être librement réinvestis par de nouvelles significations et à l’écart des conventions. Si, dans la première partie du XIXe siècle, Salomé et Jean Baptiste sont encore liés à leur sens orthodoxe, au tournant du siècle ils finissent par s’autonomiser de l’Écriture et donnent lieu à de multiples récritures et à des adaptations inattendues. Celles-ci ressortissent alors moins du blasphème à proprement parler que d’un témoignage emblématique d’une transformation du rapport que l’artiste entretient avec son œuvre. Celui-ci, en s’identifiant avec le prophète décollé, se mesure à l’œuvre d’art, qui est incarnée par Salomé. La relation entre Salomé et Jean Baptiste, dans ces diverses représentations, exprime et reflète le moment où art et littérature se reconnaissent comme fictions.
Resumo:
The aims of the dissertation are to find the right description of the structure of perceptual experience and to explore the ways in which the structure of the body might serve to explain it. In the first two parts, I articulate and defend the claim that perceptual experience seems direct and the claim that its objects seem real. I defend these claims as integral parts of a coherent metaphysically neutral conception of perceptual experience. Sense-datum theorists, certain influential perceptual psychologists, and early modern philosophers (most notably Berkeley) all disputed the claim that perceptual experience seems direct. In Part I, I argue that the grounds on which they did so were poor. The aim is then, in Part II, to give a proper appreciation of the distinctive intentionality of perceptual experience whilst remaining metaphysically neutral. I do so by drawing on the early work of Edmund Husserl, providing a characterisation of the perceptual experience of objects as real, qua mind-independent particulars. In Part III, I explore two possible explanations of the structure characterising the intentionality of perceptual experience, both of which accord a distinctive explanatory role to the body. On one account, perceptual experience is structured by an implicit pre-reflective consciousness of oneself as a body engaged in perceptual activity. An alternative account makes no appeal to the metaphysically laden concept of a bodily self. It seeks to explain the structure of perceptual experience by appeal to anticipation of the structural constraints of the body. I develop this alternative by highlighting the conceptual and empirical basis for the idea that a first-order structural affordance relation holds between a bodily agent and certain properties of its body. I then close with a discussion of the shared background assumptions that ought to inform disputes over whether the body itself (in addition to its representation) ought to serve as an explanans in such an account.
Resumo:
Alexithymia refers to difficulties in recognizing one’s own emotions and others emotions. Theories of emotional embodiment suggest that, in order to understand other peoples’ feelings, observers re-experience, or simulate, the relevant component (i.e. somatic, motor, visceral) of emotion’s expressed by others in one’s self. In this way, the emotions are “embodied”. Critically, to date, there are no studies investigating the ability of alexithymic individuals in embodying the emotions conveyed by faces. In the present dissertation different implicit paradigms and techniques falling within the field of affective neuroscience have been employed in order to test a possible deficit in the embodiment of emotions in alexithymia while subjects were requested to observe faces manifesting different expression: fear, disgust, happiness and neutral. The level of the perceptual encoding of emotional faces and the embodiment of emotions in the somato-sensory and sensory-motor system have been investigated. Moreover, non-communicative motor reaction to emotional stimuli (i.e. visceral reactions) and interoceptive abilities of alexithymic subjects have been explored. The present dissertation provided convergent evidences in support of a deficit in the processing of fearful expression in subjects with high alexithymic personality traits. Indeed, the pattern of fear induced changes in the perceptual encoding, in the somato-sensory and in the somato-motor system (both the communicative and non communicative one) is widely and consistently altered in alexithymia. This support the hypothesis of a diminished responses to fearful stimuli in alexithymia. In addition, the overall results on happiness and disgust, although preliminary, provided interesting results. Indeed, the results on happiness revealed a defective perceptual encoding, coupled with a slight difficulty (i.e. delayed responses) at the level of the communicative somato-motor system, and the emotion of disgust has been found to be abnormally embodied at the level of the somato-sensory system.
Resumo:
Without a doubt, one of the biggest changes that affected XXth century art is the introduction of words into paintings and, in more recent years, in installations. For centuries, if words were part of a visual composition, they functioned as reference; strictly speaking, they were used as a guideline for a better perception of the subject represented. With the developments of the XXth century, words became a very important part of the visual composition, and sometimes embodied the composition itself. About this topic, American art critic and collector Russell Bowman wrote an interesting article called Words and images: A persistent paradox, in which he examines the American and the European art of the XXth century in almost its entirety, dividing it up in six “categories of intention”. The aforementioned categories are not based on the art history timeline, but on the role that language played for specific artists or movements. Taking inspiration from Bowman's article, this paper is structured in three chapters, respectively: words in juxtaposition and free association, words as means of exploration of language structures, and words as means for political and personal messages. The purpose of this paper is therefore to reflect on the role of language in contemporary art and on the way it has changed from artist to artist.