997 resultados para Cos de la pròstata
Resumo:
Spain is one of the countries with the highest greenhouse gas (GHG) emissions within the EU-27. Consequently, mitigation strategies need to be reported and quantified to accomplish the goals and requirements of the Kyoto Protocol. In this study, a first estimation of the carbon (C) mitigation potential of tillage reduction in Mediterranean rainfed Spain is presented. Results from eight studies carried out in Spain under rainfed agriculture to investigate the effects of no-tillage (NT) and reduced tillage (RT) compared with conventional tillage (CT) on soil organic carbon (SOC) were used. For current land surface under conservation tillage, NT and RT are sequestering 0.14 and 0.08 Tg C yr-1, respectively. Those rates represent 1.1% and 0.6% of the total CO2 emissions generated from agricultural activities in Spain during 2006. Alternatively, in a hypothetical scenario where all the arable dryland was under either NT or RT management, SOC sequestration would be 2.18 and 0.72 Tg C yr-1 representing 17.4% and 5.8% of the total 2006 CO2 equivalent emissions generated from the agricultural sector in Spain. This is a significant estimate that would help to achieve GHG emissions targets for the current commitment period of the Kyoto Protocol.
Resumo:
Documento electrónico de 14 páginas en formato PDF
Resumo:
Documento electrónico de 37 transparencias en formato PPS
Resumo:
Se presentan las conclusiones elaboradas tanto por los ponentes como por los asistentes a partir de las diferentes cuestiones surgidas en los grupos de trabajo. Documento electrónico de 13 transparencias en formato PPT.
Resumo:
Als països desenvolupats, una de cada cinc persones morirà a causa del càncer. S'ha descrit que les cèl·lules canceroses presenten modificacions en els glicans presents a la superfície cel·lular i aquesta glicosilació anòmala podria reflectir-se en les glicoproteïnes de secreció. Per aquest motiu es planteja l'estudi de la glicosilació de dues proteïnes de secreció en situació normal i tumoral: la ribonucleasa pancreática humana (RNasa 1) i l'antigen prostàtic específic (PSA). La RNasa 1 és una glicoproteïna secretada majoritàriament pel pàncreas. S'ha desenvolupat un mètode immunològic per a detectar els nivells de RNasa 1 en sèrum. Malgrat la millora de la sensibilitat, respecte d'estudis anteriors, no s'han observat diferències significatives entre la concentració de RNasa 1 en sèrum de pacients control sans, afectats de neoplàsia pancreàtica, de pancreatitis o d'altres patologies. L'estudi de les estructures glucídiques de la RNasa 1, mitjançant assaigs immunològics, permet observar diferències importants en la glicosilació entre la situació normal i tumoral: Els antígens sialilats sLex i sLea només apareixen en la RNasa 1 de medi de cultiu de cèl·lules d'adenocarcinoma pancreàtic Capan-1 i MDAPanc-3 i l'antigen fucosilat Ley només apareix en la RNasa 1 de pàncreas de donant. S'ha purificat la RNasa 1 secretada per la línia MDAPanc-3, cosa que ha permès seqüenciar-ne les estructures glucídiques i comparar-les amb les de la RNasa 1 purificada del medi de les cèl·lules Capan-1 i de pàncreas de donant, corroborant els resultats abans esmentats. L'antigen prostàtic específic (PSA) és una glicoproteïna secretada principalment per la pròstata. Els seus nivells sèrics s'utilitzen actualment com a marcador del càncer de pròstata, però la seva especificitat no permet diferenciar clarament una situació benigna d'una maligna. La purificació i caracterització glucídica del PSA secretat per les cèl·lules de carcinoma prostàtic LNCaP mostren diferències molt clares amb la glicosilació que presenta el PSA purificat de plasma seminal de donant. Principalment, el PSA present en situació tumoral, purificat de les cèl·lules de carcinoma prostàtic, no conté àcid siàlic, però presenta nivells més alts de fucosilació que el PSA en situació normal. El PSA purificat de plasma seminal de donant sí que conté àcid siàlic. Aquests resultats s'han obtingut mitjançant assaigs immunològics amb detecció per lectines i s'han corroborat per seqüenciació glucídica. D'acord amb les estructures glucídiques que millor diferencien el PSA de situació normal i tumoral, s'ha portat a terme la caracterització glucídica de mostres biològiques que contenen PSA. S'han desenvolupat diferents assaigs immunològics de detecció per lectines o associats a l'activitat sialiltransferasa, amb un enriquiment previ en PSA per immunoadsorció indirecta o cromatografia per interacció tiofílica. Els resultats dels diferents assaigs permeten concloure que el PSA del sèrum de pacients de neoplàsia prostàtica presenten un contingut en àcid siàlic similar al del plasma seminal de donant, encara que són lleugerament menys sialilats. Aquests resultats s'adiuen amb els determinats sobre mostres de PSA purificat. La separació del PSA per electroforesi bidimensional mostra diverses formes amb pI àcid en el PSA de plasma seminal, explicades per la presència d'àcid siàlic. Es detecten formes de pI més bàsic que el teòric per al PSA en el secretat per les cèl·lules LNCaP, que correspon a formes pPSA. Al sèrum de pacients de neoplàsia prostàtica s'hi observen formes sialilades. Les proteïnes de secreció, RNasa 1 i PSA, es troben alterades a nivell glucídic en situació tumoral, cosa que podria ser d'utilitat per a finalitats diagnòstiques.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Serviço Social - FCHS
Resumo:
I comportamenti nutrizionali stanno assumendo sempre maggiore rilievo all’interno delle politiche comunitarie e questo sottolinea che la dieta sta avendo, negli ultimi anni, una maggiore importanza come fattore di causa e allo stesso tempo prevenzione nella diffusione di malattie croniche come il cancro, malattie cardiovascolari, diabete, osteoporosi e disturbi dentali. Numerosi studi mostrano infatti che i tassi di obesità sono triplicati nelle ultime due decadi e si è stimato che, se i livelli di obesità continueranno a crescere allo stesso tasso del 1990, nel 2010 il numero di persone obese raggiungerà i 150 milioni tra gli adulti e i 15 milioni tra bambini e adolescenti. I governi nazionali stanno quindi cercando di risolvere questo problema, a cui sono inoltre legati alti costi nazionali, tramite l’implementazione di politiche nutrizionali. Analisi di tipo cross-section sono già state evidenziate da studiosi come Schmidhuber e Traill (2006), i quali hanno effettuato un’analisi di convergenza a livello europeo per esaminare la distanza tra le calorie immesse da 426 prodotti diversi. In quest’analisi hanno così dimostrato la presenza di una similarità distinta e crescente tra i paesi europei per quanto riguarda la composizione della dieta. Srinivasan et al. invece hanno osservato la relazione esistente tra ogni singolo prodotto alimentare consumato e le norme nutrizionali dell’ Organizzazione Mondiale della Sanità (World Health Organization, WHO) Lo scopo di questa tesi è quello di evidenziare il problema a livello di aggregati nutritivi e di specifiche componenti nutrizionali come zucchero, frutta e verdura e non relativamente ad ogni singolo prodotto consumato. A questo proposito ci si è basati sulla costruzione di un indicatore (Recommendation Compliance Index) in modo da poter misurare le distanze tra la dieta media e le raccomandazioni del WHO. Lo scopo è quindi quello di riuscire a quantificare il fenomeno del peggioramento della dieta in diverse aree del mondo negli ultimi quattro decenni, tramite un’analisi panel, basandosi sui dati sui nutrienti consumati, provenienti dal database della FAO (e precisamente dal dataset Food Balance Sheets – FBS). Nella prima fase si introduce il problema dell’obesità e delle malattie croniche correlate, evidenziando dati statistici in diversi paesi europei e mondiali. Si sottolineano inoltre le diverse azioni dei governi e del WHO, tramite l’attuazione di campagne contro l’obesità e in favore di una vita più salutare e di una maggiore attività fisica. Nella seconda fase si è costruito un indicatore aggregato (Recommendation Compliance Index) in modo da analizzare le caratteristiche nella dieta dei diversi Paesi a livello mondiale rispetto alle norme del WHO. L’indicatore si basa sui dati ottenuti da FAOSTAT ed è calcolato per 149 paesi del database dell’FBS per il periodo 1961-2002. Nell’analisi si sono utilizzati i dati sulle percentuali di energia prodotta dalle varie componenti nutritive, quali grassi, grassi saturi e transaturi, zuccheri, carboidrati, proteine e le quantità di frutta e verdura consumate. Inoltre si è applicato un test statistico per testare se il valore del RCI è significativamente cambiato nel tempo, prendendo in considerazione gruppi di Paesi (Paesi OECD, Paesi in via di sviluppo e sottosviluppati). Si è voluto poi valutare la presenza o meno di un processo di convergenza, applicando l’analisi di σ-convergenza per osservare ad esempio se la variabilità è diminuita nel tempo in modo significativo. Infine si è applicato l’indicatore ad un livello micro, utilizzando il database del National Diet and Nutrition Survey, che raccoglie dati di macrocomponenti nutritive e misure antropometriche della popolazione inglese dai 16 ai 64 anni per il periodo 2000-2001. Si sono quindi effettuate analisi descrittive nonché analisi di correlazione, regressione lineare e ordinale per osservare le relazioni tra l’indicatore, i macronutrienti, il reddito e le misure antropometriche dell’ Indice di Massa Corporea (Body Mass Index, BMI) e del rapporto vita-fianchi (Waist-hip ratio, WHR).
Resumo:
La tesi si occupa della teoria delle ranking functions di W. Spohn, dottrina epistemologica il cui fine è dare una veste logica rigorosa ai concetti di causalità, legge di natura, spiegazione scientifica, a partire dalla nozione di credenza. Di tale teoria manca ancora una esposizione organica e unitaria e, soprattutto, formulata in linguaggio immediatamente accessibile. Nel mio lavoro, che si presenta come introduzione ad essa, è anche messa a raffronto con le teorie che maggiormente l’hanno influenzata o rispetto alle quali si pone come avversaria. Il PRIMO CAPITOLO si concentra sulla teoria di P. Gärdenfors, il più diretto predecessore e ispiratore di Spohn. Questo consente al lettore di acquisire familiarità con le nozioni di base della logica epistemica. La conoscenza, nella teoria del filosofo svedese, è concepita come processo di acquisizione ed espulsione di credenze, identificate con proposizioni, da un insieme. I tre maggiori fenomeni epistemici sono l’espansione, la revisione e la contrazione. Nel primo caso si immagazzina una proposizione in precedenza sconosciuta, nel secondo se ne espelle una a causa dell’acquisizione della sua contraddittoria, nel terzo si cancella una proposizione per amore di ipotesi e si investigano le conseguenze di tale cancellazione. Controparte linguistica di quest’ultimo fenomeno è la formulazione di un condizionale controfattuale. L’epistemologo, così come Gärdenfors concepisce il suo compito, è fondamentalmente un logico che deve specificare funzioni: vale a dire, le regole che deve rispettare ciascun passaggio da un insieme epistemico a un successivo per via di espansione, revisione e contrazione. Il SECONDO CAPITOLO tratta infine della teoria di Spohn, cercando di esporla in modo esauriente ma anche molto semplice. Anche in Spohn evidentemente il concetto fondamentale è quello di funzione: si tratta però in questo caso di quella regola di giudizio soggettivo che, a ciascuna credenza, identificata con una proposizione, associa un grado (un rank), espresso da un numero naturale positivo o dallo zero. Un rank è un grado di non-credenza (disbelief). Perché la non-credenza (che comporta un notevole appesantimento concettuale)? Perché le leggi della credenza così concepite presentano quella che Spohn chiama una “pervasiva analogia” rispetto alle leggi della probabilità (Spohn la chiama persino “armonia prestabilita” ed è un campo su cui sta ancora lavorando). Essenziale è il concetto di condizionalizzazione (analogo a quello di probabilità condizionale): a una credenza si associa un rank sulla base di (almeno) un’altra credenza. Grazie a tale concetto Spohn può formalizzare un fenomeno che a Gärdenfors sfugge, ossia la presenza di correlazioni interdoxastiche tra le credenze di un soggetto. Nella logica epistemica del predecessore, infatti, tutto si riduce all’inclusione o meno di una proposizione nell’insieme, non si considerano né gradi di credenza né l’idea che una credenza sia creduta sulla base di un’altra. Il TERZO CAPITOLO passa alla teoria della causalità di Spohn. Anche questa nozione è affrontata in prospettiva epistemica. Non ha senso, secondo Spohn, chiedersi quali siano i tratti “reali” della causalità “nel mondo”, occorre invece studiare che cosa accade quando si crede che tra due fatti o eventi sussista una correlazione causale. Anche quest’ultima è fatta oggetto di una formalizzazione logica rigorosa (e diversificata, infatti Spohn riconosce vari tipi di causa). Una causa “innalza lo status epistemico” dell’effetto: vale a dire, quest’ultimo è creduto con rank maggiore (ossia minore, se ci si concentra sulla non-credenza) se condizionalizzato sulla causa. Nello stesso capitolo espongo la teoria della causalità di Gärdenfors, che però è meno articolata e minata da alcuni errori. Il QUARTO CAPITOLO è tutto dedicato a David Lewis e alla sua teoria controfattuale della causalità, che è il maggiore avversario tanto di Spohn quanto di Gärdenfors. Secondo Lewis la migliore definizione di causa può essere data in termini controfattuali: la causa è un evento tale che, se non fosse accaduto, nemmeno l’effetto sarebbe accaduto. Naturalmente questo lo obbliga a specificare una teoria delle condizioni di verità di tale classe di enunciati che, andando contro i fatti per definizione, non possono essere paragonati alla realtà. Lewis ricorre allora alla dottrina dei mondi possibili e della loro somiglianza comparativa, concludendo che un controfattuale è vero se il mondo possibile in cui il suo antecedente e il suo conseguente sono veri è più simile al mondo attuale del controfattuale in cui il suo antecedente è vero e il conseguente è falso. Il QUINTO CAPITOLO mette a confronto la teoria di Lewis con quelle di Spohn e Gärdenfors. Quest’ultimo riduce i controfattuali a un fenomeno linguistico che segnala il processo epistemico di contrazione, trattato nel primo capitolo, rifiutando così completamente la dottrina dei mondi possibili. Spohn non affronta direttamente i controfattuali (in quanto a suo dire sovraccarichi di sottigliezze linguistiche di cui non vuole occuparsi – ha solo un abbozzo di teoria dei condizionali) ma dimostra che la sua teoria è superiore a quella di Lewis perché riesce a rendere conto, con estrema esattezza, di casi problematici di causalità che sfuggono alla formulazione controfattuale. Si tratta di quei casi in cui sono in gioco, rafforzandosi a vicenda o “concorrendo” allo stesso effetto, più fattori causali (casi noti nella letteratura come preemption, trumping etc.). Spohn riesce a renderne conto proprio perché ha a disposizione i rank numerici, che consentono un’analisi secondo cui a ciascun fattore causale è assegnato un preciso ruolo quantitativamente espresso, mentre la dottrina controfattuale è incapace di operare simili distinzioni (un controfattuale infatti è vero o falso, senza gradazioni). Il SESTO CAPITOLO si concentra sui modelli di spiegazione scientifica di Hempel e Salmon, e sulla nozione di causalità sviluppata da quest’ultimo, mettendo in luce soprattutto il ruolo (problematico) delle leggi di natura e degli enunciati controfattuali (a questo proposito sono prese in considerazione anche le famose critiche di Goodman e Chisholm). Proprio dalla riflessione su questi modelli infatti è scaturita la teoria di Gärdenfors, e tanto la dottrina del filosofo svedese quanto quella di Spohn possono essere viste come finalizzate a rendere conto della spiegazione scientifica confrontandosi con questi modelli meno recenti. Il SETTIMO CAPITOLO si concentra sull’analisi che la logica epistemica fornisce delle leggi di natura, che nel capitolo precedente sono ovviamente emerse come elemento fondamentale della spiegazione scientifica. Secondo Spohn le leggi sono innanzitutto proposizioni generali affermative, che sono credute in modo speciale. In primo luogo sono credute persistentemente, vale a dire, non sono mai messe in dubbio (tanto che se si incappa in una loro contro-istanza si va alla ricerca di una violazione della normalità che la giustifichi). In secondo luogo, guidano e fondano la credenza in altre credenze specifiche, che sono su di esse condizionalizzate (si riprendono, con nuovo rigore logico, le vecchie idee di Wittgenstein e di Ramsey e il concetto di legge come inference ticket). In terzo luogo sono generalizzazioni ricavate induttivamente: sono oggettivazioni di schemi induttivi. Questo capitolo si sofferma anche sulla teoria di legge offerta da Gärdenfors (analoga ma embrionale) e sull’analisi che Spohn fornisce della nozione di clausola ceteris paribus. L’OTTAVO CAPITOLO termina l’analisi cominciata con il sesto, considerando finalmente il modello epistemico della spiegazione scientifica. Si comincia dal modello di Gärdenfors, che si mostra essere minato da alcuni errori o comunque caratterizzato in modo non sufficientemente chiaro (soprattutto perché non fa ricorso, stranamente, al concetto di legge). Segue il modello di Spohn; secondo Spohn le spiegazioni scientifiche sono caratterizzate dal fatto che forniscono (o sono finalizzate a fornire) ragioni stabili, vale a dire, riconducono determinati fenomeni alle loro cause e tali cause sono credute in modo persistente. Con una dimostrazione logica molto dettagliata e di acutezza sorprendente Spohn argomenta che simili ragioni, nel lungo periodo, devono essere incontrate. La sua quindi non è solo una teoria della spiegazione scientifica che elabori un modello epistemico di che cosa succede quando un fenomeno è spiegato, ma anche una teoria dello sviluppo della scienza in generale, che incoraggia a perseguire la ricerca delle cause come necessariamente coronata da successo. Le OSSERVAZIONI CONCLUSIVE fanno il punto sulle teorie esposte e sul loro raffronto. E’ riconosciuta la superiorità della teoria di Spohn, di cui si mostra anche che raccoglie in pieno l’eredità costruttiva di Hume, al quale gli avversari si rifanno costantemente ma in modo frammentario. Si analizzano poi gli elementi delle teorie di Hempel e Salmon che hanno precorso l’impostazione epistemica. La teoria di Spohn non è esente però da alcuni punti ancora problematici. Innanzitutto, il ruolo della verità; in un primo tempo Spohn sembra rinunciare, come fa esplicitamente il suo predecessore, a trattare la verità, salvo poi invocarla quando si pone il grave problema dell’oggettivazione delle ranking functions (il problema si presenta poiché di esse inizialmente si dice che sono regole soggettive di giudizio e poi si identificano in parte con le leggi di natura). C’è poi la dottrina dei gradi di credenza che Spohn dice presentarsi “unitamente alle proposizioni” e che costituisce un inutile distacco dal realismo psicologico (critica consueta alla teoria): basterebbe osservare che i gradi di credenza sono ricavati o per condizionalizzazione automatica sulla base del tipo di fonte da cui una proposizione proviene, o per paragone immaginario con altre fonti (la maggiore o minore credenza infatti è un concetto relazionale: si crede di più o di meno “sulla base di…” o “rispetto a…”). Anche la trattazione delle leggi di natura è problematica; Spohn sostiene che sono ranking functions: a mio avviso invece esse concorrono a regole di giudizio, che prescrivono di impiegare le leggi stesse per valutare proposizioni o aspettative. Una legge di natura è un ingranaggio, per così dire, di una valutazione di certezza ma non si identifica totalmente con una legge di giudizio. I tre criteri che Spohn individua per distinguere le leggi poi non sono rispettati da tutte e sole le leggi stesse: la generalizzazione induttiva può anche dare adito a pregiudizi, e non di tutte le leggi si sono viste, individualmente, istanze ripetute tanto da giustificarle induttivamente. Infine, un episodio reale di storia della scienza come la scoperta della sintesi dell’urea da parte di F. Wöhler (1828 – ottenendo carbammide, organico, da due sostanze inorganiche, dimostra che non è vera la legge di natura fini a quel momento presunta tale secondo cui “sostanze organiche non possono essere ricavate da sostanze inorganiche”) è indice che le leggi di natura non sono sempre credute in modo persistente, cosicché per comprendere il momento della scoperta è pur sempre necessario rifarsi a una teoria di tipo popperiano, rispetto alla quale Spohn presenta invece la propria in assoluta antitesi.
Resumo:
L’oggetto della presente tesi di ricerca è l’analisi della situazione attuale della protezione degli interessi finanziari delle Comunità Europee, oltre che le sue prospettive di futuro. Il lavoro è suddiviso in due grandi parti. La prima studia il regime giuridico del Diritto sanzionatorio comunitario, cioè, la competenza sanzionatoria dell’Unione Europea. Questa sezione è stata ricostruita prendendo in considerazione i precetti normativi del Diritto originario e derivato, oltre che le principali sentenze della Corte di Giustizia, tra cui assumono particolare rilievo le sentenze di 27 ottobre 1992, Germania c. Commissione, affare C-240/90 e di 13 settembre 2005 e di 23 ottobre 2007, Commissione c. Consiglio, affari C-176/03 e C-440/05. A questo segue l’analisi del ruolo dei diritti fondamentali nell’ordinamento comunitario, così come la rilevanza della Convenzione Europea dei Diritti dell’Uomo e la Corte Europea dei Diritti dell’Uomo. Il secondo capitolo si sofferma particolarmente sullo studio delle sanzioni comunitarie, classificandole in ragione della loro natura giuridica alla luce anche dei principi generali di legalità, di proporzionalità, di colpevolezza e del non bis in idem. La seconda sezione sviluppa un’analisi dettagliata del regime giuridico della protezione degli interessi finanziari comunitari. Questa parte viene costruita indagando tutta l’evoluzione normativa e istituzionale, in considerazione anche delle novità più recenti (ad esempio, l’istituzione del Pubblico Ministero Europeo). In questo contesto si definisce il contenuto del concetto di interessi finanziari comunitari, dato che non esiste un’analoga definizione comunitaria della fattispecie. L’attenzione del dottorando si concentra poi sulla Convenzione avente ad oggetto la tutela degli interessi finanziari delle Comunità Europee e i regolamenti del Consiglio n. 2988/95 e 2185/96, che costituiscono la parte generale del Diritto sanzionatorio comunitario. Alla fine si esamina la ricezione della Convenzione PIF nel Codice Penale spagnolo e i principali problemi di cui derivano. L’originalità dell’approccio proposto deriva dell’assenza di un lavoro recente che, in modo esclusivo e concreto, analizzi la protezione amministrativa e penale degli interessi finanziari della Comunità. Inoltre, la Carta Europea di Diritti Fondamentali e il Trattato di Lisbona sono due grandi novità che diventeranno una realtà tra poco tempo.
Resumo:
Il presente studio, per ciò che concerne la prima parte della ricerca, si propone di fornire un’analisi che ripercorra il pensiero teorico e la pratica critica di Louis Marin, mettendone in rilievo i caratteri salienti affinché si possa verificare se, nella loro eterogenea interdisciplinarità, non emerga un profilo unitario che consenta di ricomprenderli in un qualche paradigma estetico moderno e/o contemporaneo. Va innanzitutto rilevato che la formazione intellettuale di Marin è avvenuta nell’alveo di quel montante e pervasivo interesse che lo strutturalismo di stampo linguistico seppe suscitare nelle scienze sociali degli anni sessanta. Si è cercato, allora, prima di misurare la distanza che separa l’approccio di Marin ai testi da quello praticato dalla semiotica greimasiana, impostasi in Francia come modello dominante di quella svolta semiotica che ha interessato in quegli anni diverse discipline: dagli studi estetici all’antropologia, dalla psicanalisi alla filosofia. Si è proceduto, quindi, ad un confronto tra l’apparato concettuale elaborato dalla semiotica e alcune celebri analisi del nostro autore – tratte soprattutto da Opacité de la peinture e De la représentation. Seppure Marin non abbia mai articolato sistematicametne i principi teorici che esplicitassero la sua decisa contrapposizione al potente modello greimasiano, tuttavia le reiterate riflessioni intorno ai presupposti epistemologici del proprio modo di interpretare i testi – nonché le analisi di opere pittoriche, narrative e teoriche che ci ha lasciato in centinaia di studi – permettono di definirne una concezione estetica nettamente distinta dalla pratica semio-semantica della scuola di A. J. Greimas. Da questo confronto risulterà, piuttosto, che è il pensiero di un linguista sui generis come E. Benveniste ad avere fecondato le riflessioni di Marin il quale, d’altra parte, ha saputo rielaborare originalmente i contributi fondamentali che Benveniste diede alla costruzione della teoria dell’enunciazione linguistica. Impostando l’equazione: enunciazione linguistica=rappresentazione visiva (in senso lato), Marin diviene l’inventore del dispositivo concettuale e operativo che consentirà di analizzare l’enunciazione visiva: la superficie di rappresentazione, la cornice, lo sguardo, l’iscrizione, il gesto, lo specchio, lo schema prospettico, il trompe-l’oeil, sono solo alcune delle figure in cui Marin vede tradotto – ma in realtà immagina ex novo – quei dispositivi enunciazionali che il linguista aveva individuato alla base della parole come messa in funzione della langue. Marin ha saputo così interpretare, in modo convincente, le opere e i testi della cultura francese del XVII secolo alla quale sono dedicati buona parte dei suoi studi: dai pittori del classicismo (Poussin, Le Brun, de Champaigne, ecc.) agli eruditi della cerchia di Luigi XIV, dai filosofi (soprattutto Pascal), grammatici e logici di Port-Royal alle favole di La Fontaine e Perrault. Ma, come si evince soprattutto da testi come Opacité de la peinture, Marin risulterà anche un grande interprete del rinascimento italiano. In secondo luogo si è cercato di interpretare Le portrait du Roi, il testo forse più celebre dell’autore, sulla scorta dell’ontologia dell’immagine che Gadamer elabora nel suo Verità e metodo, non certo per praticare una riduzione acritica di due concezioni che partono da presupposti divergenti – lo strutturalismo e la critica d’arte da una parte, l’ermeneutica filosofica dall’altra – ma per rilevare che entrambi ricorrono al concetto di rappresentazione intendendolo non tanto come mimesis ma soprattutto, per usare il termine di Gadamer, come repraesentatio. Sia Gadamer che Marin concepiscono la rappresentazione non solo come sostituzione mimetica del rappresentato – cioè nella direzione univoca che dal rappresentato conduce all’immagine – ma anche come originaria duplicazione di esso, la quale conferisce al rappresentato la sua legittimazione, la sua ragione o il suo incremento d’essere. Nella rappresentazione in quanto capace di legittimare il rappresentato – di cui pure è la raffigurazione – abbiamo così rintracciato la cifra comune tra l’estetica di Marin e l’ontologia dell’immagine di Gadamer. Infine, ci è sembrato di poter ricondurre la teoria della rappresentazione di Marin all’interno del paradigma estetico elaborato da Kant nella sua terza Critica. Sebbene manchino in Marin espliciti riferimenti in tal senso, la sua teoria della rappresentazione – in quanto dire che mostra se stesso nel momento in cui dice qualcos’altro – può essere intesa come una riflessione estetica che trova nel sensibile la sua condizione trascendentale di significazione. In particolare, le riflessioni kantiane sul sentimento di sublime – a cui abbiamo dedicato una lunga disamina – ci sono sembrate chiarificatrici della dinamica a cui è sottoposta la relazione tra rappresentazione e rappresentato nella concezione di Marin. L’assolutamente grande e potente come tratti distintivi del sublime discusso da Kant, sono stati da noi considerati solo nella misura in cui ci permettevano di fare emergere la rappresentazione della grandezza e del potere assoluto del monarca (Luigi XIV) come potere conferitogli da una rappresentazione estetico-politica costruita ad arte. Ma sono piuttosto le facoltà in gioco nella nostra più comune esperienza delle grandezze, e che il sublime matematico mette esemplarmente in mostra – la valutazione estetica e l’immaginazione – ad averci fornito la chiave interpretativa per comprendere ciò che Marin ripete in più luoghi citando Pascal: una città, da lontano, è una città ma appena mi avvicino sono case, alberi, erba, insetti, ecc… Così abbiamo applicato i concetti emersi nella discussione sul sublime al rapporto tra la rappresentazione e il visibile rappresentato: rapporto che non smette, per Marin, di riconfigurarsi sempre di nuovo. Nella seconda parte della tesi, quella dedicata all’opera di Bernard Stiegler, il problema della comprensione delle immagini è stato affrontato solo dopo aver posto e discusso la tesi che la tecnica, lungi dall’essere un portato accidentale e sussidiario dell’uomo – solitamente supposto anche da chi ne riconosce la pervasività e ne coglie il cogente condizionamento – deve invece essere compresa proprio come la condizione costitutiva della sua stessa umanità. Tesi che, forse, poteva essere tematizzata in tutta la sua portata solo da un pensatore testimone delle invenzioni tecnico-tecnologiche del nostro tempo e del conseguente e radicale disorientamento a cui esse ci costringono. Per chiarire la propria concezione della tecnica, nel I volume di La technique et le temps – opera alla quale, soprattutto, sarà dedicato il nostro studio – Stiegler decide di riprendere il problema da dove lo aveva lasciato Heidegger con La questione della tecnica: se volgiamo coglierne l’essenza non è più possibile pensarla come un insieme di mezzi prodotti dalla creatività umana secondo un certi fini, cioè strumentalmente, ma come un modo di dis-velamento della verità dell’essere. Posto così il problema, e dopo aver mostrato come i sistemi tecnici tendano ad evolversi in base a tendenze loro proprie che in buona parte prescindono dall’inventività umana (qui il riferimento è ad autori come F. Gille e G. Simondon), Stiegler si impegna a riprendere e discutere i contributi di A. Leroi-Gourhan. È noto come per il paletnologo l’uomo sia cominciato dai piedi, cioè dall’assunzione della posizione eretta, la quale gli avrebbe permesso di liberare le mani prima destinate alla deambulazione e di sviluppare anatomicamente la faccia e la volta cranica quali ondizioni per l’insorgenza di quelle capacità tecniche e linguistiche che lo contraddistinguono. Dei risultati conseguiti da Leroi-Gourhan e consegnati soprattutto in Le geste et la parole, Stiegler accoglie soprattutto l’idea che l’uomo si vada definendo attraverso un processo – ancora in atto – che inizia col primo gesto di esteriorizzazione dell’esperienza umana nell’oggetto tecnico. Col che è già posta, per Stiegler, anche la prima forma di simbolizzazione e di rapporto al tempo che lo caratterizzano ancora oggi. Esteriorità e interiorità dell’uomo sono, per Stiegler, transduttive, cioè si originano ed evolvono insieme. Riprendendo, in seguito, l’anti-antropologia filosofica sviluppata da Heidegger nell’analitica esistenziale di Essere e tempo, Stiegler dimostra che, se si vuole cogliere l’effettività della condizione dell’esistenza umana, è necessaria un’analisi degli oggetti tecnici che però Heidegger relega nella sfera dell’intramondano e dunque esclude dalla temporalità autentica dell’esser-ci. Se è vero che l’uomo – o il chi, come lo chiama Stiegler per distinguerlo dal che-cosa tecnico – trova nell’essere-nel-mondo la sua prima e più fattiva possibilità d’essere, è altrettanto verò che questo mondo ereditato da altri è già strutturato tecnicamente, è già saturo della temporalità depositata nelle protesi tecniche nelle quali l’uomo si esteriorizza, e nelle quali soltanto, quindi, può trovare quelle possibilità im-proprie e condivise (perché tramandate e impersonali) a partire dalle quali poter progettare la propria individuazione nel tempo. Nel percorso di lettura che abbiamo seguito per il II e III volume de La technique et le temps, l’autore è impegnato innanzitutto in una polemica serrata con le analisi fenomenologiche che Husserl sviluppa intorno alla coscienza interna del tempo. Questa fenomenologia del tempo, prendendo ad esame un oggetto temporale – ad esempio una melodia – giunge ad opporre ricordo primario (ritenzione) e ricordo secondario (rimemorazione) sulla base dell’apporto percettivo e immaginativo della coscienza nella costituzione del fenomeno temporale. In questo modo Husserl si preclude la possibilità di cogliere il contributo che l’oggetto tecnico – ad esempio la registrazione analogica di una melodia – dà alla costituzione del flusso temporale. Anzi, Husserl esclude esplicitamente che una qualsiasi coscienza d’immagine – termine al quale Stiegler fa corrispondere quello di ricordo terziario: un testo scritto, una registrazione, un’immagine, un’opera, un qualsiasi supporto memonico trascendente la coscienza – possa rientrare nella dimensione origianaria e costitutiva di tempo. In essa può trovar posto solo la coscienza con i suo vissuti temporali percepiti, ritenuti o ricordati (rimemorati). Dopo un’attenta rilettura del testo husserliano, abbiamo seguito Stiegler passo a passo nel percorso di legittimazione dell’oggetto tecnico quale condizione costitutiva dell’esperienza temporale, mostrando come le tecniche di registrazione analogica di un oggetto temporale modifichino, in tutta evidenza, il flusso ritentivo della coscienza – che Husserl aveva supposto automatico e necessitante – e con ciò regolino, conseguente, la reciproca permeabilità tra ricordo primario e secondario. L’interpretazione tecnica di alcuni oggetti temporali – una foto, la sequenza di un film – e delle possibilità dispiegate da alcuni dispositivi tecnologici – la programmazione e la diffusione audiovisiva in diretta, l’immagine analogico-digitale – concludono questo lavoro richiamando l’attenzione sia sull’evidenza prodotta da tali esperienze – evidenza tutta tecnica e trascendente la coscienza – sia sul sapere tecnico dell’uomo quale condizione – trascendentale e fattuale al tempo stesso – per la comprensione delle immagini e di ogni oggetto temporale in generale. Prendendo dunque le mosse da una riflessione, quella di Marin, che si muove all’interno di una sostanziale antropologia filosofica preoccupata di reperire, nell’uomo, le condizioni di possibilità per la comprensione delle immagini come rappresentazioni – condizione che verrà reperità nella sensibilità o nell’aisthesis dello spettatore – il presente lavoro passerà, dunque, a considerare la riflessione tecno-logica di Stiegler trovando nelle immagini in quanto oggetti tecnici esterni all’uomo – cioè nelle protesi della sua sensibilità – le condizioni di possibilità per la comprensione del suo rapporto al tempo.
Resumo:
Il progetto di tesi dottorale qui presentato intende proporsi come il proseguimento e l’approfondimento del progetto di ricerca - svoltosi tra il e il 2006 e il 2008 grazie alla collaborazione tra l’Università di Bologna, la Cineteca del Comune e dalla Fondazione Istituto Gramsci Emilia-Romagna - dal titolo Analisi e catalogazione dell’Archivio audiovisivo del PCI dell’Emilia-Romagna di proprietà dell’Istituto Gramsci. La ricerca ha indagato la menzionata collezione che costituiva, in un arco temporale che va dagli anni Cinquanta agli anni Ottanta, una sorta di cineteca interna alla Federazione del Partito Comunista Italiano di Bologna, gestita da un gruppo di volontari denominato “Gruppo Audiovisivi della Federazione del PCI”. Il fondo, entrato in possesso dell’Istituto Gramsci nel 1993, è composto, oltre che da documenti cartacei, anche e sopratutto da un nutrito numero di film e documentari in grado di raccontare sia la storia dell’associazione (in particolare, delle sue relazioni con le sezioni e i circoli della regione) sia, in una prospettiva più ampia, di ricostruire il particolare rapporto che la sede centrale del partito intratteneva con una delle sue cellule regionali più importanti e rappresentative. Il lavoro svolto sul fondo Gramsci ha suscitato una serie di riflessioni che hanno costituito la base per il progetto della ricerca presentata in queste pagine: prima fra tutte, l’idea di realizzare un censimento, da effettuarsi su base regionale, per verificare quali e quanti audiovisivi di propaganda comunista fossero ancora conservati sul territorio. La ricerca, i cui esiti sono consultabili nell’appendice di questo scritto, si è concentrata prevalentemente sugli archivi e sui principali istituti di ricerca dell’Emilia-Romagna: sono questi i luoghi in cui, di fatto, le federazioni e le sezioni del PCI depositarono (o alle quali donarono) le proprie realizzazioni o le proprie collezioni audiovisive al momento della loro chiusura. Il risultato dell’indagine è un nutrito gruppo di film e documentari, registrati sui supporti più diversi e dalle provenienze più disparate: produzioni locali, regionali, nazionali (inviati dalla sede centrale del partito e dalle istituzioni addette alla propaganda), si mescolano a pellicole provenienti dall’estero - testimoni della rete di contatti, in particolare con i paesi comunisti, che il PCI aveva intessuto nel tempo - e a documenti realizzati all’interno dell’articolato contesto associazionistico italiano, composto sia da organizzazioni nazionali ben strutturate sul territorio 8 sia da entità più sporadiche, nate sull’onda di particolari avvenimenti di natura politica e sociale (per esempio i movimenti giovanili e studenteschi sorti durante il ’68). L’incontro con questa tipologia di documenti - così ricchi di informazioni differenti e capaci, per loro stessa natura, di offrire stimoli e spunti di ricerca assolutamente variegati - ha fatto sorgere una serie di domande di diversa natura, che fanno riferimento non solo all’audiovisivo in quanto tale (inteso in termini di contenuti, modalità espressive e narrative, contesto di produzione) ma anche e soprattutto alla natura e alle potenzialità dell’oggetto indagato, concepito in questo caso come una fonte. In altri termini, la raccolta e la catalogazione del materiale, insieme alle ricerche volte a ricostruirne le modalità produttive, gli argomenti, i tratti ricorrenti nell’ambito della comunicazione propagandistica, ha dato adito a una riflessione di carattere più generale, che guarda al rapporto tra mezzo cinematografico e storiografia e, più in dettaglio, all’utilizzo dell’immagine filmica come fonte per la ricerca. Il tutto inserito nel contesto della nostra epoca e, più in particolare, delle possibilità offerte dai mezzi di comunicazione contemporanei. Di fatti, il percorso di riflessione compiuto in queste pagine intende concludersi con una disamina del rapporto tra cinema e storia alla luce delle novità introdotte dalla tecnologia moderna, basata sui concetti chiave di riuso e di intermedialità. Processi di integrazione e rielaborazione mediale capaci di fornire nuove potenzialità anche ai documenti audiovisivi oggetto dei questa analisi: sia per ciò che riguarda il loro utilizzo come fonte storica, sia per quanto concerne un loro impiego nella didattica e nell’insegnamento - nel rispetto della necessaria interdisciplinarietà richiesta nell’utilizzo di questi documenti - all’interno di una più generale rivoluzione mediale che mette in discussione anche il classico concetto di “archivio”, di “fonte” e di “documento”. Nel tentativo di bilanciare i differenti aspetti che questa ricerca intende prendere in esame, la struttura del volume è stata pensata, in termini generali, come ad un percorso suddiviso in tre tappe: la prima, che guarda al passato, quando gli audiovisivi oggetto della ricerca vennero prodotti e distribuiti; una seconda sezione, che fa riferimento all’oggi, momento della riflessione e dell’analisi; per concludere in una terza area, dedicata alla disamina delle potenzialità di questi documenti alla luce delle nuove tecnologie multimediali. Un viaggio che è anche il percorso “ideale” condotto dal ricercatore: dalla scoperta all’analisi, fino alla rimessa in circolo (anche sotto un’altra forma) degli oggetti indagati, all’interno di un altrettanto ideale universo culturale capace di valorizzare qualsiasi tipo di fonte e documento. All’interno di questa struttura generale, la ricerca è stata compiuta cercando di conciliare diversi piani d’analisi, necessari per un adeguato studio dei documenti rintracciati i quali, come si è detto, si presentano estremamente articolati e sfaccettati. 9 Dal punto di vista dei contenuti, infatti, il corpus documentale presenta praticamente tutta la storia italiana del tentennio considerato: non solo storia del Partito Comunista e delle sue campagne di propaganda, ma anche storia sociale, culturale ed economica, in un percorso di crescita e di evoluzione che, dagli anni Cinquanta, portò la nazione ad assumere lo status di paese moderno. In secondo luogo, questi documenti audiovisivi sono prodotti di propaganda realizzati da un partito politico con il preciso scopo di convincere e coinvolgere le masse (degli iscritti e non). Osservarne le modalità produttive, il contesto di realizzazione e le dinamiche culturali interne alla compagine oggetto della ricerca assume un valore centrale per comprendere al meglio la natura dei documenti stessi. I quali, in ultima istanza, sono anche e soprattutto dei film, realizzati in un preciso contesto storico, che è anche storia della settima arte: più in particolare, di quella cinematografia che si propone come “alternativa” al circuito commerciale, strettamente collegata a quella “cultura di sinistra” sulla quale il PCI (almeno fino alla fine degli anni Sessanta) poté godere di un dominio incontrastato. Nel tentativo di condurre una ricerca che tenesse conto di questi differenti aspetti, il lavoro è stato suddiviso in tre sezioni distinte. La prima (che comprende i capitoli 1 e 2) sarà interamente dedicata alla ricostruzione del panorama storico all’interno del quale questi audiovisivi nacquero e vennero distribuiti. Una ricostruzione che intende osservare, in parallelo, i principali eventi della storia nazionale (siano essi di natura politica, sociale ed economica), la storia interna del Partito Comunista e, non da ultimo, la storia della cinematografia nazionale (interna ed esterna al partito). Questo non solo per fornire il contesto adeguato all’interno del quale inserire i documenti osservati, ma anche per spiegarne i contenuti: questi audiovisivi, infatti, non solo sono testimoni degli eventi salienti della storia politica nazionale, ma raccontano anche delle crisi e dei “boom” economici; della vita quotidiana della popolazione e dei suoi problemi, dell’emigrazione, della sanità e della speculazione edilizia; delle rivendicazioni sociali, del movimento delle donne, delle lotte dei giovani sessantottini. C’è, all’interno di questi materiali, tutta la storia del paese, che è contesto di produzione ma anche soggetto del racconto. Un racconto che, una volta spiegato nei contenuti, va indagato nella forma. In questo senso, il terzo capitolo di questo scritto si concentrerà sul concetto di “propaganda” e nella sua verifica pratica attraverso l’analisi dei documenti reperiti. Si cercherà quindi di realizzare una mappatura dei temi portanti della comunicazione politica comunista osservata nel suo evolversi e, in secondo luogo, di analizzare come questi stessi temi-chiave vengano di volta in volta declinati e 10 rappresentati tramite le immagini in movimento. L’alterità positiva del partito - concetto cardine che rappresenta il nucleo ideologico fondante la struttura stessa del Partito Comunista Italiano - verrà quindi osservato nelle sue variegate forme di rappresentazione, nel suo incarnare, di volta in volta, a seconda dei temi e degli argomenti rilevanti, la possibilità della pace; il buongoverno; la verità (contro la menzogna democristiana); la libertà (contro il bigottismo cattolico); la possibilità di un generale cambiamento. La realizzazione di alcuni percorsi d’analisi tra le pellicole reperite presso gli archivi della regione viene proposto, in questa sede, come l’ideale conclusione di un excursus storico che, all’interno dei capitoli precedenti, ha preso in considerazione la storia della cinematografia nazionale (in particolare del contesto produttivo alternativo a quello commerciale) e, in parallelo, l’analisi della produzione audiovisiva interna al PCI, dove si sono voluti osservare non solo gli enti e le istituzioni che internamente al partito si occupavano della cultura e della propaganda - in una distinzione terminologica non solo formale - ma anche le reti di relazioni e i contatti con il contesto cinematografico di cui si è detto. L’intenzione è duplice: da un lato, per inserire la storia del PCI e dei suoi prodotti di propaganda in un contesto socio-culturale reale, senza considerare queste produzioni - così come la vita stessa del partito - come avulsa da una realtà con la quale necessariamente entrava in contatto; in secondo luogo, per portare avanti un altro tipo di discorso, di carattere più speculativo, esplicitato all’interno del quarto capitolo. Ciò che si è voluto indagare, di fatto, non è solo la natura e i contenti di questi documenti audiovisivi, ma anche il loro ruolo nel sistema di comunicazione e di propaganda di partito, dove quest’ultima è identificata come il punto di contatto tra l’intellighenzia comunista (la cultura alta, legittima) e la cultura popolare (in termini gramsciani, subalterna). Il PCI, in questi termini, viene osservato come un microcosmo in grado di ripropone su scala ridotta le dinamiche e le problematiche tipiche della società moderna. L’analisi della storia della sua relazione con la società (cfr. capitolo 2) viene qui letta alla luce di alcune delle principali teorie della storia del consumi e delle interpretazioni circa l’avvento della società di massa. Lo scopo ultimo è quello di verificare se, con l’affermazione dell’industria culturale moderna si sia effettivamente verificata la rottura delle tradizionali divisioni di classe, della classica distinzione tra cultura alta e bassa, se esiste realmente una zona intermedia - nel caso del partito, identificata nella propaganda - in cui si attui concretamente questo rimescolamento, in cui si realizzi realmente la nascita di una “terza cultura” effettivamente nuova e dal carattere comunitario. Il quinto e ultimo capitolo di questo scritto fa invece riferimento a un altro ordine di problemi e argomenti, di cui in parte si è già detto. La ricerca, in questo caso, si è indirizzata verso una 11 riflessione circa l’oggetto stesso dello studio: l’audiovisivo come fonte. La rassegna delle diverse problematiche scaturite dal rapporto tra cinema e storia è corredata dall’analisi delle principali teorie che hanno permesso l’evoluzione di questa relazione, evidenziando di volta in volta le diverse potenzialità che essa può esprimere le sue possibilità d’impiego all’interno di ambiti di ricerca differenti. Il capitolo si completa con una panoramica circa le attuali possibilità di impiego e di riuso di queste fonti: la rassegna e l’analisi dei portali on-line aperti dai principali archivi storici nazionali (e la relativa messa a disposizione dei documenti); il progetto per la creazione di un “museo multimediale del lavoro” e, a seguire, il progetto didattico dei Learning Objects intendono fornire degli spunti per un futuro, possibile utilizzo di questi documenti audiovisivi, di cui questo scritto ha voluto porre in rilievo il valore e le numerose potenzialità.
Resumo:
Gli organismi biologici mostrano ricorrenti dinamiche di auto-organizzazione nei processi morfogenetici che sono alla base di come la materia acquisisce gerarchia e organizzazione.L’omeostasi è la condizione con la quale un corpo raggiunge il proprio equilibrio (termico, pressione, ecc.); un processo attraverso il quale questi sistemi stabilzzano le reazioni fisiologiche. Una delle caratteristiche fondamentali esibite da tali organismi è la capacità della materia di instaurare processi di auto-organizzazione, responsabile dei processi di ottimizzazione che guidano all’uso efficiente dell’energia nella lotta per la sopravvivenza. Questa ottimizzazione non mira al raggiungimento di un risultato globale deterministico e “chiuso” (precedentemente stabilito e poi perseguito ad ogni costo), quanto piuttosto al raggiungimento di un’efficienza di processi locali con obiettivi multipli e necessità divergenti; tali processi interagiscono organizzando sistemi nei quali proprietà peculiari uniche emergono dalle interazioni descritte. Le esigenze divergenti non sono negoziate sulla base di un principio di esclusività (una esigenza esclude o elimina le altre) ma da un principio di prevalenza, dove le necessità non prevalenti non cessano di esistere ma si modificano in funzione di quelle prevalenti (il proprio campo di espressione è vincolato dai percorsi tracciati in quello delle esigenze prevalenti). In questa tesi si descrive un’applicazione ad uno specifico caso di studio di progettazione architettonica: un parco con spazi polifunzionali nella città di Bologna. L’obiettivo principale del progetto Homeostatic Pattern è quello di dimostrare come questo tipo di processi possano essere osservati, compresi e traslati in architettura: come per gli organismi biologici, in questo progetto gli scambi di materia ed energia (stabilità, respirazione, porosità alla luce) sono regolati da sistemi integrati efficienti piuttosto che da raggruppamenti di elementi mono-ottimizzati. Una specifica pipeline di software è stata costituita allo scopo di collegare in modo bidirezionale e senza soluzione di continuità un software di progettazione parametrica generativa (Grasshopper®) con software di analisi strutturale ed ambientale (GSA Oasys®, Autodesk® Ecotect® analysis), riconducendo i dati nella stessa struttura attraverso cicli di feedback. Il sistema così ottenuto mostra caratteristiche sia a scala macroscopica, come la possibilità di utilizzo della superficie esterna che permette anche un’estensione dell’area verde (grazie alla continuità della membrana), sia alla scala del componente, come la propria capacità di negoziare, tra le altre, la radiazione solare e la modulazione della luce, così come la raccolta capillare delle acque meteoriche. Un sistema multiperformante che come tale non persegue l’ottimizzazione di una singola proprietà ma un miglioramento complessivo per una maggiore efficienza.