75 resultados para Evidenza
em AMS Tesi di Dottorato - Alm@DL - Università di Bologna
Resumo:
The CL/P are the most common and easily recognizable craniofacial malformations with a complex etiology that requires the involvement of genetic and environmental components. The analysis of the genetic component shows more than 14 loci and genes involved in the onset of the disease. I’ve selected and investigated some of the possible candidate genes for CL/P. MYH14 gene, that maps on chromosome 19, on the OFC3 locus, and shows a strong homology with MYH9 gene. I’ve also investigated TP63 and MID1 genes, that are responsible respectively for EEC syndrome and Opitz syndrome, both of them presenting cleft. I’ve also decided to investigate JAG2 because TP63 product regulates the this gene, and both of them are component of the Notch signalling pathway. I’ve, also, studied the MKX and LMO4 genes. MKX is an important development regulator that is highly expressed in palatal mesenchyme, and map in the region responsible for Twirler mutation that cause cleft in mouse. LMO4 is necessary for neural tube development and cooperating with Grhl3, promotes cellular migration during morphogenetic events like “in utero” cleft healing. Low folate levels and high levels of homocysteine increase the risk of cleft, genes involved in their metabolism may be of interest in cleft occurrence. I’ve decided to investigate BHMT and CBS genes coding for enzymes involved in homocysteine metabolism. I’ve also investigated BHMT2 gene that maps close to BHMT and presents with him a 73% of homology. I’ve performed a linkage analysis using SNPs mapping in the genes and their boundaries, for each gene, for MKX and LMO4 I’ve also performed a sequencing analysis. My results for MID1 and CBS genes support the hypothesis of a possible role of these genes in cleft. I’ve found borderline association values for JAG2, MKX and LMO4 genes.
Resumo:
Il contributo di ricerca di questo lavoro è consistito nel rivalutare da un punto di vista diagnostico, classificativo e statistico, una casistica di neoplasie del gatto archiviate in 23 anni (1984-2006). Nei primi 20 anni sono state diagnosticate 1696 neoplasie su un totale di 3682 campioni prevenuti nello stesso periodo, con una prevalenza delle patologie di tipo neoplastico del 46,06%. Nei tre anni successivi sono state individuate 382 neoplasie su un totale di 601 campioni archiviati, con una prevalenza del 61,02%. Le neoplasie avevano per l'81,8% un comportamento maligno, e questo dato risulta coerente con il dato più recente sulla malignità (85,6%) e con quello fornito da altri autori. L'età dei soggetti affetti era simile nei due studi, compresa fra pochi mesi e 22 anni, con il maggior numero di casi fra 9 e 13 anni. Le due casistiche presentano inoltre dati simili riguardo gli organi coinvolti anche se i tumori della mammella sono notevolmente diminuiti negli ultimi anni, con un aumento corrispondente di neoplasie cutanee. I fibrosarcomi, che hanno subito un drastico aumento tra il 1993 e il 1994 si sono mantenuti costanti in tutti gli anni successivi, dato ancora oggi quasi certamente correlabile alle pratiche vaccinali. I linfomi sono risultati piuttosto infrequenti in entrambe le casistiche, comparate con i dati della letteratura in cui vengono riportate percentuali nettamente maggiori. I tumori del cavo orale e dell'intestino hanno mantenuto circa le stesse percentuali di insorgenza nel corso degli anni. Tra i tumori presenti in questo studio, sono stati approfonditi i tumori a carico delle sierose (mesoteliomi) e del polmone attraverso metodiche immunoistochimiche e ultrastrutturali. Nei 23 anni sono stati diagnosticati 10 casi di mesotelioma, di cui 8 coinvolgenti la pleura e due il peritoneo. Su questi casi è stata applicata una metodica immunoistochimica con un pannello anticorpale utilizzato di routine in patologia umana per la diagnosi di mesotelioma e per la diagnosi differenziale con i carcinomi polmonari. Tutti i casi presentavano una doppia positività per vimentina e citocheratine ad ampio spettro; anticorpi specifici come CK5/6 e HBME-1 hanno presentato una buona specificità. Anche la microscopia elettronica si è rivelata di ausilio, mettendo in evidenza la presenza di tonofilamenti citoplasmatici e di microvilli, tipici delle cellule mesoteliali. Le neoplasie polmonari, analogamente a quelle umane hanno, sono notevolmente aumentate negli ultimi anni. Dei 24 casi raccolti tra il materiale di archivio, 14 sono stati diagnosticati negli ultimi 5 anni. Si è rilevata una significativa predisposizione nei gatti di razza Persiana, e le metastasi più frequenti sono state a carico dei linfonodi, del miocardio e dei cuscinetti plantari, analogamente a quanto segnalato in letteratura. L’istotipo più rappresentato è stato il carcinoma squamoso, seguito da adenocarcinomi papillari e bronchioloalveolari. Il pannello immunoistochimico applicato, finalizzato a individuare l’origine broncogena o ghiandolare della neoplasia, è risultato utile per la diagnosi delle forme squamose poco differenziate (CK 5/6 e CK 14). Infine è stato testato l’anticorpo di elezione nella diagnosi differenziale fra le neoplasie primitive e secondarie del polmone, il TTF-1, che però non ha cross-reagito con tessuti di gatto; la diagnosi di neoplasia primitiva polmonare si è dunque basata sull’assenza, anche nei dati anamnestici, di masse in altri distretti corporei.
Resumo:
Il presente lavoro comincia con una descrizione dettagliata del “McMaster Model of Family Functionig” (MMFF), modello che al suo interno integra una teoria multidimensionale sul funzionamento familiare, diversi strumenti di auto ed etero valutazione e chiare indicazioni terapeutiche racchiuse all’interno della “Problem Centered System Therapy of the Family” (PCSTF). Grazie alla sua completezza il Modello fornisce ai clinici metodi coerenti, pratici ed empiricamente validi per valutare e trattare le famiglie, essi inoltre, sono stati formulati in modo da essere adattabili a differenti setting clinici e di ricerca, applicabili ad un’ampia gamma di problematiche e verificabili empiricamente. Obiettivo finale della presente ricerca è stato quello di porre le basi per l’esportazione del MMFF in Italia e poter quindi procedere alla sua applicazione in ambito clinico. La ricerca è cominciata alla Brown University con la traduzione dall’inglese all’italiano del Family Assessment Device (FAD), uno degli strumenti di autovalutazione compresi nel MMFF, ed è in seguito continuata con la validazione del suddetto strumento in un campione di 317 soggetti appartenenti alla popolazione generale italiana. Il FAD si è dimostrato uno strumento valido ed affidabile, in grado quindi di fornire valutazioni stabili e coerenti anche nella sua versione italiana. Il passo successivo è stato caratterizzato dalla somministrazione di FAD, Symptom Questionnaire (SQ) e delle Psychological Well-Being scales (PWB) a 289 soggetti reclutati nella popolazione generale. In accordo con il modello bipsicosociale che vede l’ambiente familiare come il più immediato gruppo di influenza psicosociale dello stato di benessere o malessere dell’individuo, i nostri dati confermano una stretta relazione tra scarso funzionamento familiare, spesso espresso attraverso difficoltà di comunicazione, di problem solving e scarso coinvolgimento affettivo e distress psicologico esperito con sintomi depressivi, ansiogeni ed ostilità. I nostri dati sottoliano inoltre come un funzionamento familiare positivo sia altamente correlato ad elevati livelli di benessere psicologico. Obiettivo della parte finale del lavoro ed anche il più importante, è stato quello di esplorare l’efficacia della Problem Centered Systems Therapy of the Family nella gestione della perdita di efficacia degli antidepressivi nel trattamento della depressione ricorrente. 20 soggetti con diagnosi di depressione maggiore ricorrente secondo il DSM-IV sono stati randomizzati a due diverse condizioni di trattamento: 1) aumento del dosaggio dell’antidepressivo e clinical management, oppure 2) mantenimento dello stesso dosaggio di antidepressivo e PCSTF. I dati di questo studio mettono in evidenza come, nel breve termine, PCSTF e farmacoterapia sono ugualmente efficaci nel ridurre la sintomatologia depressiva. Diversamente, ad un follow-up di 12 mesi, la PCSTF si è dimostrata altamente superiore all’aumento del farmaco ner prevenire le ricadute. Nel gruppo sottoposto all’aumento del farmaco infatti ben 6 soggetti su 7 ricadono entro l’anno. Nel gruppo assegnato a terapia familiare invece solo 1 soggetto su 7 ricade. Questi risultati sono in linea con i dati della letteratura che sottolineano l’elevata probabilità di una seconda ricaduta dopo l’aumento dell’antidepressivo all’interno di una farmacoterapia di mantenimento e suggeriscono l’efficacia dell’utilizzo di strategie psicoterapiche nella prevenzione della ricaduta in pazienti con depressione ricorrente.
Resumo:
PREMESSA: La progressione della recidiva d’epatite C è accelerata nei pazienti sottoposti a trapianto di fegato e ciò ha portato alla necessità di sviluppare nuove e validate metodiche non invasive per la quantificazione e la misura della fibrosi epatica. SCOPI: Stabilire l’efficacia dell’elastometria epatica (Fibroscan®) e dei parametri sierici di fibrosi, attualmente disponibili nella pratica clinica, per predire il grado di fibrosi nei pazienti sottoposti a trapianto epatico. METODI: La correlazione fra fibrosi epatica, determinata mediante biopsia epatica ed esame istologico, e Fibroscan® o indici clinico-sierologici di fibrosi (Benlloch, Apri, Forns, Fibrotest and Doppler resistance index), è stata studiata in pazienti che avevano ricevuto un trapianto ortotopico di fegato con evidenza di recidiva d’epatite da HCV. Un totale di 36 pazienti, con la seguente classificazione istologica: fibrosi secondom METAVIR F1=24, F2=8, F3=3, F4=1, sono stati arruolati nella popolazione oggetto di studio. Un totale di 29 individui volontari sani sono serviti come controllo. Le differenze fra gli stadi di fibrosi sono state calcolate mediante analisi statistica non parametrica. Il miglior cut-off per la differenziazione di fibrosi significativa (F2-F4) è stato identificato mediante l’analisi delle curve ROC. RISULTATI: La rigidità epatica ha presentato valori di 4.4 KPa (2.7-6.9) nei controlli (mediane e ranges), con valori in tutti i soggeti <7.0 KPa; 7.75 KPa (4.2-28.0) negli F1; 16.95 KPa (10.2-31.6) negli F2; 21.10 KPa nell’unico paziente F4 cirrotico. Le differenze sono state statisticamente significative per i soggetti controllo versus F1 e F2 (p<0.0001) e per F1 versus F2 (p<0.0001). Un cut-off elastografico di 11.2 KPagarantisce 88% di Sensibilità, 90% di Specificità, 79% di PPV e 95% di NPV nel differenziare i soggetti F1 dagli F2-F4. Le AUROC, relativamente alla capacità di discriminare fra i differenti gradi di fibrosi, evidenziavano un netto vantaggio per il Fibroscan® rispetto ad ognuno degli indici non invasivi di fibrosi. CONCLUSIONI: L’elastometria epatica presenta una buona accuratezza diagnostica nell’identificare pazienti con fibrosi epatica di grado significativo, superiore a quella di tutti gli altri test non invasivi al momento disponibili nella clinica, nei pazienti portatori di trapianto epatico ortotopico da cadavere con recidiva di HCV.
Resumo:
E’ stato in primo luogo definito il criterio di efficienza dal punto di vista economico (con una accenno anche ai parametri elaborati dagli studiosi di discipline aziendali), nelle sue varie accezioni, ponendo altresì ciascuna di queste in relazione alle condizioni di concorrenza perfetta. Le nozioni di efficienza che sono state definite a tal fine sono quelle di efficienza allocativa, efficienza tecnica, efficienza dinamica ed efficienza distributiva. Ciascuna di esse é stata inquadrata a livello teorico secondo le definizioni fornite dalla letteratura, esaminandone le ipotesi sottostanti. E’ stata altresì descritta, contestualizzandola temporalmente, l’evoluzione della nozione, e ne sono state evidenziate le implicazioni ai fini della ricerca della forma di mercato più “efficiente”. Sotto quest’ultimo aspetto l’attenzione dello scrivente si é incentrata sul rapporto tra le diverse accezioni di efficienza economica oggetto di analisi e la desiderabilità o meno di un regime di concorrenza perfetta. Il capitolo si conclude con una breve panoramica sulle metodologie di misurazione finalizzata ad individuare i principali parametri utilizzati per determinare il livello di efficienza, di un mercato, di un’attività produttiva o di un’impresa, posto che, come verrà specificato nel prosieguo della tesi, la valutazione di efficienza in ambito antitrust deve essere verificata, ove possibile, anche basandosi sull’evidenza empirica delle singole imprese esaminate, come richiede il criterio della rule of reason. Capitolo 2 Presupposto per avere una regolazione che persegua l’obiettivo di avere una regolazione efficiente ed efficace, è, a parere di chi scrive, anche l’esistenza di autorità pubbliche deputate a esercitare la funzione regolatoria che rispettino al proprio interno e nel proprio agire la condizione di efficienza definita rispetto ai pubblici poteri. Lo sviluppo di questa affermazione ha richiesto in via preliminare, di definire il criterio di efficienza in ambito pubblicistico individuandone in particolare l’ambito di applicazione, il suo rapporto con gli altri principi che reggono l’azione amministrativa (con particolare riferimento al criterio di efficacia). Successivamente é stato collocato nel nostro ordinamento nazionale, ponendolo in relazione con il principio di buon andamnento della Pubblica Amministrazione, benchè l’ordinamento italiano, per la sua specificità non costituisca un esempio estendibile ad ordinamenti. Anche con riferimento al criterio di efficienza pubblica, un paragrafo é stato dedicato alle metodologie di misurazione di questa, e, nello specifico sull’Analisi Costi-Benefici e sull’Analisi di Impatto della Regolazione Una volta inquadrata la definizione di efficienza pubblica, questa é stata analizzata con specifico riferimento all’attività di regolazione dell’economia svolta dai soggetti pubblici, ambito nella quale rientra la funzione antitrust. Si é provato in particolare ad evidenziare, a livello generale, quali sono i requisiti necessari ad un’autorità amministrativa antitrust, costituita e dotata di poteri ad hoc, affinché essa agisca, nella sua attività di regolazione, secondo il principio di efficienza, Il capitolo si chiude allargando l’orizzonte della ricerca verso una possibile alternativa metodologica al criterio di efficienza precedentemente definito: vi si é infatti brevemente interrogati circa lo schema interpretativo nel quale ci muoviamo, affrontando la questione definitoria del criterio di efficienza, ponendolo in relazione con l’unico modello alternativo esistente, quello sviluppatosi nella cultura cinese. Non certo per elaborare un’applicazione in “salsa cinese” del criterio di efficienza alla tutela della concorrenza, compito al quale lo scrivente non sarebbe stato in grado di ottemperare, bensì, più semplicemente per dare conto di un diverso approccio alla questione che il futuro ruolo di superpotenza economica della Cina imporrà di prendere in considerazione. Capitolo 3 Nel terzo capitolo si passa a definire il concetto di concorrenza come istituto oggetto di tutela da parte della legge antitrust, per poi descrivere la nascita e l’evoluzione di tale legislazione negli Stati Uniti e della sua applicazione, posto che il diritto antitrust statunitense ancora oggi costituisce il necessario punto di riferimento per lo studioso di questa materia. L’evoluzione del diritto antitrust statunitense é stata analizzata parallelamente allo sviluppo delle principali teorie di law and economics che hanno interpretato il diritto della concorrenza quale possibile strumento per conseguire l’obiettivo dell’efficienza economica: la Scuola di Harvard e il paradigma strutturalista, la teoria evoluzionista della Scuola Austriaca, la Scuola di Chicago; le c.d. teorie “Post-Chicago”. Nel terzo capitolo, in altri termini, si é dato conto dell’evoluzione del pensiero economico con riferimento alla sua applicazione al diritto antitrust, focalizzando l’attenzione su quanto avvenuto negli Stati Uniti, paese nel quale sono nati sia l’istituto giuridico della tutela della concorrenza sia l’analisi economica del diritto. A conclusione di questa ricostruzione dottrinale ho brevemente esaminato quelle che sono le nuove tendenze dell’analisi economica del diritto, e specificatamente la teoria del comportamento irrazionale, benché esse non abbiano ancora ricevuto applicazione al diritto antitrust. Chi scrive ritiene infatti che queste teorie avranno ricadute anche in questa materia poiché essa costituisce uno dei principali ambiti applicativi della law and economics. Capitolo 4 Nel quarto capitolo é stata effettuata una disanima della disciplina comunitaria antitrust sottolineando come l’Unione Europea si proponga attraverso la sua applicazione, soprattutto in materia di intese, di perseguire fini eterogenei, sia economici che non economici, tra loro diversi e non di rado contrastanti, e analizzando come questa eterogeneità di obiettivi abbia influito sull’applicazione del criterio di efficienza. Attenendomi in questo capitolo al dato normativo, ho innanzitutto evidenziato l’ampiezza dell’ambito di applicazione della disciplina comunitaria antitrust sia dal punto di vista soggettivo che territoriale (dottrina dell’effetto utile), sottolineando come la norma giustifichi esplicitamente il ricorso al criterio di efficienza solo nella valutazione delle intese: il comma 3 dell’art. 81 del Trattato include, infatti, tra i requisiti di una possibile esenzione dall’applicazione del divieto per le intese qualificate come restrittive della concorrenza, la possibilità di ottenere incrementi di efficienza tecnica e/o dinamica attraverso l’implementazione delle intese in questione. Tuttavia la previsione da parte dello stesso art. 81 (3) di altri requisiti che devono contemporaneamente essere soddisfatti affinché un intesa restrittiva della concorrenza possa beneficiare dell’esenzione, nonché la possibile diversa interpretazione della locuzione “progresso tecnico ed economico”, impone, o comunque ammette, il perseguimento di altri obiettivi, contestualmente a quello dell’efficienza, giustificando così quell’eterogeneità dei fini che contraddistingue la politica della concorrenza dell’Unione Europea. Se la disciplina delle intese aiuta a comprendere il ruolo del criterio di efficienza nell’applicazione dei precetti antitrust da parte degli organi comunitari, l’art. 82 del Trattato non contiene invece alcun riferimento alla possibilità di utilizzare il criterio di efficienza nella valutazione delle condotte unilaterali poste in essere da imprese in posizione dominante sul mercato rilevante. Si è peraltro dato conto della consultazione recentemente avviata dalla Commissione Europea finalizzata all’elaborazione di Linee Guida che definiscano i criteri di interpretazione che l’organo comunitario dovrà seguire nella valutazione dei comportamenti unilaterali. A parere dello scrivente, anzi, l’assenza di un preciso schema cui subordinare la possibilità di ricorrere al criterio di efficienza nella valutazione della fattispecie, attribuisce alle autorità competenti un più ampio margine di discrezionalità nell’utilizzo del suddetto criterio poiché manca il vincolo della contestuale sussistenza delle altre condizioni di cui all’art. 81(3). Per quanto concerne infine la disciplina delle concentrazioni, essa, come abbiamo visto, prevede un riferimento ai possibili incrementi di efficienza (tecnica e dinamica) derivanti da operazioni di fusione, utilizzando la nozione utilizzata per le intese, così come nel precedente Regolamento 4064/89. Si é infine analizzato il nuovo Regolamento in materia di concentrazioni che avrebbe potuto costituire l’occasione per recepire nella disciplina comunitaria l’attribuzione della facoltà di ricorrere all’efficiency defense in presenza di una fattispecie, quella della fusione tra imprese, suscettibile più di altre di essere valutata secondo il criterio di efficienza, ma che si é invece limitato a riprendere la medesima locuzione presente nell’art. 81(3). Il capitolo attesta anche l’attenzione verso l’istanza di efficienza che ha riguardato il meccanismo di applicazione della norma antitrust e non il contenuto della norma stessa; a questo profilo attiene, infatti, l’innovazione apportata dal Regolamento 1/2003 che ha permesso, a parere dello scrivente, un’attribuzione più razionale della competenza nella valutazione dei casi tra la Commissione e le autorità nazionali degli Stati membri; tuttavia pone alcune questioni che investono direttamente il tema dei criteri di valutazione utilizzati dalle autorità competenti. Capitolo 5 L’analisi del quarto capitolo é stata condotta, sebbene in forma più sintetica, con riferimento alle normative antitrust dei principali Stati membri della Comunità Europea (Germania, Gran Bretagna, Spagna, Francia e Italia), rapportando anche queste al criterio di efficienza, ove possibile. Particolare attenzione é stata dedicata ai poteri e alle competenze attribuite alle autorità nazionali antitrust oggetto di studio dall’ordinamento giuridico cui appartengono e al contesto, in termini di sistema giuridico, nel quale esse operano. Capitolo 6 Si é provato ad effettuare una valutazione del livello di efficienza delle autorità prese in esame, la Commissione e le diverse autorità nazionali e ciò con particolare riferimento alla idoneità di queste a svolgere i compiti istituzionali loro affidati (criterio di efficienza dal punto di vista giuridico): affinchè un’autorità si possa ispirare al criterio di efficienza economica nell’adozione delle decisioni, infatti, è preliminarmente necessario che essa sia idonea a svolgere il compito che le è stato affidato dall’ordinamento. In questo senso si é osservata la difficoltà dei paesi di civil law a inquadrare le autorità indipendenti all’interno di un modello, quello appunto di civil law, ispirato a una rigida tripartizione dei poteri. Da qui la difficile collocazione di queste autorità che, al contrario, costituiscono un potere “ibrido” che esercita una funzione di vigilanza e garanzia non attribuibile integralmente né al potere esecutivo né a quello giurisdizionale. Si rileva inoltre una certa sovrapposizione delle competenze e dei poteri tra autorità antitrust e organi ministeriali, in particolare nel campo delle concentrazioni che ingenera un rischio di confusione e bassa efficienza del sistema. Mantenendo, infatti, un parziale controllo politico si rischia, oltre all’introduzione di criteri di valutazione politica che prescindono dagli effetti delle fattispecie concrete sul livello di concorrenza ed efficienza del mercato, anche di dare luogo a conflitti tra le diverse autorità del sistema che impediscano l’adozione e l’implementazione di decisioni definitive, incrementando altresì i costi dell’intervento pubblico. Un giudizio a parte è stato infine formulato con riguardo alla Commissione Europea, istituzione, in quanto avente caratteristiche e poteri peculiari. Da un lato l’assenza di vincolo di mandato dei Commissari e l’elevata preparazione tecnica dei funzionari costituiscono aspetti che avvicinano la Commissione al modello dell’autorità indipendenti, e l’ampiezza dei poteri in capo ad essa le permette di operare efficientemente grazie anche alla possibilità di valersi dell’assistenza delle autorità nazionali. Dall’altra parte, tuttavia la Commissione si caratterizza sempre di più come un organo politico svolgente funzioni esecutive, di indirizzo e di coordinamento che possono influenzare gli obiettivi che essa persegue attraverso l’attività antitrust, deviandola dal rispetto del criterio di efficienza. Capitolo 7 Una volta definito il contesto istituzionale di riferimento e la sua idoneità a svolgere la funzione affidatagli dall’ordinamento comunitario, nonché da quelli nazionali, si è proceduto quindi all’analisi delle decisioni adottate da alcune delle principali autorità nazionali europee competenti ad applicare la disciplina della concorrenza dal punto di vista dell’efficienza. A tal fine le fattispecie rilevanti a fini antitrust dal punto di vista giuridico sono state classificate utilizzando un criterio economico, individuando e definendo quelle condotte che presentano elementi comuni sotto il profilo economico e per ciascuna di esse sono state inquadrate le problematiche rilevanti ai fini dell’efficienza economica sulla scorta dei contributi teorici e delle analisi empiriche svolte dalla letteratura. 6 Con riferimento a ciascuna condotta rilevante ho esaminato il contenuto di alcune delle decisioni antitrust più significative e le ho interpretate in base al criterio di efficienza. verificando se e in quale misura le autorità antitrust prese in esame utilizzano tale criterio, cercando altresì di valutare l’evoluzione dei parametri di valutazione occorsa nel corso degli anni. Le decisioni analizzate sono soprattutto quelle adottate dalla Commissione e le eventuali relative sentenze della Corte di Giustizia Europea; ciò sia per la maggior rilevanza dei casi trattati a livello comunitario, sia in quanto le autorità nazionali, con qualche rara eccezione, si conformano generalmente ai criteri interpretativi della Commissione. Riferimenti a decisioni adottate dalle autorità nazionali sono stati collocati allorquando i loro criteri interpretativi si discostino da quelli utilizzati dagli organi comunitari. Ne è emerso un crescente, anche se ancora sporadico e incostante, ricorso al criterio di efficienza da parte degli organi europei preposti alla tutela della concorrenza. Il tuttora scarso utilizzo del criterio di efficienza nello svolgimento dell’attività antitrust è motivato, a parere di chi scrive, in parte dall’eterogeneità degli obiettivi che l’Unione Europea persegue attraverso la politica della concorrenza comunitaria (completamento del mercato unico, tutela del consumatore, politica industriale, sviluppo delle aree svantaggiate), in parte dall’incapacità (o dall’impossibilità) delle autorità di effettuare coerenti analisi economiche delle singole fattispecie concrete. Anche le principali autorità nazionali mostrano una crescente propensione a tendere conto dell’efficienza nella valutazione dei casi, soprattutto con riferimento agli accordi verticali e alle concentrazioni, sulla scia della prassi comunitaria. Più innovativa nell’applicazione del criterio di efficienza economica così come nella ricerca di uso ottimale delle risorse si è finora dimostrato l’OFT, come vedremo anche nel prossimo capitolo. Al contrario sembra più lenta l’evoluzione in questo senso dell’Ufficio dei Cartelli tedesco sia a causa delle già citate caratteristiche della legge antitrust tedesca, sia a causa del persistente principio ordoliberale della prevalenza del criterio della rule of law sulla rule of reason. Peraltro, anche nei casi in cui le Autorità siano propense ad utilizzare il criterio di efficienza nelle loro valutazioni, esse si limitano generalmente ad un’analisi teorica dell’esistenza di precondizioni che consentano alle imprese in questione di ottenere guadagni di efficienza. La sussistenza di tali pre-condizioni viene infatti rilevata sulla base della capacità potenziale della condotta dell’impresa (o delle imprese) di avere un effetto positivo in termini di efficienza, nonché sulla base delle caratteristiche del mercato rilevante. Raramente, invece, si tiene conto della capacità reale dei soggetti che pongono in essere la pratica suscettibile di essere restrittiva della concorrenza di cogliere effettivamente queste opportunità, ovvero se la struttura e l’organizzazione interna dell’impresa (o delle imprese) non è in grado di mettere in pratica ciò che la teoria suggerisce a causa di sue carenza interne o comunque in ragione delle strategie che persegue. Capitolo 8 Poiché l’approccio ispirato al criterio di efficienza economica non può prescindere dalle caratteristiche del settore e del mercato in cui operano l’impresa o le imprese che hanno posto in essere la condotta sotto esame, e poiché una valutazione approfondita di tutti i settori non era effettuabile per quantità di decisioni adottate dalle autorità, ho infine ritenuto di svolgere un’analisi dettagliata dell’attività delle autorità con riferimento ad uno specifico settore. La scelta è caduta sul settore dei trasporti in quanto esso presenta alcune problematiche che intrecciano l’esigenza di efficienza con la tutela della concorrenza, nonché per la sua importanza ai fini dello sviluppo economico. Tanto più alla luce del fenomeno della crescente apertura dei mercati che ha enfatizzato la triplice funzione dei trasporti di merci, di livellamento nello spazio dei prezzi di produzione, di redistribuzione nello spazio dell’impiego dei fattori della produzione, e soprattutto di sollecitazione al miglioramento delle tecnologie utilizzate nella produzione stessa in quanto contribuiscono alla divisione territoriale del lavoro e alla specializzazione produttiva. A loro volta, d’altra parte, i miglioramenti tecnici e organizzativi intervenuti nel settore negli ultimi trenta anni hanno reso possibile il fenomeno della globalizzazione nella misura in cui lo conosciamo. Così come le riduzioni di costo e di tempo conseguite nel trasporto di persone hanno consentito massicci spostamenti di lavoratori e più in generale di capitale umano da una parte all’altra del globo, e favorito altresì la spettacolare crescita del settore turistico. Ho quindi condotto un’analisi delle decisioni antitrust relative al settore dei trasporti, suddividendo la casistica in base al comparto al quale esse si riferivano, cercando sempre di non perdere di vista i crescenti legami che esistono tra i vari comparti alla luce dell’ormai affermato fenomeno del trasporto multimodale. Dall’analisi svolta emerge innanzitutto come l’assoggettamento del settore dei trasporti alla disciplina di tutela della concorrenza sia un fenomeno relativamente recente rispetto alle altre attività economiche, laddove la ragione di tale ritardo risiede nel fatto che tradizionalmente questo settore era caratterizzato da un intervento pubblico diretto e da una pervasiva regolamentazione, a sua volta giustificata da vari fattori economici: le caratteristiche di monopolio naturale delle infrastrutture; le esigenze di servizio pubblico connesse all’erogazione di molti servizi di trasporto; il ruolo strategico svolto dal trasporto sia di persone che di merci ai fini della crescita economica di un sistema. Si concretizza, inoltre, con riferimento ai trasporti marittimi e aerei, l’inadeguatezza della dimensione nazionale e comunitaria delle autorità competenti rispetto a comportamenti di impresa che spesso hanno effetti letteralmente globali. Le imprese marittime e aeree coinvolte nelle fattispecie da noi esaminate, infatti, in molti casi predisponevano, direttamente o mediatamente, tramite “alleanze”, collegamenti tra tutte le aree del mondo, individuando nell’Europa solo un nodo di un network ben più ampio Da questa constatazione discende, a parere dello scrivente, l’impossibilità per l’autorità comunitaria e ancor più per quella nazionale di individuare tutti gli effetti in termini di efficienza che la fattispecie concreta può provocare, non includendo pertanto solo quelli evidenti sul mercato comunitario. Conseguentemente una reale applicazione del criterio di efficienza all’attività antitrust nel settore dei trasporti non può prescindere da una collaborazione tra autorità a livello mondiale sia a fini di indagine che a fini di individuazione di alcuni principi fondamentali cui ispirarsi nello svolgimento della loro missione istituzionale. Capitolo 9. Conclusioni L’opera si chiude con l’individuazione delle evidenze e degli elementi emersi dalla trattazione considerati dallo scrivente maggiormente rilevanti nell’ambito dell’attuale dibattito di economia positiva circa le principali problematiche che affiggono l’intervento antitrust con particolare riferimento al suo rispetto del criterio di efficienza. Sono state altresì proposte alcune soluzioni a quelle che sono, a parere dello scrivente, le principali carenze dell’attuale configurazione dell’intervento antitrust a livello europeo, sempre in una prospettiva di efficienza sia delle autorità competenti sia dei mercati in cui le autorità stesse cercano di mantenere o ripristinare condizioni di concorrenza effettiva. Da un lato il modello costituito dalla Commissione Europea, l’autorità antitrust comunitaria, non replicabile né esente da critiche: la Commissione, infatti, rappresenta il Governo dell’Unione Europea e come tale non può ovviamente costituire un esempio di autorità indipendente e neutrale recepibile da parte degli Stati membri. Ciò anche a prescindere dalla questione della sua legittimazione, che in questa sede non affrontiamo. Dall’altro in una prospettiva di efficienza dei mercati la crescente applicazione delle teorie economiche da parte delle autorità esaminate è rimasta a un livello astratto, senza porre la dovuta attenzione alle specificità dei mercati rilevanti né tantomeno alle dinamiche interne alle singole imprese, con particolare riferimento alla loro capacità di rendere effettivi i guadagni di efficienza individuabili a livello potenziale, così come prescrive la più recente teoria economica applicata al diritto antitrust. Sotto il profilo dell’applicazione del criterio di efficienza si può comunque affermare che l’evoluzione che ha avuto la prassi decisionale e la giurisprudenza, comunitaria e degli Stati membri, in materia antitrust è stata caratterizzata dal loro progressivo avvicinamento alle tendenze sviluppatesi nelle agencies e nella giurisprudenza statunitense a partire dagli anni’70, caratterizzate dalla valutazione degli effetti, piuttosto che della forma giuridica, dal riconoscimento del criterio di efficienza e dalla rule of reason quale approccio metodologico. L’effetto è stato quello di determinare una significativa riduzione delle differenze inizialmente emerse tra le due esperienze, nate inizialmente sotto diverse prospettive politiche. Per quanto concerne specificatamente i trasporti sono emersi sotto il profilo economico due aspetti rilevanti, oltre al perdurante ritardo con cui il processo di liberalizzazione del trasporto ferroviario che limita fortemente l’intervento antitrust nel comparto, ma che esula dalla competenza delle stesse autorità antitrust. Il primo consiste nella spesso troppo rigida separazione tra comparti adottata dalle autorità. Il secondo è l’estensivo ricorso all’essential facility doctrine nelle fattispecie riguardanti infrastrutture portuali e aeroportuali: la massimizzazione dell’efficienza dinamica consiglierebbe in questi casi una maggiore cautela, in quanto si tratta di un paradigma che, una volta applicato, disincentiva la duplicazione e l’ampliamento di tali infrastrutture autoalimentandone il carattere di essenzialità. Ciò soprattutto laddove queste infrastrutture possono essere sostituite o duplicate piuttosto facilmente da un punto di vista tecnico (meno da un punto di vista economico e giuridico), essendo esse nodi e non reti. E’stata infine sottolineata l’inadeguatezza della dimensione nazionale e comunitaria delle autorità competenti rispetto a comportamenti di impresa che con riferimento ai trasporti marittimi ed aerei hanno effetti letteralmente globali. E’ di tutta evidenza che le autorità comunitarie e tantomeno quelle nazionali non sono da sole in grado di condurre le analisi quantitative necessarie ad una valutazione di tali condotte ispirata a un criterio di efficienza che tenga conto degli effetti di lungo periodo della fattispecie concreta. Né tali autorità sono sufficientemente neutre rispetto alla nazionalità delle imprese indagate per poter giudicare sulla liceità o meno della condotta in questione senza considerare gli effetti della loro decisione sull’economia interna, rendendo così ancora più improbabile un corretto utilizzo del criterio di efficienza. Da ultimo ho constatato come l’applicazione del concetto di efficienza giuridica imporrebbe di concepire autorità antitrust del tutto nuove, sganciate quanto più possibile dall’elemento territoriale, in grado di elaborare regole e standards minimi comuni e di permettere il controllo dei comportamenti di impresa in un contesto ampliato rispetto al tradizionale mercato unico, nonchè ai singoli mercati nazionali. Il processo di armonizzazione a livello globale è difficile e il quadro che attualmente viene formato è ancora confuso e incompleto. Vi sono tuttavia sparsi segnali attraverso i quali é possibile intravedere i lineamenti di una futura global governance della concorrenza che permetterà, sperabilmente, di incrementare l’efficienza di un sistema, quello antitrust, che tanto più piccolo è l’ambito in cui opera quanto più si sta dimostrando inadeguato a svolgere il compito affidatogli. Solo il futuro, peraltro, ci consentirà di verificare la direzione di sviluppo di questi segnali.
Resumo:
Lo sviluppo locale rappresenta, non solo per gli economisti, un tema di analisi sempre più rilevante sia al livello istituzionale che al livello scientifico. La complessità degli aspetti inerenti lo sviluppo locale richiede il coinvolgimento di diverse discipline, in ambito economico, politico, sociale e ambientale e di tutti i livelli istituzionali. Parallelamente è cresciuta l’esigenza di processi valutativi coerenti e sistematici, basati su di un numero sempre maggiore di strumenti e metodologie di valutazione. Dall’orientamento della Commissione Europea emerge del resto con sempre maggiore evidenza il binomio fra politica di sviluppo locale e valutazione, che coinvolge i diversi livelli di governo. Il presente lavoro realizza un quadro delle politiche di sviluppo locale, partendo dal livello europeo fino ad arrivare al livello locale, ed una successiva analisi di metodologie e strumenti di valutazione consolidati e di frontiera. La considerazione della valutazione come strumento strategico per le politiche di sviluppo locale trova applicazione nella realizzazione di una analisi comparativa di due aree di montagna. Tali aree, identificate nell’Appennino Bolognese e nell’area montana della Contea di Brasov in Romania, pur collocate in paesi a diverso livello di sviluppo, risultano confrontabili, in termini di similitudini e criticità, al fine di trarre considerazioni di policy inerenti il disegno di adeguate politiche di riqualificazione, mettendo in luce l’importanza del processo valutativo e la necessità di contribuire a diffondere una vera e propria cultura della valutazione.
Resumo:
La ricerca oggetto della tesi dottorale verte sulla ricostruzione della disciplina della cessazione e delle fasi liquidatore dell’attività nell’ambito dell’imposta sul valore aggiunto, nel tentativo di individuare criteri certi ed omogenei per la sua individuazione, sia in prospettiva comunitaria che in prospettiva nazionale. In primo luogo, l’indagine si concentra sulla ricostruzione della nozione di attività economica e sui profili dinamici dell’attività in ambito comunitario, nell’intento di chiarire, sulla base della giurisprudenza, i criteri utilizzati per individuare la cessazione dell’attività rilevante ai fini dell’imposta, sfruttando in tal senso l’esperienza degli atti preparatori e l’applicabilità dell’ipotesi di applicazione dell’imposta per autoconsumo Vengono così valorizzati, accanto al profilo oggettivo costituito dalla presenza di una legame tra le operazioni della fase liquidatoria, il ruolo del soggetto passivo, quale portatore di una volontà che è in grado di influire sull’esistenza dell’attività stessa, e, conseguentemente, delle dichiarazioni formali imposte dalla Direttiva, quale manifestazione diretta di tale volontà ed elemento in grado di costituire un indice certo di cessazione. In seguito si esamina il regime impositivo nazionale ed in particolare le linee interpretative maggioritarie accolte da dottrina e giurisprudenza. Ricostruiti nozione e ruolo di attività economica, con riferimento all’esercizio d’impresa, vengono analizzati i diversi casi di cessazione contemplati dall’ordinamento –liquidazione volontaria, trasferimento dell’azienda e fallimento- analizzati sia nella prospettiva del diritto tributario che in quella del diritto commerciale. L’esame così sviluppato è volto a contestare l’interpretazione maggioritaria che vede nella sola presenza di beni residui alla liquidazione, o comunque la permanenza di un insieme di beni potenzialmente in grado di far riprendere l’esercizio, elemento sufficiente a mantenere in vita l’impresa e con essa la soggettività passiva all’imposta. Infine, vengono confrontati i risultati raggiunti nell’esame della disciplina comunitaria nazionale, ponendone in evidenza le possibilità incompatibilità ed i punti di contatto, con l’intenzione di dimostrare l’applicabilità anche a livello nazionale dei principi emersi in ambito comunitario.
Resumo:
Call me Ismail. Così inizia notoriamente il celebre romanzo di Herman Melville, Moby Dick. In un altro racconto, ambientato nel 1797, anno del grande ammutinamento della flotta del governo inglese, Melville dedica un breve accenno a Thomas Paine. Il racconto è significativo di quanto – ancora nella seconda metà dell’Ottocento – l’autore di Common Sense e Rights of Man sia sinonimo delle possibilità radicalmente democratiche che l’ultima parte del Settecento aveva offerto. Melville trova in Paine la chiave per dischiudere nel presente una diversa interpretazione della rivoluzione: non come una vicenda terminata e confinata nel passato, ma come una possibilità che persiste nel presente, “una crisi mai superata” che viene raffigurata nel dramma interiore del gabbiere di parrocchetto, Billy Budd. Il giovane marinaio della nave mercantile chiamata Rights of Man mostra un’attitudine docile e disponibile all’obbedienza, che lo rende pronto ad accettare il volere dei superiori. Billy non contesta l’arruolamento forzato nella nave militare. Nonostante il suo carattere affabile, non certo irascibile, l’esperienza in mare sulla Rights of Man rappresenta però un peccato difficile da espiare: il sospetto è più forte della ragionevolezza, specie quando uno spettro di insurrezione continua ad aggirarsi nella flotta di sua maestà. Così, quando, imbarcato in una nave militare della flotta inglese, con un violento pugno Billy uccide l’uomo che lo accusa di tramare un nuovo ammutinamento, il destino inevitabile è quello di un’esemplare condanna a morte. Una condanna che, si potrebbe dire, mostra come lo spettro della rivoluzione continui ad agitare le acque dell’oceano Atlantico. Nella Prefazione Melville fornisce una chiave di lettura per accedere al testo e decifrare il dramma interiore del marinaio: nella degenerazione nel Terrore, la vicenda francese indica una tendenza al tradimento della rivoluzione, che è così destinata a ripetere continuamente se stessa. Se “la rivoluzione si trasformò essa stessa in tirannia”, allora la crisi segna ancora la società atlantica. Non è però alla classica concezione del tempo storico – quella della ciclica degenerazione e rigenerazione del governo – che Melville sembra alludere. Piuttosto, la vicenda rivoluzionaria che ha investito il mondo atlantico ha segnato un radicale punto di cesura con il passato: la questione non è quella della continua replica della storia, ma quella del continuo circolare dello “spirito rivoluzionario”, come dimostra nell’estate del 1797 l’esperienza di migliaia di marinai che tra grida di giubilo issano sugli alberi delle navi i colori britannici da cui cancellano lo stemma reale e la croce, abolendo così d’un solo colpo la bandiera della monarchia e trasformando il mondo in miniatura della flotta di sua maestà “nella rossa meteora di una violenta e sfrenata rivoluzione”. Raccontare la vicenda di Billy riporta alla memoria Paine. L’ammutinamento è solo un frammento di un generale spirito rivoluzionario che “l’orgoglio nazionale e l’opinione politica hanno voluto relegare nello sfondo della storia”. Quando Billy viene arruolato, non può fare a meno di portare con sé l’esperienza della Rights of Man. Su quel mercantile ha imparato a gustare il dolce sapore del commercio insieme all’asprezza della competizione sfrenata per il mercato, ha testato la libertà non senza subire la coercizione di un arruolamento forzato. La vicenda di Billy ricorda allora quella del Paine inglese prima del grande successo di Common Sense, quando muove da un’esperienza di lavoro all’altra in modo irrequieto alla ricerca di felicità – dal mestiere di artigiano all’avventura a bordo di un privateer inglese durante la guerra dei sette anni, dalla professione di esattore fiscale alle dipendenze del governo, fino alla scelta di cercare fortuna in America. Così come Paine rivendica l’originalità del proprio pensiero, il suo essere un autodidatta e le umili origini che gli hanno impedito di frequentare le biblioteche e le accademie inglesi, anche Billy ha “quel tipo e quel grado di intelligenza che si accompagna alla rettitudine non convenzionale di ogni integra creatura umana alla quale non sia ancora stato offerto il dubbio pomo della sapienza”. Così come il pamphlet Rights of man porta alla virtuale condanna a morte di Paine – dalla quale sfugge trovando rifugio a Parigi – allo stesso modo il passato da marinaio sulla Rights of Man porta al processo per direttissima che sentenzia la morte per impiccagione del giovane marinaio. Il dramma interiore di Billy replica dunque l’esito negativo della rivoluzione in Europa: la rivoluzione è in questo senso come un “violento accesso di febbre contagiosa”, destinato a scomparire “in un organismo costituzionalmente sano, che non tarderà a vincerla”. Non viene però meno la speranza: quella della rivoluzione sembra una storia senza fine perché Edward Coke e William Blackstone – i due grandi giuristi del common law inglese che sono oggetto della violenta critica painita contro la costituzione inglese – “non riescono a far luce nei recessi oscuri dell’animo umano”. Rimane dunque uno spiraglio, un angolo nascosto dal quale continua a emergere uno spirito rivoluzionario. Per questo non esistono cure senza effetti collaterali, non esiste ordine senza l’ipoteca del ricorso alla forza contro l’insurrezione: c’è chi come l’ufficiale che condanna Billy diviene baronetto di sua maestà, c’è chi come Billy viene impiccato, c’è chi come Paine viene raffigurato come un alcolizzato e impotente, disonesto e depravato, da relegare sul fondo della storia atlantica. Eppure niente più del materiale denigratorio pubblicato contro Paine ne evidenzia il grande successo. Il problema che viene sollevato dalle calunniose biografie edite tra fine Settecento e inizio Ottocento è esattamente quello del trionfo dell’autore di Common Sense e Rights of Man nell’aver promosso, spiegato e tramandato la rivoluzione come sfida democratica che è ancora possibile vincere in America come in Europa. Sono proprio le voci dei suoi detrattori – americani, inglesi e francesi – a mostrare che la dimensione nella quale è necessario leggere Paine è quella del mondo atlantico. Assumendo una prospettiva atlantica, ovvero ricostruendo la vicenda politica e intellettuale di Paine da una sponda all’altra dell’oceano, è possibile collegare ciò che Paine dice in spazi e tempi diversi in modo da segnalare la presenza costante sulla scena politica di quei soggetti che – come i marinai protagonisti dell’ammutinamento – segnalano il mancato compimento delle speranze aperte dall’esperienza rivoluzionaria. Limitando la ricerca al processo di costruzione della nazione politica, scegliendo di riassumerne il pensiero politico nell’ideologia americana, nella vicenda costituzionale francese o nel contesto politico inglese, le ricerche su Paine non sono riuscite fino in fondo a mostrare la grandezza di un autore che risulta ancora oggi importante: la sua produzione intellettuale è talmente segnata dalle vicende rivoluzionarie che intessono la sua biografia da fornire la possibilità di studiare quel lungo periodo di trasformazione sociale e politica che investe non una singola nazione, ma l’intero mondo atlantico nel corso della rivoluzione. Attraverso Paine è allora possibile superare quella barriera che ha diviso il dibattito storiografico tra chi ha trovato nella Rivoluzione del 1776 la conferma del carattere eccezionale della nazione americana – fin dalla sua origine rappresentata come esente dalla violenta conflittualità che invece investe il vecchio continente – e chi ha relegato il 1776 a data di secondo piano rispetto al 1789, individuando nell’illuminismo la presunta superiorità culturale europea. Da una sponda all’altra dell’Atlantico, la storiografia ha così implicitamente alzato un confine politico e intellettuale tra Europa e America, un confine che attraverso Paine è possibile valicare mostrandone la debolezza. Parlando di prospettiva atlantica, è però necessario sgombrare il campo da possibili equivoci: attraverso Paine, non intendiamo stabilire l’influenza della Rivoluzione americana su quella francese, né vogliamo mostrare l’influenza del pensiero politico europeo sulla Rivoluzione americana. Non si tratta cioè di stabilire un punto prospettico – americano o europeo – dal quale leggere Paine. L’obiettivo non è quello di sottrarre Paine agli americani per restituirlo agli inglesi che l’hanno tradito, condannandolo virtualmente a morte. Né è quello di confermare l’americanismo come suo unico lascito culturale e politico. Si tratta piuttosto di considerare il mondo atlantico come l’unico scenario nel quale è possibile leggere Paine. Per questo, facendo riferimento al complesso filone storiografico dell’ultimo decennio, sviluppato in modo diverso da Bernard Bailyn a Markus Rediker e Peter Linebaugh, parliamo di rivoluzione atlantica. Certo, Paine vede fallire nell’esperienza del Terrore quella rivoluzione che in America ha trionfato. Ciò non costituisce però un elemento sufficiente per riproporre l’interpretazione arendtiana della rivoluzione che, sulla scorta della storiografia del consenso degli anni cinquanta, ma con motivi di fascino e interesse che non sempre ritroviamo in quella storiografia, ha contribuito ad affermare un ‘eccezionalismo’ americano anche in Europa, rappresentando gli americani alle prese con il problema esclusivamente politico della forma di governo, e i francesi impegnati nel rompicapo della questione sociale della povertà. Rompicapo che non poteva non degenerare nella violenza francese del Terrore, mentre l’America riusciva a istituire pacificamente un nuovo governo rappresentativo facendo leva su una società non conflittuale. Attraverso Paine, è infatti possibile mostrare come – sebbene con intensità e modalità diverse – la rivoluzione incida sul processo di trasformazione commerciale della società che investe l’intero mondo atlantico. Nel suo andirivieni da una sponda all’altra dell’oceano, Paine non ragiona soltanto sulla politica – sulla modalità di organizzare una convivenza democratica attraverso la rappresentanza, convivenza che doveva trovare una propria legittimazione nel primato della costituzione come norma superiore alla legge stabilita dal popolo. Egli riflette anche sulla società commerciale, sui meccanismi che la muovono e le gerarchie che la attraversano, mostrando così precise linee di continuità che tengono insieme le due sponde dell’oceano non solo nella circolazione del linguaggio politico, ma anche nella comune trasformazione sociale che investe i termini del commercio, del possesso della proprietà e del lavoro, dell’arricchimento e dell’impoverimento. Con Paine, America e Europa non possono essere pensate separatamente, né – come invece suggerisce il grande lavoro di Robert Palmer, The Age of Democratic Revolution – possono essere inquadrate dentro un singolo e generale movimento rivoluzionario essenzialmente democratico. Emergono piuttosto tensioni e contraddizioni che investono il mondo atlantico allontanando e avvicinando continuamente le due sponde dell’oceano come due estremità di un elastico. Per questo, parliamo di società atlantica. Quanto detto trova conferma nella difficoltà con la quale la storiografia ricostruisce la figura politica di Paine dentro la vicenda rivoluzionaria americana. John Pocock riconosce la difficoltà di comprendere e spiegare Paine, quando sostiene che Common Sense non evoca coerentemente nessun prestabilito vocabolario atlantico e la figura di Paine non è sistemabile in alcuna categoria di pensiero politico. Partendo dal paradigma classico della virtù, legata antropologicamente al possesso della proprietà terriera, Pocock ricostruisce la permanenza del linguaggio repubblicano nel mondo atlantico senza riuscire a inserire Common Sense e Rights of Man nello svolgimento della rivoluzione. Sebbene non esplicitamente dichiarata, l’incapacità di comprendere il portato innovativo di Common Sense, in quella che è stata definita sintesi repubblicana, è evidente anche nel lavoro di Bernard Bailyn che spiega come l’origine ideologica della rivoluzione, radicata nella paura della cospirazione inglese contro la libertà e nel timore della degenerazione del potere, si traduca ben presto in un sentimento fortemente contrario alla democrazia. Segue questa prospettiva anche Gordon Wood, secondo il quale la chiamata repubblicana per l’indipendenza avanzata da Paine non parla al senso comune americano, critico della concezione radicale del governo rappresentativo come governo della maggioranza, che Paine presenta quando partecipa al dibattito costituzionale della Pennsylvania rivoluzionaria. Paine è quindi considerato soltanto nelle risposte repubblicane dei leader della guerra d’indipendenza che temono una possibile deriva democratica della rivoluzione. Paine viene in questo senso dimenticato. La sua figura è invece centrale della nuova lettura liberale della rivoluzione: Joyce Appleby e Isaac Kramnick contestano alla letteratura repubblicana di non aver compreso che la separazione tra società e governo – la prima intesa come benedizione, il secondo come male necessario – con cui si apre Common Sense rappresenta il tentativo riuscito di cogliere, spiegare e tradurre in linguaggio politico l’affermazione del capitalismo. In particolare, Appleby critica efficacemente il concetto d’ideologia proposto dalla storiografia repubblicana, perché presuppone una visione statica della società. L’affermazione del commercio fornirebbe invece quella possibilità di emancipazione attraverso il lavoro libero, che Paine coglie perfettamente promuovendo una visione della società per la quale il commercio avrebbe permesso di raggiungere la libertà senza il timore della degenerazione della rivoluzione nel disordine. Questa interpretazione di Paine individua in modo efficace un aspetto importante del suo pensiero politico, la sua profonda fiducia nel commercio come strumento di emancipazione e progresso. Tuttavia, non risulta essere fino in fondo coerente e pertinente, se vengono prese in considerazione le diverse agende politiche avanzate in seguito alla pubblicazione di Common Sense e di Rights of Man, né sembra reggere quando prendiamo in mano The Agrarian Justice (1797), il pamphlet nel quale Paine mette in discussione la sua profonda fiducia nel progresso della società commerciale. Diverso è il Paine che emerge dalla storiografia bottom-up, secondo la quale la rivoluzione non può più essere ridotta al momento repubblicano o all’affermazione senza tensione del liberalismo: lo studio della rivoluzione deve essere ampliato fino a comprendere quell’insieme di pratiche e discorsi che mirano all’incisiva trasformazione dell’esistente slegando il diritto di voto dalla qualifica proprietaria, perseguendo lo scopo di frenare l’accumulazione di ricchezza nelle mani di pochi con l’intento di ordinare la società secondo una logica di maggiore uguaglianza. Come dimostrano Eric Foner e Gregory Claeys, attraverso Paine è allora possibile rintracciare, sulla sponda americana come su quella inglese dell’Atlantico, forti pretese democratiche che non sembrano riducibili al linguaggio liberale, né a quello repubblicano. Paine viene così sottratto a rigide categorie storiografiche che per troppo tempo l’hanno consegnato tout court all’elogio del campo liberale o al silenzio di quello repubblicano. Facendo nostra la metodologia di ricerca elaborata dalla storiografia bottom-up per tenere insieme storia sociale e storia intellettuale, possiamo allora leggere Paine non solo per parlare di rivoluzione atlantica, ma anche di società atlantica: società e politica costituiscono un unico orizzonte d’indagine dal quale esce ridimensionata l’interpretazione della rivoluzione come rivoluzione esclusivamente politica, che – sebbene in modo diverso – tanto la storiografia repubblicana quanto quella liberale hanno rafforzato, alimentando indirettamente l’eccezionale successo americano contro la clamorosa disfatta europea. Entrambe le sponde dell’Atlantico mostrano una società in transizione: la costruzione della finanza nazionale con l’istituzione del debito pubblico e la creazione delle banche, la definizione delle forme giuridiche che stabiliscono modalità di possesso e impiego di proprietà e lavoro, costituiscono un complesso strumentario politico necessario allo sviluppo del commercio e al processo di accumulazione di ricchezza. Per questo, la trasformazione commerciale della società è legata a doppio filo con la rivoluzione politica. Ricostruire il modo nel quale Paine descrive e critica la società da una sponda all’altra dell’Atlantico mostra come la separazione della società dal governo non possa essere immediatamente interpretata come essenza del liberalismo economico e politico. La lettura liberale rappresenta senza ombra di dubbio un salto di qualità nell’interpretazione storiografica perché spiega in modo convincente come Paine traduca in discorso politico il passaggio da una società fortemente gerarchica come quella inglese, segnata dalla condizione di povertà e miseria comune alle diverse figure del lavoro, a una realtà sociale come quella americana decisamente più dinamica, dove il commercio e le terre libere a ovest offrono ampie possibilità di emancipazione e arricchimento attraverso il lavoro libero. Tuttavia, leggendo The Case of Officers of Excise (1772) e ricostruendo la sua attività editoriale alla guida del Pennsylvania Magazine (1775) è possibile giungere a una conclusione decisamente più complessa rispetto a quella suggerita dalla storiografia liberale: il commercio non sembra affatto definire una qualità non conflittuale del contesto atlantico. Piuttosto, nonostante l’assenza dell’antico ordine ‘cetuale’ europeo, esso investe la società di una tendenza alla trasformazione, la cui direzione, intensità e velocità dipendono anche dall’esito dello scontro politico in atto dentro la rivoluzione. Spostando l’attenzione su figure sociali che in quella letteratura sono di norma relegate in secondo piano, Paine mira infatti a democratizzare la concezione del commercio indicando nell’indipendenza personale la condizione comune alla quale poveri e lavoratori aspirano: per chi è coinvolto in prima persona nella lotta per l’indipendenza, la visione della società non indica allora un ordine naturale, dato e immutabile, quanto una scommessa sul futuro, un ideale che dovrebbe avviare un cambiamento sociale coerente con le diverse aspettative di emancipazione. Senza riconoscere questa valenza democratica del commercio non è possibile superare il consenso come presupposto incontestabile della Rivoluzione americana, nel quale tanto la storiografia repubblicana quanto quella librale tendono a cadere: non è possibile superare l’immagine statica della società americana, implicitamente descritta dalla prima, né andare oltre la visione di una società dinamica, ma priva di gerarchie e oppressione, come quella delineata dalla seconda. Le entusiastiche risposte e le violente critiche in favore e contro Common Sense, la dura polemica condotta in difesa o contro la costituzione radicale della Pennsylvania, la diatriba politica sul ruolo dei ricchi mercanti mostrano infatti una società in transizione lungo linee che sono contemporaneamente politiche e sociali. Dentro questo contesto conflittuale, repubblicanesimo e liberalismo non sembrano affatto competere l’uno contro l’altro per esercitare un’influenza egemone nella costruzione del governo rappresentativo. Vengono piuttosto mescolati e ridefiniti per rispondere alla pretese democratiche che provengono dalla parte bassa della società. Common Sense propone infatti un piano politico per l’indipendenza del tutto innovativo rispetto al modo nel quale le colonie hanno fino a quel momento condotto la controversia con la madre patria: la chiamata della convenzione rappresentativa di tutti gli individui per scrivere una nuova costituzione assume le sembianze di un vero e proprio potere costituente. Con la mobilitazione di ampie fasce della popolazione per vincere la guerra contro gli inglesi, le élite mercantili e proprietarie perdono il monopolio della parola e il processo decisionale è aperto anche a coloro che non hanno avuto voce nel governo coloniale. La dottrina dell’indipendenza assume così un carattere democratico. Paine non impiega direttamente il termine, tuttavia le risposte che seguono la pubblicazione di Common Sense lanciano esplicitamente la sfida della democrazia. Ciò mostra come la rivoluzione non possa essere letta semplicemente come affermazione ideologica del repubblicanesimo in continuità con la letteratura d’opposizione del Settecento britannico, o in alternativa come transizione non conflittuale al liberalismo economico e politico. Essa risulta piuttosto comprensibile nella tensione tra repubblicanesimo e democrazia: se dentro la rivoluzione (1776-1779) Paine contribuisce a democratizzare la società politica americana, allora – ed è questo un punto importante, non sufficientemente chiarito dalla storiografia – il recupero della letteratura repubblicana assume il carattere liberale di una strategia tesa a frenare le aspettative di chi considera la rivoluzione politica come un mezzo per superare la condizione di povertà e le disuguaglianze che pure segnano la società americana. La dialettica politica tra democrazia e repubblicanesimo consente di porre una questione fondamentale per comprendere la lunga vicenda intellettuale di Paine nella rivoluzione atlantica e anche il rapporto tra trasformazione sociale e rivoluzione politica: è possibile sostenere che in America la congiunzione storica di processo di accumulazione di ricchezza e costruzione del governo rappresentativo pone la società commerciale in transizione lungo linee capitalistiche? Questa non è certo una domanda che Paine pone esplicitamente, né in Paine troviamo una risposta esaustiva. Tuttavia, la sua collaborazione con i ricchi mercanti di Philadelphia suggerisce una valida direzione di indagine dalla quale emerge che il processo di costruzione del governo federale è connesso alla definizione di una cornice giuridica entro la quale possa essere realizzata l’accumulazione del capitale disperso nelle periferie dell’America indipendente. Paine viene così coinvolto in un frammentato e dilatato scontro politico dove – nonostante la conclusione della guerra contro gli inglesi nel 1783 – la rivoluzione non sembra affatto conclusa perché continua a muovere passioni che ostacolano la costruzione dell’ordine: leggere Paine fuori dalla rivoluzione (1780-1786) consente paradossalmente di descrivere la lunga durata della rivoluzione e di considerare la questione della transizione dalla forma confederale a quella federale dell’unione come un problema di limiti della democrazia. Ricostruire la vicenda politica e intellettuale di Paine in America permette infine di evidenziare un ambiguità costitutiva della società commerciale dentro la quale il progetto politico dei ricchi mercanti entra in tensione con un’attitudine popolare critica del primo processo di accumulazione che rappresenta un presupposto indispensabile all’affermazione del capitalismo. La rivoluzione politica apre in questo senso la società commerciale a una lunga e conflittuale transizione verso il capitalismo Ciò risulta ancora più evidente leggendo Paine in Europa (1791-1797). Da una sponda all’altra dell’Atlantico, con Rights of Man egli esplicita ciò che in America ha preferito mantenere implicito, pur raccogliendo la sfida democratica lanciata dai friend of Common Sense: il salto in avanti che la rivoluzione atlantica deve determinare nel progresso dell’umanità è quello di realizzare la repubblica come vera e propria democrazia rappresentativa. Tuttavia, il fallimento del progetto politico di convocare una convenzione nazionale in Inghilterra e la degenerazione dell’esperienza repubblicana francese nel Terrore costringono Paine a mettere in discussione quella fiducia nel commercio che la storiografia liberale ha con grande profitto mostrato: il mancato compimento della rivoluzione in Europa trova infatti spiegazione nella temporanea impossibilità di tenere insieme democrazia rappresentativa e società commerciale. Nel contesto europeo, fortemente disgregato e segnato da durature gerarchie e forti disuguaglianze, con The Agrarian Justice, Paine individua nel lavoro salariato la causa del contraddittorio andamento – di arricchimento e impoverimento – dello sviluppo economico della società commerciale. La tendenza all’accumulazione non è quindi l’unica qualità della società commerciale in transizione. Attraverso Paine, possiamo individuare un altro carattere decisivo per comprendere la trasformazione sociale, quello dell’affermazione del lavoro salariato. Non solo in Europa. Al ritorno in America, Paine non porta con sé la critica della società commerciale. Ciò non trova spiegazione esclusivamente nel minor grado di disuguaglianza della società americana. Leggendo Paine in assenza di Paine (1787-1802) – ovvero ricostruendo il modo nel quale dall’Europa egli discute, critica e influenza la politica americana – mostreremo come la costituzione federale acquisisca gradualmente la supremazia sulla conflittualità sociale. Ciò non significa che l’America indipendente sia caratterizzata da un unanime consenso costituzionale. Piuttosto, è segnata da un lungo e tortuoso processo di stabilizzazione che esclude la democrazia dall’immediato orizzonte della repubblica americana. Senza successo, Paine torna infatti a promuovere una nuova sfida democratica come nella Pennsylvania rivoluzionaria degli anni settanta. E’ allora possibile vedere come la rivoluzione atlantica venga stroncata su entrambe le sponde dell’oceano: i grandi protagonisti della politica atlantica che prendono direttamente parola contro l’agenda democratica painita – Edmund Burke, Boissy d’Anglas e John Quincy Adams – spostano l’attenzione dal governo alla società per rafforzare le gerarchie determinate dal possesso di proprietà e dall’affermazione del lavoro salariato. Dentro la rivoluzione atlantica, viene così svolto un preciso compito politico, quello di contribuire alla formazione di un ambiente sociale e culturale favorevole all’affermazione del capitalismo – dalla trasformazione commerciale della società alla futura innovazione industriale. Ciò emerge in tutta evidenza quando sulla superficie increspata dell’oceano Atlantico compare nuovamente Paine: a Londra come a New York. Abbandonando quella positiva visione del commercio come vettore di emancipazione personale e collettiva, nel primo trentennio del diciannovesimo secolo, i lavoratori delle prime manifatture compongono l’agenda radicale che Paine lascia in eredità in un linguaggio democratico che assume così la valenza di linguaggio di classe. La diversa prospettiva politica sulla società elaborata da Paine in Europa torna allora d’attualità, anche in America. Ciò consente in conclusione di discutere quella storiografia secondo la quale nella repubblica dal 1787 al 1830 il trionfo della democrazia ha luogo – senza tensione e conflittualità – insieme con la lineare e incontestata affermazione del capitalismo: leggere Paine nella rivoluzione atlantica consente di superare quell’approccio storiografico che tende a ricostruire la circolazione di un unico paradigma linguistico o di un’ideologia dominante, finendo per chiudere la grande esperienza rivoluzionaria atlantica in un tempo limitato – quello del 1776 o in alternativa del 1789 – e in uno spazio chiuso delimitato dai confini delle singole nazioni. Quello che emerge attraverso Paine è invece una società atlantica in transizione lungo linee politiche e sociali che tracciano una direzione di marcia verso il capitalismo, una direzione affatto esente dal conflitto. Neanche sulla sponda americana dell’oceano, dove attraverso Paine è possibile sottolineare una precisa congiunzione storica tra rivoluzione politica, costruzione del governo federale e transizione al capitalismo. Una congiunzione per la quale la sfida democratica non risulta affatto sconfitta: sebbene venga allontanata dall’orizzonte immediato della rivoluzione, nell’arco di neanche un ventennio dalla morte di Paine nel 1809, essa torna a muovere le acque dell’oceano – con le parole di Melville – come un violento accesso di febbre contagiosa destinato a turbare l’organismo costituzionalmente sano del mondo atlantico. Per questo, come scrive John Adams nel 1805 quella che il 1776 apre potrebbe essere chiamata “the Age of Folly, Vice, Frenzy, Brutality, Daemons, Buonaparte -…- or the Age of the burning Brand from the Bottomless Pit”. Non può però essere chiamata “the Age of Reason”, perché è l’epoca di Paine: “whether any man in the world has had more influence on its inhabitants or affairs for the last thirty years than Tom Paine” -…- there can be no severer satyr on the age. For such a mongrel between pig and puppy, begotten by a wild boar on a bitch wolf, never before in any age of the world was suffered by the poltroonery of mankind, to run through such a career of mischief. Call it then the Age of Paine”.
Resumo:
La ricerca si pone come obbiettivo principale quello di individuare gli strumenti in grado di controllare la qualità di una progettazione specifica che risponde alle forti richieste della domanda turistica di un territorio. Parte dalle più semplici teorie che inquadrano una costante condizione dell’uomo, “il VIAGGIARE”. La ricerca si pone come primo interrogativo quello definire una “dimensione” in cui le persone viaggiano, dove il concetto fisico di spazio dedicato alla vita si è spostato come e quanto si sposta la gente. Esiste una sorta di macroluogo (destinazione) che comprende tutti gli spazi dove la gente arriva e da cui spesso riparte. Pensare all'architettura dell’ospitalità significa indagare e comprendere come la casa non è più il solo luogo dove la gente abita. La ricerca affonda le proprie tesi sull’importanza dei “luoghi” appartenenti ad un territorio e come essi debbano riappropriarsi, attraverso un percorso progettuale, della loro più stretta vocazione attrattiva. Così come si sviluppa un’architettura dello stare, si manifesta un’architettura dello spostarsi e tali architetture si confondono e si integrano ad un territorio che per sua natura è esso stesso attrattivo. L’origine terminologica di nomadismo è passaggio necessario per la comprensione di una nuova dimensione architettonica legata a concetti quali mobilità e abitare. Si indaga pertanto all’interno della letteratura “diasporica”, in cui compaiono le prime configurazioni legate alla provvisorietà e alle costruzioni “erranti”. In sintesi, dopo aver posizionato e classificato il fenomeno turistico come nuova forma dell’abitare, senza il quale non si potrebbe svolgere una completa programmazione territoriale in quanto fenomeno oramai imprescindibile, la ricerca procede con l’individuazione di un ambito inteso come strumento di indagine sulle relazioni tra le diverse categorie e “tipologie” turistiche. La Riviera Romagnola è sicuramente molto famosa per la sua ospitalità e per le imponenti infrastrutture turistiche ma a livello industriale non è meno famosa per il porto di Ravenna che costituisce un punto di riferimento logistico per lo scambio di merci e materie prime via mare, oltre che essere, in tutta la sua estensione, caso di eccellenza. La provincia di Ravenna mette insieme tutti i fattori che servono a soddisfare le Total Leisure Experience, cioè esperienze di totale appagamento durante la vacanza. Quello che emerge dalle considerazioni svolte sul territorio ravennate è che il turista moderno non va più in cerca di una vacanza monotematica, in cui stare solo in spiaggia o occuparsi esclusivamente di monumenti e cultura. La richiesta è quella di un piacere procurato da una molteplicità di elementi. Pensiamo ad un distretto turistico dove l’offerta, oltre alla spiaggia o gli itinerari culturali, è anche occasione per fare sport o fitness, per rilassarsi in luoghi sereni, per gustare o acquistare cibi tipici e, allo stesso tempo, godere degli stessi servizi che una persona può avere a disposizione nella propria casa. Il percorso, finalizzato a definire un metodo di progettazione dell’ospitalità, parte dalla acquisizione delle esperienze nazionali ed internazionali avvenute negli ultimi dieci anni. La suddetta fase di ricerca “tipologica” si è conclusa in una valutazione critica che mette in evidenza punti di forza e punti di debolezza delle esperienze prese in esame. La conclusione di questa esplorazione ha prodotto una prima stesura degli “obbiettivi concettuali” legati alla elaborazione di un modello architettonico. Il progetto di ricerca in oggetto converge sul percorso tracciato dai Fiumi Uniti in Ravenna. Tale scelta consente di prendere in considerazione un parametro che mostri fattori di continuità tra costa e città, tra turismo balneare e turismo culturale, considerato quindi come potenziale strumento di connessione tra realtà spesso omologhe o complementari, in vista di una implementazione turistica che il progetto di ricerca ha come primo tra i suoi obiettivi. Il tema dell’architettura dell’ospitalità, che in questo caso si concretizza nell’idea di sperimentare l’ALBERGO DIFFUSO, è quello che permette di evidenziare al meglio la forma specifica della cultura locale, salvandone la vocazione universale. La proposta progettuale si articola in uno studio consequenziale ed organico in grado di promuovere una riflessione originale sul tema del modulo “abitativo” nei luoghi di prossimità delle emergenze territoriali di specifico interesse, attorno alle quali la crescente affluenza di un’utenza fortemente differenziata evidenzia la necessità di nodi singolari che si prestino a soddisfare una molteplicità di usi in contesti di grande pregio.
Resumo:
La tesi si pone come finalità quella di analizzare un comprensorio territoriale dal punto di vista insediativo, cercando di coglierne le peculiarità e i mutamenti nel lungo periodo attraverso un uso incrociato di fonti scritte e archeologiche. La ricerca ha preso avvio dall’analisi del Saltopiano, uno dei distretti di ambito rurale che si ritrova nelle fonti tra IX-XII secolo, in passato già affrontato dalla storiografia specialmente in relazione all’organizzazione istituzionale delle aree rurali tra Longobardia e Romania durante i secoli altomedievali. Attraverso l’esame delle fonti scritte edite si è cercato di ricostruire il quadro dell’organizzazione territoriale, partendo dalla disamina dei centri di potere laici ed ecclesiastici che a questa area avevano rivolto il proprio interesse patrimoniale e politico, ma proponendo in modo analitico i dati che forniscono indicazioni dirette in relazione all’organizzazione insediativa e quindi alla gestione del territorio dal punto di vista socioeconomico. E’ stato posto in risalto il carattere di un insediamento rurale a maglie larghe, secondo la scansione in fundi e la presenza di poli di accentramento importanti come pievi, castra, vici e con una compresenza, per quanto ristretta a pochi esempi significativi, di altre forme di organizzazione come la curtis e la massa. Con la prosecuzione dello studio del territorio in senso diacronico, prima la scomparsa del riferimento al Saltopiano, poi la progressiva conquista del contado da parte del Comune di Bologna ha determinato un vero e proprio mutamento nell’approccio di analisi. E’ stato dato spazio all’analisi di fondi inediti (conservati principalmente all’Archivio di Stato di Bologna) e specificamente legati alla realtà territoriale studiata. In primo luogo, sono stati esaminati gli estimi del contado (Galliera e Massumatico), una fonte già frequentata in passato da altri studiosi, soprattutto con un interesse dal punto di vista demografico e economico. Nel caso specifico, sono stati estrapolati dalle prime rilevazioni fiscali del 1235 e del 1245 e poi da quelle di primo Trecento i dati che restituiscono l’organizzazione del territorio in modo concreto. Partendo dalle riflessioni di studi svolti in passato, che avevano considerato il fondamentale inserimento di importanti famiglie cittadine nella gestione sempre più ampia dei beni agricoli nel contado è stata avviata l’analisi di un altro fondo inedito, quello dei registri del Vicariato di Galliera (in particolare quelli concernenti la denuncia dei “danni dati” sulle proprietà agricole), da cui emerge in modo evidente la presenza di famiglie come i Guastavillani, i Caccianemici, i Lambertini. Tali dati, in associazione a quelli tratti dagli estimi, hanno fornito elementi essenziali per la comprensione del territorio rurale nel suo complesso e nei rapporti di interdipendenza tra le diverse componenti sociali. Una terza parte della tesi è dedicata nella sua totalità all’analisi delle fonti materiali che forniscono dati per lo studio dell’insediamento medievale nel territorio compreso tra gli attuali comuni di S. Pietro in Casale e Galliera. Partendo da alcune ricerche preliminari compiute negli anni ’90 del secolo scorso, è stato impostato un progetto di ricerca archeologica articolatosi in due campagne di ricognizione di superficie e in una prima campagna di scavo tramite sondaggio presso la torre di Galliera, al fine di ricavare dati di prima mano in un’area pressoché inesplorata dal punto di vista archeologico. Nonostante i limiti riscontrati dal punto di vista pratico, a causa del terreno fortemente alluvionato, si sono raccolti dati specifici che aiutano a inquadrare questo comprensorio e a confrontarlo con altre aree della regione e in particolare del comitato bolognese studiate in ricerche analoghe, mettendone in evidenza le specificità e le caratterizzazioni. Inoltre, alcune importanti persistenze materiali (un sistema di torri di cui rimangono alcuni esempi ancora conservati in alzato) hanno permesso di gettare luce sul valore commerciale e quindi strategico dell’area, soprattutto in funzione del passaggio delle merci lungo una via fluviale fondamentale tra XIII-XIV secolo nel collegare Ferrara a Bologna.
Resumo:
I materiali zirconiferi, in particolare i silicati di zirconio e l’ossido di zirconio, vengono ampiamente utilizzati in diverse applicazioni industriali: fra queste, l’industria delle piastrelle ceramiche e di produzione dei materiali refrattari ne consuma quantitativi consistenti. Misure di spettrometria gamma condotte su diversi campioni di materiale zirconifero (farine di zirconio e sabbie zirconifere) utilizzati nell’industria ceramica per la produzione del gres porcellanato e delle piastrelle smaltate, hanno messo in evidenza valori di concentrazione di attività superiori a quelli presenti mediamente sulla crosta terrestre (35, 30 Bqkg-1 per il 238U e il 232Th, rispettivamente [Unscear, 2000]). L’aggiunta del materiale zirconifero nella preparazione delle piastrelle ceramiche in particolare di quelle smaltate (in una percentuale in peso pari al 10-20%) del gres porcellanato (in una percentuale in peso di 1-10%) e delle lamine di gres porcellanato “sottile” (in una percentuale in peso dell’ordine del 30%), conferisce al prodotto finale un alto grado di bianco, buone caratteristiche meccaniche ed un elevato effetto opacizzante, ma comporta anche un arricchimento in radionuclidi naturali. L’obiettivo principale di questo lavoro di tesi è stato quello di mettere a punto una metodologia (teorica e sperimentale) per valutare l’incremento di esposizione che possono ricevere un lavoratore standard di una industria ceramica ed una persona del pubblico che soggiorna in un ambiente rivestito con piastrelle. Da un lato, la presenza di radioattività nelle sabbie zirconifere, utilizzate come materie prime per la produzione di piastrelle, porta a considerare il problema dell’incremento di esposizione che può subire un lavoratore impiegato in ambiente di lavoro dove sono stoccati e manipolati consistenti quantitativi di materiale, dall’altro il contenuto di radioattività nel prodotto finito porta a considerare l’esposizione per una persona della popolazione che soggiorna in una stanza rivestita con materiale ceramico. Le numerose misure effettuate, unitamente allo sviluppo dei modelli necessari per valutare le dosi di esposizione per le persone del pubblico e dei lavoratori impiegati nel processo di produzione di piastrelle ceramiche, hanno permesso di mettere a punto una procedura che fornisce le garanzie necessarie per dichiarare accettabili le condizioni di lavoro nelle industrie ceramiche e più in generale il rispetto delle norme radioprotezionistiche per gli occupanti di ambienti rivestiti con piastrelle italiane.
Resumo:
Fenomeni di trasporto ed elettrostatici in membrane da Nanofiltrazione La capacità di predire le prestazioni delle membrane da nanofiltrazione è molto importante per il progetto e la gestione di processi di separazione a membrana. Tali prestazioni sono strettamente legate ai fenomeni di trasporto che regolano il moto dei soluti all’interno della matrice della membrana. Risulta, quindi, di rilevante importanza la conoscenza e lo studio di questi fenomeni; l’obiettivo finale è quello di mettere a punto modelli di trasporto appropriati che meglio descrivano il flusso dei soluti all’interno della membrana. A fianco dei modelli di trasporto ricopre, quindi, una importanza non secondaria la caratterizzazione dei parametri aggiustabili propri della membrana sulla quale si opera. La procedura di caratterizzazione di membrane deve chiarire le modalità di svolgimento delle prove sperimentali e le finalità che esse dovrebbero conseguire. Tuttavia, nonostante i miglioramenti concernenti la modellazione del trasporto di ioni in membrana ottenuti dalla ricerca negli ultimi anni, si è ancora lontani dall’avere a disposizione un modello univoco in grado di descrivere i fenomeni coinvolti in maniera chiara. Oltretutto, la palese incapacità del modello di non riuscire a prevedere gli andamenti sperimentali di reiezione nella gran parte dei casi relativi a miscele multicomponenti e le difficoltà legate alla convergenza numerica degli algoritmi risolutivi hanno fortemente limitato gli sviluppi del processo anche e soprattutto in termini applicativi. Non da ultimo, si avverte la necessità di poter prevedere ed interpretare l’andamento della carica di membrana al variare delle condizioni operative attraverso lo sviluppo di un modello matematico in grado di descrivere correttamente il meccanismo di formazione della carica. Nel caso di soluzioni elettrolitiche, infatti, è stato riconosciuto che la formazione della carica superficiale è tra i fattori che maggiormente caratterizzano le proprietà di separazione delle membrane. Essa gioca un ruolo importante nei processi di trasporto ed influenza la sua selettività nella separazione di molecole caricate; infatti la carica di membrana interagisce elettrostaticamente con gli ioni ed influenza l’efficienza di separazione degli stessi attraverso la partizione degli elettroliti dalla soluzione esterna all’interno dei pori del materiale. In sostanza, la carica delle membrane da NF è indotta dalle caratteristiche acide delle soluzioni elettrolitiche poste in contatto con la membrana stessa, nonché dal tipo e dalla concentrazione delle specie ioniche. Nello svolgimento di questo lavoro sono stati analizzati i principali fenomeni di trasporto ed elettrostatici coinvolti nel processo di nanofiltrazione, in particolare si è focalizzata l’attenzione sugli aspetti relativi alla loro modellazione matematica. La prima parte della tesi è dedicata con la presentazione del problema generale del trasporto di soluti all’interno di membrane da nanofiltrazione con riferimento alle equazioni alla base del modello DSP&DE, che rappresenta una razionalizzazione dei modelli esistenti sviluppati a partire dal modello DSPM, nel quale sono stati integrarti i fenomeni di esclusione dielettrica, per quanto riguarda la separazione di elettroliti nella filtrazione di soluzioni acquose in processi di Nanofiltrazione. Il modello DSP&DE, una volta definita la tipologia di elettroliti presenti nella soluzione alimentata e la loro concentrazione, viene completamente definito da tre parametri aggiustabili, strettamente riconducibili alle proprietà della singola membrana: il raggio medio dei pori all’interno della matrice, lo spessore effettivo e la densità di carica di membrana; in più può essere considerato un ulteriore parametro aggiustabile del modello il valore che la costante dielettrica del solvente assume quando confinato in pori di ridotte dimensioni. L’impostazione generale del modello DSP&DE, prevede la presentazione dei fenomeni di trasporto all’interno della membrana, descritti attraverso l’equazione di Nerst-Planck, e lo studio della ripartizione a ridosso dell’interfaccia membrana/soluzione esterna, che tiene in conto di diversi contributi: l’impedimento sterico, la non idealità della soluzione, l’effetto Donnan e l’esclusione dielettrica. Il capitolo si chiude con la presentazione di una procedura consigliata per la determinazione dei parametri aggiustabili del modello di trasporto. Il lavoro prosegue con una serie di applicazioni del modello a dati sperimentali ottenuti dalla caratterizzazione di membrane organiche CSM NE70 nel caso di soluzioni contenenti elettroliti. In particolare il modello viene applicato quale strumento atto ad ottenere informazioni utili per lo studio dei fenomeni coinvolti nel meccanismo di formazione della carica; dall’elaborazione dei dati sperimentali di reiezione in funzione del flusso è possibile ottenere dei valori di carica di membrana, assunta quale parametro aggiustabile del modello. che permettono di analizzare con affidabilità gli andamenti qualitativi ottenuti per la carica volumetrica di membrana al variare della concentrazione di sale nella corrente in alimentazione, del tipo di elettrolita studiato e del pH della soluzione. La seconda parte della tesi relativa allo studio ed alla modellazione del meccanismo di formazione della carica. Il punto di partenza di questo studio è rappresentato dai valori di carica ottenuti dall’elaborazione dei dati sperimentali di reiezione con il modello di trasporto, e tali valori verranno considerati quali valori “sperimentali” di riferimento con i quali confrontare i risultati ottenuti. Nella sezione di riferimento è contenuta la presentazione del modello teorico “adsorption-amphoteric” sviluppato al fine di descrivere ed interpretare i diversi comportamenti sperimentali ottenuti per la carica di membrana al variare delle condizioni operative. Nel modello la membrana è schematizzata come un insieme di siti attivi di due specie: il gruppo di siti idrofobici e quello de siti idrofilici, in grado di supportare le cariche derivanti da differenti meccanismi chimici e fisici. I principali fenomeni presi in considerazione nel determinare la carica volumetrica di membrana sono: i) la dissociazione acido/base dei siti idrofilici; ii) il site-binding dei contro-ioni sui siti idrofilici dissociati; iii) l’adsorbimento competitivo degli ioni in soluzione sui gruppi funzionali idrofobici. La struttura del modello è del tutto generale ed è in grado di mettere in evidenza quali sono i fenomeni rilevanti che intervengono nel determinare la carica di membrana; per questo motivo il modello permette di indagare il contributo di ciascun meccanismo considerato, in funzione delle condizioni operative. L’applicazione ai valori di carica disponibili per membrane Desal 5-DK nel caso di soluzioni contenenti singoli elettroliti, in particolare NaCl e CaCl2 permette di mettere in evidenza due aspetti fondamentali del modello: in primis la sua capacità di descrivere andamenti molto diversi tra loro per la carica di membrana facendo riferimento agli stessi tre semplici meccanismi, dall’altra parte permette di studiare l’effetto di ciascun meccanismo sull’andamento della carica totale di membrana e il suo peso relativo. Infine vengono verificate le previsioni ottenute con il modello dal suddetto studio attraverso il confronto con dati sperimentali di carica ottenuti dall’elaborazione dei dati sperimentali di reiezione disponibili per il caso di membrane CSM NE70. Tale confronto ha messo in evidenza le buone capacità previsionali del modello soprattutto nel caso di elettroliti non simmetrici quali CaCl2 e Na2SO4. In particolare nel caso un cui lo ione divalente rappresenta il contro-ione rispetto alla carica propria di membrana, la carica di membrana è caratterizzata da un andamento unimodale (contraddistinto da un estremante) con la concentrazione di sale in alimentazione. Il lavoro viene concluso con l’estensione del modello ADS-AMF al caso di soluzioni multicomponenti: è presentata una regola di mescolamento che permette di ottenere la carica per le soluzioni elettrolitiche multicomponenti a partire dai valori disponibili per i singoli ioni componenti la miscela.
Resumo:
La valutazione dell’intensità secondo una procedura formale trasparente, obiettiva e che permetta di ottenere valori numerici attraverso scelte e criteri rigorosi, rappresenta un passo ed un obiettivo per la trattazione e l’impiego delle informazioni macrosismiche. I dati macrosismici possono infatti avere importanti applicazioni per analisi sismotettoniche e per la stima della pericolosità sismica. Questa tesi ha affrontato il problema del formalismo della stima dell’intensità migliorando aspetti sia teorici che pratici attraverso tre passaggi fondamentali sviluppati in ambiente MS-Excel e Matlab: i) la raccolta e l’archiviazione del dataset macrosismico; ii), l’associazione (funzione di appartenenza o membership function) tra effetti e gradi di intensità della scala macrosismica attraverso i principi della logica dei fuzzy sets; iii) l’applicazione di algoritmi decisionali rigorosi ed obiettivi per la stima dell’intensità finale. L’intera procedura è stata applicata a sette terremoti italiani sfruttando varie possibilità, anche metodologiche, come la costruzione di funzioni di appartenenza combinando le informazioni macrosismiche di più terremoti: Monte Baldo (1876), Valle d’Illasi (1891), Marsica (1915), Santa Sofia (1918), Mugello (1919), Garfagnana (1920) e Irpinia (1930). I risultati ottenuti hanno fornito un buon accordo statistico con le intensità di un catalogo macrosismico di riferimento confermando la validità dell’intera metodologia. Le intensità ricavate sono state poi utilizzate per analisi sismotettoniche nelle aree dei terremoti studiati. I metodi di analisi statistica sui piani quotati (distribuzione geografica delle intensità assegnate) si sono rivelate in passato uno strumento potente per analisi e caratterizzazione sismotettonica, determinando i principali parametri (localizzazione epicentrale, lunghezza, larghezza, orientazione) della possibile sorgente sismogenica. Questa tesi ha implementato alcuni aspetti delle metodologie di analisi grazie a specifiche applicazioni sviluppate in Matlab che hanno permesso anche di stimare le incertezze associate ai parametri di sorgente, grazie a tecniche di ricampionamento statistico. Un’analisi sistematica per i terremoti studiati è stata portata avanti combinando i vari metodi per la stima dei parametri di sorgente con i piani quotati originali e ricalcolati attraverso le procedure decisionali fuzzy. I risultati ottenuti hanno consentito di valutare le caratteristiche delle possibili sorgenti e formulare ipotesi di natura sismotettonica che hanno avuto alcuni riscontri indiziali con dati di tipo geologico e geologico-strutturale. Alcuni eventi (1915, 1918, 1920) presentano una forte stabilità dei parametri calcolati (localizzazione epicentrale e geometria della possibile sorgente) con piccole incertezze associate. Altri eventi (1891, 1919 e 1930) hanno invece mostrato una maggiore variabilità sia nella localizzazione dell’epicentro che nella geometria delle box: per il primo evento ciò è probabilmente da mettere in relazione con la ridotta consistenza del dataset di intensità mentre per gli altri con la possibile molteplicità delle sorgenti sismogenetiche. Anche l’analisi bootstrap ha messo in evidenza, in alcuni casi, le possibili asimmetrie nelle distribuzioni di alcuni parametri (ad es. l’azimut della possibile struttura), che potrebbero suggerire meccanismi di rottura su più faglie distinte.
Resumo:
Il confronto in corso tra gli esperti di management sanitario sui dipartimenti ospedalieri, la crescente attenzione sui modelli di organizzazione a rete e le indagini sui servizi sanitari condotte con strumenti di analisi dei network hanno rappresentato la base su cui sviluppare il disegno dello studio. La prospettiva relazionale e le tecniche di social network analysis (Sna) sono state impiegate in un indagine empirica effettuata presso tre Dipartimenti Ospedalieri dell’Azienda USL di Bologna per osservare la struttura delle relazioni che intercorrono nell’ambito dei dipartimenti, tra le unità operative e tra i clinici, al fine di assicurare il quotidiano svolgersi dei processi clinico assistenziali dei pazienti. L’indagine si è posta tre obiettivi. Il primo è quello di confrontare la rete delle relazioni “reali” che intercorrono tra unità operative e tra clinici con le relazioni “progettate” attraverso l’afferenza delle unità operative nei dipartimenti e dei singoli clinici nelle unità operative. In sostanza si tratta di confrontare, con intenti esclusivamente conoscitivi, la struttura organizzativa formale – istituzionale con quella “informale”, che emerge dalle relazioni giornaliere tra i professionisti. In secondo luogo si intende comprendere se e come i fattori di natura attributiva che caratterizzano i singoli rispondenti, (es. età, sesso, laurea, anni di permanenza in azienda, ecc.) incidano sulla natura e sull’intensità delle relazioni e delle collaborazioni intrattenute con i colleghi all’interno dell’azienda. L’analisi ha un intento “esplicativo”, in quanto si cerca di indagare come le similitudini nelle caratteristiche individuali possano o meno incidere sull’intensità degli scambi e quindi delle collaborazioni tra professionisti. Il terzo obiettivo è volto a comprendere se e come i fattori attributivi e/o relazionali siamo in grado di spiegare l’attitudine mostrata dai singoli professionisti rispetto l’adozione di un approccio alla pratica clinica ispirato all’Evidence based medicine. Lo scopo è quello di verificare se la disponibilità / orientamento ad operare in una prospettiva evidence based sia più legata ad elementi e caratteristiche personali piuttosto che all’influenza esercitata da coloro con i quali si entra in contatto per motivi lavorativi. La relativa semplicità della fase di indagine ha indotto ad arricchire i contenuti e gli obiettivi originari del lavoro allo scopo di correlare indicatori relazionali e attributivi con indicatori di “performance”, in particolare di efficienza e appropriatezza. Le relazioni sono state rilevate attraverso un questionario sociometrico inserito in uno spazio web accessibile dalla rete ospedaliera e compilato online da parte dei medici. Il questionario è stato organizzato in tre sezioni: la prima per la raccolta di informazioni anagrafiche e dati attributivi dei clinici; la seconda volta a raccogliere i dati relazionali, funzionali e di consulenza, verso le equipe di professionisti (unità operative) e verso i singoli colleghi clinici; la terza sezione è dedicata alla raccolta di informazioni sull’utilizzo delle evidenze scientifiche a supporto della propria pratica clinica (consultazione di riviste, banche dati, rapporti di HTA, etc,) e sulla effettiva possibilità di accesso a tali strumenti. L’azienda ha fornito i dati di struttura e la base dati degli indicatori di attività delle UO arruolate nello studio. La compliance complessiva per i tre dipartimenti è stata pari a circa il 92% (302 rispondenti su un campione di 329 medici.). Non si sono rilevate differenze significative sulla compliance per i tre dipartimenti considerati. L’elaborazione dei dati è stata effettuata mediante specifici software per l’analisi delle reti sociali, UCINET 6 per il calcolo degli indicatori relazionali (centralità, densità, structural holes etc.), e Pajek per l’analisi grafica dei network. L’ultima fase è stata realizzata con l’ausilio del software statistico STATA vers. 10. L’analisi dei risultati è distinta in due 2 fasi principali. In primis è stato descritto il network di relazioni professionali rilevate, sono stai calcolati i relativi indicatori di centralità relazionale e verificato il grado di sovrapposizione tra struttura formale dei dipartimenti in studio con le relazioni informali che si stabiliscono tra di essi nell’ambito clinico. Successivamente è stato analizzato l’impatto che le relazioni esercitano sulla propensione da parte dei singoli medici a utilizzare nuove evidenze scientifiche I primi risultati emersi dallo studio forniscono interessanti evidenze, con particolare riguardo al dato di un discreto grado di “sovrapposizione” tra struttura formale e informale delle unità organizzative in studio e a correlazioni significative tra fattori relazionali e attitudine dei medici verso l’utilizzo dell’approccio EBM. Altre evidenze, in specie la correlazione tra “centralità” degli attori organizzativi e alcuni indicatori di performance /appropriatezza, meritano ulteriori approfondimenti e una definitiva validazione. In conclusione lo studio dimostra che la prospettiva relazionale e la Sna consentono di porre in evidenza caratteristiche dei dipartimenti, dei suoi attori e delle loro reti di reciproche relazioni, in grado di favorire la comprensione di alcune dinamiche ricercate proprio attraverso l’organizzazione dipartimentale e quindi di specifico interesse per il management, i clinici e quanti altri impegnati nella gestione e nello sviluppo di questo modello di organizzazione dell’ospedale.
Resumo:
Il presente studio, per ciò che concerne la prima parte della ricerca, si propone di fornire un’analisi che ripercorra il pensiero teorico e la pratica critica di Louis Marin, mettendone in rilievo i caratteri salienti affinché si possa verificare se, nella loro eterogenea interdisciplinarità, non emerga un profilo unitario che consenta di ricomprenderli in un qualche paradigma estetico moderno e/o contemporaneo. Va innanzitutto rilevato che la formazione intellettuale di Marin è avvenuta nell’alveo di quel montante e pervasivo interesse che lo strutturalismo di stampo linguistico seppe suscitare nelle scienze sociali degli anni sessanta. Si è cercato, allora, prima di misurare la distanza che separa l’approccio di Marin ai testi da quello praticato dalla semiotica greimasiana, impostasi in Francia come modello dominante di quella svolta semiotica che ha interessato in quegli anni diverse discipline: dagli studi estetici all’antropologia, dalla psicanalisi alla filosofia. Si è proceduto, quindi, ad un confronto tra l’apparato concettuale elaborato dalla semiotica e alcune celebri analisi del nostro autore – tratte soprattutto da Opacité de la peinture e De la représentation. Seppure Marin non abbia mai articolato sistematicametne i principi teorici che esplicitassero la sua decisa contrapposizione al potente modello greimasiano, tuttavia le reiterate riflessioni intorno ai presupposti epistemologici del proprio modo di interpretare i testi – nonché le analisi di opere pittoriche, narrative e teoriche che ci ha lasciato in centinaia di studi – permettono di definirne una concezione estetica nettamente distinta dalla pratica semio-semantica della scuola di A. J. Greimas. Da questo confronto risulterà, piuttosto, che è il pensiero di un linguista sui generis come E. Benveniste ad avere fecondato le riflessioni di Marin il quale, d’altra parte, ha saputo rielaborare originalmente i contributi fondamentali che Benveniste diede alla costruzione della teoria dell’enunciazione linguistica. Impostando l’equazione: enunciazione linguistica=rappresentazione visiva (in senso lato), Marin diviene l’inventore del dispositivo concettuale e operativo che consentirà di analizzare l’enunciazione visiva: la superficie di rappresentazione, la cornice, lo sguardo, l’iscrizione, il gesto, lo specchio, lo schema prospettico, il trompe-l’oeil, sono solo alcune delle figure in cui Marin vede tradotto – ma in realtà immagina ex novo – quei dispositivi enunciazionali che il linguista aveva individuato alla base della parole come messa in funzione della langue. Marin ha saputo così interpretare, in modo convincente, le opere e i testi della cultura francese del XVII secolo alla quale sono dedicati buona parte dei suoi studi: dai pittori del classicismo (Poussin, Le Brun, de Champaigne, ecc.) agli eruditi della cerchia di Luigi XIV, dai filosofi (soprattutto Pascal), grammatici e logici di Port-Royal alle favole di La Fontaine e Perrault. Ma, come si evince soprattutto da testi come Opacité de la peinture, Marin risulterà anche un grande interprete del rinascimento italiano. In secondo luogo si è cercato di interpretare Le portrait du Roi, il testo forse più celebre dell’autore, sulla scorta dell’ontologia dell’immagine che Gadamer elabora nel suo Verità e metodo, non certo per praticare una riduzione acritica di due concezioni che partono da presupposti divergenti – lo strutturalismo e la critica d’arte da una parte, l’ermeneutica filosofica dall’altra – ma per rilevare che entrambi ricorrono al concetto di rappresentazione intendendolo non tanto come mimesis ma soprattutto, per usare il termine di Gadamer, come repraesentatio. Sia Gadamer che Marin concepiscono la rappresentazione non solo come sostituzione mimetica del rappresentato – cioè nella direzione univoca che dal rappresentato conduce all’immagine – ma anche come originaria duplicazione di esso, la quale conferisce al rappresentato la sua legittimazione, la sua ragione o il suo incremento d’essere. Nella rappresentazione in quanto capace di legittimare il rappresentato – di cui pure è la raffigurazione – abbiamo così rintracciato la cifra comune tra l’estetica di Marin e l’ontologia dell’immagine di Gadamer. Infine, ci è sembrato di poter ricondurre la teoria della rappresentazione di Marin all’interno del paradigma estetico elaborato da Kant nella sua terza Critica. Sebbene manchino in Marin espliciti riferimenti in tal senso, la sua teoria della rappresentazione – in quanto dire che mostra se stesso nel momento in cui dice qualcos’altro – può essere intesa come una riflessione estetica che trova nel sensibile la sua condizione trascendentale di significazione. In particolare, le riflessioni kantiane sul sentimento di sublime – a cui abbiamo dedicato una lunga disamina – ci sono sembrate chiarificatrici della dinamica a cui è sottoposta la relazione tra rappresentazione e rappresentato nella concezione di Marin. L’assolutamente grande e potente come tratti distintivi del sublime discusso da Kant, sono stati da noi considerati solo nella misura in cui ci permettevano di fare emergere la rappresentazione della grandezza e del potere assoluto del monarca (Luigi XIV) come potere conferitogli da una rappresentazione estetico-politica costruita ad arte. Ma sono piuttosto le facoltà in gioco nella nostra più comune esperienza delle grandezze, e che il sublime matematico mette esemplarmente in mostra – la valutazione estetica e l’immaginazione – ad averci fornito la chiave interpretativa per comprendere ciò che Marin ripete in più luoghi citando Pascal: una città, da lontano, è una città ma appena mi avvicino sono case, alberi, erba, insetti, ecc… Così abbiamo applicato i concetti emersi nella discussione sul sublime al rapporto tra la rappresentazione e il visibile rappresentato: rapporto che non smette, per Marin, di riconfigurarsi sempre di nuovo. Nella seconda parte della tesi, quella dedicata all’opera di Bernard Stiegler, il problema della comprensione delle immagini è stato affrontato solo dopo aver posto e discusso la tesi che la tecnica, lungi dall’essere un portato accidentale e sussidiario dell’uomo – solitamente supposto anche da chi ne riconosce la pervasività e ne coglie il cogente condizionamento – deve invece essere compresa proprio come la condizione costitutiva della sua stessa umanità. Tesi che, forse, poteva essere tematizzata in tutta la sua portata solo da un pensatore testimone delle invenzioni tecnico-tecnologiche del nostro tempo e del conseguente e radicale disorientamento a cui esse ci costringono. Per chiarire la propria concezione della tecnica, nel I volume di La technique et le temps – opera alla quale, soprattutto, sarà dedicato il nostro studio – Stiegler decide di riprendere il problema da dove lo aveva lasciato Heidegger con La questione della tecnica: se volgiamo coglierne l’essenza non è più possibile pensarla come un insieme di mezzi prodotti dalla creatività umana secondo un certi fini, cioè strumentalmente, ma come un modo di dis-velamento della verità dell’essere. Posto così il problema, e dopo aver mostrato come i sistemi tecnici tendano ad evolversi in base a tendenze loro proprie che in buona parte prescindono dall’inventività umana (qui il riferimento è ad autori come F. Gille e G. Simondon), Stiegler si impegna a riprendere e discutere i contributi di A. Leroi-Gourhan. È noto come per il paletnologo l’uomo sia cominciato dai piedi, cioè dall’assunzione della posizione eretta, la quale gli avrebbe permesso di liberare le mani prima destinate alla deambulazione e di sviluppare anatomicamente la faccia e la volta cranica quali ondizioni per l’insorgenza di quelle capacità tecniche e linguistiche che lo contraddistinguono. Dei risultati conseguiti da Leroi-Gourhan e consegnati soprattutto in Le geste et la parole, Stiegler accoglie soprattutto l’idea che l’uomo si vada definendo attraverso un processo – ancora in atto – che inizia col primo gesto di esteriorizzazione dell’esperienza umana nell’oggetto tecnico. Col che è già posta, per Stiegler, anche la prima forma di simbolizzazione e di rapporto al tempo che lo caratterizzano ancora oggi. Esteriorità e interiorità dell’uomo sono, per Stiegler, transduttive, cioè si originano ed evolvono insieme. Riprendendo, in seguito, l’anti-antropologia filosofica sviluppata da Heidegger nell’analitica esistenziale di Essere e tempo, Stiegler dimostra che, se si vuole cogliere l’effettività della condizione dell’esistenza umana, è necessaria un’analisi degli oggetti tecnici che però Heidegger relega nella sfera dell’intramondano e dunque esclude dalla temporalità autentica dell’esser-ci. Se è vero che l’uomo – o il chi, come lo chiama Stiegler per distinguerlo dal che-cosa tecnico – trova nell’essere-nel-mondo la sua prima e più fattiva possibilità d’essere, è altrettanto verò che questo mondo ereditato da altri è già strutturato tecnicamente, è già saturo della temporalità depositata nelle protesi tecniche nelle quali l’uomo si esteriorizza, e nelle quali soltanto, quindi, può trovare quelle possibilità im-proprie e condivise (perché tramandate e impersonali) a partire dalle quali poter progettare la propria individuazione nel tempo. Nel percorso di lettura che abbiamo seguito per il II e III volume de La technique et le temps, l’autore è impegnato innanzitutto in una polemica serrata con le analisi fenomenologiche che Husserl sviluppa intorno alla coscienza interna del tempo. Questa fenomenologia del tempo, prendendo ad esame un oggetto temporale – ad esempio una melodia – giunge ad opporre ricordo primario (ritenzione) e ricordo secondario (rimemorazione) sulla base dell’apporto percettivo e immaginativo della coscienza nella costituzione del fenomeno temporale. In questo modo Husserl si preclude la possibilità di cogliere il contributo che l’oggetto tecnico – ad esempio la registrazione analogica di una melodia – dà alla costituzione del flusso temporale. Anzi, Husserl esclude esplicitamente che una qualsiasi coscienza d’immagine – termine al quale Stiegler fa corrispondere quello di ricordo terziario: un testo scritto, una registrazione, un’immagine, un’opera, un qualsiasi supporto memonico trascendente la coscienza – possa rientrare nella dimensione origianaria e costitutiva di tempo. In essa può trovar posto solo la coscienza con i suo vissuti temporali percepiti, ritenuti o ricordati (rimemorati). Dopo un’attenta rilettura del testo husserliano, abbiamo seguito Stiegler passo a passo nel percorso di legittimazione dell’oggetto tecnico quale condizione costitutiva dell’esperienza temporale, mostrando come le tecniche di registrazione analogica di un oggetto temporale modifichino, in tutta evidenza, il flusso ritentivo della coscienza – che Husserl aveva supposto automatico e necessitante – e con ciò regolino, conseguente, la reciproca permeabilità tra ricordo primario e secondario. L’interpretazione tecnica di alcuni oggetti temporali – una foto, la sequenza di un film – e delle possibilità dispiegate da alcuni dispositivi tecnologici – la programmazione e la diffusione audiovisiva in diretta, l’immagine analogico-digitale – concludono questo lavoro richiamando l’attenzione sia sull’evidenza prodotta da tali esperienze – evidenza tutta tecnica e trascendente la coscienza – sia sul sapere tecnico dell’uomo quale condizione – trascendentale e fattuale al tempo stesso – per la comprensione delle immagini e di ogni oggetto temporale in generale. Prendendo dunque le mosse da una riflessione, quella di Marin, che si muove all’interno di una sostanziale antropologia filosofica preoccupata di reperire, nell’uomo, le condizioni di possibilità per la comprensione delle immagini come rappresentazioni – condizione che verrà reperità nella sensibilità o nell’aisthesis dello spettatore – il presente lavoro passerà, dunque, a considerare la riflessione tecno-logica di Stiegler trovando nelle immagini in quanto oggetti tecnici esterni all’uomo – cioè nelle protesi della sua sensibilità – le condizioni di possibilità per la comprensione del suo rapporto al tempo.