158 resultados para Jääskeläinen, Anni
Resumo:
Il presente studio, per ciò che concerne la prima parte della ricerca, si propone di fornire un’analisi che ripercorra il pensiero teorico e la pratica critica di Louis Marin, mettendone in rilievo i caratteri salienti affinché si possa verificare se, nella loro eterogenea interdisciplinarità, non emerga un profilo unitario che consenta di ricomprenderli in un qualche paradigma estetico moderno e/o contemporaneo. Va innanzitutto rilevato che la formazione intellettuale di Marin è avvenuta nell’alveo di quel montante e pervasivo interesse che lo strutturalismo di stampo linguistico seppe suscitare nelle scienze sociali degli anni sessanta. Si è cercato, allora, prima di misurare la distanza che separa l’approccio di Marin ai testi da quello praticato dalla semiotica greimasiana, impostasi in Francia come modello dominante di quella svolta semiotica che ha interessato in quegli anni diverse discipline: dagli studi estetici all’antropologia, dalla psicanalisi alla filosofia. Si è proceduto, quindi, ad un confronto tra l’apparato concettuale elaborato dalla semiotica e alcune celebri analisi del nostro autore – tratte soprattutto da Opacité de la peinture e De la représentation. Seppure Marin non abbia mai articolato sistematicametne i principi teorici che esplicitassero la sua decisa contrapposizione al potente modello greimasiano, tuttavia le reiterate riflessioni intorno ai presupposti epistemologici del proprio modo di interpretare i testi – nonché le analisi di opere pittoriche, narrative e teoriche che ci ha lasciato in centinaia di studi – permettono di definirne una concezione estetica nettamente distinta dalla pratica semio-semantica della scuola di A. J. Greimas. Da questo confronto risulterà, piuttosto, che è il pensiero di un linguista sui generis come E. Benveniste ad avere fecondato le riflessioni di Marin il quale, d’altra parte, ha saputo rielaborare originalmente i contributi fondamentali che Benveniste diede alla costruzione della teoria dell’enunciazione linguistica. Impostando l’equazione: enunciazione linguistica=rappresentazione visiva (in senso lato), Marin diviene l’inventore del dispositivo concettuale e operativo che consentirà di analizzare l’enunciazione visiva: la superficie di rappresentazione, la cornice, lo sguardo, l’iscrizione, il gesto, lo specchio, lo schema prospettico, il trompe-l’oeil, sono solo alcune delle figure in cui Marin vede tradotto – ma in realtà immagina ex novo – quei dispositivi enunciazionali che il linguista aveva individuato alla base della parole come messa in funzione della langue. Marin ha saputo così interpretare, in modo convincente, le opere e i testi della cultura francese del XVII secolo alla quale sono dedicati buona parte dei suoi studi: dai pittori del classicismo (Poussin, Le Brun, de Champaigne, ecc.) agli eruditi della cerchia di Luigi XIV, dai filosofi (soprattutto Pascal), grammatici e logici di Port-Royal alle favole di La Fontaine e Perrault. Ma, come si evince soprattutto da testi come Opacité de la peinture, Marin risulterà anche un grande interprete del rinascimento italiano. In secondo luogo si è cercato di interpretare Le portrait du Roi, il testo forse più celebre dell’autore, sulla scorta dell’ontologia dell’immagine che Gadamer elabora nel suo Verità e metodo, non certo per praticare una riduzione acritica di due concezioni che partono da presupposti divergenti – lo strutturalismo e la critica d’arte da una parte, l’ermeneutica filosofica dall’altra – ma per rilevare che entrambi ricorrono al concetto di rappresentazione intendendolo non tanto come mimesis ma soprattutto, per usare il termine di Gadamer, come repraesentatio. Sia Gadamer che Marin concepiscono la rappresentazione non solo come sostituzione mimetica del rappresentato – cioè nella direzione univoca che dal rappresentato conduce all’immagine – ma anche come originaria duplicazione di esso, la quale conferisce al rappresentato la sua legittimazione, la sua ragione o il suo incremento d’essere. Nella rappresentazione in quanto capace di legittimare il rappresentato – di cui pure è la raffigurazione – abbiamo così rintracciato la cifra comune tra l’estetica di Marin e l’ontologia dell’immagine di Gadamer. Infine, ci è sembrato di poter ricondurre la teoria della rappresentazione di Marin all’interno del paradigma estetico elaborato da Kant nella sua terza Critica. Sebbene manchino in Marin espliciti riferimenti in tal senso, la sua teoria della rappresentazione – in quanto dire che mostra se stesso nel momento in cui dice qualcos’altro – può essere intesa come una riflessione estetica che trova nel sensibile la sua condizione trascendentale di significazione. In particolare, le riflessioni kantiane sul sentimento di sublime – a cui abbiamo dedicato una lunga disamina – ci sono sembrate chiarificatrici della dinamica a cui è sottoposta la relazione tra rappresentazione e rappresentato nella concezione di Marin. L’assolutamente grande e potente come tratti distintivi del sublime discusso da Kant, sono stati da noi considerati solo nella misura in cui ci permettevano di fare emergere la rappresentazione della grandezza e del potere assoluto del monarca (Luigi XIV) come potere conferitogli da una rappresentazione estetico-politica costruita ad arte. Ma sono piuttosto le facoltà in gioco nella nostra più comune esperienza delle grandezze, e che il sublime matematico mette esemplarmente in mostra – la valutazione estetica e l’immaginazione – ad averci fornito la chiave interpretativa per comprendere ciò che Marin ripete in più luoghi citando Pascal: una città, da lontano, è una città ma appena mi avvicino sono case, alberi, erba, insetti, ecc… Così abbiamo applicato i concetti emersi nella discussione sul sublime al rapporto tra la rappresentazione e il visibile rappresentato: rapporto che non smette, per Marin, di riconfigurarsi sempre di nuovo. Nella seconda parte della tesi, quella dedicata all’opera di Bernard Stiegler, il problema della comprensione delle immagini è stato affrontato solo dopo aver posto e discusso la tesi che la tecnica, lungi dall’essere un portato accidentale e sussidiario dell’uomo – solitamente supposto anche da chi ne riconosce la pervasività e ne coglie il cogente condizionamento – deve invece essere compresa proprio come la condizione costitutiva della sua stessa umanità. Tesi che, forse, poteva essere tematizzata in tutta la sua portata solo da un pensatore testimone delle invenzioni tecnico-tecnologiche del nostro tempo e del conseguente e radicale disorientamento a cui esse ci costringono. Per chiarire la propria concezione della tecnica, nel I volume di La technique et le temps – opera alla quale, soprattutto, sarà dedicato il nostro studio – Stiegler decide di riprendere il problema da dove lo aveva lasciato Heidegger con La questione della tecnica: se volgiamo coglierne l’essenza non è più possibile pensarla come un insieme di mezzi prodotti dalla creatività umana secondo un certi fini, cioè strumentalmente, ma come un modo di dis-velamento della verità dell’essere. Posto così il problema, e dopo aver mostrato come i sistemi tecnici tendano ad evolversi in base a tendenze loro proprie che in buona parte prescindono dall’inventività umana (qui il riferimento è ad autori come F. Gille e G. Simondon), Stiegler si impegna a riprendere e discutere i contributi di A. Leroi-Gourhan. È noto come per il paletnologo l’uomo sia cominciato dai piedi, cioè dall’assunzione della posizione eretta, la quale gli avrebbe permesso di liberare le mani prima destinate alla deambulazione e di sviluppare anatomicamente la faccia e la volta cranica quali ondizioni per l’insorgenza di quelle capacità tecniche e linguistiche che lo contraddistinguono. Dei risultati conseguiti da Leroi-Gourhan e consegnati soprattutto in Le geste et la parole, Stiegler accoglie soprattutto l’idea che l’uomo si vada definendo attraverso un processo – ancora in atto – che inizia col primo gesto di esteriorizzazione dell’esperienza umana nell’oggetto tecnico. Col che è già posta, per Stiegler, anche la prima forma di simbolizzazione e di rapporto al tempo che lo caratterizzano ancora oggi. Esteriorità e interiorità dell’uomo sono, per Stiegler, transduttive, cioè si originano ed evolvono insieme. Riprendendo, in seguito, l’anti-antropologia filosofica sviluppata da Heidegger nell’analitica esistenziale di Essere e tempo, Stiegler dimostra che, se si vuole cogliere l’effettività della condizione dell’esistenza umana, è necessaria un’analisi degli oggetti tecnici che però Heidegger relega nella sfera dell’intramondano e dunque esclude dalla temporalità autentica dell’esser-ci. Se è vero che l’uomo – o il chi, come lo chiama Stiegler per distinguerlo dal che-cosa tecnico – trova nell’essere-nel-mondo la sua prima e più fattiva possibilità d’essere, è altrettanto verò che questo mondo ereditato da altri è già strutturato tecnicamente, è già saturo della temporalità depositata nelle protesi tecniche nelle quali l’uomo si esteriorizza, e nelle quali soltanto, quindi, può trovare quelle possibilità im-proprie e condivise (perché tramandate e impersonali) a partire dalle quali poter progettare la propria individuazione nel tempo. Nel percorso di lettura che abbiamo seguito per il II e III volume de La technique et le temps, l’autore è impegnato innanzitutto in una polemica serrata con le analisi fenomenologiche che Husserl sviluppa intorno alla coscienza interna del tempo. Questa fenomenologia del tempo, prendendo ad esame un oggetto temporale – ad esempio una melodia – giunge ad opporre ricordo primario (ritenzione) e ricordo secondario (rimemorazione) sulla base dell’apporto percettivo e immaginativo della coscienza nella costituzione del fenomeno temporale. In questo modo Husserl si preclude la possibilità di cogliere il contributo che l’oggetto tecnico – ad esempio la registrazione analogica di una melodia – dà alla costituzione del flusso temporale. Anzi, Husserl esclude esplicitamente che una qualsiasi coscienza d’immagine – termine al quale Stiegler fa corrispondere quello di ricordo terziario: un testo scritto, una registrazione, un’immagine, un’opera, un qualsiasi supporto memonico trascendente la coscienza – possa rientrare nella dimensione origianaria e costitutiva di tempo. In essa può trovar posto solo la coscienza con i suo vissuti temporali percepiti, ritenuti o ricordati (rimemorati). Dopo un’attenta rilettura del testo husserliano, abbiamo seguito Stiegler passo a passo nel percorso di legittimazione dell’oggetto tecnico quale condizione costitutiva dell’esperienza temporale, mostrando come le tecniche di registrazione analogica di un oggetto temporale modifichino, in tutta evidenza, il flusso ritentivo della coscienza – che Husserl aveva supposto automatico e necessitante – e con ciò regolino, conseguente, la reciproca permeabilità tra ricordo primario e secondario. L’interpretazione tecnica di alcuni oggetti temporali – una foto, la sequenza di un film – e delle possibilità dispiegate da alcuni dispositivi tecnologici – la programmazione e la diffusione audiovisiva in diretta, l’immagine analogico-digitale – concludono questo lavoro richiamando l’attenzione sia sull’evidenza prodotta da tali esperienze – evidenza tutta tecnica e trascendente la coscienza – sia sul sapere tecnico dell’uomo quale condizione – trascendentale e fattuale al tempo stesso – per la comprensione delle immagini e di ogni oggetto temporale in generale. Prendendo dunque le mosse da una riflessione, quella di Marin, che si muove all’interno di una sostanziale antropologia filosofica preoccupata di reperire, nell’uomo, le condizioni di possibilità per la comprensione delle immagini come rappresentazioni – condizione che verrà reperità nella sensibilità o nell’aisthesis dello spettatore – il presente lavoro passerà, dunque, a considerare la riflessione tecno-logica di Stiegler trovando nelle immagini in quanto oggetti tecnici esterni all’uomo – cioè nelle protesi della sua sensibilità – le condizioni di possibilità per la comprensione del suo rapporto al tempo.
Resumo:
La tesi dottorale in oggetto prende spunto da alcune considerazioni di base relative alla salute di una comunità. Infatti quest’ultima si fonda sulla sicurezza dell’ambiente in cui vive e sulla qualità delle relazioni tra i suoi componenti. In questo ambito la mobilità rappresenta uno degli elementi di maggior criticità, sia per la sicurezza delle persone, che per la salute pubblica, che per le conseguenze sull’ambiente che ne derivano. Negli ultimi anni la circolazione stradale è notevolmente aumentata è questo ha portato a notevoli aspetti negativi, uno dei quali è connesso agli incidenti stradali. In tale ambito viene ricordato che l’Unione Europea ha da tempo indicato come obiettivo prioritario il miglioramento della sicurezza stradale e nel 2001 ha fissato il traguardo di dimezzare entro il 2010 il numero delle vittime degli incidenti stradali. Non ultima, l’approvazione da parte del Parlamento europeo e del Consiglio di un atto legislativo (d’imminente pubblicazione sulla GU Europea) relativo alla gestione della sicurezza in tutte le fasi della pianificazione, della progettazione e del funzionamento delle infrastrutture stradali, in cui si evidenzia l’esigenza di una quantificazione della sicurezza stradale. In tale contesto viene sottolineato come uno dei maggiori problemi nella gestione della sicurezza stradale sia la mancanza di un metodo affidabile per stimare e quantificare il livello di sicurezza di una strada esistente o in progetto. Partendo da questa considerazione la tesi si sviluppa mettendo in evidenza le grandezza fondamentali nel problema della sicurezza stradale, (grado di esposizione, rischio d’incidente e le possibili conseguenze sui passeggeri) e analizzando i sistemi adottati tradizionalmente per effettuare analisi di sicurezza: • Statistiche dei dati storici d’incidente; • Previsione da modelli basati su analisi di regressione dei dati incidentali; • Studi Before-After; • Valutazione da giudizi di esperti. Dopo aver analizzato gli aspetti positivi e negativi delle alternative in parola, viene proposto un nuovo approccio, che combina gli elementi di ognuno dei metodi sopra citati in un algoritmo di previsione incidentale. Tale nuovo algoritmo, denominato Interactive Highway Safety Design Model (IHSDM) è stato sviluppato dalla Federal Highway Administration in collaborazione con la Turner Fairbank Higway Research Center ed è specifico per le strade extraurbane a due corsie. Il passo successivo nello sviluppo della tesi è quello di un’analisi dettagliata del modello IHSDM che fornisce il numero totale di incidenti previsti in un certo intervallo temporale. Viene analizzata la struttura del modello, i limiti d’applicabilità, le equazioni che ne sono alla base e i coefficienti moltiplicativi relativi ad ogni caratteristica geometrica e funzionale. Inoltre viene presentata un’ampia analisi di sensibilità che permette di definire quale sia l’influenza d’ogni singolo Fattore di Previsione incidentale (Accident Predication Factor) sul risultato finale. Dai temi trattati, emerge chiaramente come la sicurezza è legata a più sistemi tra loro interconnessi e che per utilizzare e migliorare i modelli previsionali è necessario avere a disposizione dati completi, congruenti, aggiornati e facilmente consultabili. Infatti, anche quando sono disponibili elementi su tutti gli incidenti avvenuti, spesso mancano informazioni di dettaglio ma fondamentali, riguardanti la strada come ad esempio il grado di curvatura, la larghezza della carreggiata o l’aderenza della pavimentazione. In tale ottica, nella tesi viene presentato il Sistema Informativo Stradale (SIS) della Provincia di Bologna, concepito come strumento di gestione delle problematiche inerenti la viabilità e come strumento di supporto per la pianificazione degli interventi e la programmazione delle risorse da investire sulla rete. Viene illustrato come il sistema sia in grado di acquisire, elaborare ed associare dati georeferenziati relativi al territorio sia sotto forma di rappresentazioni grafiche, sia mediante informazioni descrittive di tipo anagrafico ed alfanumerico. Quindi viene descritto il rilievo ad alto rendimento, effettuato con l’ausilio di un laboratorio mobile multifunzionale (Mobile Mapping System), grazie al quale è stato possibile definire con precisione il grafo completo delle strade provinciali e il database contenente i dati relativi al patrimonio infrastrutturale. Tali dati, relativi alle caratteristiche plano-altimetriche dell’asse (rettifili, curve planimetriche, livellette, raccordi altimetrici, ecc...), alla sezione trasversale (numero e larghezza corsie, presenza di banchine, ecc..), all’ambiente circostante e alle strutture annesse vengono presentati in forma completa specificando per ognuno la variabilità specifica. Inoltre viene evidenziato come il database si completi con i dati d’incidentali georeferenziati sul grafo e compresivi di tutte le informazioni contenute nel modello ISTAT CTT/INC spiegandone le possibili conseguenze sul campo dell’analisi di sicurezza. La tesi si conclude con l’applicazione del modello IHSDM ad un caso reale, nello specifico la SP255 di S.Matteo Decima. Infatti tale infrastruttura sarà oggetto di un miglioramento strutturale, finanziato dalla Regione Emilia Romagna, che consistente nell’allargamento della sede stradale attraverso la realizzazione di una banchina pavimentata di 1.00m su entrambi i lati della strada dalla prog. km 19+000 al km 21+200. Attraverso l’utilizzo dell’algoritmo di previsione incidentale è stato possibile quantificare gli effetti di questo miglioramento sul livello di sicurezza dell’infrastruttura e verificare l’attendibilità del modello con e senza storia incidentale pregressa. Questa applicazione ad un caso reale mette in evidenza come le informazioni del SIS possano essere sfruttate a pieno per la realizzazione di un analisi di sicurezza attraverso l’algoritmo di previsione incidentale IHSDM sia nella fase di analisi di uno specifico tronco stradale che in quella fondamentale di calibrazione del modello ad una specifica rete stradale (quella della Provincia di Bologna). Inoltre viene sottolineato come la fruibilità e la completezza dei dati a disposizione, possano costituire la base per sviluppi di ricerca futuri, come ad esempio l’indagine sulle correlazioni esistenti tra le variabili indipendenti che agiscono sulla sicurezza stradale.
Resumo:
La ricerca approfondisce gli studi iniziati dalla dott.ssa Baldini in occasione della tesi di laurea e amplia le indagini critiche avviate per la mostra sull’Aemilia Ars (2001). La ricerca si è interessata alle aree di Bologna e di Faenza individuando le connessioni che tra Otto e Novecento intercorrono tra la cultura artistica locale e quella nazionale ed europea. Nasce infatti in questo periodo Aemilia Ars, uno dei più innovativi movimenti del contesto nazionale nel campo delle arti decorative. I membri del gruppo, raccoltisi intorno alla carismatica figura di Alfonso Rubbiani nei primi anni Ottanta, sono attratti da influenze nordeuropee e sin dall’inizio si mostrano orientati a seguire precetti ruskiniani e preraffaelliti. Molto importante in entrambe le città, per l’evoluzione dello scenario artistico e artigianale – in questi anni più che mai unite in un rapporto di strettissima correlazione – è l’apporto e il sostegno offerto dai salotti, dai circoli, dai caffè e dai cenacoli locali. Dal punto di vista dello stile, forme lineari con una marcata tendenza all’astrazione caratterizzano la produzione dei principali interpreti faentini e bolognesi dell’ultimo ventennio dell’Ottocento allineandoli con le ricerche dei loro contemporanei nel resto d’Europa. I settori produttivi che si sono indagati sono quelli della ceramica, dell’ebanisteria, dei ferri battuti, dell’oreficeria, delle arti tessili e dei cuoi. Gran parte di queste lavorazioni – attardatesi nella realizzazione di oggetti dalle forme di ispirazione seicentesca, certamente poco adatte alla produzione industriale – subiscono ora una decisa accelerazione verso forme più svelte che, adeguandosi alla possibilità di riproduzione seriale degli oggetti, si diffonderanno quasi capillarmente tra l’aristocrazia e la borghesia, faticando tuttavia a raggiungere le classi meno abbienti a causa degli elevati costi di produzione. Nell’ultima parte viene tracciato sinteticamente il quadro delle attività artistiche e artigianali faentine del periodo indicato, con una particolare attenzione all’opera delle personalità afferenti al Cenacolo baccariniano.
Resumo:
Alla luce della vasta letteratura storico-artistica sorta, negli ultimi anni, sul paesaggio dipinto, sulla sua storia e sui suoi protagonisti, sulla filiera delle influenze e sulle varie declinazioni stilistiche che lo caratterizzano, uno studio sulle Origini del genere all’alba della modernità può sembrare destinato, non tanto ad aggiungere nuove informazioni, quanto a sistematizzare quelle sinora emerse. Eppure, il problema del paesaggio come oggetto semiotico deve ancora essere chiarito. Gli storici dell’arte si sono sostanzialmente limitati a rimuovere la questione, dietro l’idea che i quadri della natura siano rappresentazioni votate alla massima trasparenza, dove ha luogo “una transizione diretta dai motivi al contenuto” (Panofsky 1939, p. 9). Questo studio recupera e fa riemergere la domanda sul senso della pittura di paesaggio. Il suo scopo è proporre un’analisi del paesaggio in quanto produzione discorsiva moderna. Tra XVI e XVII secolo, quando il genere nasce, questa produzione si manifesta in quattro diverse forme semiotiche: l’ornamento o paraergon (cap. II), la macchia cromatica (cap. III), l’assiologia orizzontale del dispositivo topologico (cap. IV) e il regime di visibilità del “vedere attraverso” (cap. V). La prima di queste forme appartiene alla continuità storica, e la sua analisi offre l’occasione di dimostrare che, anche in qualità di paraergon, il paesaggio non è mai l’abbellimento estetico di un contenuto invariante, ma interviene attivamente, e in vario modo, nella costruzione del senso dell’opera. Le altre forme marcano invece una forte discontinuità storica. In esse, il genere moderno si rivela un operatore di grandi trasformazioni, i cui significati emergono nell’opposizione con il paradigma artistico classico. Contro il predominio del disegno e della figuratività, proprio della tradizionale “concezione strumentale dell’arte” (Gombrich 1971), il paesaggio si attualizza come macchia cromatica, facendosi portavoce di un discorso moderno sul valore plastico della pittura. Contro la “tirannia del formato quadrangolare” (Burckhardt 1898), strumento della tradizionale concezione liturgica e celebrativa dell’arte, il paesaggio si distende su formati oblunghi orizzontali, articolando un discorso laico della pittura. Infine, attraverso la messa in cornice della visione, propria del regime di visibilità del “vedere attraverso” (Stoichita 1993), il paesaggio trasforma la contemplazione del mondo in contemplazione dell’immagine del mondo. Il dispositivo cognitivo che soggiace a questo tipo di messa in discorso fa del paesaggio il preludio (simbolico) alla nascita del sapere cartografico moderno, che farà della riduzione del mondo a sua immagine il fondamento del metodo di conoscenza scientifica della Terra.
Resumo:
La ricerca ha bene analizzato lo stretto rapporto che si instaura fra le Avanguardie Storiche e le tecnologie più innovative dei primi anni del Novecento. Con il Futurismo (argomento trattato nel primo anno di ricerca di dottorato) e, in seguito, con il Dadaismo (principale soggetto di studio del secondo anno di ricerca), la candidata sottolinea i rapporti fra le avanguardie artistiche e la neonata tecnica cinematografica (1895). Il primo capitolo si concentra sugli enormi cambiamenti, sia materiali sia culturali, vissuti dalla nuova società di inizio Novecento. I principali concetti analizzati sono: i molteplici sviluppi tecnologici, la disputa teorica sul cinematografo che, tra il 1905 e il 1907, acquista maggiore rilevanza e la nuova “visione” della realtà. In particolare modo nel primo capitolo si affronta anche il dibattito culturale di fine Ottocento che contribuirà alle avanguardistiche affermazioni futuriste. L’idea di confrontare, in perfetta omologia, la nuova “visione” del cinema e le più importanti scoperte materiali del tempo è un interessante apporto a tutta la ricerca dove l’utilizzo del mezzo cinematografico diventa un mezzo perfetto per analizzare i flussi temporali, non più diacronici bensì sincronici dei fenomeni artistici. Inoltre, si sottolinea come la crescente convergenza fra differenti forme artistiche e il cinema d’avanguardia diventino uno strumento culturale capace di aprire nuovi universi e prospettive. E’ con il Futurismo che si inizia a parlare di contaminazioni fra differenti mezzi di espressione non necessariamente legati alla “rappresentazione” pittorica o scultorea. E’ invece il movimento Dadaista a sviluppare il discorso iniziato dai Futuristi e a concretizzare il binomio arte/cinema al fine di condividere il tempo della registrazione filmica e l’intenzione artistica degli autori presi in esame. Una parte importante del lavoro è stata l’analisi e lo studio dei materiali filmici recuperati sia in ambito futurista sia in ambito dadaista. La stesura di un approfondito indice ragionato ha permesso importanti chiarimenti sull’argomento trattato. La ricerca predisposta dalla candidata si è avvalsa di strumenti metodologici differenti con l’intento di far emergere il complesso degli interventi dei principali artisti operanti all’interno dei due movimenti presi in esame, tracciandone le omologie con le principali innovazioni tecnologiche.
Resumo:
L’ecografia è la metodica diagnostica più utilizzata come screening e follow-up nei pazienti epatopatici con o senza lesioni focali e questo grazie alle sue peculiari caratteristiche, che sono date dall’essere real-time, maneggevole, priva di radiazioni ionizzanti e con bassi costi. Tuttavia tale metodica se confrontata con la TC o la RMN, può avere importanti limiti, quali l’impossibilità di visualizzare piccole lesioni localizzate in aree anatomicamente “difficili” o in pazienti obesi, che sono già state identificate con altre tecniche, come la TC o la RMN. Per superare queste limitazioni sono stati introdotti dei sistemi di “fusione d’immagine” che consentono di sincronizzare in tempo reale una metodica real time con bassa risoluzione spaziale come l’ecografia ed una statica ad alta risoluzione come la TC o la RMN. Ciò si ottiene creando attorno al paziente un piccolo campo elettromagnetico costituito da un generatore e da un rilevatore applicato al trasduttore ecografico ed introducendo in un computer abbinato all’ecografo il “volume rendering” dell’addome del paziente ottenuto mediante TC multistrato o RM. Il preciso “ appaiamento spaziale “ delle due metodiche si ottiene individuando in entrambe lo stesso piano assiale di riferimento e almeno 3-4 punti anatomici interni. Tale sistema di fusione d’immagine potrebbe essere molto utile in campo epatologico nella diagnostica non invasiva del piccolo epatocarcinoma, che secondo le ultime linee guida, nei noduli di dimensioni fra 1 e 2 cm, richiede una concordanza nel comportamento contrastografico della lesione in almeno due tecniche d’immagine. Lo scopo del nostro lavoro è stato pertanto quello di valutare, in pazienti epatopatici, il contributo che tale sistema può dare nell’identificazione e caratterizzazione di lesioni inferiori a 20 mm, che erano già state identificate alla TC o alla RMN come noduli sospetti per HCC, ma che non erano stati visualizzati in ecografia convenzionale. L’eventuale re-identificazione con l’ecografia convenzionale dei noduli sospetti per essere HCC, può permettere di evitare, alla luce dei criteri diagnostici non invasivi un’ ulteriore tecnica d’immagine ed eventualmente la biopsia. Pazienti e Metodi: 17 pazienti cirrotici (12 Maschi; 5 Femmine), con età media di 68.9 +/- 6.2 (SD) anni, in cui la TC e la RMN con mezzo di contrasto avevano identificato 20 nuove lesioni focali epatiche, inferiori a 20 mm (13,6 +/- 3,6 mm), sospette per essere epatocarcinomi (HCC), ma non identificate all’ecografia basale (eseguita in cieco rispetto alla TC o alla RMN) sono stati sottoposti ad ecografia senza e con mezzo di contrasto, focalizzata su una zona bersaglio identificata tramite il sistema di fusione d’immagini, che visualizza simultaneamente le immagini della TC e della RMN ricostruite in modalità bidimensionale ( 2D), tridimensionale ( 3 D) e real-time. La diagnosi finale era stata stabilita attraverso la presenza di una concordanza diagnostica, secondo le linee guida internazionali o attraverso un follow-up nei casi di discordanza. Risultati: Una diagnosi non invasiva di HCC è stata raggiunta in 15/20 lesioni, inizialmente sospettate di essere HCC. Il sistema di fusione ha identificato e mostrato un comportamento contrastografico tipico in 12/15 noduli di HCC ( 80%) mentre 3/15 HCC (20%) non sono stati identificati con il sistema di fusione d’immagine. Le rimanenti 5/20 lesioni non sono state visualizzate attraverso i sistemi di fusione d’immagine ed infine giudicate come falsi positivi della TC e della RMN, poiché sono scomparse nei successivi mesi di follow-up e rispettivamente dopo tre, sei, nove, dodici e quindici mesi. Conclusioni: I nostri risultati preliminari mostrano che la combinazione del sistema di fusione dell’immagine associata all’ecografia senza e con mezzo di contrasto (CEUS), migliora il potenziale dell’ecografia nell’identificazione e caratterizzazione dell’HCC su fegato cirrotico, permettendo il raggiungimento di una diagnosi, secondo criteri non invasivi e slatentizzazndo casi di falsi positivi della TC e della RMN.
Resumo:
Scopo della presente ricerca era quello di approfondire il ruolo dei Sirfidi afidifagi ponendo particolare attenzione alle interazioni multitrofiche e all'effetto del paesaggio sul popolamento di Sirfidi. Larve e pupe di Sirfidi sono state monitorate in siti a diverso impatto antropico, in particolare in monocolture di mais e frumento ed in aree a maggiore diversità. La percentuale di parassitizzazione è risultata significativamente maggiore in aree a maggiore semplificazione, in particolare nei campi di mais. Anche la tipologia dei parassitoidi di Sirfidi è risultata diversa: mentre Pachyneuron (Encyrtidae) è il parassitoide chiave nel mais, in altri siti i Diplazontini (Ichneumonidae) sono risultati più frequenti. La distribuzione spaziale di Sirfidi ed altri predatori/parassitoidi afidifagi è stata analizzata in campi di mais e frumento dal 2007 al 2009. I pattern di distribuzione spaziale e temporale sembrano tali da impedire la sovrapposizione degli afidifagi favorendo una partizione di nicchia. Il popolamento di Sirfidi in un'area rurale caratterizzata da forte ricchezza in elementi di naturalità è stata analizzata per tre anni consecutivi, permettendo il ritrovamento di specie molto rare come Criorhina pachymera. Ai dati ottenuti è stato applicato Syrph the Net per la valutazione dello stato di conservazione del sito; è stata riscontrata una percentuale elevata di specie osservate ma non attese confermando come questo parametro può essere molto utile nella valutazione del paesaggio soprattutto in ambienti rurali. Infine Syrph the Net è stato applicato al popolamento di Sirfidi della provincia di Ferrara confermando l'utilità di questa tecnica per la valutazione della conservazione degli habitat anche in comprensori molto ampi.
Resumo:
Oggetto della ricerca è la tematica dell’opposizione parlamentare ed in particolare, il manifestarsi della stessa attraverso l’ostruzionismo praticato nelle assemblee legislative. La comprensione della funzione oppositoria è stata raggiunta assumendo come primigenio modello di riferimento l’esperienza presente nel sistema parlamentare inglese nel quale la dialettica democratica si svolge tra schieramenti nettamente contrapposti. L’approfondimento della figura oppositoria, poi, si è snodata nello studio delle diverse tipologie di opposizione conosciute nelle moderne democrazie, nonchè nella valutazione dei diversi livelli di riconoscimento che questa assume nei moderni contesti giuridici. Passando specificamente all’analisi dell’ostruzionismo parlamentare, la ricerca ha preliminarmente privilegiato lo studio dei soggetti che lo pongono in essere e del movente e delle finalità perseguite attraverso questa estrema forma di contestazione politica. Lo studio delle attività ostruzionistiche ha altresì valutato le modalità di esercizio ed i mezzi impiegati nella sua realizzazione, nonché le questioni di legittimità connesse a tale pratica. Ma è stata l’analisi dei regolamenti parlamentari, che com’è noto hanno subito le più incisive modificazioni quasi sempre in rapporto ad importanti episodi di ostruzionismo, a rappresentare il momento centrale del lavoro. Dopo la stagione di ostruzionismo esasperato degli anni settanta, all’interno del Parlamento sono cambiate le “regole del gioco” (considerate eccessivamente garantiste per le minoranze), in funzione dell’uso e non più dell’abuso del tempo da parte di tutti i soggetti istituzionali. L’effetto di tali riforme è stato quello di riqualificare la dialettica tra maggioranza ed opposizione, in particolare garantendo alla prima strumenti efficaci per conseguire il programma di Governo ed alla seconda strumenti che consentano di rendere visibili le proposte legislative alternative più qualificate. L’analisi dell’atteggiamento politico dell’opposizione parlamentare è stata altresì valutata alla luce degli effetti prodotti dalle ultime riforme elettorali e dalla loro incidenza sulle manifestazioni ostruzionistiche. La transizione (sia pure incompiuta) della forma di governo, attuata attraverso la trasformazione del sistema elettorale, ha segnato il passaggio da un sistema multipolare ad uno bipolare, con i conseguenti riflessi che si sono prodotti sui rapporti di forza tra maggioranza e opposizione. Nell’attuale logica bipolare, rimasta comunque immutata nonostante il ritorno ad un sistema elettorale nuovamente proporzionale caratterizzato dal premio di maggioranza, la riforma elettorale non ha lasciato indifferente l’atteggiarsi dell’ostruzionismo: il maggior potere, non solo numerico, che la maggioranza parlamentare è venuta ad assumere, ha spostato gli equilibri all’interno degli organi elettivi consentendo un’identificazione tra minoranza ed opposizione. Nel capitolo dedicato all’analisi dei regolamenti parlamentari è stata offerta una ricostruzione descrittiva dell’evoluzione subita dai regolamenti ed una di comparazione diacronica dei rimedi progressivamente adottati negli stessi per fronteggiare le possibili manifestazioni ostruzionistiche. Nella prospettiva di evidenziare le attuali dinamiche parlamentari, è stata affrontata una ricostruzione in chiave evolutiva subita dai regolamenti a partire dalla fase pre-repubblicana, fino ai regolamenti attualmente vigenti, ricomprendendo altresì le proposte di modifica allo stato in discussione in Parlamento. Dall’analisi complessiva è emerso che la debole razionalizzazione della forma di governo, il bicameralismo paritario ed indifferenziato, l’assenza di una riserva normativa a favore del governo e di strumenti giuridici per incidere sull’attività del Parlamento, hanno fatto sì che fossero i regolamenti parlamentari a dover supplire alla scarna disciplina costituzionale. A fronte della lenta ed incompiuta transizione della forma di governo parlamentare e dell’evolversi delle tecniche ostruzionistiche, si sono di conseguenza adeguate le misure di contenimento disciplinate nei regolamenti parlamentari. In questi ultimi dunque, è possibile rintracciare l’excursus storico delle misure adottate per regolare i possibili strumenti ostruzionistici previsti e disciplinati nelle procedure ed impiegati dalle minoranze per tentare di impedire la decisione finale. La comparazione, invece, ha evidenziato una progressiva opera di contenimento dei fenomeni ostruzionistici ottenuta essenzialmente con la razionalizzazione delle procedure parlamentari, l’introduzione del metodo della programmazione, del contingentamento dei tempi, nonché l’ampliamento dei poteri discrezionali dei Presidenti di assemblea nella loro opera di garanti della corretta dialettica parlamentare. A completamento del lavoro svolto è stato infine determinante la considerazione della concreta prassi parlamentare riscontrata nel corso delle legislature maggioritarie: la valutazione complessiva dei dati provenienti dal Servizio Studi della Camera, infatti, ha permesso di verificare come si sono manifestate in pratica le tecniche ostruzionistiche impiegate dall’opposizione per contrastare le politiche della maggioranza nel corso della XIII e della XIV Legislatura.
Resumo:
PRESUPPOSTI: Le tachicardie atriali sono comuni nei GUCH sia dopo intervento correttivo o palliativo che in storia naturale, ma l’incidenza è significativamente più elevata nei pazienti sottoposti ad interventi che prevedono un’estesa manipolazione atriale (Mustard, Senning, Fontan). Il meccanismo più frequente delle tachicardie atriali nel paziente congenito adulto è il macrorientro atriale destro. L’ECG è poco utile nella previsione della localizzazione del circuito di rientro. Nei pazienti con cardiopatia congenita sottoposta a correzione biventricolare o in storia naturale il rientro peritricuspidale costituisce il circuito più frequente, invece nei pazienti con esiti di intervento di Fontan la sede più comune di macrorientro è la parete laterale dell’atrio destro. I farmaci antiaritmici sono poco efficaci nel trattamento di tali aritmie e comportano un’elevata incidenza di effetti avversi, soprattutto l’aggravamento della disfunzione sinusale preesistente ed il peggioramento della disfunzione ventricolare, e di effetti proaritmici. Vari studi hanno dimostrato la possibilità di trattare efficacemente le IART mediante l’ablazione transcatetere. I primi studi in cui le procedure venivano realizzate mediante fluoroscopia tradizionale, la documentazione di blocco di conduzione translesionale bidirezionale non era routinariamente eseguita e non tutti i circuiti di rientro venivano sottoposti ad ablazione, riportano un successo in acuto del 70% e una libertà da recidiva a 3 anni del 40%. I lavori più recenti riportano un successo in acuto del 94% ed un tasso di recidiva a 13 mesi del 6%. Questi ottimi risultati sono stati ottenuti con l’utilizzo delle moderne tecniche di mappaggio elettroanatomico e di cateteri muniti di sistemi di irrigazione per il raffreddamento della punta, inoltre la dimostrazione della presenza di blocco di conduzione translesionale bidirezionale, l’ablazione di tutti i circuiti indotti mediante stimolazione atriale programmata, nonché delle sedi potenziali di rientro identificate alla mappa di voltaggio sono stati considerati requisiti indispensabili per la definizione del successo della procedura. OBIETTIVI: riportare il tasso di efficia, le complicanze, ed il tasso di recidiva delle procedure di ablazione transcatetere eseguite con le moderne tecnologie e con una rigorosa strategia di programmazione degli obiettivi della procedura. Risultati: Questo studio riporta una buona percentuale di efficacia dell’ablazione transcatetere delle tachicardie atriali in una popolazione varia di pazienti con cardiopatia congenita operata ed in storia naturale: la percentuale di successo completo della procedura in acuto è del 71%, il tasso di recidiva ad un follow-up medio di 13 mesi è pari al 28%. Tuttavia se l’analisi viene limitata esclusivamente alle IART il successo della procedura è pari al 100%, i restanti casi in cui la procedura è stata definita inefficace o parzialmente efficace l’aritmia non eliminata ma cardiovertita elettricamente non è un’aritmia da rientro ma la fibrillazione atriale. Inoltre, sempre limitando l’analisi alle IART, anche il tasso di recidiva a 13 mesi si abbassa dal 28% al 3%. In un solo paziente è stato possibile documentare un episodio asintomatico e non sostenuto di IART al follow-up: in questo caso l’aspetto ECG era diverso dalla tachicardia clinica che aveva motivato la prima procedura. Sebbene la diversa morfologia dell’attivazione atriale all’ECG non escluda che si tratti di una recidiva, data la possibilità di un diverso exit point del medesimo circuito o di un diverso senso di rotazione dello stesso, è tuttavia più probabile l’emergenza di un nuovo circuito di macrorientro. CONCLUSIONI: L'ablazione trancatetere, pur non potendo essere considerata una procedura curativa, in quanto non in grado di modificare il substrato atriale che predispone all’insorgenza e mantenimento della fibrillazione atriale (ossia la fibrosi, l’ipertrofia, e la dilatazione atriale conseguenti alla patologia e condizione anatomica di base)è in grado di assicurare a tutti i pazienti un sostanziale beneficio clinico. È sempre stato possibile sospendere l’antiaritmico, tranne 2 casi, ed anche nei pazienti in cui è stata documentata una recidiva al follow-up la qualità di vita ed i sintomi sono decisamente migliorati ed è stato ottenuto un buon controllo della tachiaritmia con una bassa dose di beta-bloccante. Inoltre tutti i pazienti che avevano sviluppato disfunzione ventricolare secondaria alla tachiaritmia hanno presentato un miglioramento della funzione sistolica fino alla normalizzazione o al ritorno a valori precedenti la documentazione dell’aritmia. Alla base dei buoni risultati sia in acuto che al follow-up c’è una meticolosa programmazione della procedura e una rigorosa definizione degli endpoint. La dimostrazione del blocco di conduzione translesionale bidirezionale, requisito indispensabile per affermare di aver creato una linea continua e transmurale, l’ablazione di tutti i circuiti di rientro inducibili mediante stimolazione atriale programmata e sostenuti, e l’ablazione di alcune sedi critiche, in quanto corridoi protetti coinvolti nelle IART di più comune osservazione clinica, pur in assenza di una effettiva inducibilità periprocedurale, sono obiettivi necessari per una procedura efficace in acuto e a distanza. Anche la disponibilità di moderne tecnologie come i sistemi di irrigazione dei cateteri ablatori e le metodiche di mappaggio elettroanantomico sono requisiti tecnici molto importanti per il successo della procedura.
Resumo:
Sebbene Anarsia lineatella sia un fitofago ormai da anni introdotto e diffuso in Italia, ancora poco si conosce circa le sue abitudini riproduttive. In considerazione della elevata dannosità di A. lineatella nei pescheti del nord Italia e delle scarse conoscenze sulla sua biologia, si è evidenziata la necessità di approfondire la conoscenza di questo fitofago. Pertanto gli scopi di questa ricerca hanno riguardato l’approfondimento delle conoscenze sui sistemi di comunicazione intraspecifici utilizzati da A. lineatella; la valutazione dell’efficacia di diverse miscele di feromone sintetico, in laboratorio utilizzando anche densità diverse di popolazioni di anarsia e in campo utilizzando gabbie di accoppiamento appositamente costruite, posizionate in frutteti a conduzione biologica nel nord Italia e messe a confronto con gabbie che utilizzavano come fonte attrattiva femmine vergini di tre giorni di età. Sono state condotte prove sul comportamento di maschi di A. lineatella di differenti età in risposta al feromone emesso da femmine vergini di tre giorni di età e al feromone emesso da erogatori di materiale plastico contenenti differenti miscele di feromone sintetico. Sono stati condotti studi per verificare l’influenza del contenuto di alcol ((E)5-10:OH) nella miscela feromonica sulla capacità di inibizione degli accoppiamenti, sottoponendo gli insetti a differenti concentrazioni di feromone in modo da verificare eventuali differenze di attività delle diverse miscele, differenze che emergerebbero con evidenza maggiore alle minori concentrazioni. Alcune prove sono state effettuate anche con differenti densità di popolazione, poiché una maggiore densità di popolazione determina una maggiore probabilità di accoppiamento, evidenziando più chiaramente i limiti di efficacia della miscela utilizzata. Inoltre sono state effettuate prove di campo per confrontare due modelli di erogatore per la confusione sessuale di anarsia contenenti miscele con differenti percentuali di alcol Inoltre, poiché nei pescheti la presenza di A. lineatella è pressoché sempre associata a quella di Cydia molesta e l’applicazione del metodo della confusione deve spesso essere applicato per controllare entrambi gli insetti, può risultare vantaggioso disporre di un unico erogatore contenente entrambi i feromoni; è stato quindi valutato un erogatore contenente una miscela dei due feromoni per verificare eventuali interazioni che possano ridurre l’efficacia.
Resumo:
Il nostro studio è incentrato sul confronto fra l’Unione Europea e il Mercado Común del Sur (Mercosur, particolarmente, in relazione a due aspetti: (i) aspetto giuridico-strutturale e, (ii) aspetto giurisprudenziale. L’obiettivo principale di tale confronto è quello di tracciare un parallelismo tra i due sistemi d’integrazione in modo da comprendere il livello d’integrazione e di efficienza del Mercosur in relazione ad un parametro ineludibile in materia quale è l’Unione Europea. Con tale obiettivo, il lavoro è stato suddiviso in quattro capitoli che mettono a fuoco aspetti molto precisi dei sistemi d’integrazione regionale. Il Capitolo I Diritto e integrazione nell’ambito del Mercosur, ha una funzione introduttiva al sistema mercosurino e funge da asse dell’intera tesi dato che illustra le origini del Mercosur, le sue istituzioni, i suoi fini ed obiettivi e, da ultimo, l’attuale assetto istituzionale del medesimo ed ipotizza i suoi possibili sviluppi futuri. Nel Capitolo II, L’evoluzione del diritto del Mercosur alla luce del primo parere consultivo del Tribunal Permanente de Revisión, è analizzato il primo parere emesso dai Tribunali mercosurini – nell’anno 2007. Vengono delineati gli elementi che caratterizzano tali pareri mercosurini e vengono altresì messi in evidenza gli aspetti di convergenza con i rinvii pregiudiziali della Corte di giustizia e quelli che, invece, rappresentano elementi di profonda divergenza. Attraverso l’analisi del Parere 1/2007 ci proponiamo in primo luogo di mettere a fuoco specifici spunti giuridici rintracciabili nella sua motivazione che ci permetteranno di dare una reale dimensione al Diritto mercosurino. In secondo luogo, ci proponiamo di mettere in evidenza il fondamentale ruolo che possono acquisire i pareri emessi dal Tribunal Permanente de Revisión nello sviluppo dell’intero sistema giuridico ed istituzionale del Mercosur. Nel capitolo successivo, Un caso di conflitto di giurisdizione, abbiamo voluto studiare una particolare controversia che, curiosamente, è stata affrontata e risolta da differenti organi giurisdizionali con competenze materiali e territoriali diverse. Facciamo riferimento alla causa “dei polli” esportati in Argentina, con presunto dumping, da parte di alcuni produttori brasiliani dal gennaio 1998 al gennaio 1999. Tale causa ebbe origine in Argentina dinanzi un’autorità amministrativa, fu parallelamente portata dinanzi la giustizia federale argentina, successivamente davanti ad un Tribunale mercosurino e, infine, dinanzi l’OMC. Con lo scopo di trovare una risposta al perché sia stato possibile adire più tribunali ed applicare normativa diversa ad una stessa controversia abbiamo indagato due aspetti di diritto di vitale rilevanza nell’ambito del diritto internazionale dei nostri giorni. Da una parte ci siamo focalizzati sullo studio delle normative internazionali che legiferando su materie simili e, in certi casi, pressoché identiche, e avendo origine in sistemi giuridici diversi hanno, tuttavia, la capacità di esplicare i loro effetti in più giurisdizioni e sono, pertanto, potenzialmente in grado di influenzarsi a vicenda. D’altra parte, abbiamo compiuto un’indagine sull’esistenza o meno di una normativa che funga da raccordo tra i sistemi di risoluzione delle controversie degli spazi d’integrazione economica e il sistema di risoluzione delle controversie dell’OMC. Infine, il quarto ed ultimo capitolo, L’attività giurisdizionale negli spazi d’integrazione regionale, è dedicato alla valutazione degli sviluppi compiuti dal Mercosur in 18 anni di vita alla luce dei lodi emessi dai Tribunali mercosurini. Difatti, l’obiettivo concreto di questo capitolo è capire se i Tribunali mercosurini svolgono una funzione dinamica e costruttiva dell’assetto del Mercosur, tesa a sviluppare il sistema normativo, oppure se essi abbiano, piuttosto, una funzione passiva e una visione statica nell’applicazione del diritto. È risaputo che la funzione della Corte di giustizia è stata determinante nell’evoluzione e nell’affermazione del sistema giuridico in vigore attraverso una giurisprudenza costante. Mediante il confronto dell’attività svolta da entrambe le giurisdizioni sarà possibile avanzare ipotesi riguardo i futuri progressi dell’assetto mercosurino grazie all’apporto giurisprudenziale.
Resumo:
Il lavoro di tesi ha l’obiettivo di dare seguito e profondità alle verifiche già condotte negli anni scorsi da Monticini e Baglioni, da Angelini e da Vento e La Ganga. Nel dettaglio nella serie storica dei tassi scambiati, sul comparto ON, del mercato e-Mid, riscontrano empiricamente che i tassi scambiati nelle prime ore del mattino sono in media superiori rispetto a quelli del pomeriggio. In pratica emerge un costo orario positivo. Il campione è costituito da 196.571 contratti eseguiti tra il 1 gennaio 2007 ed il 31 marzo 2009, sul comparto ON. Le analisi si sono concentrate sull’intensità del reversal patttern, oltre che su base giornaliera anche su base settimanale (day of the week) e su base mensile (month of the year effect). Le medesime analisi sono state condotte sull’ultimo giorno del periodo di mantenimento, e su particolari giorni che hanno scandito la crisi finanziaria. Per osservare la dinamica del reversal pattern prima e durante la crisi, le medesime verifiche sono condotte su tre sub campioni. Il primo considera tutti i contratti dall’inizio e fino all’8 agosto compreso; il secondo da quest’ultimo e fino al 12 settembre 2008 compreso; l’ultimo dal fallimento della Lehman e fino al 31 marzo 2009. I risultati confermano la presenza del reversal, per tutti i giorni e per tutti i mesi. Tuttavia quando il campione è suddiviso, le stime del primo campione, perdono di significatività, in particolare il giovedì ed il mese di febbraio. Sel medesimo periodo di campionamento al fine di verificare se il reversal pattern sia attribuire in parte anche alla liquidità del mercato, si è indagato su tutte le proposte in bid ed in offer, e dei relativi volumi, ovvero sul bid ask spread, il relativo prezzo medio ed i volumi. Anche in questo caso le analisi si sono concentrate oltre che sul campione originario, anche sui tre sub campioni in cui è stato successivamente suddiviso. . Quando infine si analizzano volumi e proposte, si nota innanzitutto che, al mattino, quando i prezzi scambiati sono maggiori il bid ask spread è minimo. Viceversa il pomeriggio quando il BAS è minore. La stessa dinamica si osserva per lo spread effettivo (SE), il quale è pari alla differenza tra prezzo medio delle contrattazioni e prezzo medio delle proposte. Infine i volumi sia delle proposte che delle contrattazioni, sono maggiori al mattino rispetto al pomeriggio e tendono a decrescere con l’intensificarsi della crisi. Inoltre i volumi in bid sono sempre maggiori rispetto a quelli in offer al mattino piuttosto che al pomeriggio.
Resumo:
La leishmaniosi è una malattia protozoaria importante che interessa l’ambito della sanità animale e umana, in relazione al carattere zoonotico dell’infezione. In Italia l’infezione è sostenuta da Leishmania infantum, i cui ceppi viscerotropi sono responsabili della leishmaniosi canina (LCan) e della forma viscerale zoonotica (LVZ), ed i ceppi dermotropi della forma cutanea sporadica nell’uomo (LCS). La trasmissione dell’infezione è sostenuta da femmine ematofaghe di ditteri appartenenti al genere Phlebotomus, che hanno il ruolo di vettori biologici attivi. L’unico serbatoio domestico riconosciuto è il cane. In Italia la LCan è in forte espansione. Fino agli anni ottanta era presente in forma endemica nel centro-sud Italia e nelle isole mentre il nord Italia, fatta eccezione per la Liguria e una piccola parte dell’Emilia-Romagna risultava indenne. A partire dagli anni novanta, parallelamente ad un aumento della consistenza e del numero dei focolai nelle aree storicamente endemiche, sono iniziate, nelle regioni del Nord, le segnalazioni di focolai autoctoni stabili. Le attività del network scientifico LeishMap™, tra il 2002 e il 2005, hanno evidenziato un nuovo quadro epidemiologico in tutte le regioni del nord Italia, confermato anche da indagini successive. Alla riemergenza della leishmaniosi hanno concorso una serie di fattori ecologico-ambientali e umani. Tra i primi si ricorda il cambiamento climatico che ha influito sulla distribuzione e sulla densità della popolazione vettoriale; tra i secondi, ruolo fondamentale ha giocato la maggiore movimentazione di animali, provenienti da aree indenni, in zone interessate dalla malattia. La valutazione di tutti questi aspetti è stato il punto di partenza per la messa a punto di un progetto per la realizzazione della sorveglianza della leishmaniosi in Emilia-Romagna. Parte delle attività previste da tale progetto costituiscono la prima parte della presente tesi. Mediante la realizzazione di una banca dati e, la successiva georeferenziazione, dei casi di leishmaniosi canina (LCan) in cani di proprietà della regione e zone limitrofe (Pesaro-Urbino, Repubblica di San Marino), sono stati evidenziati 538 casi, la maggior parte dei quali nelle province di Bologna e Rimini (235 e 204, rispettivamente). Nelle due province sono stati individuati clusters di aggregazione importanti in base alla densità di casi registrati/km2 (4 nella provincia di Bologna e 3 in quella di Rimini). Nella seconda parte della presente tesi è stato approfondito l’aspetto diagnostico della malattia. Molte sono le metodiche applicabili alla diagnosi di LCan: da quelle dirette, come i metodi parassitologici e molecolari, a quelle indirette, come le tecniche sierologiche. Nella II parte sperimentale della presente tesi, 100 sieri di cane sono stati esaminati in Immunofluorescenza Indiretta (IFI), Enzyme-Linked Immunosorbent Assay (ELISA) e Western Blot (WB), al fine di valutare l’applicazione di queste metodiche a scopi diagnostici ed epidemiologici. L’elaborazione statistica dei risultati ottenuti conferma l’IFI metodica gold standard per la diagnosi della LCan. Inoltre, si è osservato che il grado di concordanza tra l’IFI e le altre due metodiche aumenta quando nell’animale si instaura una risposta anticorpale forte, che, corrisponderebbe ad uno stato di infezione in atto.
Resumo:
Synchronization is a key issue in any communication system, but it becomes fundamental in the navigation systems, which are entirely based on the estimation of the time delay of the signals coming from the satellites. Thus, even if synchronization has been a well known topic for many years, the introduction of new modulations and new physical layer techniques in the modern standards makes the traditional synchronization strategies completely ineffective. For this reason, the design of advanced and innovative techniques for synchronization in modern communication systems, like DVB-SH, DVB-T2, DVB-RCS, WiMAX, LTE, and in the modern navigation system, like Galileo, has been the topic of the activity. Recent years have seen the consolidation of two different trends: the introduction of Orthogonal Frequency Division Multiplexing (OFDM) in the communication systems, and of the Binary Offset Carrier (BOC) modulation in the modern Global Navigation Satellite Systems (GNSS). Thus, a particular attention has been given to the investigation of the synchronization algorithms in these areas.