991 resultados para (p,0)forme, teorie di gauge, BRST, Batalin-Vilkovisky, azione efficace, heat kernel.
Resumo:
Oggetto di studio in questa tesi è stato il ruolo modulatorio svolto dal neuropeptide nocicettina/orfanina FQ a carico della trasmissione nocicettiva. A scopo introduttivo, sono state illustrate le conoscenze attuali sul sistema nocicettina-NOP; sono state descritte le funzioni, la struttura e la distribuzione del recettore NOP, le azioni farmacologiche finora note e la distribuzione della nocicettina stessa al livello del S.N.C. e in periferia. Lo studio è stato condotto principalmente con due approcci differenti A) E’ stata studiata la capacità della nocicettina esogena o di suoi analoghi agonisti e antagonisti, di modificare la trasmissione nocicettiva. B) Sono state studiate le variazioni a carico del sistema endogeno nocicettina/recettore NOP in seguito a trattamenti di tipo farmacologico. A) E’ stata indagata la capacità della nocicettina e degli analoghi sintetici [Arg14, Lys15]N/OFQ e UFP-101 di modificare la soglia nocicettiva nel ratto, rilevata con il test del tail-flick, a seguito di somministrazione diretta nello spazio subaracnoideo, in confronto con la nocicettina stessa. La somministrazione intratecale del neuropeptide nocicettina (10 nmol/ratto) ha determinato un innalzamento statisticamente significativo delle latenze di risposta al test del tail-flick. L’analogo [Arg14, Lys15]N/OFQ è stato somministrato alla dose di 1 nmole/ratto i.t. provocando un innalzamento massimale delle soglie di latenza per tutto il periodo di osservazione, mentre alla dose 0,2 nmoli/ratto i.t ha provocato un effetto antinocicettivo sottomassimale pur dimostrandosi significativo rispetto ai controlli (p < 0,05 vs controlli a tutti i tempi di rilevazione). Il composto antagonista UFP-101 è risultato capace di antagonizzare l’azione sulla soglia analgesica sia della nocicettina sia dell’analogo [Arg14, Lys15]N/OFQ nel suo dosaggio minore, mentre contro la dose di 1 nmole/ratto i.t ha prodotto solamente una riduzione di effetto. Anche la somministrazione intratecale di MAP-N/OFQ si è dimostrata in grado di modificare la soglia nocicettiva determinata mediante il test del tail-flick, nel ratto, in modo dose dipendente. differentementeuna seconda somministrazione di MAP-N/OFQ dopo 24 ore, si è dimostrata totalmente inefficace nel modificare la soglia nocicettiva nei ratti precedentemente trattati, pur permanendo la loro suscettibilità all’azione analgesica della morfina, mostrando quindi il rapido sviluppo di tolerance al potente peptide nocicettinergico somministrato per via i.t.. Inoltre l’antagonista UFP-101 oltre ad essere ingrado di antagonizzare l’effetto della MAP-N/OFQ, ha mostrato la capacità di ridurre la tolerance sviluppata nei confronti del dendrimero. La somministrazione di MAP-N/OFQ per via i.c.v. ha prodotto variazione della soglia nocicettiva, producendo un innalzamento del volore soglia, dato contrastante con la maggior parte dei dati riguardanti la nocicettina in letteratura. Ha invece replicato l’effetto di antagonismo funzionale nei confronti della morfina, la quale dopo somministrazione di MAP-N/OFQ è risultata essere incapace di modificare la soglia nocicettiva nel ratto. Tale effetto perdura dopo 24 ore, quando una somministrazione di morfina produce un effetto analgesico inversamente proporzionale alla dose ricevuta di MAP-N/OFQ 24 ore prima. E’stato indagato il possibile ruolo neuromodulatorio del neuropeptide nocicettina esogeno, nell’analgesia prodotta da un farmaco di natura non oppiacea. In tal senso si è proceduto ad indagare l’eventuale capacità della nocicettina esogena, somministrata per via intracerebroventricolare e del suo analogo [Arg14, Lys15]N/OFQ, di antagonizzare l’analgesia prodotta dal farmaco paracetamolo. La nocicettina ha evidenziato la capacità di antagonizzare il potere antinocicettivo del paracetamolo fino a bloccarne completamente l’effetto al dosaggio più elevato, mostrando quindi proprietà antagonista dose-dipendente. Inoltre l’UFP-101, che di per se non altera l’analgesia indotta da paracetamolo, è ingrado di antagonizzare l’effetto della nocicettina sul paracetamolo in maniera dose-dipendente. Medesimo è risultato il comportamento dell’analogo della nocicettina, la Arg-Lys nocicettina. B) Sono state indagate le relazioni tra il sistema nocicettina/NOP e le proprietà farmacologiche di un noto farmaco oppiaceo quale la buprenorfina, le cui peculiari caratteristiche farmacodinamiche sano state recentemente collegate alla sua capacità di agire come agonista diretto al recettore NOP. In tal senso si è proceduto ad osservare l’effetto della somministrazione di buprenorfina sull’ assetto recettoriale di NOP, inseguito ad un trattamento prolungato con somministrazione sottocutanea mediante minipompe osmotiche nel ratto, rilevando successivamente, tramite uno studio di binding, le variazioni della densità recettoriale di NOP in alcune aree di interesse per la trasmissione nocicettiva. Sia nell’ippocampo che nel talamo e nella frontal cortex, la somministrazione prolungata di buprenorfina ha causato una riduzione significativa della densità recettoriale di NOP. Come ultimo aspetto indagato, al fine di determinare la presenza del neuropeptide nel liquido cerebrospinale e le sue eventuali modificazioni a seguito di manipolazioni farmacologiche e non farmacologiche, è stata messa a punto una metodica di perfusione dello spazio subaracnoideo nel ratto, che consentisse di ottenere materiale biologico su cui compiere la ricerca e quantificazione della presenza di nocicettina mediante dosaggio radioimmunologico. La perfusione di CSF artificiale arricchito di ione potassio ad una concentrazione pari a 60 mM ha evidenziato la possibilità di stimolare la liberazione della nocicettina nel liquido cerebrospinale di ratto, suggerendo quindi una sua provenienza da elementi eccitabili. E’ stato quindi possibile osservare l’andamento dei livelli di peptide a seguito della stimolazione nocicettiva prodotta da due agenti irritanti con caratteristiche differenti, la carragenina e la formalina. La somministrazione sottocutanea di carragenina (100 µl al 3 %) nella regione subplantare di entrambe le zampe posteriori del ratto non ha determinato alterazioni significative dei livelli di neuropeptide. Invece, la somministrazione di formalina (50 µl al 5 %), dopo un iniziale periodo di 30 minuti, ha causato un incremento significativo della liberazione di N/OFQ a partire dal terzo intervallo di raccolta seguente la somministrazione della sostanza. Questo rispecchia l’andamento di risposta al formalin test ottenuto anche mediante test di natura differente dagli analgesimetrici (es. comportamentale, elettrofisiologico), in quest’ottica l’aumento di nocicettina può essere interpretato come un evento dovuto alla sensibilizzazione centrale all’effetto pronocicettivo.
Resumo:
La tesi tratta di strumenti finalizzati alla valutazione dello stato conservativo e di supporto all'attività di manutenzione dei ponti, dai più generali Bridge Management Systems ai Sistemi di Valutazione Numerica della Condizione strutturale. Viene proposto uno strumento originale con cui classificare i ponti attraverso un Indice di Valutazione Complessiva e grazie ad esso stabilire le priorità d'intervento. Si tara lo strumento sul caso pratico di alcuni ponti della Provincia di Bologna. Su un ponte in particolare viene realizzato un approfondimento specifico sulla determinazione approssimata dei periodi propri delle strutture da ponte. Si effettua un confronto dei risultati di alcune modellazioni semplificate in riferimento a modellazioni dettagliate e risultati sperimentali.
Resumo:
[EN]This paper presents the experimental measurements of isobaric vapor−liquid equilibria (iso-p VLE) and excess volumes (vE) at several temperatures in the interval (288.15 to 328.15) K for six binary systems composed of two alkyl (methyl, ethyl) propanoates and three odd carbon alkanes (C5 to C9). The mixing processes were expansive, vE > 0, with (δvE/δT)p > 0, and endothermic. The installation used to measure the iso-p VLE was improved by controlling three of the variables involved in the experimentation with a PC.
Resumo:
[EN]OpenCV includes di erent object detectors based on the Viola-Jones framework. Most of them are specialized to deal with the frontal face pattern and its inner elements: eyes, nose, and mouth. In this paper, we focus on the ear pattern detection, particularly when a head pro le or almost pro le view is present in the image. We aim at creating real-time ear detectors based on the general object detection framework provided with OpenCV. After training classi ers to detect left ears, right ears, and ears in general, the performance achieved is valid to be used to feed not only a head pose estimation system but also other applications such as those based on ear biometrics.
Resumo:
E’ stato in primo luogo definito il criterio di efficienza dal punto di vista economico (con una accenno anche ai parametri elaborati dagli studiosi di discipline aziendali), nelle sue varie accezioni, ponendo altresì ciascuna di queste in relazione alle condizioni di concorrenza perfetta. Le nozioni di efficienza che sono state definite a tal fine sono quelle di efficienza allocativa, efficienza tecnica, efficienza dinamica ed efficienza distributiva. Ciascuna di esse é stata inquadrata a livello teorico secondo le definizioni fornite dalla letteratura, esaminandone le ipotesi sottostanti. E’ stata altresì descritta, contestualizzandola temporalmente, l’evoluzione della nozione, e ne sono state evidenziate le implicazioni ai fini della ricerca della forma di mercato più “efficiente”. Sotto quest’ultimo aspetto l’attenzione dello scrivente si é incentrata sul rapporto tra le diverse accezioni di efficienza economica oggetto di analisi e la desiderabilità o meno di un regime di concorrenza perfetta. Il capitolo si conclude con una breve panoramica sulle metodologie di misurazione finalizzata ad individuare i principali parametri utilizzati per determinare il livello di efficienza, di un mercato, di un’attività produttiva o di un’impresa, posto che, come verrà specificato nel prosieguo della tesi, la valutazione di efficienza in ambito antitrust deve essere verificata, ove possibile, anche basandosi sull’evidenza empirica delle singole imprese esaminate, come richiede il criterio della rule of reason. Capitolo 2 Presupposto per avere una regolazione che persegua l’obiettivo di avere una regolazione efficiente ed efficace, è, a parere di chi scrive, anche l’esistenza di autorità pubbliche deputate a esercitare la funzione regolatoria che rispettino al proprio interno e nel proprio agire la condizione di efficienza definita rispetto ai pubblici poteri. Lo sviluppo di questa affermazione ha richiesto in via preliminare, di definire il criterio di efficienza in ambito pubblicistico individuandone in particolare l’ambito di applicazione, il suo rapporto con gli altri principi che reggono l’azione amministrativa (con particolare riferimento al criterio di efficacia). Successivamente é stato collocato nel nostro ordinamento nazionale, ponendolo in relazione con il principio di buon andamnento della Pubblica Amministrazione, benchè l’ordinamento italiano, per la sua specificità non costituisca un esempio estendibile ad ordinamenti. Anche con riferimento al criterio di efficienza pubblica, un paragrafo é stato dedicato alle metodologie di misurazione di questa, e, nello specifico sull’Analisi Costi-Benefici e sull’Analisi di Impatto della Regolazione Una volta inquadrata la definizione di efficienza pubblica, questa é stata analizzata con specifico riferimento all’attività di regolazione dell’economia svolta dai soggetti pubblici, ambito nella quale rientra la funzione antitrust. Si é provato in particolare ad evidenziare, a livello generale, quali sono i requisiti necessari ad un’autorità amministrativa antitrust, costituita e dotata di poteri ad hoc, affinché essa agisca, nella sua attività di regolazione, secondo il principio di efficienza, Il capitolo si chiude allargando l’orizzonte della ricerca verso una possibile alternativa metodologica al criterio di efficienza precedentemente definito: vi si é infatti brevemente interrogati circa lo schema interpretativo nel quale ci muoviamo, affrontando la questione definitoria del criterio di efficienza, ponendolo in relazione con l’unico modello alternativo esistente, quello sviluppatosi nella cultura cinese. Non certo per elaborare un’applicazione in “salsa cinese” del criterio di efficienza alla tutela della concorrenza, compito al quale lo scrivente non sarebbe stato in grado di ottemperare, bensì, più semplicemente per dare conto di un diverso approccio alla questione che il futuro ruolo di superpotenza economica della Cina imporrà di prendere in considerazione. Capitolo 3 Nel terzo capitolo si passa a definire il concetto di concorrenza come istituto oggetto di tutela da parte della legge antitrust, per poi descrivere la nascita e l’evoluzione di tale legislazione negli Stati Uniti e della sua applicazione, posto che il diritto antitrust statunitense ancora oggi costituisce il necessario punto di riferimento per lo studioso di questa materia. L’evoluzione del diritto antitrust statunitense é stata analizzata parallelamente allo sviluppo delle principali teorie di law and economics che hanno interpretato il diritto della concorrenza quale possibile strumento per conseguire l’obiettivo dell’efficienza economica: la Scuola di Harvard e il paradigma strutturalista, la teoria evoluzionista della Scuola Austriaca, la Scuola di Chicago; le c.d. teorie “Post-Chicago”. Nel terzo capitolo, in altri termini, si é dato conto dell’evoluzione del pensiero economico con riferimento alla sua applicazione al diritto antitrust, focalizzando l’attenzione su quanto avvenuto negli Stati Uniti, paese nel quale sono nati sia l’istituto giuridico della tutela della concorrenza sia l’analisi economica del diritto. A conclusione di questa ricostruzione dottrinale ho brevemente esaminato quelle che sono le nuove tendenze dell’analisi economica del diritto, e specificatamente la teoria del comportamento irrazionale, benché esse non abbiano ancora ricevuto applicazione al diritto antitrust. Chi scrive ritiene infatti che queste teorie avranno ricadute anche in questa materia poiché essa costituisce uno dei principali ambiti applicativi della law and economics. Capitolo 4 Nel quarto capitolo é stata effettuata una disanima della disciplina comunitaria antitrust sottolineando come l’Unione Europea si proponga attraverso la sua applicazione, soprattutto in materia di intese, di perseguire fini eterogenei, sia economici che non economici, tra loro diversi e non di rado contrastanti, e analizzando come questa eterogeneità di obiettivi abbia influito sull’applicazione del criterio di efficienza. Attenendomi in questo capitolo al dato normativo, ho innanzitutto evidenziato l’ampiezza dell’ambito di applicazione della disciplina comunitaria antitrust sia dal punto di vista soggettivo che territoriale (dottrina dell’effetto utile), sottolineando come la norma giustifichi esplicitamente il ricorso al criterio di efficienza solo nella valutazione delle intese: il comma 3 dell’art. 81 del Trattato include, infatti, tra i requisiti di una possibile esenzione dall’applicazione del divieto per le intese qualificate come restrittive della concorrenza, la possibilità di ottenere incrementi di efficienza tecnica e/o dinamica attraverso l’implementazione delle intese in questione. Tuttavia la previsione da parte dello stesso art. 81 (3) di altri requisiti che devono contemporaneamente essere soddisfatti affinché un intesa restrittiva della concorrenza possa beneficiare dell’esenzione, nonché la possibile diversa interpretazione della locuzione “progresso tecnico ed economico”, impone, o comunque ammette, il perseguimento di altri obiettivi, contestualmente a quello dell’efficienza, giustificando così quell’eterogeneità dei fini che contraddistingue la politica della concorrenza dell’Unione Europea. Se la disciplina delle intese aiuta a comprendere il ruolo del criterio di efficienza nell’applicazione dei precetti antitrust da parte degli organi comunitari, l’art. 82 del Trattato non contiene invece alcun riferimento alla possibilità di utilizzare il criterio di efficienza nella valutazione delle condotte unilaterali poste in essere da imprese in posizione dominante sul mercato rilevante. Si è peraltro dato conto della consultazione recentemente avviata dalla Commissione Europea finalizzata all’elaborazione di Linee Guida che definiscano i criteri di interpretazione che l’organo comunitario dovrà seguire nella valutazione dei comportamenti unilaterali. A parere dello scrivente, anzi, l’assenza di un preciso schema cui subordinare la possibilità di ricorrere al criterio di efficienza nella valutazione della fattispecie, attribuisce alle autorità competenti un più ampio margine di discrezionalità nell’utilizzo del suddetto criterio poiché manca il vincolo della contestuale sussistenza delle altre condizioni di cui all’art. 81(3). Per quanto concerne infine la disciplina delle concentrazioni, essa, come abbiamo visto, prevede un riferimento ai possibili incrementi di efficienza (tecnica e dinamica) derivanti da operazioni di fusione, utilizzando la nozione utilizzata per le intese, così come nel precedente Regolamento 4064/89. Si é infine analizzato il nuovo Regolamento in materia di concentrazioni che avrebbe potuto costituire l’occasione per recepire nella disciplina comunitaria l’attribuzione della facoltà di ricorrere all’efficiency defense in presenza di una fattispecie, quella della fusione tra imprese, suscettibile più di altre di essere valutata secondo il criterio di efficienza, ma che si é invece limitato a riprendere la medesima locuzione presente nell’art. 81(3). Il capitolo attesta anche l’attenzione verso l’istanza di efficienza che ha riguardato il meccanismo di applicazione della norma antitrust e non il contenuto della norma stessa; a questo profilo attiene, infatti, l’innovazione apportata dal Regolamento 1/2003 che ha permesso, a parere dello scrivente, un’attribuzione più razionale della competenza nella valutazione dei casi tra la Commissione e le autorità nazionali degli Stati membri; tuttavia pone alcune questioni che investono direttamente il tema dei criteri di valutazione utilizzati dalle autorità competenti. Capitolo 5 L’analisi del quarto capitolo é stata condotta, sebbene in forma più sintetica, con riferimento alle normative antitrust dei principali Stati membri della Comunità Europea (Germania, Gran Bretagna, Spagna, Francia e Italia), rapportando anche queste al criterio di efficienza, ove possibile. Particolare attenzione é stata dedicata ai poteri e alle competenze attribuite alle autorità nazionali antitrust oggetto di studio dall’ordinamento giuridico cui appartengono e al contesto, in termini di sistema giuridico, nel quale esse operano. Capitolo 6 Si é provato ad effettuare una valutazione del livello di efficienza delle autorità prese in esame, la Commissione e le diverse autorità nazionali e ciò con particolare riferimento alla idoneità di queste a svolgere i compiti istituzionali loro affidati (criterio di efficienza dal punto di vista giuridico): affinchè un’autorità si possa ispirare al criterio di efficienza economica nell’adozione delle decisioni, infatti, è preliminarmente necessario che essa sia idonea a svolgere il compito che le è stato affidato dall’ordinamento. In questo senso si é osservata la difficoltà dei paesi di civil law a inquadrare le autorità indipendenti all’interno di un modello, quello appunto di civil law, ispirato a una rigida tripartizione dei poteri. Da qui la difficile collocazione di queste autorità che, al contrario, costituiscono un potere “ibrido” che esercita una funzione di vigilanza e garanzia non attribuibile integralmente né al potere esecutivo né a quello giurisdizionale. Si rileva inoltre una certa sovrapposizione delle competenze e dei poteri tra autorità antitrust e organi ministeriali, in particolare nel campo delle concentrazioni che ingenera un rischio di confusione e bassa efficienza del sistema. Mantenendo, infatti, un parziale controllo politico si rischia, oltre all’introduzione di criteri di valutazione politica che prescindono dagli effetti delle fattispecie concrete sul livello di concorrenza ed efficienza del mercato, anche di dare luogo a conflitti tra le diverse autorità del sistema che impediscano l’adozione e l’implementazione di decisioni definitive, incrementando altresì i costi dell’intervento pubblico. Un giudizio a parte è stato infine formulato con riguardo alla Commissione Europea, istituzione, in quanto avente caratteristiche e poteri peculiari. Da un lato l’assenza di vincolo di mandato dei Commissari e l’elevata preparazione tecnica dei funzionari costituiscono aspetti che avvicinano la Commissione al modello dell’autorità indipendenti, e l’ampiezza dei poteri in capo ad essa le permette di operare efficientemente grazie anche alla possibilità di valersi dell’assistenza delle autorità nazionali. Dall’altra parte, tuttavia la Commissione si caratterizza sempre di più come un organo politico svolgente funzioni esecutive, di indirizzo e di coordinamento che possono influenzare gli obiettivi che essa persegue attraverso l’attività antitrust, deviandola dal rispetto del criterio di efficienza. Capitolo 7 Una volta definito il contesto istituzionale di riferimento e la sua idoneità a svolgere la funzione affidatagli dall’ordinamento comunitario, nonché da quelli nazionali, si è proceduto quindi all’analisi delle decisioni adottate da alcune delle principali autorità nazionali europee competenti ad applicare la disciplina della concorrenza dal punto di vista dell’efficienza. A tal fine le fattispecie rilevanti a fini antitrust dal punto di vista giuridico sono state classificate utilizzando un criterio economico, individuando e definendo quelle condotte che presentano elementi comuni sotto il profilo economico e per ciascuna di esse sono state inquadrate le problematiche rilevanti ai fini dell’efficienza economica sulla scorta dei contributi teorici e delle analisi empiriche svolte dalla letteratura. 6 Con riferimento a ciascuna condotta rilevante ho esaminato il contenuto di alcune delle decisioni antitrust più significative e le ho interpretate in base al criterio di efficienza. verificando se e in quale misura le autorità antitrust prese in esame utilizzano tale criterio, cercando altresì di valutare l’evoluzione dei parametri di valutazione occorsa nel corso degli anni. Le decisioni analizzate sono soprattutto quelle adottate dalla Commissione e le eventuali relative sentenze della Corte di Giustizia Europea; ciò sia per la maggior rilevanza dei casi trattati a livello comunitario, sia in quanto le autorità nazionali, con qualche rara eccezione, si conformano generalmente ai criteri interpretativi della Commissione. Riferimenti a decisioni adottate dalle autorità nazionali sono stati collocati allorquando i loro criteri interpretativi si discostino da quelli utilizzati dagli organi comunitari. Ne è emerso un crescente, anche se ancora sporadico e incostante, ricorso al criterio di efficienza da parte degli organi europei preposti alla tutela della concorrenza. Il tuttora scarso utilizzo del criterio di efficienza nello svolgimento dell’attività antitrust è motivato, a parere di chi scrive, in parte dall’eterogeneità degli obiettivi che l’Unione Europea persegue attraverso la politica della concorrenza comunitaria (completamento del mercato unico, tutela del consumatore, politica industriale, sviluppo delle aree svantaggiate), in parte dall’incapacità (o dall’impossibilità) delle autorità di effettuare coerenti analisi economiche delle singole fattispecie concrete. Anche le principali autorità nazionali mostrano una crescente propensione a tendere conto dell’efficienza nella valutazione dei casi, soprattutto con riferimento agli accordi verticali e alle concentrazioni, sulla scia della prassi comunitaria. Più innovativa nell’applicazione del criterio di efficienza economica così come nella ricerca di uso ottimale delle risorse si è finora dimostrato l’OFT, come vedremo anche nel prossimo capitolo. Al contrario sembra più lenta l’evoluzione in questo senso dell’Ufficio dei Cartelli tedesco sia a causa delle già citate caratteristiche della legge antitrust tedesca, sia a causa del persistente principio ordoliberale della prevalenza del criterio della rule of law sulla rule of reason. Peraltro, anche nei casi in cui le Autorità siano propense ad utilizzare il criterio di efficienza nelle loro valutazioni, esse si limitano generalmente ad un’analisi teorica dell’esistenza di precondizioni che consentano alle imprese in questione di ottenere guadagni di efficienza. La sussistenza di tali pre-condizioni viene infatti rilevata sulla base della capacità potenziale della condotta dell’impresa (o delle imprese) di avere un effetto positivo in termini di efficienza, nonché sulla base delle caratteristiche del mercato rilevante. Raramente, invece, si tiene conto della capacità reale dei soggetti che pongono in essere la pratica suscettibile di essere restrittiva della concorrenza di cogliere effettivamente queste opportunità, ovvero se la struttura e l’organizzazione interna dell’impresa (o delle imprese) non è in grado di mettere in pratica ciò che la teoria suggerisce a causa di sue carenza interne o comunque in ragione delle strategie che persegue. Capitolo 8 Poiché l’approccio ispirato al criterio di efficienza economica non può prescindere dalle caratteristiche del settore e del mercato in cui operano l’impresa o le imprese che hanno posto in essere la condotta sotto esame, e poiché una valutazione approfondita di tutti i settori non era effettuabile per quantità di decisioni adottate dalle autorità, ho infine ritenuto di svolgere un’analisi dettagliata dell’attività delle autorità con riferimento ad uno specifico settore. La scelta è caduta sul settore dei trasporti in quanto esso presenta alcune problematiche che intrecciano l’esigenza di efficienza con la tutela della concorrenza, nonché per la sua importanza ai fini dello sviluppo economico. Tanto più alla luce del fenomeno della crescente apertura dei mercati che ha enfatizzato la triplice funzione dei trasporti di merci, di livellamento nello spazio dei prezzi di produzione, di redistribuzione nello spazio dell’impiego dei fattori della produzione, e soprattutto di sollecitazione al miglioramento delle tecnologie utilizzate nella produzione stessa in quanto contribuiscono alla divisione territoriale del lavoro e alla specializzazione produttiva. A loro volta, d’altra parte, i miglioramenti tecnici e organizzativi intervenuti nel settore negli ultimi trenta anni hanno reso possibile il fenomeno della globalizzazione nella misura in cui lo conosciamo. Così come le riduzioni di costo e di tempo conseguite nel trasporto di persone hanno consentito massicci spostamenti di lavoratori e più in generale di capitale umano da una parte all’altra del globo, e favorito altresì la spettacolare crescita del settore turistico. Ho quindi condotto un’analisi delle decisioni antitrust relative al settore dei trasporti, suddividendo la casistica in base al comparto al quale esse si riferivano, cercando sempre di non perdere di vista i crescenti legami che esistono tra i vari comparti alla luce dell’ormai affermato fenomeno del trasporto multimodale. Dall’analisi svolta emerge innanzitutto come l’assoggettamento del settore dei trasporti alla disciplina di tutela della concorrenza sia un fenomeno relativamente recente rispetto alle altre attività economiche, laddove la ragione di tale ritardo risiede nel fatto che tradizionalmente questo settore era caratterizzato da un intervento pubblico diretto e da una pervasiva regolamentazione, a sua volta giustificata da vari fattori economici: le caratteristiche di monopolio naturale delle infrastrutture; le esigenze di servizio pubblico connesse all’erogazione di molti servizi di trasporto; il ruolo strategico svolto dal trasporto sia di persone che di merci ai fini della crescita economica di un sistema. Si concretizza, inoltre, con riferimento ai trasporti marittimi e aerei, l’inadeguatezza della dimensione nazionale e comunitaria delle autorità competenti rispetto a comportamenti di impresa che spesso hanno effetti letteralmente globali. Le imprese marittime e aeree coinvolte nelle fattispecie da noi esaminate, infatti, in molti casi predisponevano, direttamente o mediatamente, tramite “alleanze”, collegamenti tra tutte le aree del mondo, individuando nell’Europa solo un nodo di un network ben più ampio Da questa constatazione discende, a parere dello scrivente, l’impossibilità per l’autorità comunitaria e ancor più per quella nazionale di individuare tutti gli effetti in termini di efficienza che la fattispecie concreta può provocare, non includendo pertanto solo quelli evidenti sul mercato comunitario. Conseguentemente una reale applicazione del criterio di efficienza all’attività antitrust nel settore dei trasporti non può prescindere da una collaborazione tra autorità a livello mondiale sia a fini di indagine che a fini di individuazione di alcuni principi fondamentali cui ispirarsi nello svolgimento della loro missione istituzionale. Capitolo 9. Conclusioni L’opera si chiude con l’individuazione delle evidenze e degli elementi emersi dalla trattazione considerati dallo scrivente maggiormente rilevanti nell’ambito dell’attuale dibattito di economia positiva circa le principali problematiche che affiggono l’intervento antitrust con particolare riferimento al suo rispetto del criterio di efficienza. Sono state altresì proposte alcune soluzioni a quelle che sono, a parere dello scrivente, le principali carenze dell’attuale configurazione dell’intervento antitrust a livello europeo, sempre in una prospettiva di efficienza sia delle autorità competenti sia dei mercati in cui le autorità stesse cercano di mantenere o ripristinare condizioni di concorrenza effettiva. Da un lato il modello costituito dalla Commissione Europea, l’autorità antitrust comunitaria, non replicabile né esente da critiche: la Commissione, infatti, rappresenta il Governo dell’Unione Europea e come tale non può ovviamente costituire un esempio di autorità indipendente e neutrale recepibile da parte degli Stati membri. Ciò anche a prescindere dalla questione della sua legittimazione, che in questa sede non affrontiamo. Dall’altro in una prospettiva di efficienza dei mercati la crescente applicazione delle teorie economiche da parte delle autorità esaminate è rimasta a un livello astratto, senza porre la dovuta attenzione alle specificità dei mercati rilevanti né tantomeno alle dinamiche interne alle singole imprese, con particolare riferimento alla loro capacità di rendere effettivi i guadagni di efficienza individuabili a livello potenziale, così come prescrive la più recente teoria economica applicata al diritto antitrust. Sotto il profilo dell’applicazione del criterio di efficienza si può comunque affermare che l’evoluzione che ha avuto la prassi decisionale e la giurisprudenza, comunitaria e degli Stati membri, in materia antitrust è stata caratterizzata dal loro progressivo avvicinamento alle tendenze sviluppatesi nelle agencies e nella giurisprudenza statunitense a partire dagli anni’70, caratterizzate dalla valutazione degli effetti, piuttosto che della forma giuridica, dal riconoscimento del criterio di efficienza e dalla rule of reason quale approccio metodologico. L’effetto è stato quello di determinare una significativa riduzione delle differenze inizialmente emerse tra le due esperienze, nate inizialmente sotto diverse prospettive politiche. Per quanto concerne specificatamente i trasporti sono emersi sotto il profilo economico due aspetti rilevanti, oltre al perdurante ritardo con cui il processo di liberalizzazione del trasporto ferroviario che limita fortemente l’intervento antitrust nel comparto, ma che esula dalla competenza delle stesse autorità antitrust. Il primo consiste nella spesso troppo rigida separazione tra comparti adottata dalle autorità. Il secondo è l’estensivo ricorso all’essential facility doctrine nelle fattispecie riguardanti infrastrutture portuali e aeroportuali: la massimizzazione dell’efficienza dinamica consiglierebbe in questi casi una maggiore cautela, in quanto si tratta di un paradigma che, una volta applicato, disincentiva la duplicazione e l’ampliamento di tali infrastrutture autoalimentandone il carattere di essenzialità. Ciò soprattutto laddove queste infrastrutture possono essere sostituite o duplicate piuttosto facilmente da un punto di vista tecnico (meno da un punto di vista economico e giuridico), essendo esse nodi e non reti. E’stata infine sottolineata l’inadeguatezza della dimensione nazionale e comunitaria delle autorità competenti rispetto a comportamenti di impresa che con riferimento ai trasporti marittimi ed aerei hanno effetti letteralmente globali. E’ di tutta evidenza che le autorità comunitarie e tantomeno quelle nazionali non sono da sole in grado di condurre le analisi quantitative necessarie ad una valutazione di tali condotte ispirata a un criterio di efficienza che tenga conto degli effetti di lungo periodo della fattispecie concreta. Né tali autorità sono sufficientemente neutre rispetto alla nazionalità delle imprese indagate per poter giudicare sulla liceità o meno della condotta in questione senza considerare gli effetti della loro decisione sull’economia interna, rendendo così ancora più improbabile un corretto utilizzo del criterio di efficienza. Da ultimo ho constatato come l’applicazione del concetto di efficienza giuridica imporrebbe di concepire autorità antitrust del tutto nuove, sganciate quanto più possibile dall’elemento territoriale, in grado di elaborare regole e standards minimi comuni e di permettere il controllo dei comportamenti di impresa in un contesto ampliato rispetto al tradizionale mercato unico, nonchè ai singoli mercati nazionali. Il processo di armonizzazione a livello globale è difficile e il quadro che attualmente viene formato è ancora confuso e incompleto. Vi sono tuttavia sparsi segnali attraverso i quali é possibile intravedere i lineamenti di una futura global governance della concorrenza che permetterà, sperabilmente, di incrementare l’efficienza di un sistema, quello antitrust, che tanto più piccolo è l’ambito in cui opera quanto più si sta dimostrando inadeguato a svolgere il compito affidatogli. Solo il futuro, peraltro, ci consentirà di verificare la direzione di sviluppo di questi segnali.
Resumo:
La tesi si occupa della teoria delle ranking functions di W. Spohn, dottrina epistemologica il cui fine è dare una veste logica rigorosa ai concetti di causalità, legge di natura, spiegazione scientifica, a partire dalla nozione di credenza. Di tale teoria manca ancora una esposizione organica e unitaria e, soprattutto, formulata in linguaggio immediatamente accessibile. Nel mio lavoro, che si presenta come introduzione ad essa, è anche messa a raffronto con le teorie che maggiormente l’hanno influenzata o rispetto alle quali si pone come avversaria. Il PRIMO CAPITOLO si concentra sulla teoria di P. Gärdenfors, il più diretto predecessore e ispiratore di Spohn. Questo consente al lettore di acquisire familiarità con le nozioni di base della logica epistemica. La conoscenza, nella teoria del filosofo svedese, è concepita come processo di acquisizione ed espulsione di credenze, identificate con proposizioni, da un insieme. I tre maggiori fenomeni epistemici sono l’espansione, la revisione e la contrazione. Nel primo caso si immagazzina una proposizione in precedenza sconosciuta, nel secondo se ne espelle una a causa dell’acquisizione della sua contraddittoria, nel terzo si cancella una proposizione per amore di ipotesi e si investigano le conseguenze di tale cancellazione. Controparte linguistica di quest’ultimo fenomeno è la formulazione di un condizionale controfattuale. L’epistemologo, così come Gärdenfors concepisce il suo compito, è fondamentalmente un logico che deve specificare funzioni: vale a dire, le regole che deve rispettare ciascun passaggio da un insieme epistemico a un successivo per via di espansione, revisione e contrazione. Il SECONDO CAPITOLO tratta infine della teoria di Spohn, cercando di esporla in modo esauriente ma anche molto semplice. Anche in Spohn evidentemente il concetto fondamentale è quello di funzione: si tratta però in questo caso di quella regola di giudizio soggettivo che, a ciascuna credenza, identificata con una proposizione, associa un grado (un rank), espresso da un numero naturale positivo o dallo zero. Un rank è un grado di non-credenza (disbelief). Perché la non-credenza (che comporta un notevole appesantimento concettuale)? Perché le leggi della credenza così concepite presentano quella che Spohn chiama una “pervasiva analogia” rispetto alle leggi della probabilità (Spohn la chiama persino “armonia prestabilita” ed è un campo su cui sta ancora lavorando). Essenziale è il concetto di condizionalizzazione (analogo a quello di probabilità condizionale): a una credenza si associa un rank sulla base di (almeno) un’altra credenza. Grazie a tale concetto Spohn può formalizzare un fenomeno che a Gärdenfors sfugge, ossia la presenza di correlazioni interdoxastiche tra le credenze di un soggetto. Nella logica epistemica del predecessore, infatti, tutto si riduce all’inclusione o meno di una proposizione nell’insieme, non si considerano né gradi di credenza né l’idea che una credenza sia creduta sulla base di un’altra. Il TERZO CAPITOLO passa alla teoria della causalità di Spohn. Anche questa nozione è affrontata in prospettiva epistemica. Non ha senso, secondo Spohn, chiedersi quali siano i tratti “reali” della causalità “nel mondo”, occorre invece studiare che cosa accade quando si crede che tra due fatti o eventi sussista una correlazione causale. Anche quest’ultima è fatta oggetto di una formalizzazione logica rigorosa (e diversificata, infatti Spohn riconosce vari tipi di causa). Una causa “innalza lo status epistemico” dell’effetto: vale a dire, quest’ultimo è creduto con rank maggiore (ossia minore, se ci si concentra sulla non-credenza) se condizionalizzato sulla causa. Nello stesso capitolo espongo la teoria della causalità di Gärdenfors, che però è meno articolata e minata da alcuni errori. Il QUARTO CAPITOLO è tutto dedicato a David Lewis e alla sua teoria controfattuale della causalità, che è il maggiore avversario tanto di Spohn quanto di Gärdenfors. Secondo Lewis la migliore definizione di causa può essere data in termini controfattuali: la causa è un evento tale che, se non fosse accaduto, nemmeno l’effetto sarebbe accaduto. Naturalmente questo lo obbliga a specificare una teoria delle condizioni di verità di tale classe di enunciati che, andando contro i fatti per definizione, non possono essere paragonati alla realtà. Lewis ricorre allora alla dottrina dei mondi possibili e della loro somiglianza comparativa, concludendo che un controfattuale è vero se il mondo possibile in cui il suo antecedente e il suo conseguente sono veri è più simile al mondo attuale del controfattuale in cui il suo antecedente è vero e il conseguente è falso. Il QUINTO CAPITOLO mette a confronto la teoria di Lewis con quelle di Spohn e Gärdenfors. Quest’ultimo riduce i controfattuali a un fenomeno linguistico che segnala il processo epistemico di contrazione, trattato nel primo capitolo, rifiutando così completamente la dottrina dei mondi possibili. Spohn non affronta direttamente i controfattuali (in quanto a suo dire sovraccarichi di sottigliezze linguistiche di cui non vuole occuparsi – ha solo un abbozzo di teoria dei condizionali) ma dimostra che la sua teoria è superiore a quella di Lewis perché riesce a rendere conto, con estrema esattezza, di casi problematici di causalità che sfuggono alla formulazione controfattuale. Si tratta di quei casi in cui sono in gioco, rafforzandosi a vicenda o “concorrendo” allo stesso effetto, più fattori causali (casi noti nella letteratura come preemption, trumping etc.). Spohn riesce a renderne conto proprio perché ha a disposizione i rank numerici, che consentono un’analisi secondo cui a ciascun fattore causale è assegnato un preciso ruolo quantitativamente espresso, mentre la dottrina controfattuale è incapace di operare simili distinzioni (un controfattuale infatti è vero o falso, senza gradazioni). Il SESTO CAPITOLO si concentra sui modelli di spiegazione scientifica di Hempel e Salmon, e sulla nozione di causalità sviluppata da quest’ultimo, mettendo in luce soprattutto il ruolo (problematico) delle leggi di natura e degli enunciati controfattuali (a questo proposito sono prese in considerazione anche le famose critiche di Goodman e Chisholm). Proprio dalla riflessione su questi modelli infatti è scaturita la teoria di Gärdenfors, e tanto la dottrina del filosofo svedese quanto quella di Spohn possono essere viste come finalizzate a rendere conto della spiegazione scientifica confrontandosi con questi modelli meno recenti. Il SETTIMO CAPITOLO si concentra sull’analisi che la logica epistemica fornisce delle leggi di natura, che nel capitolo precedente sono ovviamente emerse come elemento fondamentale della spiegazione scientifica. Secondo Spohn le leggi sono innanzitutto proposizioni generali affermative, che sono credute in modo speciale. In primo luogo sono credute persistentemente, vale a dire, non sono mai messe in dubbio (tanto che se si incappa in una loro contro-istanza si va alla ricerca di una violazione della normalità che la giustifichi). In secondo luogo, guidano e fondano la credenza in altre credenze specifiche, che sono su di esse condizionalizzate (si riprendono, con nuovo rigore logico, le vecchie idee di Wittgenstein e di Ramsey e il concetto di legge come inference ticket). In terzo luogo sono generalizzazioni ricavate induttivamente: sono oggettivazioni di schemi induttivi. Questo capitolo si sofferma anche sulla teoria di legge offerta da Gärdenfors (analoga ma embrionale) e sull’analisi che Spohn fornisce della nozione di clausola ceteris paribus. L’OTTAVO CAPITOLO termina l’analisi cominciata con il sesto, considerando finalmente il modello epistemico della spiegazione scientifica. Si comincia dal modello di Gärdenfors, che si mostra essere minato da alcuni errori o comunque caratterizzato in modo non sufficientemente chiaro (soprattutto perché non fa ricorso, stranamente, al concetto di legge). Segue il modello di Spohn; secondo Spohn le spiegazioni scientifiche sono caratterizzate dal fatto che forniscono (o sono finalizzate a fornire) ragioni stabili, vale a dire, riconducono determinati fenomeni alle loro cause e tali cause sono credute in modo persistente. Con una dimostrazione logica molto dettagliata e di acutezza sorprendente Spohn argomenta che simili ragioni, nel lungo periodo, devono essere incontrate. La sua quindi non è solo una teoria della spiegazione scientifica che elabori un modello epistemico di che cosa succede quando un fenomeno è spiegato, ma anche una teoria dello sviluppo della scienza in generale, che incoraggia a perseguire la ricerca delle cause come necessariamente coronata da successo. Le OSSERVAZIONI CONCLUSIVE fanno il punto sulle teorie esposte e sul loro raffronto. E’ riconosciuta la superiorità della teoria di Spohn, di cui si mostra anche che raccoglie in pieno l’eredità costruttiva di Hume, al quale gli avversari si rifanno costantemente ma in modo frammentario. Si analizzano poi gli elementi delle teorie di Hempel e Salmon che hanno precorso l’impostazione epistemica. La teoria di Spohn non è esente però da alcuni punti ancora problematici. Innanzitutto, il ruolo della verità; in un primo tempo Spohn sembra rinunciare, come fa esplicitamente il suo predecessore, a trattare la verità, salvo poi invocarla quando si pone il grave problema dell’oggettivazione delle ranking functions (il problema si presenta poiché di esse inizialmente si dice che sono regole soggettive di giudizio e poi si identificano in parte con le leggi di natura). C’è poi la dottrina dei gradi di credenza che Spohn dice presentarsi “unitamente alle proposizioni” e che costituisce un inutile distacco dal realismo psicologico (critica consueta alla teoria): basterebbe osservare che i gradi di credenza sono ricavati o per condizionalizzazione automatica sulla base del tipo di fonte da cui una proposizione proviene, o per paragone immaginario con altre fonti (la maggiore o minore credenza infatti è un concetto relazionale: si crede di più o di meno “sulla base di…” o “rispetto a…”). Anche la trattazione delle leggi di natura è problematica; Spohn sostiene che sono ranking functions: a mio avviso invece esse concorrono a regole di giudizio, che prescrivono di impiegare le leggi stesse per valutare proposizioni o aspettative. Una legge di natura è un ingranaggio, per così dire, di una valutazione di certezza ma non si identifica totalmente con una legge di giudizio. I tre criteri che Spohn individua per distinguere le leggi poi non sono rispettati da tutte e sole le leggi stesse: la generalizzazione induttiva può anche dare adito a pregiudizi, e non di tutte le leggi si sono viste, individualmente, istanze ripetute tanto da giustificarle induttivamente. Infine, un episodio reale di storia della scienza come la scoperta della sintesi dell’urea da parte di F. Wöhler (1828 – ottenendo carbammide, organico, da due sostanze inorganiche, dimostra che non è vera la legge di natura fini a quel momento presunta tale secondo cui “sostanze organiche non possono essere ricavate da sostanze inorganiche”) è indice che le leggi di natura non sono sempre credute in modo persistente, cosicché per comprendere il momento della scoperta è pur sempre necessario rifarsi a una teoria di tipo popperiano, rispetto alla quale Spohn presenta invece la propria in assoluta antitesi.
Resumo:
Background: Congenital cytomegalovirus (CMV) infection may lead to cerebral injury and neurodevelopmental delay. Cranial computed tomography (CT) is currently the standard imaging technique for predicting the outcome of CMV infected patients. Ultrasound (US) is a safe means to assess the extent of cerebral injury due to CMV infection in neonates, and unlike CT, is readily available at the bedside. Aim: To report the accuracy of US in predicting neurodevelopmental and sensorineural outcome in patients with congenital CMV infection. Study design: 57 newborns with congenital CMV infection underwent brain US and were followed prospectively for motor skills, developmental quotient and hearing function. Results: An abnormal US was found in 12/57 newborns. At least one sequela (Developmental Quotient < 85, motor delay, sensorineural hearing loss) was present in 10/11 surviving children with abnormal US (1 patient died in the neonatal period) vs 3/45 newborns with normal US (OR for death or poor outcome: 154, CI 17.3-1219.6, p<0.001, positive predictive value 91.7%, negative predictive value 93.3%). Conclusion: A good correlation is shown between ultrasound abnormalities and the prediction of outcome, suggesting that US may be used to study and follow CMV infected neonates. Our findings await confirmation in a larger population.
Resumo:
Introduction The “eversion” technique for carotid endarterectomy (e-CEA), that involves the transection of the internal carotid artery at the carotid bulb and its eversion over the atherosclerotic plaque, has been associated with an increased risk of postoperative hypertension possibly due to a direct iatrogenic damage to the carotid sinus fibers. The aim of this study is to assess the long-term effect of the e-CEA on arterial baroreflex and peripheral chemoreflex function in humans. Methods A retrospective review was conducted on a prospectively compiled computerized database of 3128 CEAs performed on 2617 patients at our Center between January 2001 and March 2006. During this period, a total of 292 patients who had bilateral carotid stenosis ≥70% at the time of the first admission underwent staged bilateral CEAs. Of these, 93 patients had staged bilateral e-CEAs, 126 staged bilateral s- CEAs and 73 had different procedures on each carotid. CEAs were performed with either the eversion or the standard technique with routine Dacron patching in all cases. The study inclusion criteria were bilateral CEA with the same technique on both sides and an uneventful postoperative course after both procedures. We decided to enroll patients submitted to bilateral e-CEA to eliminate the background noise from contralateral carotid sinus fibers. Exclusion criteria were: age >70 years, diabetes mellitus, chronic pulmonary disease, symptomatic ischemic cardiac disease or medical therapy with b-blockers, cardiac arrhythmia, permanent neurologic deficits or an abnormal preoperative cerebral CT scan, carotid restenosis and previous neck or chest surgery or irradiation. Young and aged-matched healthy subjects were also recruited as controls. Patients were assessed by the 4 standard cardiovascular reflex tests, including Lying-to-standing, Orthostatic hypotension, Deep breathing, and Valsalva Maneuver. Indirect autonomic parameters were assessed with a non-invasive approach based on spectral analysis of EKG RR interval, systolic arterial pressure, and respiration variability, performed with an ad hoc software. From the analysis of these parameters the software provides the estimates of spontaneous baroreflex sensitivity (BRS). The ventilatory response to hypoxia was assessed in patients and controls by means of classic rebreathing tests. Results A total of 29 patients (16 males, age 62.4±8.0 years) were enrolled. Overall, 13 patients had undergone bilateral e-CEA (44.8%) and 16 bilateral s-CEA (55.2%) with a mean interval between the procedures of 62±56 days. No patient showed signs or symptoms of autonomic dysfunction, including labile hypertension, tachycardia, palpitations, headache, inappropriate diaphoresis, pallor or flushing. The results of standard cardiovascular autonomic tests showed no evidence of autonomic dysfunction in any of the enrolled patients. At spectral analysis, a residual baroreflex performance was shown in both patient groups, though reduced, as expected, compared to young controls. Notably, baroreflex function was better maintained in e-CEA, compared to standard CEA. (BRS at rest: young controls 19.93 ± 2.45 msec/mmHg; age-matched controls 7.75 ± 1.24; e-CEA 13.85 ± 5.14; s-CEA 4.93 ± 1.15; ANOVA P=0.001; BRS at stand: young controls 7.83 ± 0.66; age-matched controls 3.71 ± 0.35; e-CEA 7.04 ± 1.99; s-CEA 3.57 ± 1.20; ANOVA P=0.001). In all subjects ventilation (VÝ E) and oximetry data fitted a linear regression model with r values > 0.8. Oneway analysis of variance showed a significantly higher slope both for ΔVE/ΔSaO2 in controls compared with both patient groups which were not different from each other (-1.37 ± 0.33 compared with -0.33±0.08 and -0.29 ±0.13 l/min/%SaO2, p<0.05, Fig.). Similar results were observed for and ΔVE/ΔPetO2 (-0.20 ± 0.1 versus -0.01 ± 0.0 and -0.07 ± 0.02 l/min/mmHg, p<0.05). A regression model using treatment, age, baseline FiCO2 and minimum SaO2 achieved showed only treatment as a significant factor in explaining the variance in minute ventilation (R2= 25%). Conclusions Overall, we demonstrated that bilateral e-CEA does not imply a carotid sinus denervation. As a result of some expected degree of iatrogenic damage, such performance was lower than that of controls. Interestingly though, baroreflex performance appeared better maintained in e-CEA than in s-CEA. This may be related to the changes in the elastic properties of the carotid sinus vascular wall, as the patch is more rigid than the endarterectomized carotid wall that remains in the e-CEA. These data confirmed the safety of CEA irrespective of the surgical technique and have relevant clinical implication in the assessment of the frequent hemodynamic disturbances associated with carotid angioplasty stenting.
Resumo:
Il dibattito sullo sviluppo, che caratterizza da anni i principali tavoli di discussione politica a livello internazionale, ha via via richiamato l'attenzione sul “locale” come dimensione ottimale a partire dalla quale implementare politiche volte al miglioramento delle condizioni di vita di molte popolazioni del mondo. L'allargamento a livello globale del già esistente gap tra i “poveri” – vecchi e nuovi – ed i “ricchi” del mondo ha reso la lotta e l'alleviamento della povertà uno degli obiettivi più urgenti dei nostri giorni, ma anche più difficili da raggiungere a livello mondiale. Gran parte della povertà mondiale è povertà rurale, ovvero quella povertà che caratterizza i tanti agricoltori (campesinos) del mondo, che continuano a vivere ai margini della società e ad essere scalzati fuori da ogni possibilità di accesso al mercato per via della mancanza strutturale di risorse nella quale versano. La necessità di sopravvivere, unita all'esigenza di incorporare i veloci cambiamenti imposti dal mondo globalizzato, ha portato nel tempo queste popolazioni a perdere o a contaminare, talvolta irreparabilmente, l' “antico” rapporto con l'ambiente e la natura, fonte di vita e sostentamento, ed anche molti dei propri ancestrali aspetti culturali tradizionali che, paradossalmente, sono stati proprio gli unici elementi dimostratisi in grado di rinsaldare i legami già esistenti all'interno delle comunità e di tenere unite queste fragili realtà di fronte alle continue sfide imposte dal “cambiamento”. E' in questo contesto che si innesta l'esperienza di sviluppo proposta e presentata in questo lavoro; un'esperienza che nasce sulle Ande ecuadoriane, in un villaggio meticcio della Provincia di Bolívar, capoluogo parrocchiale di una più vasta comunità che raggruppa una trentina di villaggi, molti dei quali in toto o in prevalenza di etnia indigena quechua. Un'esperienza, quella di Salinas de Bolívar, che all'interno del panorama ecuadoriano si presenta come un esempio innovativo, coraggioso ed ambizioso di riconquista del protagonismo da parte della popolazione locale, divenendo “emblema” dello sviluppo e “immagine che guida”. Questo, in un paese come l'Ecuador, dove l'assenza di politiche efficaci a supporto del settore agricolo, da un lato, e di politiche sociali efficienti atte a risollevare le precarie condizioni di vita in cui versa la maggior parte della popolazione, soprattutto campesina, dall'altro, rende obbligatorio riflettere sull'importanza e sull'esigenza insieme di restituire spazio e vigore alle compagini della società civile che, come nell'esperienza raccontata, attraverso particolari forme organizzative di tipo socio-economico, come la Cooperazione, sono andate a colmare, seppur solo in parte, i vuoti lasciati dallo Stato dando vita a iniziative alternative rispetto al ventaglio di proposte offerte dai consueti meccanismi di mercato, fortemente escludenti, ma comunque vicine agli attori locali e più rappresentative delle loro istanze, giustificando ed avallando ancora di più la netta separazione oramai riconosciuta tra mera “crescita” e “sviluppo”, dove l'aspetto qualitativo, che va a misurare per l'appunto il benessere e la qualità di vita di una popolazione e del suo ambiente, non deve cioè cedere il passo a quello più strettamente quantitativo, a partire dal quale, se non vi è una equa redistribuzione delle risorse, quasi mai si potranno innescare processi di sviluppo duraturi e sostenibili nel tempo. L'accezione di “alternativo” sta quindi ad indicare, prima di ogni altra cosa, l'implementazione di processi di sviluppo che siano includenti e pertanto accessibili a tutti gli individui, indistintamente, e realmente concretizzabili partendo dalle risorse presenti in loco e nel rispetto di quell'insieme identitario – storico, sociale, culturale, politico, economico ed ambientale – che caratterizza ogni realtà ed ogni specifico contesto sociale ed economico del mondo. Di qui l'importanza di implementare alla base processi di governance che, attraverso la partecipazione di tutti gli attori del territorio si configurino come emanazione delle istanze degli stessi. Nel corso del lavoro si fornirà un breve ma incisivo identikit dell'Ecuador, come fondamentale cornice al caso di studio oggetto di indagine, supportata da una descrizione geografico-ambientale, sociale, culturale, politica ed economica della realtà nella quale esso si sviluppa, tanto a livello nazionale quanto più strettamente regionale. Questo esercizio sarà utile al fine di rendere più visibili e comprensibili i fattori che hanno determinato lo sviluppo e la continuità dell'esperienza dei Salineros nel lungo cammino, iniziato appena trent'anni fa, verso l'autodeterminazione e la riconquista di una libertà di scelta un tempo non lontano negata e successivamente ritrovata, che li ha resi di nuovo protagonisti del proprio presente e in grado di guardare ad un futuro diverso e possibile.
Resumo:
Breast carcinoma, one of the most frequent malignancies in women, is a complex disease in which a number of different factors combine to drive pathogenesis. The biopathological characterization of these tumors is essential to determine their aggressiveness and to find the most appropriate therapy. As in others neoplasms, the deregulation of signal transduction pathways is frequently responsible for conferring selective biological advantages to the tumor. Phosphoinositides play an essential role in diverse cellular functions, their metabolism is highly active, and is tightly controlled. Among the enzymes implicated in this pathway, phospholipase C beta 1 (PLCβ1) is one of the key regulators, both at the cytoplasmic and the nuclear level. The PLCβ1 gene maps onto the short arm of chromosome 20, a region that has been shown to be altered in several solid tumors, including breast cancer. In the present study a FISH approach was used to investigate the genetic alterations of the PLCβ1 gene in various classes of breast cancer which differ in their invasiveness and proliferation status, according to their mitotic index. The overall aim was to find out whether this enzyme could be a suitable prognostic marker for this neoplasm. Our results show that 83% of cases had aneusomies at the 20p12 level, and the most frequent alteration is a gain in this specific locus. Indeed, we found that this amplification is not related to the invasion status since there were no differences in amplified tumor frequencies between in situ and invasive breast cancer. On the contrary, the gain of PLCβ1 was significantly related to the mitotic index (p = 0.001). To verify if the change in genetic dosage influences the expression of PLCβ1 we performed Real Time PCR and Immunohystochemical analysis. Our results confirmed that amplified tumors have higher levels of PLCβ1 mRNA, which is the sum of the two splicing isoforms 1a and 1b. On the other hand, even if protein levels were higher in the majority of cases compared to the nontumoral specimens, there were no significant associations between gain and overexpression. Finally, the significant association between the amplification of PLCβ1 and others important clinicopathological parameters, such as grading and hormonal receptors status, confirmed a correlation of this enzyme with the aggressiveness of breast cancer. This suggests that PLCβ1 has the potential to be a prognostic marker in these tumors. However, further work needs to be carried out to validate these preliminary findings.
Resumo:
Liver transplantation is the only definitive treatment for transthyretin amyloidosis, with an excellent 5-year survival in endemic countries where the Met30 mutation is predominant. We report our experience of liver transplantation for transthyretin amyloidosis. We reviewed the clinical records of 17 transplanted patients (11 males, 6 females; age at liver transplant: 45.7±11.7 years). We had a wide spectrum of non-Met30 mutations (52.9%), with a predominance of Gln89 (23.5%). Five-year survival after transplantation was 43.8%; at multivariate analysis, both non-Met30 mutations (HR 17.3, 95% CI 1.03-291.7) and modified BMI (HR 0.50, 95% CI 0.29-0.87) showed significant and independent prognostic roles (P=0.048 and P=0.015, respectively). Five out of the 9 non-Met30 carriers received combined heart transplantation because of severe cardiomyopathy; they showed a trend towards a better prognosis vs. the 4 patients who did not receive combined heart transplantation (although not statistically significant; P=0.095). At follow-up, no significant improvement of transthyretin amyloidosis manifestations was observed. The results of liver transplantation for transthyretin amyloidosis in our population are poorer than those reported in the literature probably because of the high prevalence of non-Met30 mutations.
Resumo:
INTRODUCTION – In human medicine, diabetes mellitus (DM), hypertension, proteinuria and nephropathy are often associated although it is still not clear whether hypertension is the consequence or the cause of nephropathy and albuminuria. Microalbuminuria, in humans, is an early and sensitive marker which permits timely and effective therapy in the early phase of renal damage. Conversely, in dogs, these relationships were not fully investigated, even though hypertension has been associated with many diseases (Bodey and Michell, 1996). In a previous study, 20% of diabetic dogs were found proteinuric based on a U:P/C > 1 and 46% were hypertensive; this latter finding is similar to the prevalence of hypertension in diabetic people (40-80%) (Struble et al., 1998). In the same canine study, hypertension was also positively correlated with the duration of the disease, as is the case in human beings. Hypertension was also found to be a common complication of hypercortisolism (HC) in dogs, with a prevalence which varies from 50 (Goy-Thollot et al., 2002) to 80% (Danese and Aron, 1994).The aim of our study was to evaluate the urinary albumin to creatinine ratio (U:A/C) in dogs affected by Diabetes Mellitus and HC in order to ascertain if, as in human beings, it could represent an early and more sensitive marker of renal damage than U:P/C. Furthermore, the relationship between proteinuria and hypertension in DM and HC was also investigated. MATERIALS AND METHODS – Twenty dogs with DM, 14 with HC and 21 healthy dogs (control group) were included in the prospective case-control study. Inclusion criteria were hyperglycaemia, glicosuria and serum fructosamine above the reference range for DM dogs and a positive ACTH stimulation test and/or low-dose dexamethasone test and consistent findings of HC on abdominal ultrasonography in HC dogs. Dogs were excluded if affected by urinary tract infections and if the serum creatinine or urea values were above the reference range. At the moment of inclusion, an appropriate therapy had already been instituted less than 1 month earlier in 12 diabetic dogs. The control dogs were considered healthy based on clinical exam and clinicopathological findings. All dogs underwent urine sample collection by cystocentesis and systemic blood pressure measurement by means of either an oscillometric device (BP-88 Next, Colin Corporation, Japan) or by Doppler ultrasonic traducer (Minidop ES-100VX, Hadeco, Japan). The choice of method depended on the dog’s body weight: Doppler ultrasonography was employed in dogs < 20 kg of body weight and the oscillometric method in the other subjects. Dogs were considered hypertensive whenever systemic blood pressure was found ≥ 160 mmHg. The urine was assayed for U:P/C and U:A/C (Gentilini et al., 2005). The data between groups were compared using the Mann-Whitney U test. The reference ranges for U:P/C and U:A/C had already been established by our laboratory as 0.6 and 0.05, respectively. U:P/C and U:A/C findings were correlated to systemic blood pressure and Spearman R correlation coefficients were calculated. In all cases, p < 0.05 was considered statistically significant. RESULTS – The mean ± sd urinary albumin concentration in the three groups was 1.79 mg/dl ± 2.18; 20.02 mg/dl ± 43.25; 52.02 mg/dl ± 98.27, in healthy, diabetic and hypercortisolemic dogs, respectively. The urine albumin concentration differed significantly between healthy and diabetic dogs (p = 0.008) and between healthy and HC dogs (p = 0.011). U:A/C values ranged from 0.00 to 0.34 (mean ± sd 0.02 ± 0.07), 0.00 to 6.72 (mean ± sd 0.62 ± 1.52) and 0.00 to 5.52 (mean ± sd 1.27 ± 1.70) in the control, DM and HC groups, respectively; U:P/C values ranged from 0.1 to 0.6 (mean ± sd 0.17 ± 0.15) 0.1 to 6.6 (mean ± sd 0.93 ± 1.15) and 0.2 to 7.1 (mean ± sd 1.90 ± 2.11) in the control, DM and HC groups, respectively. In diabetic dogs, U:A/C was above the reference range in 11 out of 20 dogs (55%). Among these, 5/20 (25%) showed an increase only in the U:A/C ratio while, in 6/20 (30%), both the U:P/C and the U:A/C were abnormal. Among the latter, 4 dogs had already undergone therapy. In subjects affected with HC, U:P/C and U:A/C were both increased in 10/14 (71%) while in 2/14 (14%) only U:A/C was above the reference range. Overall, by comparing U:P/C and U:A/C in the various groups, a significant increase in protein excretion in disease-affected animals compared to healthy dogs was found. Blood pressure (BP) in diabetic subjects ranged from 88 to 203 mmHg (mean ± sd 143 ± 33 mmHg) and 7/20 (35%) dogs were found to be hypertensive. In HC dogs, BP ranged from 116 to 200 mmHg (mean ± sd 167 ± 26 mmHg) and 9/14 (64%) dogs were hypertensive. Blood pressure and proteinuria were not significantly correlated. Furthermore, in the DM group, U:P/C and U:A/C were both increased in 3 hypertensive dogs and 2 normotensive dogs while the only increase of U:A/C was observed in 2 hypertensive and 3 normotensive dogs. In the HC group, the U:P/C and the U:A/C were both increased in 6 hypertensive and 2 normotensive dogs; the U:A/C was the sole increased parameter in 1 hypertensive dog and in 1 dog with normal pressure. DISCUSSION AND CONCLUSION- The findings of this study suggest that, in dogs affected by DM and HC, an increase in U:P/C, U:A/C and systemic hypertension is frequently present. Remarkably, some dogs affected by both DM and HC showed an U:A/C but not U:P/C above the reference range. In diabetic dogs, albuminuria was observed in 25% of the subjects, suggesting the possibility that this parameter could be employed for detecting renal damage at an early phase when common semiquantiative tests and even U:P/C fall inside the reference range. In HC dogs, a higher number of subjects with overt proteinuria was found while only 14% presented an increase only in the U:A/C. This fact, associated with a greater number of hypertensive dogs having HC rather than DM, could suggest a greater influence on renal function by the mechanisms involved in hypertension secondary to hypercortisolemia. Furthermore, it is possible that, in HC dogs, the diagnosis was more delayed than in DM dogs. However, the lack of a statistically significant correlation between hypertension and increased protein excretion as well as the apparently random distribution of proteinuric subjects in normotensive and hypertensive cases, imply that other factors besides hypertension are involved in causing proteinuria. Longitudinal studies are needed to further investigate the relationship between hypertension and proteinuria.
Resumo:
Background. A new classification system of human breast tumours based on the immunohistochemical characterization has been applied to mammary tumours of the female dog with the aim to verify its association with invasion and grade, and prognostic aid in veterinary medicine. Methods. Forty-five canine mammary carcinomas with a two-year post-mastectomy follow-up were selected from our database, and the following antibodies were applied: anti-cytokeratines 14, 5/6, oestrogen receptor (ER), progesterone receptor (PR), and ERB-B2. . The tumours were grouped for phenotype as: luminal-like (ER+ and/or PR+, CK14-, CK5/6-) type A (ERB-B2-), and B (ERB-B2+); basal-like (ER-, PR-, CK14+ and/or CK5/6+, ERB-B2-); ERB-B2 (ER-, PR-, CK14-, CK5/6-, ERB-B2+). Association with invasion, grade and histotypes were evaluated and Kaplan-Meier survival curves estimated, then compared by survival analysis. Results. Thirty-five cases with luminal pattern (ER+ and PR+) were subgrouped into 13 A type and 22 B type, if ERB-B2 positive or negative . Most luminal-like A and basal-like cases were grade 1 carcinomas, while the percentage of luminal B cases was higher in grade 2 and 3 (Pearson Chi-square P=0.009). No difference in the percentage of molecular subtypes was evidenced between simple and complex/mixed carcinomas (Pearson Chi-square P=0.47). No significant results were obtained by survival analysis, even if basal-like had a more favourable prognosis than luminal-like. Conclusion. The panel of antibodies identified only 3 groups (luminal-like A and B, and basal-like) in the dog. Even though canine mammary tumours may be a model of human breast cancer, the existence of the same types of carcinoma as in the woman need to be confirmed. Canine mammary carcinomas show high molecular heterogeneity, which would benefit from a classification based on molecular differences. However, by multivariate analysis, the molecular classification appears a variable with a dependent value if compared to invasion and grade that are independent, suggesting that, at present, caution should be used in the application of such a classification to the dog, in which invasion and grade supply the most important prognostic information.
Resumo:
Objectives In diabetic and non diabetic patients with peripheral artery obstructive disease (PAOD), we sought to establish whether the vascular wall damage, the mature circulating endothelium and the "in situ" neoangiogenesis are related with each other. Design In the peripheral blood of diabetic patients suffering critical ischaemia associated with peripheral artery disease, low levels and poor function of circulating endothelial progenitor cells (EPCs) were observed. Moreover, circulating endothelial cells (CECs) have been described in different conditions of vascular injury. In this type of disorders, which are all characterized by endothelial damage, neoangiogenesis plays a key role. Materials In the study we recruited 22 diabetic and 16 non diabetic patients, all of them suffering PAOD and critical ischaemia; healthy subjects and multiorgan donors have also been considered like controls. Methods Histopathologic characterization was performed on arterial tissue samples under a light microscope. Flow cytofluorimetric analysis was used to quantify CECs in peripheral blood samples. "In situ" expression of the Vascular Endothelial Growth Factor (VEGF) and Metalloproteinase 9 (MMP-9) transcripts was quantified in a Real Time-PCR analysis. Circulating VEGF concentration was determined by an ELISA assay. Results Arterial wall from diabetic patients, compared with non diabetic subjects, revealed a higher incidence of serious lesions (60% vs 47%) and a lower number of capillaries (65% vs 87%). Mean number of CECs/ml was significantly increased in all patients, compared to healthy controls (p=0.001). Compared to healthy subjects, VEGF transcripts expression resulted significantly higher in diabetic patients and in all patients (p<0.05) and a similar result was obtained in the MMP-9 transcripts expression. Serum VEGF concentration was significantly increased in PAOD patients correlated with controls (p=0.0431). Conclusions Our study demonstrates that in all patients considered, probably, regressive phenomenons prevail on reparative ones, causing an inesorable and progressive degeneration of the vascular wall, worse by diabetes. The vascular damage can be monitored by determining CECs number and its severity and development are emphasized by the MMP-9 transcripts expression. The "in situ" VEGF increased expression seems to be the evidence of a parietal cells bid to induce local angiogenesis. This reparing mechanism could induce the EPCs mobilitation by means the release of VEGF from the arterial wall. The mechanism, however, is ineffective like demonstrated by the EPCs reduced number and activities observed in patients suffering PAOD and critical ischaemia.