238 resultados para distribuzioni equazioni differenziali alle derivate parziali operatore delle onde


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Both compressible and incompressible porous medium models are used in the literature to describe the mechanical aspects of living tissues. Using a stiff pressure law, it is possible to build a link between these two different representations. In the incompressible limit, compressible models generate free boundary problems where saturation holds in the moving domain. Our work aims at investigating the stiff pressure limit of reaction-advection-porous medium equations motivated by tumor development. Our first study concerns the analysis and numerical simulation of a model including the effect of nutrients. A coupled system of equations describes the cell density and the nutrient concentration and the derivation of the pressure equation in the stiff limit was an open problem for which the strong compactness of the pressure gradient is needed. To establish it, we use two new ideas: an L3-version of the celebrated Aronson-Bénilan estimate, and a sharp uniform L4-bound on the pressure gradient. We further investigate the sharpness of this bound through a finite difference upwind scheme, which we prove to be stable and asymptotic preserving. Our second study is centered around porous medium equations including convective effects. We are able to extend the techniques developed for the nutrient case, hence finding the complementarity relation on the limit pressure. Moreover, we provide an estimate of the convergence rate at the incompressible limit. Finally, we study a multi-species system. In particular, we account for phenotypic heterogeneity, including a structured variable into the problem. In this case, a cross-(degenerate)-diffusion system describes the evolution of the phenotypic distributions. Adapting methods recently developed in the context of two-species systems, we prove existence of weak solutions and we pass to the incompressible limit. Furthermore, we prove new regularity results on the total pressure, which is related to the total density by a power law of state.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

E’ stato in primo luogo definito il criterio di efficienza dal punto di vista economico (con una accenno anche ai parametri elaborati dagli studiosi di discipline aziendali), nelle sue varie accezioni, ponendo altresì ciascuna di queste in relazione alle condizioni di concorrenza perfetta. Le nozioni di efficienza che sono state definite a tal fine sono quelle di efficienza allocativa, efficienza tecnica, efficienza dinamica ed efficienza distributiva. Ciascuna di esse é stata inquadrata a livello teorico secondo le definizioni fornite dalla letteratura, esaminandone le ipotesi sottostanti. E’ stata altresì descritta, contestualizzandola temporalmente, l’evoluzione della nozione, e ne sono state evidenziate le implicazioni ai fini della ricerca della forma di mercato più “efficiente”. Sotto quest’ultimo aspetto l’attenzione dello scrivente si é incentrata sul rapporto tra le diverse accezioni di efficienza economica oggetto di analisi e la desiderabilità o meno di un regime di concorrenza perfetta. Il capitolo si conclude con una breve panoramica sulle metodologie di misurazione finalizzata ad individuare i principali parametri utilizzati per determinare il livello di efficienza, di un mercato, di un’attività produttiva o di un’impresa, posto che, come verrà specificato nel prosieguo della tesi, la valutazione di efficienza in ambito antitrust deve essere verificata, ove possibile, anche basandosi sull’evidenza empirica delle singole imprese esaminate, come richiede il criterio della rule of reason. Capitolo 2 Presupposto per avere una regolazione che persegua l’obiettivo di avere una regolazione efficiente ed efficace, è, a parere di chi scrive, anche l’esistenza di autorità pubbliche deputate a esercitare la funzione regolatoria che rispettino al proprio interno e nel proprio agire la condizione di efficienza definita rispetto ai pubblici poteri. Lo sviluppo di questa affermazione ha richiesto in via preliminare, di definire il criterio di efficienza in ambito pubblicistico individuandone in particolare l’ambito di applicazione, il suo rapporto con gli altri principi che reggono l’azione amministrativa (con particolare riferimento al criterio di efficacia). Successivamente é stato collocato nel nostro ordinamento nazionale, ponendolo in relazione con il principio di buon andamnento della Pubblica Amministrazione, benchè l’ordinamento italiano, per la sua specificità non costituisca un esempio estendibile ad ordinamenti. Anche con riferimento al criterio di efficienza pubblica, un paragrafo é stato dedicato alle metodologie di misurazione di questa, e, nello specifico sull’Analisi Costi-Benefici e sull’Analisi di Impatto della Regolazione Una volta inquadrata la definizione di efficienza pubblica, questa é stata analizzata con specifico riferimento all’attività di regolazione dell’economia svolta dai soggetti pubblici, ambito nella quale rientra la funzione antitrust. Si é provato in particolare ad evidenziare, a livello generale, quali sono i requisiti necessari ad un’autorità amministrativa antitrust, costituita e dotata di poteri ad hoc, affinché essa agisca, nella sua attività di regolazione, secondo il principio di efficienza, Il capitolo si chiude allargando l’orizzonte della ricerca verso una possibile alternativa metodologica al criterio di efficienza precedentemente definito: vi si é infatti brevemente interrogati circa lo schema interpretativo nel quale ci muoviamo, affrontando la questione definitoria del criterio di efficienza, ponendolo in relazione con l’unico modello alternativo esistente, quello sviluppatosi nella cultura cinese. Non certo per elaborare un’applicazione in “salsa cinese” del criterio di efficienza alla tutela della concorrenza, compito al quale lo scrivente non sarebbe stato in grado di ottemperare, bensì, più semplicemente per dare conto di un diverso approccio alla questione che il futuro ruolo di superpotenza economica della Cina imporrà di prendere in considerazione. Capitolo 3 Nel terzo capitolo si passa a definire il concetto di concorrenza come istituto oggetto di tutela da parte della legge antitrust, per poi descrivere la nascita e l’evoluzione di tale legislazione negli Stati Uniti e della sua applicazione, posto che il diritto antitrust statunitense ancora oggi costituisce il necessario punto di riferimento per lo studioso di questa materia. L’evoluzione del diritto antitrust statunitense é stata analizzata parallelamente allo sviluppo delle principali teorie di law and economics che hanno interpretato il diritto della concorrenza quale possibile strumento per conseguire l’obiettivo dell’efficienza economica: la Scuola di Harvard e il paradigma strutturalista, la teoria evoluzionista della Scuola Austriaca, la Scuola di Chicago; le c.d. teorie “Post-Chicago”. Nel terzo capitolo, in altri termini, si é dato conto dell’evoluzione del pensiero economico con riferimento alla sua applicazione al diritto antitrust, focalizzando l’attenzione su quanto avvenuto negli Stati Uniti, paese nel quale sono nati sia l’istituto giuridico della tutela della concorrenza sia l’analisi economica del diritto. A conclusione di questa ricostruzione dottrinale ho brevemente esaminato quelle che sono le nuove tendenze dell’analisi economica del diritto, e specificatamente la teoria del comportamento irrazionale, benché esse non abbiano ancora ricevuto applicazione al diritto antitrust. Chi scrive ritiene infatti che queste teorie avranno ricadute anche in questa materia poiché essa costituisce uno dei principali ambiti applicativi della law and economics. Capitolo 4 Nel quarto capitolo é stata effettuata una disanima della disciplina comunitaria antitrust sottolineando come l’Unione Europea si proponga attraverso la sua applicazione, soprattutto in materia di intese, di perseguire fini eterogenei, sia economici che non economici, tra loro diversi e non di rado contrastanti, e analizzando come questa eterogeneità di obiettivi abbia influito sull’applicazione del criterio di efficienza. Attenendomi in questo capitolo al dato normativo, ho innanzitutto evidenziato l’ampiezza dell’ambito di applicazione della disciplina comunitaria antitrust sia dal punto di vista soggettivo che territoriale (dottrina dell’effetto utile), sottolineando come la norma giustifichi esplicitamente il ricorso al criterio di efficienza solo nella valutazione delle intese: il comma 3 dell’art. 81 del Trattato include, infatti, tra i requisiti di una possibile esenzione dall’applicazione del divieto per le intese qualificate come restrittive della concorrenza, la possibilità di ottenere incrementi di efficienza tecnica e/o dinamica attraverso l’implementazione delle intese in questione. Tuttavia la previsione da parte dello stesso art. 81 (3) di altri requisiti che devono contemporaneamente essere soddisfatti affinché un intesa restrittiva della concorrenza possa beneficiare dell’esenzione, nonché la possibile diversa interpretazione della locuzione “progresso tecnico ed economico”, impone, o comunque ammette, il perseguimento di altri obiettivi, contestualmente a quello dell’efficienza, giustificando così quell’eterogeneità dei fini che contraddistingue la politica della concorrenza dell’Unione Europea. Se la disciplina delle intese aiuta a comprendere il ruolo del criterio di efficienza nell’applicazione dei precetti antitrust da parte degli organi comunitari, l’art. 82 del Trattato non contiene invece alcun riferimento alla possibilità di utilizzare il criterio di efficienza nella valutazione delle condotte unilaterali poste in essere da imprese in posizione dominante sul mercato rilevante. Si è peraltro dato conto della consultazione recentemente avviata dalla Commissione Europea finalizzata all’elaborazione di Linee Guida che definiscano i criteri di interpretazione che l’organo comunitario dovrà seguire nella valutazione dei comportamenti unilaterali. A parere dello scrivente, anzi, l’assenza di un preciso schema cui subordinare la possibilità di ricorrere al criterio di efficienza nella valutazione della fattispecie, attribuisce alle autorità competenti un più ampio margine di discrezionalità nell’utilizzo del suddetto criterio poiché manca il vincolo della contestuale sussistenza delle altre condizioni di cui all’art. 81(3). Per quanto concerne infine la disciplina delle concentrazioni, essa, come abbiamo visto, prevede un riferimento ai possibili incrementi di efficienza (tecnica e dinamica) derivanti da operazioni di fusione, utilizzando la nozione utilizzata per le intese, così come nel precedente Regolamento 4064/89. Si é infine analizzato il nuovo Regolamento in materia di concentrazioni che avrebbe potuto costituire l’occasione per recepire nella disciplina comunitaria l’attribuzione della facoltà di ricorrere all’efficiency defense in presenza di una fattispecie, quella della fusione tra imprese, suscettibile più di altre di essere valutata secondo il criterio di efficienza, ma che si é invece limitato a riprendere la medesima locuzione presente nell’art. 81(3). Il capitolo attesta anche l’attenzione verso l’istanza di efficienza che ha riguardato il meccanismo di applicazione della norma antitrust e non il contenuto della norma stessa; a questo profilo attiene, infatti, l’innovazione apportata dal Regolamento 1/2003 che ha permesso, a parere dello scrivente, un’attribuzione più razionale della competenza nella valutazione dei casi tra la Commissione e le autorità nazionali degli Stati membri; tuttavia pone alcune questioni che investono direttamente il tema dei criteri di valutazione utilizzati dalle autorità competenti. Capitolo 5 L’analisi del quarto capitolo é stata condotta, sebbene in forma più sintetica, con riferimento alle normative antitrust dei principali Stati membri della Comunità Europea (Germania, Gran Bretagna, Spagna, Francia e Italia), rapportando anche queste al criterio di efficienza, ove possibile. Particolare attenzione é stata dedicata ai poteri e alle competenze attribuite alle autorità nazionali antitrust oggetto di studio dall’ordinamento giuridico cui appartengono e al contesto, in termini di sistema giuridico, nel quale esse operano. Capitolo 6 Si é provato ad effettuare una valutazione del livello di efficienza delle autorità prese in esame, la Commissione e le diverse autorità nazionali e ciò con particolare riferimento alla idoneità di queste a svolgere i compiti istituzionali loro affidati (criterio di efficienza dal punto di vista giuridico): affinchè un’autorità si possa ispirare al criterio di efficienza economica nell’adozione delle decisioni, infatti, è preliminarmente necessario che essa sia idonea a svolgere il compito che le è stato affidato dall’ordinamento. In questo senso si é osservata la difficoltà dei paesi di civil law a inquadrare le autorità indipendenti all’interno di un modello, quello appunto di civil law, ispirato a una rigida tripartizione dei poteri. Da qui la difficile collocazione di queste autorità che, al contrario, costituiscono un potere “ibrido” che esercita una funzione di vigilanza e garanzia non attribuibile integralmente né al potere esecutivo né a quello giurisdizionale. Si rileva inoltre una certa sovrapposizione delle competenze e dei poteri tra autorità antitrust e organi ministeriali, in particolare nel campo delle concentrazioni che ingenera un rischio di confusione e bassa efficienza del sistema. Mantenendo, infatti, un parziale controllo politico si rischia, oltre all’introduzione di criteri di valutazione politica che prescindono dagli effetti delle fattispecie concrete sul livello di concorrenza ed efficienza del mercato, anche di dare luogo a conflitti tra le diverse autorità del sistema che impediscano l’adozione e l’implementazione di decisioni definitive, incrementando altresì i costi dell’intervento pubblico. Un giudizio a parte è stato infine formulato con riguardo alla Commissione Europea, istituzione, in quanto avente caratteristiche e poteri peculiari. Da un lato l’assenza di vincolo di mandato dei Commissari e l’elevata preparazione tecnica dei funzionari costituiscono aspetti che avvicinano la Commissione al modello dell’autorità indipendenti, e l’ampiezza dei poteri in capo ad essa le permette di operare efficientemente grazie anche alla possibilità di valersi dell’assistenza delle autorità nazionali. Dall’altra parte, tuttavia la Commissione si caratterizza sempre di più come un organo politico svolgente funzioni esecutive, di indirizzo e di coordinamento che possono influenzare gli obiettivi che essa persegue attraverso l’attività antitrust, deviandola dal rispetto del criterio di efficienza. Capitolo 7 Una volta definito il contesto istituzionale di riferimento e la sua idoneità a svolgere la funzione affidatagli dall’ordinamento comunitario, nonché da quelli nazionali, si è proceduto quindi all’analisi delle decisioni adottate da alcune delle principali autorità nazionali europee competenti ad applicare la disciplina della concorrenza dal punto di vista dell’efficienza. A tal fine le fattispecie rilevanti a fini antitrust dal punto di vista giuridico sono state classificate utilizzando un criterio economico, individuando e definendo quelle condotte che presentano elementi comuni sotto il profilo economico e per ciascuna di esse sono state inquadrate le problematiche rilevanti ai fini dell’efficienza economica sulla scorta dei contributi teorici e delle analisi empiriche svolte dalla letteratura. 6 Con riferimento a ciascuna condotta rilevante ho esaminato il contenuto di alcune delle decisioni antitrust più significative e le ho interpretate in base al criterio di efficienza. verificando se e in quale misura le autorità antitrust prese in esame utilizzano tale criterio, cercando altresì di valutare l’evoluzione dei parametri di valutazione occorsa nel corso degli anni. Le decisioni analizzate sono soprattutto quelle adottate dalla Commissione e le eventuali relative sentenze della Corte di Giustizia Europea; ciò sia per la maggior rilevanza dei casi trattati a livello comunitario, sia in quanto le autorità nazionali, con qualche rara eccezione, si conformano generalmente ai criteri interpretativi della Commissione. Riferimenti a decisioni adottate dalle autorità nazionali sono stati collocati allorquando i loro criteri interpretativi si discostino da quelli utilizzati dagli organi comunitari. Ne è emerso un crescente, anche se ancora sporadico e incostante, ricorso al criterio di efficienza da parte degli organi europei preposti alla tutela della concorrenza. Il tuttora scarso utilizzo del criterio di efficienza nello svolgimento dell’attività antitrust è motivato, a parere di chi scrive, in parte dall’eterogeneità degli obiettivi che l’Unione Europea persegue attraverso la politica della concorrenza comunitaria (completamento del mercato unico, tutela del consumatore, politica industriale, sviluppo delle aree svantaggiate), in parte dall’incapacità (o dall’impossibilità) delle autorità di effettuare coerenti analisi economiche delle singole fattispecie concrete. Anche le principali autorità nazionali mostrano una crescente propensione a tendere conto dell’efficienza nella valutazione dei casi, soprattutto con riferimento agli accordi verticali e alle concentrazioni, sulla scia della prassi comunitaria. Più innovativa nell’applicazione del criterio di efficienza economica così come nella ricerca di uso ottimale delle risorse si è finora dimostrato l’OFT, come vedremo anche nel prossimo capitolo. Al contrario sembra più lenta l’evoluzione in questo senso dell’Ufficio dei Cartelli tedesco sia a causa delle già citate caratteristiche della legge antitrust tedesca, sia a causa del persistente principio ordoliberale della prevalenza del criterio della rule of law sulla rule of reason. Peraltro, anche nei casi in cui le Autorità siano propense ad utilizzare il criterio di efficienza nelle loro valutazioni, esse si limitano generalmente ad un’analisi teorica dell’esistenza di precondizioni che consentano alle imprese in questione di ottenere guadagni di efficienza. La sussistenza di tali pre-condizioni viene infatti rilevata sulla base della capacità potenziale della condotta dell’impresa (o delle imprese) di avere un effetto positivo in termini di efficienza, nonché sulla base delle caratteristiche del mercato rilevante. Raramente, invece, si tiene conto della capacità reale dei soggetti che pongono in essere la pratica suscettibile di essere restrittiva della concorrenza di cogliere effettivamente queste opportunità, ovvero se la struttura e l’organizzazione interna dell’impresa (o delle imprese) non è in grado di mettere in pratica ciò che la teoria suggerisce a causa di sue carenza interne o comunque in ragione delle strategie che persegue. Capitolo 8 Poiché l’approccio ispirato al criterio di efficienza economica non può prescindere dalle caratteristiche del settore e del mercato in cui operano l’impresa o le imprese che hanno posto in essere la condotta sotto esame, e poiché una valutazione approfondita di tutti i settori non era effettuabile per quantità di decisioni adottate dalle autorità, ho infine ritenuto di svolgere un’analisi dettagliata dell’attività delle autorità con riferimento ad uno specifico settore. La scelta è caduta sul settore dei trasporti in quanto esso presenta alcune problematiche che intrecciano l’esigenza di efficienza con la tutela della concorrenza, nonché per la sua importanza ai fini dello sviluppo economico. Tanto più alla luce del fenomeno della crescente apertura dei mercati che ha enfatizzato la triplice funzione dei trasporti di merci, di livellamento nello spazio dei prezzi di produzione, di redistribuzione nello spazio dell’impiego dei fattori della produzione, e soprattutto di sollecitazione al miglioramento delle tecnologie utilizzate nella produzione stessa in quanto contribuiscono alla divisione territoriale del lavoro e alla specializzazione produttiva. A loro volta, d’altra parte, i miglioramenti tecnici e organizzativi intervenuti nel settore negli ultimi trenta anni hanno reso possibile il fenomeno della globalizzazione nella misura in cui lo conosciamo. Così come le riduzioni di costo e di tempo conseguite nel trasporto di persone hanno consentito massicci spostamenti di lavoratori e più in generale di capitale umano da una parte all’altra del globo, e favorito altresì la spettacolare crescita del settore turistico. Ho quindi condotto un’analisi delle decisioni antitrust relative al settore dei trasporti, suddividendo la casistica in base al comparto al quale esse si riferivano, cercando sempre di non perdere di vista i crescenti legami che esistono tra i vari comparti alla luce dell’ormai affermato fenomeno del trasporto multimodale. Dall’analisi svolta emerge innanzitutto come l’assoggettamento del settore dei trasporti alla disciplina di tutela della concorrenza sia un fenomeno relativamente recente rispetto alle altre attività economiche, laddove la ragione di tale ritardo risiede nel fatto che tradizionalmente questo settore era caratterizzato da un intervento pubblico diretto e da una pervasiva regolamentazione, a sua volta giustificata da vari fattori economici: le caratteristiche di monopolio naturale delle infrastrutture; le esigenze di servizio pubblico connesse all’erogazione di molti servizi di trasporto; il ruolo strategico svolto dal trasporto sia di persone che di merci ai fini della crescita economica di un sistema. Si concretizza, inoltre, con riferimento ai trasporti marittimi e aerei, l’inadeguatezza della dimensione nazionale e comunitaria delle autorità competenti rispetto a comportamenti di impresa che spesso hanno effetti letteralmente globali. Le imprese marittime e aeree coinvolte nelle fattispecie da noi esaminate, infatti, in molti casi predisponevano, direttamente o mediatamente, tramite “alleanze”, collegamenti tra tutte le aree del mondo, individuando nell’Europa solo un nodo di un network ben più ampio Da questa constatazione discende, a parere dello scrivente, l’impossibilità per l’autorità comunitaria e ancor più per quella nazionale di individuare tutti gli effetti in termini di efficienza che la fattispecie concreta può provocare, non includendo pertanto solo quelli evidenti sul mercato comunitario. Conseguentemente una reale applicazione del criterio di efficienza all’attività antitrust nel settore dei trasporti non può prescindere da una collaborazione tra autorità a livello mondiale sia a fini di indagine che a fini di individuazione di alcuni principi fondamentali cui ispirarsi nello svolgimento della loro missione istituzionale. Capitolo 9. Conclusioni L’opera si chiude con l’individuazione delle evidenze e degli elementi emersi dalla trattazione considerati dallo scrivente maggiormente rilevanti nell’ambito dell’attuale dibattito di economia positiva circa le principali problematiche che affiggono l’intervento antitrust con particolare riferimento al suo rispetto del criterio di efficienza. Sono state altresì proposte alcune soluzioni a quelle che sono, a parere dello scrivente, le principali carenze dell’attuale configurazione dell’intervento antitrust a livello europeo, sempre in una prospettiva di efficienza sia delle autorità competenti sia dei mercati in cui le autorità stesse cercano di mantenere o ripristinare condizioni di concorrenza effettiva. Da un lato il modello costituito dalla Commissione Europea, l’autorità antitrust comunitaria, non replicabile né esente da critiche: la Commissione, infatti, rappresenta il Governo dell’Unione Europea e come tale non può ovviamente costituire un esempio di autorità indipendente e neutrale recepibile da parte degli Stati membri. Ciò anche a prescindere dalla questione della sua legittimazione, che in questa sede non affrontiamo. Dall’altro in una prospettiva di efficienza dei mercati la crescente applicazione delle teorie economiche da parte delle autorità esaminate è rimasta a un livello astratto, senza porre la dovuta attenzione alle specificità dei mercati rilevanti né tantomeno alle dinamiche interne alle singole imprese, con particolare riferimento alla loro capacità di rendere effettivi i guadagni di efficienza individuabili a livello potenziale, così come prescrive la più recente teoria economica applicata al diritto antitrust. Sotto il profilo dell’applicazione del criterio di efficienza si può comunque affermare che l’evoluzione che ha avuto la prassi decisionale e la giurisprudenza, comunitaria e degli Stati membri, in materia antitrust è stata caratterizzata dal loro progressivo avvicinamento alle tendenze sviluppatesi nelle agencies e nella giurisprudenza statunitense a partire dagli anni’70, caratterizzate dalla valutazione degli effetti, piuttosto che della forma giuridica, dal riconoscimento del criterio di efficienza e dalla rule of reason quale approccio metodologico. L’effetto è stato quello di determinare una significativa riduzione delle differenze inizialmente emerse tra le due esperienze, nate inizialmente sotto diverse prospettive politiche. Per quanto concerne specificatamente i trasporti sono emersi sotto il profilo economico due aspetti rilevanti, oltre al perdurante ritardo con cui il processo di liberalizzazione del trasporto ferroviario che limita fortemente l’intervento antitrust nel comparto, ma che esula dalla competenza delle stesse autorità antitrust. Il primo consiste nella spesso troppo rigida separazione tra comparti adottata dalle autorità. Il secondo è l’estensivo ricorso all’essential facility doctrine nelle fattispecie riguardanti infrastrutture portuali e aeroportuali: la massimizzazione dell’efficienza dinamica consiglierebbe in questi casi una maggiore cautela, in quanto si tratta di un paradigma che, una volta applicato, disincentiva la duplicazione e l’ampliamento di tali infrastrutture autoalimentandone il carattere di essenzialità. Ciò soprattutto laddove queste infrastrutture possono essere sostituite o duplicate piuttosto facilmente da un punto di vista tecnico (meno da un punto di vista economico e giuridico), essendo esse nodi e non reti. E’stata infine sottolineata l’inadeguatezza della dimensione nazionale e comunitaria delle autorità competenti rispetto a comportamenti di impresa che con riferimento ai trasporti marittimi ed aerei hanno effetti letteralmente globali. E’ di tutta evidenza che le autorità comunitarie e tantomeno quelle nazionali non sono da sole in grado di condurre le analisi quantitative necessarie ad una valutazione di tali condotte ispirata a un criterio di efficienza che tenga conto degli effetti di lungo periodo della fattispecie concreta. Né tali autorità sono sufficientemente neutre rispetto alla nazionalità delle imprese indagate per poter giudicare sulla liceità o meno della condotta in questione senza considerare gli effetti della loro decisione sull’economia interna, rendendo così ancora più improbabile un corretto utilizzo del criterio di efficienza. Da ultimo ho constatato come l’applicazione del concetto di efficienza giuridica imporrebbe di concepire autorità antitrust del tutto nuove, sganciate quanto più possibile dall’elemento territoriale, in grado di elaborare regole e standards minimi comuni e di permettere il controllo dei comportamenti di impresa in un contesto ampliato rispetto al tradizionale mercato unico, nonchè ai singoli mercati nazionali. Il processo di armonizzazione a livello globale è difficile e il quadro che attualmente viene formato è ancora confuso e incompleto. Vi sono tuttavia sparsi segnali attraverso i quali é possibile intravedere i lineamenti di una futura global governance della concorrenza che permetterà, sperabilmente, di incrementare l’efficienza di un sistema, quello antitrust, che tanto più piccolo è l’ambito in cui opera quanto più si sta dimostrando inadeguato a svolgere il compito affidatogli. Solo il futuro, peraltro, ci consentirà di verificare la direzione di sviluppo di questi segnali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I comportamenti nutrizionali stanno assumendo sempre maggiore rilievo all’interno delle politiche comunitarie e questo sottolinea che la dieta sta avendo, negli ultimi anni, una maggiore importanza come fattore di causa e allo stesso tempo prevenzione nella diffusione di malattie croniche come il cancro, malattie cardiovascolari, diabete, osteoporosi e disturbi dentali. Numerosi studi mostrano infatti che i tassi di obesità sono triplicati nelle ultime due decadi e si è stimato che, se i livelli di obesità continueranno a crescere allo stesso tasso del 1990, nel 2010 il numero di persone obese raggiungerà i 150 milioni tra gli adulti e i 15 milioni tra bambini e adolescenti. I governi nazionali stanno quindi cercando di risolvere questo problema, a cui sono inoltre legati alti costi nazionali, tramite l’implementazione di politiche nutrizionali. Analisi di tipo cross-section sono già state evidenziate da studiosi come Schmidhuber e Traill (2006), i quali hanno effettuato un’analisi di convergenza a livello europeo per esaminare la distanza tra le calorie immesse da 426 prodotti diversi. In quest’analisi hanno così dimostrato la presenza di una similarità distinta e crescente tra i paesi europei per quanto riguarda la composizione della dieta. Srinivasan et al. invece hanno osservato la relazione esistente tra ogni singolo prodotto alimentare consumato e le norme nutrizionali dell’ Organizzazione Mondiale della Sanità (World Health Organization, WHO) Lo scopo di questa tesi è quello di evidenziare il problema a livello di aggregati nutritivi e di specifiche componenti nutrizionali come zucchero, frutta e verdura e non relativamente ad ogni singolo prodotto consumato. A questo proposito ci si è basati sulla costruzione di un indicatore (Recommendation Compliance Index) in modo da poter misurare le distanze tra la dieta media e le raccomandazioni del WHO. Lo scopo è quindi quello di riuscire a quantificare il fenomeno del peggioramento della dieta in diverse aree del mondo negli ultimi quattro decenni, tramite un’analisi panel, basandosi sui dati sui nutrienti consumati, provenienti dal database della FAO (e precisamente dal dataset Food Balance Sheets – FBS). Nella prima fase si introduce il problema dell’obesità e delle malattie croniche correlate, evidenziando dati statistici in diversi paesi europei e mondiali. Si sottolineano inoltre le diverse azioni dei governi e del WHO, tramite l’attuazione di campagne contro l’obesità e in favore di una vita più salutare e di una maggiore attività fisica. Nella seconda fase si è costruito un indicatore aggregato (Recommendation Compliance Index) in modo da analizzare le caratteristiche nella dieta dei diversi Paesi a livello mondiale rispetto alle norme del WHO. L’indicatore si basa sui dati ottenuti da FAOSTAT ed è calcolato per 149 paesi del database dell’FBS per il periodo 1961-2002. Nell’analisi si sono utilizzati i dati sulle percentuali di energia prodotta dalle varie componenti nutritive, quali grassi, grassi saturi e transaturi, zuccheri, carboidrati, proteine e le quantità di frutta e verdura consumate. Inoltre si è applicato un test statistico per testare se il valore del RCI è significativamente cambiato nel tempo, prendendo in considerazione gruppi di Paesi (Paesi OECD, Paesi in via di sviluppo e sottosviluppati). Si è voluto poi valutare la presenza o meno di un processo di convergenza, applicando l’analisi di σ-convergenza per osservare ad esempio se la variabilità è diminuita nel tempo in modo significativo. Infine si è applicato l’indicatore ad un livello micro, utilizzando il database del National Diet and Nutrition Survey, che raccoglie dati di macrocomponenti nutritive e misure antropometriche della popolazione inglese dai 16 ai 64 anni per il periodo 2000-2001. Si sono quindi effettuate analisi descrittive nonché analisi di correlazione, regressione lineare e ordinale per osservare le relazioni tra l’indicatore, i macronutrienti, il reddito e le misure antropometriche dell’ Indice di Massa Corporea (Body Mass Index, BMI) e del rapporto vita-fianchi (Waist-hip ratio, WHR).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Produttività ed efficienza sono termini comunemente utilizzati per caratterizzare l’abilità di un’impresa nell’utilizzazione delle risorse, sia in ambito privato che pubblico. Entrambi i concetti sono legati da una teoria della produzione che diventa essenziale per la determinazione dei criteri base con i quali confrontare i risultati dell’attività produttiva e i fattori impiegati per ottenerli. D’altronde, le imprese scelgono di produrre e di investire sulla base delle proprie prospettive di mercato e di costi dei fattori. Quest’ultimi possono essere influenzati dalle politiche dello Stato che fornisce incentivi e sussidi allo scopo di modificare le decisioni riguardanti l’allocazione e la crescita delle imprese. In questo caso le stesse imprese possono preferire di non collocarsi nell’equilibrio produttivo ottimo, massimizzando produttività ed efficienza, per poter invece utilizzare tali incentivi. In questo caso gli stessi incentivi potrebbero distorcere quindi l’allocazione delle risorse delle imprese che sono agevolate. L’obiettivo di questo lavoro è quello di valutare attraverso metodologie parametriche e non parametriche se incentivi erogati dalla L. 488/92, la principale politica regionale in Italia nelle regioni meridionali del paese nel periodo 1995-2004, hanno avuto o meno effetti sulla produttività totale dei fattori delle imprese agevolate. Si è condotta una ricognizione rispetto ai principali lavori proposti in letteratura riguardanti la TFP e l’aiuto alle imprese attraverso incentivi al capitale e (in parte) dell’efficienza. La stima della produttività totale dei fattori richiede di specificare una funzione di produzione ponendo l’attenzione su modelli di tipo parametrico che prevedono, quindi, la specificazione di una determinata forma funzionale relativa a variabili concernenti i fattori di produzione. Da questa si è ricavata la Total Factor Productivity utilizzata nell’analisi empirica che è la misura su cui viene valutata l’efficienza produttiva delle imprese. Il campione di aziende è dato dal merge tra i dati della L.488 e i dati di bilancio della banca dati AIDA. Si è provveduto alla stima del modello e si sono approfonditi diversi modelli per la stima della TFP; infine vengono descritti metodi non parametrici (tecniche di matching basate sul propensity score) e metodi parametrici (Diff-In-Diffs) per la valutazione dell’impatto dei sussidi al capitale. Si descrive l’analisi empirica condotta. Nella prima parte sono stati illustrati i passaggi cruciali e i risultati ottenuti a partire dalla elaborazione del dataset. Nella seconda parte, invece, si è descritta la stima del modello per la TFP e confrontate metodologie parametriche e non parametriche per valutare se la politica ha influenzato o meno il livello di TFP delle imprese agevolate.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi di dottorato ha per suo oggetto la ricognizione degli elementi teorici, di linguaggio politico e di influenza concettuale che le scienze sociali tra Ottocento e Novecento hanno avuto nell’opera di Antonio Gramsci. La ricerca si articola in cinque capitoli, ciascuno dei quali intende ricostruire, da una parte, la ricezione gramsciana dei testi classici della sociologia e della scienza politica del suo tempo, dall’altra, far emergere quelle filiazioni concettuali che permettano di valutare la portata dell’influenza delle scienze sociali sugli scritti gramsciani. Il lungo processo di sedimentazione concettuale del lessico delle scienze sociali inizia in Gramsci già negli anni della formazione politica, sullo sfondo di una Torino positivista che esprime le punte più avanzate del “progetto grande borghese” per lo studio scientifico della società e per la sua “organizzazione disciplinata”; di questa tradizione culturale Gramsci incrocia a più riprese il percorso. La sua formazione più propriamente politica si svolge però all’interno del Partito socialista, ancora imbevuto del lessico positivista ed evoluzionista. Questi due grandi filoni culturali costituiscono il brodo di coltura, rifiutato politicamente ma al tempo stesso assunto concettualmente, per quelle suggestioni sociologiche che Gramsci metterà a frutto in modo più organico nei Quaderni. La ricerca e la fissazione di una specifica antropologia politica implicita al discorso gramsciano è il secondo stadio della ricerca, nella direzione di un’articolazione complessiva delle suggestioni sociologiche che i Quaderni assumono come elementi di analisi politica. L’analisi si sposta sulla storia intellettuale della Francia della Terza Repubblica, più precisamente sulla nascita del paradigma sociologico durkheimiano come espressione diretta delle necessità di integrazione sociale. Vengono così messe in risalto alcune assonanze lessicali e concettuali tra il discorso di Durkheim, di Sorel e quello di Gramsci. Con il terzo capitolo si entra più in profondità nella struttura concettuale che caratterizza il laboratorio dei Quaderni. Si ricostruisce la genesi di concetti come «blocco storico», «ideologia» ed «egemonia» per farne risaltare quelle componenti che rimandano direttamente alle funzioni di integrazione di un sistema sociale. La declinazione gramsciana di questo problema prende le forme di un discorso sull’«organicità» che rende più che mai esplicito il suo debito teorico nei confronti dell’orizzonte concettuale delle scienze sociali. Il nucleo di problemi connessi a questa trattazione fa anche emergere l’assunzione di un vero e proprio lessico sociologico, come per i concetti di «conformismo» e «coercizione», comunque molto distante dallo spazio semantico proprio del marxismo contemporaneo a Gramsci. Nel quarto capitolo si affronta un caso paradigmatico per quanto riguarda l’assunzione non solo del lessico e dei concetti delle scienze sociali, ma anche dei temi e delle modalità della ricerca sociale. Il quaderno 22 intitolato Americanismo e fordismo è il termine di paragone rispetto alla realtà che Gramsci si prefigge di indagare. Le consonanze delle analisi gramsciane con quelle weberiane dei saggi su Selezione e adattamento forniscono poi gli spunti necessari per valutare le novità emerse negli Stati Uniti con la razionalizzazione produttiva taylorista, specialmente in quella sua parte che riguarda la pervasività delle tecniche di controllo della vita extra-lavorativa degli operai. L’ultimo capitolo affronta direttamente la questione delle aporie che la ricezione della teoria sociologica di Weber e la scienza politica italiana rappresentata dagli elitisti Mosca, Pareto e Michels, sollevano per la riformulazione dei concetti politici gramsciani. L’orizzonte problematico in cui si inserisce questa ricerca è l’individuazione di una possibile “sociologia del politico” gramsciana che metta a tema quel rapporto, che è sempre stato di difficile composizione, tra marxismo e scienze sociali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi si occupa della teoria delle ranking functions di W. Spohn, dottrina epistemologica il cui fine è dare una veste logica rigorosa ai concetti di causalità, legge di natura, spiegazione scientifica, a partire dalla nozione di credenza. Di tale teoria manca ancora una esposizione organica e unitaria e, soprattutto, formulata in linguaggio immediatamente accessibile. Nel mio lavoro, che si presenta come introduzione ad essa, è anche messa a raffronto con le teorie che maggiormente l’hanno influenzata o rispetto alle quali si pone come avversaria. Il PRIMO CAPITOLO si concentra sulla teoria di P. Gärdenfors, il più diretto predecessore e ispiratore di Spohn. Questo consente al lettore di acquisire familiarità con le nozioni di base della logica epistemica. La conoscenza, nella teoria del filosofo svedese, è concepita come processo di acquisizione ed espulsione di credenze, identificate con proposizioni, da un insieme. I tre maggiori fenomeni epistemici sono l’espansione, la revisione e la contrazione. Nel primo caso si immagazzina una proposizione in precedenza sconosciuta, nel secondo se ne espelle una a causa dell’acquisizione della sua contraddittoria, nel terzo si cancella una proposizione per amore di ipotesi e si investigano le conseguenze di tale cancellazione. Controparte linguistica di quest’ultimo fenomeno è la formulazione di un condizionale controfattuale. L’epistemologo, così come Gärdenfors concepisce il suo compito, è fondamentalmente un logico che deve specificare funzioni: vale a dire, le regole che deve rispettare ciascun passaggio da un insieme epistemico a un successivo per via di espansione, revisione e contrazione. Il SECONDO CAPITOLO tratta infine della teoria di Spohn, cercando di esporla in modo esauriente ma anche molto semplice. Anche in Spohn evidentemente il concetto fondamentale è quello di funzione: si tratta però in questo caso di quella regola di giudizio soggettivo che, a ciascuna credenza, identificata con una proposizione, associa un grado (un rank), espresso da un numero naturale positivo o dallo zero. Un rank è un grado di non-credenza (disbelief). Perché la non-credenza (che comporta un notevole appesantimento concettuale)? Perché le leggi della credenza così concepite presentano quella che Spohn chiama una “pervasiva analogia” rispetto alle leggi della probabilità (Spohn la chiama persino “armonia prestabilita” ed è un campo su cui sta ancora lavorando). Essenziale è il concetto di condizionalizzazione (analogo a quello di probabilità condizionale): a una credenza si associa un rank sulla base di (almeno) un’altra credenza. Grazie a tale concetto Spohn può formalizzare un fenomeno che a Gärdenfors sfugge, ossia la presenza di correlazioni interdoxastiche tra le credenze di un soggetto. Nella logica epistemica del predecessore, infatti, tutto si riduce all’inclusione o meno di una proposizione nell’insieme, non si considerano né gradi di credenza né l’idea che una credenza sia creduta sulla base di un’altra. Il TERZO CAPITOLO passa alla teoria della causalità di Spohn. Anche questa nozione è affrontata in prospettiva epistemica. Non ha senso, secondo Spohn, chiedersi quali siano i tratti “reali” della causalità “nel mondo”, occorre invece studiare che cosa accade quando si crede che tra due fatti o eventi sussista una correlazione causale. Anche quest’ultima è fatta oggetto di una formalizzazione logica rigorosa (e diversificata, infatti Spohn riconosce vari tipi di causa). Una causa “innalza lo status epistemico” dell’effetto: vale a dire, quest’ultimo è creduto con rank maggiore (ossia minore, se ci si concentra sulla non-credenza) se condizionalizzato sulla causa. Nello stesso capitolo espongo la teoria della causalità di Gärdenfors, che però è meno articolata e minata da alcuni errori. Il QUARTO CAPITOLO è tutto dedicato a David Lewis e alla sua teoria controfattuale della causalità, che è il maggiore avversario tanto di Spohn quanto di Gärdenfors. Secondo Lewis la migliore definizione di causa può essere data in termini controfattuali: la causa è un evento tale che, se non fosse accaduto, nemmeno l’effetto sarebbe accaduto. Naturalmente questo lo obbliga a specificare una teoria delle condizioni di verità di tale classe di enunciati che, andando contro i fatti per definizione, non possono essere paragonati alla realtà. Lewis ricorre allora alla dottrina dei mondi possibili e della loro somiglianza comparativa, concludendo che un controfattuale è vero se il mondo possibile in cui il suo antecedente e il suo conseguente sono veri è più simile al mondo attuale del controfattuale in cui il suo antecedente è vero e il conseguente è falso. Il QUINTO CAPITOLO mette a confronto la teoria di Lewis con quelle di Spohn e Gärdenfors. Quest’ultimo riduce i controfattuali a un fenomeno linguistico che segnala il processo epistemico di contrazione, trattato nel primo capitolo, rifiutando così completamente la dottrina dei mondi possibili. Spohn non affronta direttamente i controfattuali (in quanto a suo dire sovraccarichi di sottigliezze linguistiche di cui non vuole occuparsi – ha solo un abbozzo di teoria dei condizionali) ma dimostra che la sua teoria è superiore a quella di Lewis perché riesce a rendere conto, con estrema esattezza, di casi problematici di causalità che sfuggono alla formulazione controfattuale. Si tratta di quei casi in cui sono in gioco, rafforzandosi a vicenda o “concorrendo” allo stesso effetto, più fattori causali (casi noti nella letteratura come preemption, trumping etc.). Spohn riesce a renderne conto proprio perché ha a disposizione i rank numerici, che consentono un’analisi secondo cui a ciascun fattore causale è assegnato un preciso ruolo quantitativamente espresso, mentre la dottrina controfattuale è incapace di operare simili distinzioni (un controfattuale infatti è vero o falso, senza gradazioni). Il SESTO CAPITOLO si concentra sui modelli di spiegazione scientifica di Hempel e Salmon, e sulla nozione di causalità sviluppata da quest’ultimo, mettendo in luce soprattutto il ruolo (problematico) delle leggi di natura e degli enunciati controfattuali (a questo proposito sono prese in considerazione anche le famose critiche di Goodman e Chisholm). Proprio dalla riflessione su questi modelli infatti è scaturita la teoria di Gärdenfors, e tanto la dottrina del filosofo svedese quanto quella di Spohn possono essere viste come finalizzate a rendere conto della spiegazione scientifica confrontandosi con questi modelli meno recenti. Il SETTIMO CAPITOLO si concentra sull’analisi che la logica epistemica fornisce delle leggi di natura, che nel capitolo precedente sono ovviamente emerse come elemento fondamentale della spiegazione scientifica. Secondo Spohn le leggi sono innanzitutto proposizioni generali affermative, che sono credute in modo speciale. In primo luogo sono credute persistentemente, vale a dire, non sono mai messe in dubbio (tanto che se si incappa in una loro contro-istanza si va alla ricerca di una violazione della normalità che la giustifichi). In secondo luogo, guidano e fondano la credenza in altre credenze specifiche, che sono su di esse condizionalizzate (si riprendono, con nuovo rigore logico, le vecchie idee di Wittgenstein e di Ramsey e il concetto di legge come inference ticket). In terzo luogo sono generalizzazioni ricavate induttivamente: sono oggettivazioni di schemi induttivi. Questo capitolo si sofferma anche sulla teoria di legge offerta da Gärdenfors (analoga ma embrionale) e sull’analisi che Spohn fornisce della nozione di clausola ceteris paribus. L’OTTAVO CAPITOLO termina l’analisi cominciata con il sesto, considerando finalmente il modello epistemico della spiegazione scientifica. Si comincia dal modello di Gärdenfors, che si mostra essere minato da alcuni errori o comunque caratterizzato in modo non sufficientemente chiaro (soprattutto perché non fa ricorso, stranamente, al concetto di legge). Segue il modello di Spohn; secondo Spohn le spiegazioni scientifiche sono caratterizzate dal fatto che forniscono (o sono finalizzate a fornire) ragioni stabili, vale a dire, riconducono determinati fenomeni alle loro cause e tali cause sono credute in modo persistente. Con una dimostrazione logica molto dettagliata e di acutezza sorprendente Spohn argomenta che simili ragioni, nel lungo periodo, devono essere incontrate. La sua quindi non è solo una teoria della spiegazione scientifica che elabori un modello epistemico di che cosa succede quando un fenomeno è spiegato, ma anche una teoria dello sviluppo della scienza in generale, che incoraggia a perseguire la ricerca delle cause come necessariamente coronata da successo. Le OSSERVAZIONI CONCLUSIVE fanno il punto sulle teorie esposte e sul loro raffronto. E’ riconosciuta la superiorità della teoria di Spohn, di cui si mostra anche che raccoglie in pieno l’eredità costruttiva di Hume, al quale gli avversari si rifanno costantemente ma in modo frammentario. Si analizzano poi gli elementi delle teorie di Hempel e Salmon che hanno precorso l’impostazione epistemica. La teoria di Spohn non è esente però da alcuni punti ancora problematici. Innanzitutto, il ruolo della verità; in un primo tempo Spohn sembra rinunciare, come fa esplicitamente il suo predecessore, a trattare la verità, salvo poi invocarla quando si pone il grave problema dell’oggettivazione delle ranking functions (il problema si presenta poiché di esse inizialmente si dice che sono regole soggettive di giudizio e poi si identificano in parte con le leggi di natura). C’è poi la dottrina dei gradi di credenza che Spohn dice presentarsi “unitamente alle proposizioni” e che costituisce un inutile distacco dal realismo psicologico (critica consueta alla teoria): basterebbe osservare che i gradi di credenza sono ricavati o per condizionalizzazione automatica sulla base del tipo di fonte da cui una proposizione proviene, o per paragone immaginario con altre fonti (la maggiore o minore credenza infatti è un concetto relazionale: si crede di più o di meno “sulla base di…” o “rispetto a…”). Anche la trattazione delle leggi di natura è problematica; Spohn sostiene che sono ranking functions: a mio avviso invece esse concorrono a regole di giudizio, che prescrivono di impiegare le leggi stesse per valutare proposizioni o aspettative. Una legge di natura è un ingranaggio, per così dire, di una valutazione di certezza ma non si identifica totalmente con una legge di giudizio. I tre criteri che Spohn individua per distinguere le leggi poi non sono rispettati da tutte e sole le leggi stesse: la generalizzazione induttiva può anche dare adito a pregiudizi, e non di tutte le leggi si sono viste, individualmente, istanze ripetute tanto da giustificarle induttivamente. Infine, un episodio reale di storia della scienza come la scoperta della sintesi dell’urea da parte di F. Wöhler (1828 – ottenendo carbammide, organico, da due sostanze inorganiche, dimostra che non è vera la legge di natura fini a quel momento presunta tale secondo cui “sostanze organiche non possono essere ricavate da sostanze inorganiche”) è indice che le leggi di natura non sono sempre credute in modo persistente, cosicché per comprendere il momento della scoperta è pur sempre necessario rifarsi a una teoria di tipo popperiano, rispetto alla quale Spohn presenta invece la propria in assoluta antitesi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’uso frequente dei modelli predittivi per l’analisi di sistemi complessi, naturali o artificiali, sta cambiando il tradizionale approccio alle problematiche ambientali e di rischio. Il continuo miglioramento delle capacità di elaborazione dei computer facilita l’utilizzo e la risoluzione di metodi numerici basati su una discretizzazione spazio-temporale che permette una modellizzazione predittiva di sistemi reali complessi, riproducendo l’evoluzione dei loro patterns spaziali ed calcolando il grado di precisione della simulazione. In questa tesi presentiamo una applicazione di differenti metodi predittivi (Geomatico, Reti Neurali, Land Cover Modeler e Dinamica EGO) in un’area test del Petén, Guatemala. Durante gli ultimi decenni questa regione, inclusa nella Riserva di Biosfera Maya, ha conosciuto una rapida crescita demografica ed un’incontrollata pressione sulle sue risorse naturali. L’area test puó essere suddivisa in sotto-regioni caratterizzate da differenti dinamiche di uso del suolo. Comprendere e quantificare queste differenze permette una migliore approssimazione del sistema reale; é inoltre necessario integrare tutti i parametri fisici e socio-economici, per una rappresentazione più completa della complessità dell’impatto antropico. Data l’assenza di informazioni dettagliate sull’area di studio, quasi tutti i dati sono stati ricavati dall’elaborazione di 11 immagini ETM+, TM e SPOT; abbiamo poi realizzato un’analisi multitemporale dei cambi uso del suolo passati e costruito l’input per alimentare i modelli predittivi. I dati del 1998 e 2000 sono stati usati per la fase di calibrazione per simulare i cambiamenti nella copertura terrestre del 2003, scelta come data di riferimento per la validazione dei risultati. Quest’ultima permette di evidenziare le qualità ed i limiti per ogni modello nelle differenti sub-regioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La ricerca si propone d’indagare sul concetto di “congruità” riferito alle trasformazioni di specifici contesti urbani, e di definire quindi un metodo “non arbitrario” per la valutazione di opere esistenti o in progetto, al fine di riconoscerne il carattere di congruità o, al contrario, d’incongruità. Interventi d’inserimento e di trasformazione, alla scala del comparto urbanistico o anche alla scala edilizia, possono presentarsi come congrui o incongrui rispetto all’identità del luogo di appartenenza (organismo a scala urbana o territoriale). Congrua risulta l’opera che non si pone in (conclamato) contrasto rispetto ai caratteri identitari del contesto. Le definizioni d’incongruità e di opera incongrua, divengono il metro di giudizio del rapporto tra un intervento ed il suo contesto, e si applicano mediante una valutazione che sia metodologicamente fondata e verificata. La valutazione di congruità-incongruità può riferirsi a opere esistenti già realizzate, oppure a progetti di nuove opere; in questo secondo approccio il metodo di valutazione si configura come linea-guida per l’orientamento del progetto stesso in termini di congruità rispetto al contesto. In una fase iniziale la ricerca ha fissato i principi di base, con la definizione di ciò che deve intendersi per congruità e per profilo di congruità. La specifica di congruità, non potendosi basare su una consolidata letteratura (il concetto nei termini descritti è stato introdotto dalla legge 16/2002 della Regione Emilia-Romagna; la Regione stessa riconosce che il concetto è in fase di precisazione tramite sperimentazioni, studi e interventi pilota), muove dallo studio dei concetti di luogo, caratteri del luogo, identità del luogo, contesto urbano, trasformazione dell’ambiente costruito, tutela del patrimonio edilizio, sviluppo tipologico, e superfetazione incongrua. Questi concetti, pur mutuati da ambiti di ricerca affini, costituiscono i presupposti per la definizione di congruità delle trasformazioni di contesti urbani, rispetto all’identità del luogo, tramite la tutela e valorizzazione dei suoi caratteri tipologici costitutivi. Successivamente, la ricerca ha affrontato l’analisi di taluni casi-tipo di opere incongrue. A tale scopo sono stati scelti quattro casi-tipo d’interventi per rimozione di opere ritenute incongrue, indagando la metodologia di valutazione di congruità in essi applicata. Inoltre è stata sperimentata l’applicazione del metodo di valutazione per “categorie di alterazioni” tramite lo studio del centro storico di Reggio Emilia, assunto come contesto urbano campione. Lo studio analitico è sviluppato attraverso l’indagine del rapporto tra edifici e caratteri del contesto, individuando e classificando gli edifici ritenuti incongrui. Qui sono emersi i limiti del metodo di individuazione delle incongruità per categorie di alterazioni; di fatto le alterazioni definite a priori rispetto al contesto, determinano un giudizio arbitrario, in quanto disancorato dai caratteri del luogo. La definizione di ciò che è congruo o incongruo deve invece riferirsi a uno specifico contesto, e le alterazioni dei caratteri che rappresentano l’identità del luogo non possono definirsi a priori generalizzandone i concetti. Completando la ricerca nella direzione del risultato proposto, si è precisato il metodo di valutazione basato sulla coincidenza dei concetti di congruità e di pertinenza di fase, in rapporto allo sviluppo tipologico del contesto. La conoscenza del contesto nei suoi caratteri tipologici, è già metodo di valutazione: nella misura in cui sia possibile effettuare un confronto fra contesto ed opera da valutare. La valutazione non si pone come vincolo all’introduzione di nuove forme che possano rappresentare un’evoluzione dell’esistente, aggiornando il processo di sviluppo tipologico in relazione alle mutazioni del quadro esigenzialeprestazionale, ma piuttosto come barriera alle trasformazioni acritiche nei confronti del contesto, che si sovrappongano o ne cancellino inconsapevolmente i segni peculiari e identitari. In ultima analisi, ai fini dell’applicabilità dei concetti esposti, la ricerca indaga sulla convergenza tra metodo proposto e possibili procedure applicative; in questo senso chiarisce come sia auspicabile definire la congruità in relazione a procedure valutative aperte. Lo strumento urbanistico, inteso come sistema di piani alle diverse scale, è l’ambito idoneo a recepire la lettura della stratificazione dei segni indentitari rilevabili in un contesto; lettura che si attua tramite processi decisionali partecipati, al fine di estendere alla collettività la definizione d’identità culturale del luogo. La valutazione specifica di opere o progetti richiede quindi una procedura aperta, similmente alla procedura di valutazione in vigore presso le soprintendenze, basandosi sul concetto di responsabilità del progettista e del valutatore, in riferimento alla responsabilità della collettività, espressa invece nello strumento urbanistico. Infatti la valutazione di tipo oggettivo, basata sul riferimento a regolamenti o schemi precostituiti, confligge con il senso della valutazione metodologicamente fondata che, al contrario, è assunto teorico basilare della ricerca.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il tema della Logistica Urbana è un argomento complesso che coinvolge diverse discipline. Infatti, non è possibile affrontare la distribuzione delle merci da un solo punto di vista. Da un lato, infatti, manifesta l’esigenza della città e della società in generale di migliorare la qualità della vita anche attraverso azioni di contenimento del traffico, dell’inquinamento e degli sprechi energetici. A questo riguardo, è utile ricordare che il trasporto merci su gomma costituisce uno dei maggiori fattori di impatto su ambiente, sicurezza stradale e congestione della viabilità urbana. Dall’altro lato vi sono le esigenze di sviluppo economico e di crescita del territorio dalle quali non è possibile prescindere. In questa chiave, le applicazioni inerenti la logistica urbana si rivolgono alla ricerca di soluzioni bilanciate che possano arrecare benefici sociali ed economici al territorio anche attraverso progetti concertati tra i diversi attori coinvolti. Alla base di tali proposte di pratiche e progetti, si pone il concetto di esternalità inteso come l’insieme dei costi esterni sostenuti dalla società imputabili al trasporto, in particolare al trasporto merci su gomma. La valutazione di questi costi, che rappresentano spesso una misurazione qualitativa, è un argomento delicato in quanto, come è facile immaginare, non può essere frutto di misure dirette, ma deve essere dedotto attraverso meccanismi inferenziali. Tuttavia una corretta definizione delle esternalità definisce un importante punto di partenza per qualsiasi approccio al problema della Logistica Urbana. Tra gli altri fattori determinanti che sono stati esplorati con maggiore dettaglio nel testo integrale della tesi, va qui accennata l’importanza assunta dal cosiddetto Supply Chain Management nell’attuale assetto organizzativo industriale. Da esso dipendono approvvigionamenti di materie prime e consegne dei prodotti finiti, ma non solo. Il sistema stesso della distribuzione fa oggi parte di quei servizi che si integrano con la qualità del prodotto e dell’immagine della Azienda. L’importanza di questo settore è accentuata dal fatto che le evoluzioni del commercio e l’appiattimento dei differenziali tra i sistemi di produzione hanno portato agli estremi la competizione. In questa ottica, minimi vantaggi in termini di servizio e di qualità si traducono in enormi vantaggi in termini di competitività e di acquisizione di mercato. A questo si aggiunge una nuova logica di taglio dei costi che porta a ridurre le giacenze di magazzino accorciando la pipeline di produzione ai minimi termini in tutte le fasi di filiera. Naturalmente questo si traduce, al punto vendita in una quasi totale assenza di magazzino. Tecnicamente, il nuovo modello di approvvigionamento viene chiamato just-in-time. La ricerca che è stata sviluppata in questi tre anni di Dottorato, sotto la supervisione del Prof. Piero Secondini, ha portato ad un approfondimento di questi aspetti in una chiave di lettura ad ampio spettro. La ricerca si è quindi articolata in 5 fasi: 1. Ricognizione della letteratura italiana e straniera in materia di logistica e di logistica urbana; 2. Studio delle pratiche nazionali ed europee 3. Analisi delle esperienze realizzate e delle problematiche operative legate ai progetti sostenuti dalla Regione Emilia Romagna 4. Il caso di studio di Reggio Emilia e redazione di più proposte progettuali 5. Valutazione dei risultati e conclusioni Come prima cosa si è quindi studiata la letteratura in materia di Logistica Urbana a livello nazionale. Data la relativamente recente datazione dei primi approcci nazionali ed europei al problema, non erano presenti molti testi in lingua italiana. Per contro, la letteratura straniera si riferisce generalmente a sistemi urbani di dimensione e configurazione non confrontabili con le realtà nazionali. Ad esempio, una delle nazioni che hanno affrontato per prime tale tematica e sviluppato un certo numero di soluzioni è stata il Giappone. Naturalmente, città come Tokyo e Kyoto sono notevolmente diverse dalle città europee ed hanno necessità ed esigenze assai diverse. Pertanto, soluzioni tecnologiche e organizzative applicate in questi contesti sono per la maggior parte inattuabili nei contesti del vecchio continente. Le fonti che hanno costituito maggiore riferimento per lo sviluppo del costrutto teorico della tesi, quindi, sono state i saggi che la Regione Emilia Romagna ha prodotto in occasione dello sviluppo del progetto City Ports di cui la Regione stessa era coordinatore di numerosi partners nazionali ed europei. In ragione di questo progetto di ricerca internazionale, l’Emilia Romagna ha incluso il trattamento della logistica delle merci negli “Accordi di Programma per il miglioramento della qualità dell’aria” con le province ed i capoluoghi. In Questo modo si è posta l’attenzione sulla sensibilizzazione delle Pubbliche Amministrazioni locali verso la mobilità sostenibile anche nell’ambito di distribuzione urbana delle merci. Si noti infatti che l’impatto sulle esternalità dei veicoli leggeri per il trasporto merci, quelli cioè che si occupano del cosiddetto “ultimo miglio” sono di due ordini di grandezza superiori rispetto a quelli dei veicoli passeggeri. Nella seconda fase, la partecipazione a convegni di ambito regionale e nazionale ha permesso di arricchire le conoscenze delle best-practice attuate in Italia per lo sviluppo di strumenti finalizzati ad condividere i costi esterni della mobilità delle merci con gli operatori logistici. In questi contesti è stato possibile verificare la disponibilità di tre linee di azione sulle quali, all’interno del testo della tesi si farà riferimento molto spesso: - linea tecnologica; - linea amministrativa; - linea economico/finanziaria. Nel discutere di questa tematica, all’interno di questi contesti misti in cui partecipavano esponenti della cultura accademica, delle pubbliche amministrazioni e degli operatori, ci si è potuti confrontare con la complessità che il tema assume. La terza fase ha costituito la preparazione fondamentale allo studio del caso di studio. Come detto sopra, la Regione Emilia Romagna, all’interno degli Accordi di Programma con le Province, ha deliberato lo stanziamento di co-finanziamenti per lo sviluppo di progetti, integrati con le pratiche della mobilità, inerenti la distribuzione delle merci in città. Inizialmente, per tutti i capoluoghi di provincia, la misura 5.2 degli A.d.P. prevedeva la costruzione di un Centro di Distribuzione Urbana e l’individuazione di un gestore dei servizi resi dallo stesso. Successive considerazioni hanno poi portato a modifiche della misura lasciando una maggiore elasticità alle amministrazioni locali. Tramite una esperienza di ricerca parallela e compatibile con quella del Dottorato finanziata da un assegno di ricerca sostenuto dall’Azienda Consorziale Trasporti di Reggio Emilia, si è potuto partecipare a riunioni e seminari presentati dalla Regione Emilia Romagna in cui si è potuto prendere conoscenza delle proposte progettuali di tutte le province. L’esperienza di Reggio Emilia costituisce il caso di studio della tesi di Dottorato. Le molteplici problematiche che si sono affrontate si sono protratte per tempi lunghi che hanno visto anche modifiche consistenti nell’assetto della giunta e del consiglio comunali. Il fatto ha evidenziato l’ennesimo aspetto problematico legato al mantenimento del patrimonio conoscitivo acquisito, delle metodiche adottate e di mantenimento della coerenza dell’impostazione – in termini di finalità ed obiettivi – da parte dell’Amministrazione Pubblica. Essendo numerosi gli attori coinvolti, in un progetto di logistica urbana è determinante per la realizzazione e la riuscita del progetto che ogni fattore sia allineato e ben informato dell’evoluzione del progetto. In termini di programmazione economica e di pianificazione degli interventi, inoltre, la pubblica amministrazione deve essere estremamente coordinata internamente. Naturalmente, questi sono fattori determinanti per ogni progetto che riguarda le trasformazioni urbane e lo sviluppo delle città. In particolare, i diversi settori (assessorati) coinvolti su questa tematica, fanno o possno fare entrare in situazioni critiche e rischiose la solidità politica dello schieramento di maggioranza. Basti pensare che la distribuzione delle merci in città coinvolge gli assessorati della mobilità, del commercio, del centro storico, dell’ambiente, delle attività produttive. In funzione poi delle filiere che si ritiene di coinvolgere, anche la salute e la sicurezza posso partecipare al tavolo in quanto coinvolte rispettivamente nella distribuzione delle categorie merceologiche dei farmaci e nella security dei valori e della safety dei trasporti. L’esperienza di Reggio Emilia è stata una opportunità preziosissima da molteplici punti di vista. Innanzitutto ha dato modo di affrontare in termini pratici il problema, di constatare le difficoltà obiettive, ad esempio nella concertazione tra gli attori coinvolti, di verificare gli aspetti convergenti su questo tema. Non ultimo in termini di importanza, la relazione tra la sostenibilità economica del progetto in relazione alle esigenze degli operatori commerciali e produttivi che ne configurano gli spazi di azione. Le conclusioni del lavoro sono molteplici. Da quelle già accennate relative alla individuazione delle criticità e dei rischi a quelle dei punti di forza delle diverse soluzioni. Si sono affrontate, all’interno del testo, le problematiche più evidenti cercando di darne una lettura costruttiva. Si sono evidenziate anche le situazioni da evitare nel percorso di concertazione e si è proposto, in tal proposito, un assetto organizzativo efficiente. Si è presentato inoltre un modello di costruzione del progetto sulla base anche di una valutazione economica dei risultati per quanto riguarda il Business Plan del gestore in rapporto con gli investimenti della P.A.. Si sono descritti diversi modelli di ordinanza comunale per la regolamentazione della circolazione dei mezzi leggeri per la distribuzione delle merci in centro storico con una valutazione comparativa di meriti ed impatti negativi delle stesse. Sono inoltre state valutate alcune combinazioni di rapporto tra il risparmio in termini di costi esterni ed i possibili interventi economico finanziario. Infine si è analizzato il metodo City Ports evidenziando punti di forza e di debolezza emersi nelle esperienze applicative studiate.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’analisi condotta nella tesi mira ad indagare le determinanti del debito delle piccole e medie imprese italiane: la domanda di ricerca è indirizzata a capire se la struttura finanziaria di queste ultime segue i modelli teorici sviluppati nell’ambito della letteratura di Corporate Finance o se, d’altro canto, non sia possibile prescindere dalle peculiarità delle piccole e medie imprese per spiegare il ricorso alle diverse fonti di finanziamento. La ricerca empirica effettuata nella dissertazione vuole essere un tentativo di coniugare le teorie di riferimento e le evidenze empiriche relative alle piccole e medie imprese italiane, analizzandone il comportamento attraverso lo studio del campione di dati fornito da Capitalia, relativo alla Nona Indagine per il periodo 2001-2003. Il campione in oggetto fa riferimento a circa 4000 imprese con più di 10 addetti, prevalentemente del settore manifatturiero. Per indagare le determinanti del debito nelle sue componenti più tradizionali, si sono prese in considerazione il debito commerciale e il debito bancario a breve termine come forme di finanziamento correnti mentre, tra le forme di finanziamento di medio-lungo periodo, le variabili usate sono state il ricorso al debito bancario a lungo termine e a strumenti obbligazionari. Inoltre, si è ricorso anche a misure più tradizionali di leva finanziaria, quali il rapporto di indebitamento, la proporzione tra debiti bancari, sia di breve che di lungo periodo, e l’ammontare dei finanziamenti esterni rispetto al valore dell’impresa, distinguendo anche qui, tra finanziamenti a breve e a lungo termine. L’analisi descrittiva ha mostrato il massiccio ricorso al debito bancario e, in generale, alle forme di indebitamento a breve. Le imprese di dimensioni minori, più giovani e opache tendono a ricorrere alle fonti interne e a forme di indebitamento a breve, mentre le imprese maggiormente dimensionate mostrano una struttura del debito più articolata. Questo ha suggerito la definizione di una diversa misura di debito, che tiene conto della complessità della sua struttura all’interno delle imprese, in base ad un ricorso di tipo gerarchico alle fonti di finanziamento: il grado di complessità dipende dalle tipologie e dalla quantità dei contratti di debito conclusi dall’impresa . E’ plausibile pensare che le imprese ricorrano prima alle fonti interne di finanziamento, perché prive di costi, e poi all’indebitamento nei confronti di diversi stakeholders: rispetto alla prossimità e alla facilità dell’ottenimento del finanziamento, è sembrato naturale pensare che un’impresa ricorra dapprima al debito commerciale, poi al debito bancario e solo infine all’emissione di obbligazioni, in un ordine gerarchico. Ne consegue che se un’impresa (non) ha contratto debiti con fornitori, banche e mercato, la complessità della struttura del suo debito è massima (nulla). L’analisi econometrica successiva è stata indirizzata in tre direzioni. In primis, l’analisi longitudinale dei dati è stata volta ad evidenziare se la struttura finanziaria delle PMI risponde ad un particolare modello teorico, in accordo con le teoria tradizionali di riferimento. In secondo luogo, l’analisi delle determinanti si è allargata allo studio degli aspetti peculiari delle imprese medio-piccole. Infine, si è indagato se, nell’ambito delle imprese di dimensioni minori, si osservano comportamenti omogenei oppure se determinate scelte nelle fonti di finanziamento sono da ricondurre all’esistenza di alcuni vincoli. Quindi, partendo dalla rassegna dei principali riferimenti nella letteratura, costituiti dalla Trade-off theory (Modigliani e Miller, 1963, De Angelo e Masulis, 1980, Miller, 1977), dalla Pecking order theory (Myers 1984, Myers e Majluf, 1984) e dalla Financial growth cycle theory (Berger e Udell, 1998), una prima serie di analisi econometriche è stata rivolta alla verifica empirica delle teorie suddette. Una seconda analisi mira, invece, a capire se il comportamento delle imprese possa essere spiegato anche da altri fattori: il modello del ciclo di vita dell’impresa, mutuato dalle discipline manageriali, così come il contesto italiano e la particolarità del rapporto bancaimpresa, hanno suggerito l’analisi di altre determinanti al ricorso delle diverse fonti di debito. Di conseguenza, si sono usate delle opportune analisi econometriche per evidenziare se la struttura proprietaria e di controllo dell’impresa, il suo livello di complessità organizzativa possano incidere sulla struttura del debito delle imprese. Poi, si è indagato se il massiccio ricorso al debito bancario è spiegato dalle peculiarità del rapporto banca-impresa nel nostro Paese, rintracciabili nei fenomeni tipici del relationship lending e del multiaffidamento. Ancora, si sono verificati i possibili effetti di tale rapporto sulla complessità della struttura del debito delle imprese. Infine, l’analisi della letteratura recente sulla capital structure delle imprese, l’approccio sviluppato da Fazzari Hubbard e Petersen (1988) e Almeida e Campello (2006 , 2007) ha suggerito un ultimo livello di analisi. La presenza di vincoli nelle decisioni di finanziamento, legati essenzialmente alla profittabilità, alla dimensione delle imprese, alle sue opportunità di crescita, e alla reputazione verso l’esterno, secondo la letteratura recente, è cruciale nell’analisi delle differenze sistematiche di comportamento delle imprese. Per di più, all’interno del lavoro di tesi, così come in Almeida e Campello (2007), si è ipotizzato che la propensione agli investimenti possa essere considerata un fattore endogeno rispetto alla struttura del debito delle imprese, non esogeno come la letteratura tradizionale vuole. Per questo motivo, si è proceduto ad un ultimo tipo di analisi econometrica, volta a rilevare possibili differenze significative nel comportamento delle imprese rispetto al ricorso alle fonti di finanziamento a titolo di debito: nel caso in cui esse presentino una dimensione contenuta, una bassa redditività e una scarsa reputazione all’esterno infatti, vi dovrebbe essere un effetto di complementarietà tra fonti interne ed esterne. L’effetto sarebbe tale per cui non sussisterebbe, o per lo meno non sarebbe significativa, una relazione negativa tra fonti interne ed esterne. Complessivamente, i risultati delle analisi empiriche condotte, supportano sia le teorie classiche di riferimento nell’ambito della disciplina della Corporate finance, sia la teoria proposta da Berger e Udell (1998): le variabili che risultano significative nella spiegazione della struttura del debito sono principalmente quelle relative alla dimensione, all’età, al livello e alla qualità delle informazioni disponibili. Inoltre, il ricorso a fonti interne risulta essere la primaria fonte di finanziamento, seguita dal debito. Il ricorso a fonti esterne, in particolare al debito bancario, aumenta quanto più l’impresa cresce, ha una struttura solida e la capacità di fornire delle garanzie, e ha una reputazione forte. La struttura del debito, peraltro, diventa più complessa all’aumentare della dimensione, dell’età e del livello di informazioni disponibili. L’analisi della struttura proprietaria e della componente organizzativa all’interno delle imprese ha evidenziato principalmente che la struttura del debito aumenta di complessità con maggiore probabilità se la proprietà è diffusa, se vi è un management indipendente e se la piramide organizzativa è ben definita. Relativamente al rapporto banca-impresa, i principali risultati mostrano che l’indebitamento bancario sembra essere favorito dai fenomeni di relationship lending e dal multiaffidamento. Tali peculiarità assumono tratti diversi a seconda della fase del ciclo di vita delle imprese della Nona Indagine. Infine, per quanto attiene all’ultima tipologia di analisi condotta, le evidenze empiriche suggeriscono che le piccole e medie imprese possano essere soggette a delle restrizioni che si riflettono nell’ambito delle loro politiche di investimento. Tali vincoli, relativi alla dimensione, ai profitti conseguiti e alla reputazione all’esterno, aiutano a spiegare le scelte di finanziamento delle PMI del campione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'Appenino Emiliano è tra le zone più franose al mondo; i fenomeni che la interessano sono abbastanza lenti e quindi mai catastrofici, ma, vista la loro diffusione, molto dannosi per le infrastrutture. La ricerca della pericolosità associata alle frane si distingue in previsione spaziale e previsione temporale; la prima, detta anche suscettività, è il tema del presente lavoro. La suscettività è volta alla realizzazione di carte di propensione al dissesto, relative e indipendenti dal tempo. Dall'inizio degli anni '90 sono disponibili in letteratura diversi modelli per rispondere a questa esigenza, i quali sono generalmente costituiti da una componente geo-meccanica (di solito il modello del Pendio Infinito) e una idrologica. Il presente lavoro si concentra su quest'ultima che, nei diversi modelli, presenta la maggiore varietà, e cerca di capire quale sia il contributo che questa componente può dare all'analisi di suscettività in un'area argillosa. Per valutare questo contributo, sono stati applicati ad un'area di studio rappresentativa, diversi modelli fisicamente basati noti in letteratura o creati appositamente. Le informazioni dinamiche dei modelli transitori sono state integrate nel tempo secondo diversi metodi che tengono conto della permanenza delle condizioni critiche nel versante. I risultati dell'analisi suggeriscono che, nell'area di studio, e presumibilmente nelle aree a prevalenza argillosa in genere, per la determinazione della suscettività alle frane, il contributo di un modello fisicamente basato, completo di componente geo-meccanica e componente idrologica accoppiate, è assolutamente trascurabile rispetto ad un semplice modello geo-meccanico basato sulla sola pendenza come quello del Pendio Infinito. Le indicazioni provenienti da un modello completo possono essere ridondanti o addirittura fuorvianti se questo non è adatto alle caratteristiche dell'area in studio e ben calibrato.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo studio “Lotta biologica a Fusarium solani f.sp. cucurbitae su zucchino” si colloca nell’ambito della difesa integrata delle colture orticole dalle fitopatie fungine, in particolare quelle causate da patogeni ad habitat terricolo nei confronti dei quali è sempre più frequente il ricorso a mezzi di lotta diversi dai prodotti chimici. Interessante e innovativa appare la prospettiva di utilizzare microrganismi adatti a svilupparsi nel suolo, competenti per la rizosfera delle piante e con spiccate caratteristiche d’antagonismo verso i patogeni tellurici e di stimolazione delle difese sistemiche della pianta. Il marciume del colletto delle cucurbitacee, causato da diversi patogeni tra cui Fusarium solani f.sp. cucurbitae, rappresenta la principale malattia fungina di tipo tellurica che colpisce lo zucchino ed il melone nella Pianura Padana e che può portare a consistenti perdite produttive. Indagini condotte dal 2004 da parte del Diproval nell’areale bolognese, hanno evidenziato un’elevata frequenza del patogeno su zucchino coltivato soprattutto in tunnel. Considerata la carenza di conoscenze locali di F. solani f.sp. cucurbitae e di mezzi chimici di lotta efficaci, la ricerca svolta ha inteso approfondire la diagnosi della malattia e le caratteristiche biologiche degli isolati locali, e valutare la possibilità di utilizzare metodi biologici di lotta contro questo patogeno, nonché di studiare alcune delle possibili modalità d’azione di microrganismi antagonisti. Sono state pertanto prelevate, da zone diverse del Bolognese, campioni di piante di zucchino che presentavano sintomi di marciume del colletto ed è stato isolato il patogeno, che in base alle caratteristiche morfologiche macro e microscopiche, alle prove di patogenicità su diversi ospiti e a saggi biomolecolari, è stato identificato come Fusarium solani f. sp. cucurbitae W.C. Snyder & H.N. Hansen razza 1. Dagli isolati di campo sono state realizzate un centinaio di colture monosporiche venti delle quali sono state utilizzate per la prosecuzione delle prove. I venti ceppi sono stati saggiati per la loro patogenicità inoculandoli in terriccio sterile e con trapianto di giovani piante di zucchino. E’ risultata un’elevata variabilità del livello di virulenza tra i ceppi, stimata da 39% a 83% riguardo la gravità della malattia e da 61 a 96% per la frequenza di malattia. Sono state condotte prove di accrescimento miceliare che hanno evidenziato differenze tra i ceppi e tra gli esperimenti condotti a tre diverse temperature (17, 23 e 28°C) alla luce ed al buio. La crescita maggiore complessivamente è stata ottenuta a 23°C. I venti ceppi hanno anche mostrato di produrre, in vitro, vari livelli di enzimi di patogenesi quali cellulasi, poligalatturonasi, pectin liasi e proteasi. E’ stata evidenziata unan correlazione significativa tra attività cellulasica e pectin liasica con frequenza e gravità della malattia dei venti ceppi del patogeno. Le prove relative al contenimento della malattia sono state condotte in cella climatica. Sono stati considerati prodotti commerciali (Remedier, Rootshield, Cedomon, Mycostop, Proradix, Clonotry) a base rispettivamente dei seguenti microrganismi: Trichoderma harzianum ICC012 + T. viride ICC080, T. harzianum T22, Pseudomonas chlororaphis MA342, Streptomyces griseoviridis K61, P. fluorescens proradix DSM13134 e T. harzianum + Clonostachys rosea). I prodotti sono stati somministrati sul seme, al terreno e su seme+terreno (esperimenti 1 e 2) e in vivaio, al trapianto e vivaio+trapianto (esperimenti 3 e 4), riproducendo situazioni di pratico impiego. L’inoculazione del patogeno (un ceppo ad elevata patogenicità, Fs7 ed uno a bassa patogenicità, Fs37) è stata effettuata nel terreno distribuendo uno sfarinato secco di semi di miglio e cereali colonizzati dal patogeno. La malattia è stata valutata come intensità e gravità. I prodotti sono stati impiegati in situazioni di particolare stress, avendo favorito particolarmente la crescita del patogeno. Complessivamente i risultati hanno evidenziato effetti di contenimento maggiore della malattia nel caso del ceppo Fs37, meno virulento. La malattia è stata ridotta quasi sempre da tutti i formulati e quello che l’ha ridotta maggiormente è stato Cedomon. Il contenimento della malattia somministrando i prodotti solo nel terreno di semina o di trapianto è stato in generale quello più basso. Il contenimento più elevato è stato ottenuto con la combinazione di due tipologie di trattamento, seme+terreno e vivaio+trapianto. Le differenze tra i prodotti sono risultate più evidenti nel caso del ceppo Fs7. Per quanto riguarda lo studio di alcune delle modalità d’azione dei microrganismi contenuti nei formulati più efficaci, è stato verificato che tutti sono stati in grado di inibire, se pur in vario modo, la crescita del patogeno in vitro. Gli antagonisti più efficaci sono stati S. griseoviridis K61 (Mycostop) e P. fluorescens proradix DSM13134). I ceppi di Trichoderma, ed in particolare T.harzianum T22 (Rootshield), sono risultati i più attivi colonizzatori del substrato. Riguardo il fenomeno dell’antibiosi, il batterio P. fluorescens proradix DSM13134 ha mostrato di produrre i metaboliti non volatili più efficaci nel ridurre lo sviluppo del patogeno. Nelle condizioni sperimentali adottate anche i due ceppi di T. viride ICC080 e T. harzianum ICC012 hanno dimostrato di produrre metaboliti efficaci. Tali risultati, anche se relativi a prove in vitro, possono contribuire alla comprensione dei meccanismi dei microrganismi sul contenimento dell’infezione relativamente al rapporto diretto sul patogeno. E’ stato inoltre verificato che tutti i microrganismi saggiati sono dotati di competenza rizosferica e solo i batteri di endofitismo. Si conclude che, nonostante l’elevata pressione infettiva del patogeno che ha certamente influito negativamente sull’efficacia dei microrganismi studiati, i microrganismi antagonisti possono avere un ruolo nel ridurre l’infezione di F. solani f.sp. cucurbitae razza 1.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nella ricerca condotta sulle Osservazioni muratoriane alle Rime petrarchesche, si è tentato di mettere in luce la ‘scienza del commento’, ad esse sottesa, cui contribuivano gli snodi teorici, l’accertamento filologico, le strategie argomentative, i debiti esegetici. Tra difesa e riforma della poesia, il commento muratoriano si pone infatti, in piena età arcadica, al vertice della coniunctio tra esigenza conoscitiva e visione morale. Il «buon cammino» del Muratori, passando per le vie del Petrarca, sanciva di fatto una superiore giurisdizione letteraria, a cui rimettere come ad un foro esterno, censure e difese: colpisce, infatti, il suo vaglio tecnico-argomentativo delle Rime del Petrarca, valutate secondo concordanze, rinvii a commenti storici, connessioni intertestuali, analogie contenutistiche e stilistiche, struttura metrica, uso delle immagini di fantasia e loro mescidazione rispetto al verosimile. È insomma l’idea di un commento ‘ben proporzionato’, situato oltretutto in una zona di percorrenza mista, tra riuso e canonizzazione (come dimostra la sua ricezione nelle storiografie letterarie della seconda metà del XVIII secolo), diviso tra attenzione all’usus scribendi dell’autore e appelli collaborativi al lettore, quello che, grazie al Muratori, in piena età arcadica, riporterà al centro il petrarchismo: un petrarchismo potenziato, promosso ad insegnamento attivo e a sistema storicocritico che il buon gusto ridisegnava secondo nuove coperture normative ed esigenze metodologiche, ordinandolo, secondo uno stilema tipico della riflessione filosofico-religiosa muratoriana, ad una ‘regolata lettura’.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La valutazione progressiva e il monitoraggio di una ferita difficile impongono misurazioni periodiche per valutare in modo qualitativo e quantitativo l'esistenza e l'entita della riepitelizzazione in rapporto alle pratiche terapeutiche effettuate. L'entità della guarigione nei primi 1530 giorni di trattamento, intesa come riduzione di area percentuale, nelle lesioni ulcerative di origine venosa permette secondo alcuni autori della letteratura scientifica, di avere delle informazioni prognostiche di guarigione completa a sei mesi. Altri autori invece mostrano casistiche analoghe indicando come nelle ulcere venose non si possa predire con facilità la guarigione a sei mesi.Le metodiche di misurazione delle ferite possono essere suddivise in bidimensionali e tridimensionali: nel primo gruppo troviamo la misurazione semplice, le metodiche di tracciamento, planimetria, analisi fotografica analogica e digitale. Queste metodiche misurano i diametri, il perimetro e l'area delle ferite. Nel secondo gruppo si collocano l'uso di righello Kundin, le metodiche di riempimento con alginato o con soluzione fisiologica, le metodiche stereofotogrammetriche e l'uso di strumenti laser. Queste metodiche permettono di calcolare con varie approssimazioni anche il volume delle ferite studiate. La tesi ha preso in esame un gruppo di 17 pazienti affetti da ulcere venose croniche effettuando misurazioni con lo strumento più accurato e preciso disponibile (minolta Vivid 900 laser + sensore) e acquisendo i dati con il software Derma. I pazienti sono stati misurati al primo accesso in ambulatorio, dopo 15 giorni e dopo sei mesi. Sono stati acquisiti i dati di area, perimetro, volume, profondità e guarigione a 6 mesi. L'analisi statistica condotta con modalità non parametriche di analisi dei ranghi non ha associato nessuno di questi valori ne' valori derivati ( delta V /delta A; Delta V/ Delta P) alla guarigione a 6 mesi. Secondo le analisi da noi effettuate, sebbene con l'incertezza derivata da un gruppo ridotto di pazienti, la guarigione delle lesioni ulcerative venose non è predicibile a 6 mesi utilizzando sistemi di misurazione di dimensioni, area e volume.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Affrontare l’analisi critica delle traduzioni italiane di Un amour de Swann di Marcel Proust implica necessariamente un attento esame dello stile esemplare di un autore, che ha modificato, in larga misura, la concezione del romanzo e della scrittura stessa; in secondo luogo significa considerare l’altrettanto complesso lavorio intellettuale rappresentato dalla traduzione, in qualità di atto critico fondamentale. Prenderemo in esame nel capitolo primo la genesi del TP, le sue specificità narratologiche e la ricezione critica francese e italiana, per comprendere appieno l’originalità di Proust rispetto al panorama letterario dell’epoca. Nella seconda parte del primo capitolo delineeremo un excursus lungo la storia di tutte le traduzioni italiane del romanzo, accordando particolare attenzione alla figura di ogni traduttore: Natalia Ginzburg (1946), Bruno Schacherl (1946), Armando Landini (1946), Oreste Del Buono (1965), Giovanni Raboni (1978), Maria Teresa Nessi Somaini (1981), Gianna Tornabuoni (1988), Eurialo De Michelis (1990) e il traduttore, rimasto anonimo, della casa editrice La Spiga Languages (1995). Nel secondo capitolo analizzeremo la peculiarità stilistica più nota dell’autore, la sintassi. I lunghi periodi complicati da un intreccio di subordinate e sciolti solo con il ricorso a vari nessi sintattici contribuiscono a rendere la sintassi proustiana una delle sfide maggiori in sede traduttiva. Nel capitolo successivo accorderemo attenzione all’eteroglossia enunciativa, espressa nei diversi idioletti del romanzo. In sede contrastiva affronteremo la questione della trasposizione dei niveaux de langue, per poter valutare le scelte intraprese dai traduttori in un ambito altamente complesso, a causa della diversità diafasica intrinseca dei due codici. All’interno del medesimo capitolo apriremo una parentesi sulla specificità di una traduzione, quella di Giacomo Debenedetti, effettuata seguendo una personale esegesi dello stile musicale e armonico di Proust. Riserveremo al capitolo quarto lo studio del linguaggio figurato, soffermandoci sull’analisi delle espressioni idiomatiche, che vengono impiegate frequentemente da alcuni personaggi. Rivolgeremo uno sguardo d’insieme alle strategie messe in atto dai traduttori, per cercare un equivalente idiomatico o per ricreare il medesimo impatto nel lettore, qualora vi siano casi di anisomorfismo. Analizzeremo nel quinto capitolo la terminologia della moda, confrontando il lessico impiegato nel TP con le soluzioni adottate nei TA, e aprendo, inevitabilmente, una parentesi sulla terminologia storica del settore. A compimento del lavoro presenteremo la nostra proposta traduttiva di un capitolo tratto dal saggio Proust et le style di Jean Milly, per mettere in luce, tramite la sua parola autorevole, la genialità e la complessità della scrittura proustiana e, conseguentemente, il compito ardimentoso e ammirevole che è stato richiesto ai traduttori italiani.