911 resultados para Motori a combustione interna, Simulazione, Metodo delle caratteristiche, Sovralimentazione
Resumo:
Lo scopo del Progetto Extreme Energy Events (EEE) e` di studiare raggi cosmici di energia estrema, eventi molto rari ma ricchi di informazioni. La grande difficolta` nell'affrontare la fisica dei raggi cosmici di altissima energia risiede nel flusso estremamente basso con cui tali particelle giungono sulla terra. Si utilizzano infatti reti molto estese di rivelatori: le informazioni che si possono ricavare derivano dalla rivelazione delle particelle secondarie prodotte nello sviluppo di sciami estesi di raggi cosmici primari che interagiscono con l'atmosfera terrestre. Il Progetto EEE prevede di dislocare su tutto il territorio italiano un array di telescopi (costituiti da Multi Gap Resistive Plate Chambers) per raggi cosmici secondari. Il lavoro presentato riguarda la simulazione Monte Carlo degli sciami e lo studio delle loro caratteristiche, la simulazione delle prestazioni di griglie di rivelazione differenti ed infine l'analisi dei primi dati raccolti nei telescopi di Bologna, con il conseguente confronto con la simulazione.
Resumo:
La tossicità delle polveri atmosferiche è associata sia alla natura granulometrica sia al carico di contaminanti, da qui la necessità di investigare oltre la concentrazione delle PM in atmosfera anche la loro composizione chimica. In questo studio è stata effettuata una prima caratterizzazione da un punto di vista sia granulometrico che chimico del particolato atmosferico campionato in una zona suburbana di Riccione (Castello degli Agolanti). In particolare sono state determinate le concentrazioni di metalli quali Pb, Cd, Ni, Zn, Cu, Fe e Al nel PM 2,5 PM 10 e PM totale. Inoltre, dato che uno degli scopi dello studio è quello di verificare il contributo della combustione di biomasse sul carico complessivo di contaminanti, il periodo di campionamento comprende il giorno delle Fogheracce, festa popolare in cui vengono accesi diversi falò all’aperto. Complessivamente sono stati prelevati 13 campioni di 48 ore per ogni frazione granulometrica dal 9 Marzo all’8 Aprile 2011. Dallo studio emerge che nel periodo di campionamento, mediamente il contributo antropogenico è dominante per Pb, Cd, Ni Cu e Zn dovuto principalmente al traffico veicolare. Tali metalli, ad eccezione del Cu infatti si concentrano nel particolato più fine. Al e Fe invece sono principalmente marker delle emissioni crostali e si concentrano nella frazione grossolana. Interessante quanto registrato nella giornata delle Fogheracce. Oltre ad una variazione nel contenuto relativo dei metalli con un forte arricchimento di Pb e Al, per quest’ultimo si nota anche un forte incremento della sua concentrazione nella frazione PM2.5 ad indicare una diversa sorgente emissiva. Si evidenzia in questo studio un importante contributo nel carico di inquinanti da parte di combustioni di biomasse all’aperto.
Resumo:
La tesi compie un'analisi sul ruolo della cooperazione nei mercati esteri, focalizzandosi, da un lato, sullo studio dei flussi di export nei settori dell'agroalimentare caratterizzati da una forte presenza cooperativa e, dall'altro, sulle caratteristiche di struttura ed i comportamenti delle imprese cooperative esportatrici e non esportatrici. A tal fine è stata realizzata un'indagine diretta che ha coinvolto un campione di 516 cooperative agroalimentari, delle quali 162 esportatrici e 354 non esportatrici. Sulla base dei risultati dell'indagine è stato possibile analizzare le caratteristiche strutturali ed i comportamenti delle cooperative non esportatrici ed esportatrici, focalizzandosi successivamente sulle modalità di accesso al mercato estero delle cooperative esportatrici ed infine approfondendo le motivazioni che ostacolano l'export nelle cooperative non esportatrici.
Resumo:
Il problema affrontato nel lavoro riguarda l'allocazione della spesa tra gruppi di beni alimentari (domestici ed extra-domestici) e le modificazioni che tale allocazione ha subito nell’arco dell’ultimo decennio. L’obiettivo principale dell'analisi proposta è, quindi, di spiegare come variazioni della quota di spesa destinata alle componenti del consumo alimentare siano attribuibili a fattori strettamente economici, oltre che alle caratteristiche struttura socio-demografiche dei consumatori. Allo scopo di valutare l’allocazione inter-temporale della spesa individuale viene proposto come schema di analisi il sistema di domanda Almost Ideal di Deaton e Muellbauer (AIDS).
Resumo:
Le vesti e le insegne degli imperatori nonché degli alti dignitari, sono ornate e “appesantite” da pietre preziose, lì disposte non a caso. Esse spesso divengono emblemi dei personaggi che le portano e offrono loro virtù e qualità che spesso si ricollegano anche a caratteristiche di alto valore ideologico. Già dai tempi pre-biblici le pietre sono considerate creature vive, messe in corrispondenza con gli astri, secondo la dottrina della simpathia. Questa concezione perdura anche nel Medioevo: infatti, nei vari lapidari vi sono pietre capaci di generare, e pietre “incinte”; esistono pietre dalle virtù talismaniche e taumaturgiche; altre guariscono, allontanano i mali, ottengono il favore dei potenti, consentono di portare a felice compimento tutto quel che si intraprende; rendono eloquenti, simpatici, graditi. Tornando all’ambito imperiale, l’imperatore per governare deve manifestare qualità che vengono condivise anche da Dio, quali la filantrophia, l’eunomia; rispettare la taxis; essere capace di autocontrollo; mostrare pietà; essere filocristos, vittorioso, misericordioso; essere temperante e giusto. Alcune di queste qualità gli vengono offerte anche dall’uso delle pietre preziose; così ad esempio il diamante dà forza e coraggio: preserva l’integrità del carattere e la buona fede; il rubino allude alla fiamma della carità; lo zaffiro è simbolo della ricchezza e dei cieli, custode dell’innocenza e della verità; lo smeraldo è anche esso simbolo della fede e allude simbolicamente alla capacità di intuire e trasmettere il messaggio divino propria del personaggio che ne è adornato. Le fonti prese in esame anche se vengono separate da un’arco di tempo grande e non rispecchiano un limite cronologico fisso, neccessario per ogni ricerca, tuttavia permettono di delineare il percorso evolutivo delle virtù delle gemme attraverso i secoli; e quindi di avere un’ idea molto più chiara sulla concezione delle pietre stesse, e su come, col passare degli anni, queste virtù si evolvono o svaniscono.
Resumo:
Non può dirsi ancora raggiunta una completa, appagante e condivisa definizione di criminalità organizzata: eppure tale concetto viene ampiamente utilizzato, entrando nel linguaggio comune e –soprattutto- in quello normativo e giurisprudenziale. Attraverso il susseguirsi di numerosi interventi legislativi, abbiamo assistito alla progressiva elaborazione del c.d. doppio binario: di una normativa, cioè, ad hoc per i reati di criminalità organizzata, caratterizzata da un rilevante arretramento delle ordinarie soglie di garanzia previste dall’ordinamento giuridico. Alla luce di prioritarie esigenze di legalità si giustifica l’impellente necessità di giungere alla elaborazione di una precisa definizione di criminalità organizzata. A tale fine, nel corso del presente lavoro, sono stati esaminati i principali approcci definitori individuati a livello socio-criminologico, giurisprudenziale ed in ambito normativo, con particolare attenzione al diritto penale e processual-penalistico; si è inoltre proceduto all’analisi delle principali definizioni riscontrabili a livello comunitario ed internazionale.
Resumo:
Lo scopo di questa tesi di dottorato di ricerca consiste nel fornire la giusta collocazione della manutenzione fra le discipline dell'ingegneria, raccogliendo e formalizzando le metodologie di analisi di affidabilità e di pianificazione degli interventi all'interno di un unico processo di progettazione e di controllo. In linea di principio, un processo di analisi dei guasti e di programmazione della manutenzione deve essere in grado di fornire chiare e sicure risposte ai seguenti interrogativi: Quali sono le funzioni richieste e con quali criteri di prestazioni il sistema è chiamato ad assolverle? Qual'è l'andamento della disponibilità del sistema in funzione del tempo? Quanti guasti e di quale tipo si possono verificare durante la vita del sistema? Quali possono essere le conseguenze che ledono la sicurezza e la protezione ambientale? Quanti pezzi di ricambio sono necessari? Che tipo di interventi di manutenzione preventiva risultano tecnicamente fattibili? A quali scadenze devono essere programmati? A quanto ammonta la previsione del costo di esercizio del sistema? Quante squadre di manutenzione devono essere assegnate al sistema? Come deve essere organizzata la logistica di manutenzione? Con quali tecniche si prevede di riconoscere i guasti e quali procedure devono essere attivate per farvi fronte? E' possibile implementare tecniche di `condition monitoring' delle macchine? Su quali tempi di preavviso sui guasti si può contare? In tal senso, la manutenzione necessita delle tecniche e degli opportuni strumenti che siano in grado di misurarne l'efficacia e l'efficienza. L'efficacia in primo luogo, in quanto l'obiettivo principe consiste nel garantire che il sistema oggetto di studio continui a svolgere le proprie funzioni nei limiti di prestazioni accettabili, secondo le specifiche richieste degli utilizzatori. L'efficienza in secondo luogo, ma non per questo di minore importanza, in quanto perseguendo l'obiettivo di cui sopra, occorre impegnare il minimo di risorse possibili, organizzando con razionalità il supporto logistico del sistema al fine di raggiungere i massimi livelli di rendimento di gestione. La migliore strategia di manutenzione può essere pianificata, a priori, solo se si è in grado di prevedere con la necessaria precisione l'evoluzione del sistema nel suo contesto operativo futuro. E' allora possibile formulare un modello matematico del sistema, studiarne la dinamica ed osservare le reazioni alla simulazione di eventuali stimoli esterni. I metodi ed i modelli noti dell'ingegneria dei sistemi possono essere molto utili per la risoluzione di casi semplici, ma sovente richiedono la formulazione di ipotesi troppo restrittive che aumentano in modo inaccettabile la distanza del modello dalla realtà. Una strada alternativa ed affascinante, che ho percorso con entusiasmo durante questi tre anni di studi e ricerca, consiste nella simulazione numerica della vita del sistema, utilizzando il metodo Monte Carlo per la gestione dei processi stocastici di guasto e per l'esecuzione degli interventi di manutenzione. Ho quindi messo a punto il codice di simulazione RAMSES, perseguendo l'idea di costruire uno strumento di misura dell'efficacia e dell'efficienza di una politica di manutenzione simulata al calcolatore. Nella tesi si presentano i concetti di base dell'ingegneria dei sistemi applicata al caso della manutenzione e si introduce il formalismo della Reliability Centred Maintenance come miglior guida nella pianificazione delle schede di manutenzione. Si introducono le nozioni di base per fornire una struttura solida e corretta alla simulazione numerica dei sistemi riparabili e si presenta il codice RAMSES corredando le informazioni tecniche con i dovuti esempi ed applicazioni pratiche. Si conclude il lavoro, infine, con la presentazione di un modello di massima verosimiglianza particolarmente utile per le analisi dei dati sperimentali di guasto dei componenti.
Resumo:
La ricerca ha per oggetto la messa a punto e applicazione di un approccio metaprogettuale finalizzato alla definizione di criteri di qualità architettonica e paesaggistica nella progettazione di aziende vitivinicole medio-piccole, che effettuano la trasformazione della materia prima, prevalentemente di propria produzione. L’analisi della filiera vitivinicola, della letteratura scientifica, della normativa di settore, di esempi di “architetture del vino eccellenti” hanno esplicitato come prevalentemente vengano indagate cantine industriali ed aspetti connessi con l'innovazione tecnologica delle attrezzature. Soluzioni costruttive e tecnologiche finalizzate alla qualità architettonica ed ambientale, attuali dinamiche riguardanti il turismo enogastronomico, nuove funzionalità aziendali, problematiche legate alla sostenibilità dell’intervento risultano ancora poco esplorate, specialmente con riferimento a piccole e medie aziende vitivinicole. Assunto a riferimento il territorio ed il sistema costruito del Nuovo Circondario Imolese (areale rappresentativo per vocazione ed espressione produttiva del comparto vitivinicolo emiliano-romagnolo) è stato identificato un campione di aziende con produzioni annue non superiori ai 5000 hl. Le analisi svolte sul campione hanno permesso di determinare: modalità di aggregazione funzionale degli spazi costruiti, relazioni esistenti con il paesaggio, aspetti distributivi e materico-costruttivi, dimensioni di massima dei locali funzionali alla produzione. Il caso studio relativo alla riqualificazione di un’azienda rappresentativa del comparto è stato utilizzato per la messa a punto e sperimentazione di criteri di progettazione guidati da valutazioni relative alle prestazioni energetiche, alla qualità architettonica e alla sostenibilità ambientale, economica e paesaggistica. L'analisi costi-benefici (pur non considerando le ricadute positive in termini di benessere degli occupanti ed il guadagno della collettività in termini di danni collegati all’inquinamento che vengono evitati in architetture progettate per garantire qualità ambientale interna ed efficienza energetica) ha esplicitato il ritorno in pochi anni dell’investimento proposto, nonostante gli ancora elevati costi di materiali di qualità e dei componenti per il corretto controllo climatico delle costruzioni.
Resumo:
Uno dei temi più discussi ed interessanti nel mondo dell’informatica al giorno d’oggi è sicuramente il Cloud Computing. Nuove organizzazioni che offrono servizi di questo tipo stanno nascendo ovunque e molte aziende oggi desiderano imparare ad utilizzarli, migrando i loro centri di dati e le loro applicazioni nel Cloud. Ciò sta avvenendo anche grazie alla spinta sempre più forte che stanno imprimendo le grandi compagnie nella comunità informatica: Google, Amazon, Microsoft, Apple e tante altre ancora parlano sempre più frequentemente di Cloud Computing e si stanno a loro volta ristrutturando profondamente per poter offrire servizi Cloud adeguandosi così a questo grande cambiamento che sta avvenendo nel settore dell’informatica. Tuttavia il grande movimento di energie, capitali, investimenti ed interesse che l’avvento del Cloud Computing sta causando non aiuta a comprendere in realtà che cosa esso sia, al punto tale che oggi non ne esiste ancora una definizione univoca e condivisa. La grande pressione inoltre che esso subisce da parte del mondo del mercato fa sì che molte delle sue più peculiari caratteristiche, dal punto di vista dell’ingegneria del software, vengano nascoste e soverchiate da altre sue proprietà, architetturalmente meno importanti, ma con un più grande impatto sul pubblico di potenziali clienti. L’obbiettivo che ci poniamo con questa tesi è quindi quello di esplorare il nascente mondo del Cloud Computing, cercando di comprenderne a fondo le principali caratteristiche architetturali e focalizzando l’attenzione in particolare sullo sviluppo di applicazioni in ambiente Cloud, processo che sotto alcuni aspetti si differenzia molto dallo sviluppo orientato ad ambienti più classici. La tesi è così strutturata: nel primo capitolo verrà fornita una panoramica sul Cloud Computing nella quale saranno date anche le prime definizioni e verranno esposti tutti i temi fondamentali sviluppati nei capitoli successivi. Il secondo capitolo costituisce un approfondimento su un argomento specifico, quello dei Cloud Operating System, componenti fondamentali che permettono di trasformare una qualunque infrastruttura informatica in un’infrastruttura Cloud. Essi verranno presentati anche per mezzo di molte analogie con i classici sistemi operativi desktop. Con il terzo capitolo ci si addentra più a fondo nel cuore del Cloud Computing, studiandone il livello chiamato Infrastructure as a Service tramite un esempio concreto di Cloud provider: Amazon, che fornisce i suoi servizi nel progetto Amazon Web Services. A questo punto, più volte nel corso della trattazione di vari temi saremo stati costretti ad affrontare le problematiche relative alla gestione di enormi moli di dati, che spesso sono il punto centrale di molte applicazioni Cloud. Ci è parso quindi importante approfondire questo argomento in un capitolo appositamente dedicato, il quarto, supportando anche in questo caso la trattazione teorica con un esempio concreto: BigTable, il sistema di Google per la gestione della memorizzazione di grandi quantità di dati. Dopo questo intermezzo, la trattazione procede risalendo lungo i livelli dell’architettura Cloud, ricalcando anche quella che è stata l’evoluzione temporale del Cloud Computing: nel quinto capitolo, dal livello Infrastructure as a Service si passa quindi a quello Platform as a Service, tramite lo studio dei servizi offerti da Google Cloud Platform. Il sesto capitolo costituisce invece il punto centrale della tesi, quello che ne soddisfa l’obbiettivo principale: esso contiene infatti uno studio approfondito sullo sviluppo di applicazioni orientate all’ambiente Cloud. Infine, il settimo capitolo si pone come un ponte verso possibili sviluppi futuri, analizzando quali sono i limiti principali delle tecnologie, dei modelli e dei linguaggi che oggi supportano il Cloud Computing. In esso viene proposto come possibile soluzione il modello ad attori; inoltre viene anche presentato il framework Orleans, che Microsoft sta sviluppando negli ultimi anni con lo scopo appunto di supportare lo sviluppo di applicazioni in ambiente Cloud.
Resumo:
Il termine cloud ha origine dal mondo delle telecomunicazioni quando i provider iniziarono ad utilizzare servizi basati su reti virtuali private (VPN) per la comunicazione dei dati. Il cloud computing ha a che fare con la computazione, il software, l’accesso ai dati e servizi di memorizzazione in modo tale che l’utente finale non abbia idea della posizione fisica dei dati e la configurazione del sistema in cui risiedono. Il cloud computing è un recente trend nel mondo IT che muove la computazione e i dati lontano dai desktop e dai pc portatili portandoli in larghi data centers. La definizione di cloud computing data dal NIST dice che il cloud computing è un modello che permette accesso di rete on-demand a un pool condiviso di risorse computazionali che può essere rapidamente utilizzato e rilasciato con sforzo di gestione ed interazione con il provider del servizio minimi. Con la proliferazione a larga scala di Internet nel mondo le applicazioni ora possono essere distribuite come servizi tramite Internet; come risultato, i costi complessivi di questi servizi vengono abbattuti. L’obbiettivo principale del cloud computing è utilizzare meglio risorse distribuite, combinarle assieme per raggiungere un throughput più elevato e risolvere problemi di computazione su larga scala. Le aziende che si appoggiano ai servizi cloud risparmiano su costi di infrastruttura e mantenimento di risorse computazionali poichè trasferiscono questo aspetto al provider; in questo modo le aziende si possono occupare esclusivamente del business di loro interesse. Mano a mano che il cloud computing diventa più popolare, vengono esposte preoccupazioni riguardo i problemi di sicurezza introdotti con l’utilizzo di questo nuovo modello. Le caratteristiche di questo nuovo modello di deployment differiscono ampiamente da quelle delle architetture tradizionali, e i meccanismi di sicurezza tradizionali risultano inefficienti o inutili. Il cloud computing offre molti benefici ma è anche più vulnerabile a minacce. Ci sono molte sfide e rischi nel cloud computing che aumentano la minaccia della compromissione dei dati. Queste preoccupazioni rendono le aziende restie dall’adoperare soluzioni di cloud computing, rallentandone la diffusione. Negli anni recenti molti sforzi sono andati nella ricerca sulla sicurezza degli ambienti cloud, sulla classificazione delle minacce e sull’analisi di rischio; purtroppo i problemi del cloud sono di vario livello e non esiste una soluzione univoca. Dopo aver presentato una breve introduzione sul cloud computing in generale, l’obiettivo di questo elaborato è quello di fornire una panoramica sulle vulnerabilità principali del modello cloud in base alle sue caratteristiche, per poi effettuare una analisi di rischio dal punto di vista del cliente riguardo l’utilizzo del cloud. In questo modo valutando i rischi e le opportunità un cliente deve decidere se adottare una soluzione di tipo cloud. Alla fine verrà presentato un framework che mira a risolvere un particolare problema, quello del traffico malevolo sulla rete cloud. L’elaborato è strutturato nel modo seguente: nel primo capitolo verrà data una panoramica del cloud computing, evidenziandone caratteristiche, architettura, modelli di servizio, modelli di deployment ed eventuali problemi riguardo il cloud. Nel secondo capitolo verrà data una introduzione alla sicurezza in ambito informatico per poi passare nello specifico alla sicurezza nel modello di cloud computing. Verranno considerate le vulnerabilità derivanti dalle tecnologie e dalle caratteristiche che enucleano il cloud, per poi passare ad una analisi dei rischi. I rischi sono di diversa natura, da quelli prettamente tecnologici a quelli derivanti da questioni legali o amministrative, fino a quelli non specifici al cloud ma che lo riguardano comunque. Per ogni rischio verranno elencati i beni afflitti in caso di attacco e verrà espresso un livello di rischio che va dal basso fino al molto alto. Ogni rischio dovrà essere messo in conto con le opportunità che l’aspetto da cui quel rischio nasce offre. Nell’ultimo capitolo verrà illustrato un framework per la protezione della rete interna del cloud, installando un Intrusion Detection System con pattern recognition e anomaly detection.
Resumo:
Il presente lavoro di ricerca ha per oggetto il tema della diffusione urbana. Dopo una breve ricostruzione delle varie definizioni presenti in letteratura sul fenomeno - sia qualitative che quantitative - e una descrizione dei limiti di volta in volta presenti all’interno di tali definizioni, si procede con la descrizione dell’evoluzione storica dello sprawl urbano all’interno del mondo occidentale. Una volta definito e contestualizzato storicamente l’oggetto della ricerca, ne vengono analizzate le cause e il complesso sistema di conseguenze che tale fenomeno urbano porta con sé. Successivamente vengono presentate le principali teorie sociologiche attraverso le quali può essere interpretato il fenomeno dello sprawl urbano e vengono descritte le varie forme con cui si può esprimere lo sprawl urbano: non esiste infatti uniformità tra i vari paesaggi suburbani, ma una grande diversità interna alle varie forme in cui si manifesta il fenomeno della dispersione insediativa. Se quanto finora esaminato, soprattutto a livello bibliografico, è riconducibile alla letteratura nordamericana, arrivati a questo punto del lavoro, l’attenzione viene spostata sul continente europeo, prendendo in esame l’emergere del periurbano all’interno del nostro continente e tentando di descrivere sia le contiguità che le differenze tra il fenomeno dell’urban sprawl e quello del periurbano. Infine, adottando un procedimento “ad imbuto”, il lavoro si sofferma sulla situazione del nostro paese in merito alla tematica in questione. L’ultima sezione della ricerca prevede una parte di lavoro empirico. Se, come è emerso nel quadro teorico, molti sono gli elementi che caratterizzano il tema dello sprawl urbano e del periurbano, si è voluto andare a verificare se, ed eventualmente quali, degli elementi descritti, sono presenti in un’area ben delimitata del territorio bolognese, per cercare di capire se si possa parlare di un “periurbano bolognese” e quali caratteristiche esso presenti.
Resumo:
Il presupposto della ricerca consiste nel riconosciuto valore storico-testimoniale e identitario e in un significativo potenziale d’indicazione pianificatoria e progettuale che detengono in sé i segni del paesaggio rurale tradizionale. Allo stato attuale, sebbene tali valori vengano ampiamente affermati sia nell’ambiente normativo-amministrativo che in quello scientifico, è tuttora riscontrabile una carenza di appropriati metodi e tecniche idonei a creare opportuni quadri conoscitivi per il riconoscimento, la catalogazione e il monitoraggio dei paesaggi rurali tradizionali a supporto di politiche, di piani e di progetti che interessano il territorio extraurbano. La ricerca si prefigge l’obiettivo generale della messa a punto di un set articolato ed originale di strumenti analitici e interpretativi di carattere quantitativo idonei per lo studio delle trasformazioni fisiche dei segni del paesaggio rurale tradizionale e per la valutazione del loro grado di integrità e rilevanza alla scala dell’azienda agricola. Tale obiettivo primario si è tradotto in obiettivi specifici, il cui conseguimento implica il ricorso ad un caso studio territoriale. A tal proposito è stato individuato un campione di 11 aziende agricole assunte quali aree studio, per una superficie complessiva pari all’incirca 200 ha, localizzate nel territorio dell’alta pianura imolese (Emilia-Romagna). L’analisi e l’interpretazione quantitativa delle trasformazioni fisiche avvenute a carico dei sopraccitati segni sono state condotte a decorrere da prima dell’industrializzazione all’attualità e per numerosi istanti temporali. Lo studio si presenta sia come contributo di metodo concernente la lettura diacronica dei caratteri tradizionali spaziali e compositivi del territorio rurale, sia come contributo conoscitivo relativo alle dinamiche evolutive dei paesaggi tradizionali rurali dell’area indagata.
Resumo:
Il lavoro di ricerca prende le mosse da una premessa di ordine economico. Il fenomeno delle reti di impresa, infatti, nasce dalla realtà economica dei mercati. In tale contesto non può prescindere dal delineare un quadro della situazione- anche di crisi- congiunturale che ha visto coinvolte specialmente le imprese italiane. In tale prospettiva, si è reso necessario indagare il fenomeno della globalizzazione, con riferimento alle sue origini,caratteristiche e conseguenze. Ci si sofferma poi sulla ricostruzione dogmatica del fenomeno. Si parte dalla ricostruzione dello stesso in termini di contratto plurilaterale- sia esso con comunione di scopo oppure plurilaterale di scambio- per criticare tale impostazione, non del tutto soddisfacente, in quanto ritenuto remissiva di fronte alla attuale vis espansiva del contratto plurilaterale. Più convincente appare lo schema del collegamento contrattuale, che ha il pregio di preservare l’autonomia e l’indipendenza degli imprenditori aderenti, pur inseriti nel contesto di un’operazione economica unitaria, volta a perseguire uno scopo comune, l’“interesse di rete”, considerato meritevole di tutela secondo l’ordinamento giuridico ex art. 1322 2.co. c.c. In effetti il contratto ben si presta a disegnare modelli di rete sia con distribuzione simmetrica del potere decisionale, sia con distribuzione asimmetrica, vale a dire con un elevato livello di gerarchia interna. Non può d’altra parte non ravvisarsi un’affinità con le ipotesi di collegamento contrattuale in fase di produzione, consistente nel delegare ad un terzo parte della produzione, e nella fase distributiva, per cui la distribuzione avviene attraverso reti di contratti. Si affronta la materia della responsabilità della rete, impostando il problema sotto due profili: la responsabilità interna ed esterna. La prima viene risolta sulla base dell’affidamento reciproco maturato da ogni imprenditore. La seconda viene distinta in responsabilità extracontrattuale, ricondotta nella fattispecie all’art. 2050 c.c., e contrattuale.