901 resultados para Submarine Pipeline


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The circulation at the Eastern Brazilian Shelf (EBS), near 13 degrees S, is discussed in terms of the currents and hydrography, associating large-scale circulation, transient and local processes to establish a regional picture of the EBS circulation. The results show that the circulation within the continental shelf and slope region is strongly affected by the seasonal changes in the wind field and mesa/large-scale circulation. Transient processes associated to the passage of Cold Front systems or meso-scale activity and the presence of a local canyon add more complexity to the system. During the austral spring and summer seasons, the prevailing upwelling favorable winds blowing from E-NE were responsible for driving southwestward shelf currents. The interaction with the Western Boundary Current (the Brazil Current), especially during summer, was significant and a considerable vertical shear in the velocity field was observed at the outer shelf. The passage of a Cold Front system during the springtime caused a complete reversal of the mean flow and contributed to the deepening of the Mixed Layer Depth (MLD). In addition, the presence of Salvador Canyon, subject to an upwelling favorable boundary current, enhanced the upwelling system, when compared to the upwelling observed at the adjacent shelf. During the austral autumn and winter seasons the prevailing downwelling favorable winds blowing from the SE acted to total reverse the shelf circulation, resulting in a northeastward flow. The passage of a strong Cold Front, during the autumn season, contributed not only to the strengthening of the flow but also to the deepening of the MLD. The presence of the Salvador Canyon, when subject to a downwelling favorable boundary current, caused an intensification of the downwelling process. Interestingly, the alongshore velocity at the shelf region adjacent to the head of the canyon was less affected when compared to the upwelling situation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Context. The ESO public survey VISTA variables in the Via Lactea (VVV) started in 2010. VVV targets 562 sq. deg in the Galactic bulge and an adjacent plane region and is expected to run for about five years. Aims. We describe the progress of the survey observations in the first observing season, the observing strategy, and quality of the data obtained. Methods. The observations are carried out on the 4-m VISTA telescope in the ZYJHK(s) filters. In addition to the multi-band imaging the variability monitoring campaign in the K-s filter has started. Data reduction is carried out using the pipeline at the Cambridge Astronomical Survey Unit. The photometric and astrometric calibration is performed via the numerous 2MASS sources observed in each pointing. Results. The first data release contains the aperture photometry and astrometric catalogues for 348 individual pointings in the ZYJHK(s) filters taken in the 2010 observing season. The typical image quality is similar to 0 ''.9-1 ''.0. The stringent photometric and image quality requirements of the survey are satisfied in 100% of the JHK(s) images in the disk area and 90% of the JHK(s) images in the bulge area. The completeness in the Z and Y images is 84% in the disk, and 40% in the bulge. The first season catalogues contain 1.28 x 10(8) stellar sources in the bulge and 1.68 x 10(8) in the disk area detected in at least one of the photometric bands. The combined, multi-band catalogues contain more than 1.63 x 10(8) stellar sources. About 10% of these are double detections because of overlapping adjacent pointings. These overlapping multiple detections are used to characterise the quality of the data. The images in the JHK(s) bands extend typically similar to 4 mag deeper than 2MASS. The magnitude limit and photometric quality depend strongly on crowding in the inner Galactic regions. The astrometry for K-s = 15-18 mag has rms similar to 35-175 mas. Conclusions. The VVV Survey data products offer a unique dataset to map the stellar populations in the Galactic bulge and the adjacent plane and provide an exciting new tool for the study of the structure, content, and star-formation history of our Galaxy, as well as for investigations of the newly discovered star clusters, star-forming regions in the disk, high proper motion stars, asteroids, planetary nebulae, and other interesting objects.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trigeneration systems have been used with advantage in the last years in distributed electricity generation systems as a function of a growth of natural gas pipeline network distribution system, tax incentives, and energy regulation policies. Typically, a trigeneration system is used to produce electrical power simultaneously with supplying heating and cooling load by recovering the combustion products thermal power content that otherwise would be driven to atmosphere. Concerning that, two small scale trigeneration plants have been tested for overall efficiency evaluation and operational comparison. The first system is based on a 30 kW (ISO) natural gas powered microturbine, and the second one uses a 26 kW natural gas powered internal combustion engine coupled to an electrical generator as a prime mover. The stack gases from both machines were directed to a 17.6 kW ammonia-water absorption refrigeration chiller for producing chilled water first and next to a water heat recovery boiler in order to produce hot water. Experimental results are presented along with relevant system operational parameters for appropriate operation including natural gas consumption, net electrical and thermal power production, i.e., hot and cold water production rates, primary energy saving index, and the energy utilization factor over total and partial electrical load operational conditions. (c) 2011 Elsevier Ltd. All rights reserved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A mathematical model and numerical simulations are presented to investigate the dynamics of gas, oil and water flow in a pipeline-riser system. The pipeline is modeled as a lumped parameter system and considers two switchable states: one in which the gas is able to penetrate into the riser and another in which there is a liquid accumulation front, preventing the gas from penetrating the riser. The riser model considers a distributed parameter system, in which movable nodes are used to evaluate local conditions along the subsystem. Mass transfer effects are modeled by using a black oil approximation. The model predicts the liquid penetration length in the pipeline and the liquid level in the riser, so it is possible to determine which type of severe slugging occurs in the system. The method of characteristics is used to simplify the differentiation of the resulting hyperbolic system of equations. The equations are discretized and integrated using an implicit method with a predictor-corrector scheme for the treatment of the nonlinearities. Simulations corresponding to severe slugging conditions are presented and compared to results obtained with OLGA computer code, showing a very good agreement. A description of the types of severe slugging for the three-phase flow of gas, oil and water in a pipeline-riser system with mass transfer effects are presented, as well as a stability map. (C) 2011 Elsevier Ltd. All rights reserved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A computational pipeline combining texture analysis and pattern classification algorithms was developed for investigating associations between high-resolution MRI features and histological data. This methodology was tested in the study of dentate gyrus images of sclerotic hippocampi resected from refractory epilepsy patients. Images were acquired using a simple surface coil in a 3.0T MRI scanner. All specimens were subsequently submitted to histological semiquantitative evaluation. The computational pipeline was applied for classifying pixels according to: a) dentate gyrus histological parameters and b) patients' febrile or afebrile initial precipitating insult history. The pipeline results for febrile and afebrile patients achieved 70% classification accuracy, with 78% sensitivity and 80% specificity [area under the reader observer characteristics (ROC) curve: 0.89]. The analysis of the histological data alone was not sufficient to achieve significant power to separate febrile and afebrile groups. Interesting enough, the results from our approach did not show significant correlation with histological parameters (which per se were not enough to classify patient groups). These results showed the potential of adding computational texture analysis together with classification methods for detecting subtle MRI signal differences, a method sufficient to provide good clinical classification. A wide range of applications of this pipeline can also be used in other areas of medical imaging. Magn Reson Med, 2012. (c) 2012 Wiley Periodicals, Inc.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this study is presented an economic optimization method to design telescope irrigation laterals (multidiameter) with regular spaced outlets. The proposed analytical hydraulic solution was validated by means of a pipeline composed of three different diameters. The minimum acquisition cost of the telescope pipeline was determined by an ideal arrangement of lengths and respective diameters for each one of the three segments. The mathematical optimization method based on the Lagrange multipliers provides a strategy for finding the maximum or minimum of a function subject to certain constraints. In this case, the objective function describes the acquisition cost of pipes, and the constraints are determined from hydraulic parameters as length of irrigation laterals and total head loss permitted. The developed analytical solution provides the ideal combination of each pipe segment length and respective diameter, resulting in a decreased of the acquisition cost.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oil spills are potential threats to the integrity of highly productive coastal wetlands, such as mangrove forests. In October 1983, a mangrove area of nearly 300 ha located on the southeastern coast of Brazil was impacted by a 3.5 million liter crude oil spill released by a broken pipeline. In order to assess the long-term effects of oil pollution on mangrove vegetation, we carried out a GIS-based multitemporal analysis of aerial photographs of the years 1962, 1994, 2000 and 2003. Photointerpretation, visual classification, class quantification, ground-truth and vegetation structure data were combined to evaluate the oil impact. Before the spill, the mangroves exhibited a homogeneous canopy and well-developed stands. More than ten years after the spill, the mangrove vegetation exhibited three distinct zones reflecting the long-term effects of the oil pollution. The most impacted zone (10.5 ha) presented dead trees, exposed substrate and recovering stands with reduced structural development. We suggest that the distinct impact and recovery zones reflect the spatial variability of oil removal rates in the mangrove forest. This study identifies the multitemporal analysis of aerial photographs as a useful tool for assessing a system's capacity for recovery and monitoring the long-term residual effects of pollutants on vegetation dynamics, thus giving support to mangrove forest management and conservation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Space Telescope Imaging Spectrograph (STIS) has been on orbit for approximately 16 years as one of the 2nd generation instruments on the Hubble Space Telescope (HST). Its operations were interrupted by an electronics failure in 2004, but STIS was successfully repaired in May 2009 during Service Mission 4 (SM4) allowing it to resume science observations. The Instrument team continues to monitor its performance and work towards improving the quality of its products. Here we present updated information on the status of the FUV and NUV MAMA and the CCD detectors onboard STIS and describe recent changes to the STIS calibration pipeline. We also discuss the status of efforts to apply a pixel-based correction for charge transfer inefficiency (CTI) effects to STIS CCD data. These techniques show promise for ameliorating the effects of ongoing radiation damage on the quality of STIS CCD data.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artigo apresenta um modelo matemático de otimização logística para o transporte multimodal de safras agrícolas pelo corredor Centro-Oeste. Tal ferramenta foi desenvolvida no contexto de três amplos projetos de pesquisa financiados pela FINEP e executados por um grupo de universidades. O modelo, conhecido genericamente como Modelo de fluxo de Custo Mínimo Multiproduto, considera a otimização de fluxos em rede, para os produtos açúcar, álcool, milho, soja, óleo de soja, farelo de soja e trigo. O modelo proposto para estimativa dos fluxos inter-regionais mostrou-se uma ferramenta factível para fins de avaliação do potencial de utilização da multimodalidade. A análise destes resultados gera importantes subsídios para a seleção dos locais com potencial para instalação de mecanismos e equipamentos de transferência de cargas, além de auxiliar no dimensionamento dessas infraestruturas. Também é um resultado importante do ferramental desenvolvido a identificação das zonas de cargas que apresentam potencial captável pelas ferrovias, hidrovias e dutovias, ou seja, possibilita a identificação das regiões que revelam potencial para uso da multimodalidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

VIII Congreso geológico de España, Oviedo, 17-19 julio 2012

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Celebrado en la Sala de Grado de la Facultad de Ciencias del Mar (ULPGC) el 18 de junio de 2013

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[EN] Since the industrial revolution, anthropogenic CO2 emissions have caused ocean acidification, which particularly affects calcified organisms. Given the fan-like calcified fronds of the brown alga Padina pavonica, we evaluated the acute (shortterm) effects of a sudden pH drop due to a submarine volcanic eruption (October 2011–early March 2012) affecting offshore waters around El Hierro Island (Canary Islands, Spain). We further studied the chronic (long-term) effects of the continuous decrease in pH in the last decades around the Canarian waters. In both the observational and retrospective studies (using herbarium collections of P. pavonica thalli from the overall Canarian Archipelago), the percent of surface calcium carbonate coverage of P. pavonica thalli were contrasted with oceanographic data collected either in situ (volcanic eruption event) or from the ESTOC marine observatory data series (herbarium study). Results showed that this calcified alga is sensitive to acute and chronic environmental pH changes. In both cases, pH changes predicted surface thallus calcification, including a progressive decalcification over the last three decades. This result concurs with previous studies where calcareous organisms decalcify under more acidic conditions. Hence, Padina pavonica can be implemented as a bio-indicator of ocean acidification (at short and long time scales) for monitoring purposes over wide geographic ranges, as this macroalga is affected and thrives (unlike strict calcifiers) under more acidic conditions

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Extensive mass transport deposits and multiple slide scars testify widespread and recurrent submarine sediment failures occurring during the late Quaternary on the SW-Adriatic and SE-Sicilian margins. These mass movements and their consequences contributed to shape the continental slopes and fill the basins with characteristic signatures. Geomorphological, seismo-stratigraphic, sedimentological and biostratigraphic data provide clues to: 1) define distinct failure mechanisms investigating on factors that determine dissimilar organization of coeval displaced masses, 2) reconstruct successive phases of failure stressing on the same location where slide scars crosscut and mass-transport deposits overlap, 3) analyze regional setting and indicate the most suitable place where to calculate mass wasting frequency. Discussions on the role of fluid flow, currents activity and tectonic deformation determine a wider view on the construction of the studied continental margins.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The continuous increase of genome sequencing projects produced a huge amount of data in the last 10 years: currently more than 600 prokaryotic and 80 eukaryotic genomes are fully sequenced and publically available. However the sole sequencing process of a genome is able to determine just raw nucleotide sequences. This is only the first step of the genome annotation process that will deal with the issue of assigning biological information to each sequence. The annotation process is done at each different level of the biological information processing mechanism, from DNA to protein, and cannot be accomplished only by in vitro analysis procedures resulting extremely expensive and time consuming when applied at a this large scale level. Thus, in silico methods need to be used to accomplish the task. The aim of this work was the implementation of predictive computational methods to allow a fast, reliable, and automated annotation of genomes and proteins starting from aminoacidic sequences. The first part of the work was focused on the implementation of a new machine learning based method for the prediction of the subcellular localization of soluble eukaryotic proteins. The method is called BaCelLo, and was developed in 2006. The main peculiarity of the method is to be independent from biases present in the training dataset, which causes the over‐prediction of the most represented examples in all the other available predictors developed so far. This important result was achieved by a modification, made by myself, to the standard Support Vector Machine (SVM) algorithm with the creation of the so called Balanced SVM. BaCelLo is able to predict the most important subcellular localizations in eukaryotic cells and three, kingdom‐specific, predictors were implemented. In two extensive comparisons, carried out in 2006 and 2008, BaCelLo reported to outperform all the currently available state‐of‐the‐art methods for this prediction task. BaCelLo was subsequently used to completely annotate 5 eukaryotic genomes, by integrating it in a pipeline of predictors developed at the Bologna Biocomputing group by Dr. Pier Luigi Martelli and Dr. Piero Fariselli. An online database, called eSLDB, was developed by integrating, for each aminoacidic sequence extracted from the genome, the predicted subcellular localization merged with experimental and similarity‐based annotations. In the second part of the work a new, machine learning based, method was implemented for the prediction of GPI‐anchored proteins. Basically the method is able to efficiently predict from the raw aminoacidic sequence both the presence of the GPI‐anchor (by means of an SVM), and the position in the sequence of the post‐translational modification event, the so called ω‐site (by means of an Hidden Markov Model (HMM)). The method is called GPIPE and reported to greatly enhance the prediction performances of GPI‐anchored proteins over all the previously developed methods. GPIPE was able to predict up to 88% of the experimentally annotated GPI‐anchored proteins by maintaining a rate of false positive prediction as low as 0.1%. GPIPE was used to completely annotate 81 eukaryotic genomes, and more than 15000 putative GPI‐anchored proteins were predicted, 561 of which are found in H. sapiens. In average 1% of a proteome is predicted as GPI‐anchored. A statistical analysis was performed onto the composition of the regions surrounding the ω‐site that allowed the definition of specific aminoacidic abundances in the different considered regions. Furthermore the hypothesis that compositional biases are present among the four major eukaryotic kingdoms, proposed in literature, was tested and rejected. All the developed predictors and databases are freely available at: BaCelLo http://gpcr.biocomp.unibo.it/bacello eSLDB http://gpcr.biocomp.unibo.it/esldb GPIPE http://gpcr.biocomp.unibo.it/gpipe

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il tema della Logistica Urbana è un argomento complesso che coinvolge diverse discipline. Infatti, non è possibile affrontare la distribuzione delle merci da un solo punto di vista. Da un lato, infatti, manifesta l’esigenza della città e della società in generale di migliorare la qualità della vita anche attraverso azioni di contenimento del traffico, dell’inquinamento e degli sprechi energetici. A questo riguardo, è utile ricordare che il trasporto merci su gomma costituisce uno dei maggiori fattori di impatto su ambiente, sicurezza stradale e congestione della viabilità urbana. Dall’altro lato vi sono le esigenze di sviluppo economico e di crescita del territorio dalle quali non è possibile prescindere. In questa chiave, le applicazioni inerenti la logistica urbana si rivolgono alla ricerca di soluzioni bilanciate che possano arrecare benefici sociali ed economici al territorio anche attraverso progetti concertati tra i diversi attori coinvolti. Alla base di tali proposte di pratiche e progetti, si pone il concetto di esternalità inteso come l’insieme dei costi esterni sostenuti dalla società imputabili al trasporto, in particolare al trasporto merci su gomma. La valutazione di questi costi, che rappresentano spesso una misurazione qualitativa, è un argomento delicato in quanto, come è facile immaginare, non può essere frutto di misure dirette, ma deve essere dedotto attraverso meccanismi inferenziali. Tuttavia una corretta definizione delle esternalità definisce un importante punto di partenza per qualsiasi approccio al problema della Logistica Urbana. Tra gli altri fattori determinanti che sono stati esplorati con maggiore dettaglio nel testo integrale della tesi, va qui accennata l’importanza assunta dal cosiddetto Supply Chain Management nell’attuale assetto organizzativo industriale. Da esso dipendono approvvigionamenti di materie prime e consegne dei prodotti finiti, ma non solo. Il sistema stesso della distribuzione fa oggi parte di quei servizi che si integrano con la qualità del prodotto e dell’immagine della Azienda. L’importanza di questo settore è accentuata dal fatto che le evoluzioni del commercio e l’appiattimento dei differenziali tra i sistemi di produzione hanno portato agli estremi la competizione. In questa ottica, minimi vantaggi in termini di servizio e di qualità si traducono in enormi vantaggi in termini di competitività e di acquisizione di mercato. A questo si aggiunge una nuova logica di taglio dei costi che porta a ridurre le giacenze di magazzino accorciando la pipeline di produzione ai minimi termini in tutte le fasi di filiera. Naturalmente questo si traduce, al punto vendita in una quasi totale assenza di magazzino. Tecnicamente, il nuovo modello di approvvigionamento viene chiamato just-in-time. La ricerca che è stata sviluppata in questi tre anni di Dottorato, sotto la supervisione del Prof. Piero Secondini, ha portato ad un approfondimento di questi aspetti in una chiave di lettura ad ampio spettro. La ricerca si è quindi articolata in 5 fasi: 1. Ricognizione della letteratura italiana e straniera in materia di logistica e di logistica urbana; 2. Studio delle pratiche nazionali ed europee 3. Analisi delle esperienze realizzate e delle problematiche operative legate ai progetti sostenuti dalla Regione Emilia Romagna 4. Il caso di studio di Reggio Emilia e redazione di più proposte progettuali 5. Valutazione dei risultati e conclusioni Come prima cosa si è quindi studiata la letteratura in materia di Logistica Urbana a livello nazionale. Data la relativamente recente datazione dei primi approcci nazionali ed europei al problema, non erano presenti molti testi in lingua italiana. Per contro, la letteratura straniera si riferisce generalmente a sistemi urbani di dimensione e configurazione non confrontabili con le realtà nazionali. Ad esempio, una delle nazioni che hanno affrontato per prime tale tematica e sviluppato un certo numero di soluzioni è stata il Giappone. Naturalmente, città come Tokyo e Kyoto sono notevolmente diverse dalle città europee ed hanno necessità ed esigenze assai diverse. Pertanto, soluzioni tecnologiche e organizzative applicate in questi contesti sono per la maggior parte inattuabili nei contesti del vecchio continente. Le fonti che hanno costituito maggiore riferimento per lo sviluppo del costrutto teorico della tesi, quindi, sono state i saggi che la Regione Emilia Romagna ha prodotto in occasione dello sviluppo del progetto City Ports di cui la Regione stessa era coordinatore di numerosi partners nazionali ed europei. In ragione di questo progetto di ricerca internazionale, l’Emilia Romagna ha incluso il trattamento della logistica delle merci negli “Accordi di Programma per il miglioramento della qualità dell’aria” con le province ed i capoluoghi. In Questo modo si è posta l’attenzione sulla sensibilizzazione delle Pubbliche Amministrazioni locali verso la mobilità sostenibile anche nell’ambito di distribuzione urbana delle merci. Si noti infatti che l’impatto sulle esternalità dei veicoli leggeri per il trasporto merci, quelli cioè che si occupano del cosiddetto “ultimo miglio” sono di due ordini di grandezza superiori rispetto a quelli dei veicoli passeggeri. Nella seconda fase, la partecipazione a convegni di ambito regionale e nazionale ha permesso di arricchire le conoscenze delle best-practice attuate in Italia per lo sviluppo di strumenti finalizzati ad condividere i costi esterni della mobilità delle merci con gli operatori logistici. In questi contesti è stato possibile verificare la disponibilità di tre linee di azione sulle quali, all’interno del testo della tesi si farà riferimento molto spesso: - linea tecnologica; - linea amministrativa; - linea economico/finanziaria. Nel discutere di questa tematica, all’interno di questi contesti misti in cui partecipavano esponenti della cultura accademica, delle pubbliche amministrazioni e degli operatori, ci si è potuti confrontare con la complessità che il tema assume. La terza fase ha costituito la preparazione fondamentale allo studio del caso di studio. Come detto sopra, la Regione Emilia Romagna, all’interno degli Accordi di Programma con le Province, ha deliberato lo stanziamento di co-finanziamenti per lo sviluppo di progetti, integrati con le pratiche della mobilità, inerenti la distribuzione delle merci in città. Inizialmente, per tutti i capoluoghi di provincia, la misura 5.2 degli A.d.P. prevedeva la costruzione di un Centro di Distribuzione Urbana e l’individuazione di un gestore dei servizi resi dallo stesso. Successive considerazioni hanno poi portato a modifiche della misura lasciando una maggiore elasticità alle amministrazioni locali. Tramite una esperienza di ricerca parallela e compatibile con quella del Dottorato finanziata da un assegno di ricerca sostenuto dall’Azienda Consorziale Trasporti di Reggio Emilia, si è potuto partecipare a riunioni e seminari presentati dalla Regione Emilia Romagna in cui si è potuto prendere conoscenza delle proposte progettuali di tutte le province. L’esperienza di Reggio Emilia costituisce il caso di studio della tesi di Dottorato. Le molteplici problematiche che si sono affrontate si sono protratte per tempi lunghi che hanno visto anche modifiche consistenti nell’assetto della giunta e del consiglio comunali. Il fatto ha evidenziato l’ennesimo aspetto problematico legato al mantenimento del patrimonio conoscitivo acquisito, delle metodiche adottate e di mantenimento della coerenza dell’impostazione – in termini di finalità ed obiettivi – da parte dell’Amministrazione Pubblica. Essendo numerosi gli attori coinvolti, in un progetto di logistica urbana è determinante per la realizzazione e la riuscita del progetto che ogni fattore sia allineato e ben informato dell’evoluzione del progetto. In termini di programmazione economica e di pianificazione degli interventi, inoltre, la pubblica amministrazione deve essere estremamente coordinata internamente. Naturalmente, questi sono fattori determinanti per ogni progetto che riguarda le trasformazioni urbane e lo sviluppo delle città. In particolare, i diversi settori (assessorati) coinvolti su questa tematica, fanno o possno fare entrare in situazioni critiche e rischiose la solidità politica dello schieramento di maggioranza. Basti pensare che la distribuzione delle merci in città coinvolge gli assessorati della mobilità, del commercio, del centro storico, dell’ambiente, delle attività produttive. In funzione poi delle filiere che si ritiene di coinvolgere, anche la salute e la sicurezza posso partecipare al tavolo in quanto coinvolte rispettivamente nella distribuzione delle categorie merceologiche dei farmaci e nella security dei valori e della safety dei trasporti. L’esperienza di Reggio Emilia è stata una opportunità preziosissima da molteplici punti di vista. Innanzitutto ha dato modo di affrontare in termini pratici il problema, di constatare le difficoltà obiettive, ad esempio nella concertazione tra gli attori coinvolti, di verificare gli aspetti convergenti su questo tema. Non ultimo in termini di importanza, la relazione tra la sostenibilità economica del progetto in relazione alle esigenze degli operatori commerciali e produttivi che ne configurano gli spazi di azione. Le conclusioni del lavoro sono molteplici. Da quelle già accennate relative alla individuazione delle criticità e dei rischi a quelle dei punti di forza delle diverse soluzioni. Si sono affrontate, all’interno del testo, le problematiche più evidenti cercando di darne una lettura costruttiva. Si sono evidenziate anche le situazioni da evitare nel percorso di concertazione e si è proposto, in tal proposito, un assetto organizzativo efficiente. Si è presentato inoltre un modello di costruzione del progetto sulla base anche di una valutazione economica dei risultati per quanto riguarda il Business Plan del gestore in rapporto con gli investimenti della P.A.. Si sono descritti diversi modelli di ordinanza comunale per la regolamentazione della circolazione dei mezzi leggeri per la distribuzione delle merci in centro storico con una valutazione comparativa di meriti ed impatti negativi delle stesse. Sono inoltre state valutate alcune combinazioni di rapporto tra il risparmio in termini di costi esterni ed i possibili interventi economico finanziario. Infine si è analizzato il metodo City Ports evidenziando punti di forza e di debolezza emersi nelle esperienze applicative studiate.