78 resultados para Pietro, Michele di, cardinal, 1747-1821.
Resumo:
La presente tesi di dottorato ha ad oggetto l’analisi dei profili critici emersi nella prassi in relazione alle transnational damages group actions. All’interno di tale esteso ambito di ricerca, senza pretese di esaustività, si affronteranno determinati aspetti, tenendo in considerazione quanto accaduto negli ordinamenti che, sebbene in modo assai limitato, hanno già conosciuto tali problematiche. A seguito di una prima parte meramente introduttiva, nel secondo capitolo, si inquadreranno brevemente gli strumenti di tutela collettiva risarcitoria, indicando in che cosa consistano, a quali esigenze rispondano e quale origine abbiano; si indicheranno altresì i criteri distintivi e di classificazione che maggiormente possono rilevare nell’ottica di una cross border litigation. Nel terzo capitolo si analizzerà in termini essenziali la disciplina delle azioni collettive di alcuni Paesi, al fine di porre le basi necessarie per comprendere in quale contesto normativo si pongano le problematiche inerenti alle multi-jurisdictional collective redress actions. Nel quarto capitolo, si prenderà in considerazione la dimensione transnazionale delle azioni collettive, tenendo presenti le categorie e le regole affermatesi nel diritto internazionale privato e processuale e, soprattutto, quelle esistenti nell’ordinamento italiano e comunitario. Si individueranno poi gli obiettivi prioritari che si deve porre il giudice richiesto di giudicare sull’azione collettiva nella necessità di rendere una pronuncia o approvare una transazione che, da un lato, sia riconosciuta ed eseguita nei Paesi in cui dovrà essere riconosciuta ed eseguita e che, dall’altro lato, in ipotesi di opt out procedure, precluda ai soggetti che la pronuncia o la transazione dovrebbe vincolare successive azioni individuali e/o collettive in altri Paesi. Nel quinto capitolo, alla luce dei dati indicati nel terzo capitolo e delle considerazioni effettuate nel quarto capitolo, si analizzeranno alcuni dei profili critici posti dalla dimensione transnazionale delle azioni collettive; a tal fine, la trattazione verrà suddivisa in diversi punti che, pur essendo necessariamente connessi tra loro, nella loro individualità riescano ad evidenziare l’importanza e la centralità di determinate questioni. Peraltro, nell’intento di rispondere in modo adeguato alle problematiche analizzate, si indicheranno alcune delle soluzioni sperimentate dalla pratica giudiziaria o proposte dalla recente letteratura sul tema. Seguirà, infine, un ultimo capitolo contenente le osservazioni conclusive sugli esiti del lavoro.
Resumo:
The term Ambient Intelligence (AmI) refers to a vision on the future of the information society where smart, electronic environment are sensitive and responsive to the presence of people and their activities (Context awareness). In an ambient intelligence world, devices work in concert to support people in carrying out their everyday life activities, tasks and rituals in an easy, natural way using information and intelligence that is hidden in the network connecting these devices. This promotes the creation of pervasive environments improving the quality of life of the occupants and enhancing the human experience. AmI stems from the convergence of three key technologies: ubiquitous computing, ubiquitous communication and natural interfaces. Ambient intelligent systems are heterogeneous and require an excellent cooperation between several hardware/software technologies and disciplines, including signal processing, networking and protocols, embedded systems, information management, and distributed algorithms. Since a large amount of fixed and mobile sensors embedded is deployed into the environment, the Wireless Sensor Networks is one of the most relevant enabling technologies for AmI. WSN are complex systems made up of a number of sensor nodes which can be deployed in a target area to sense physical phenomena and communicate with other nodes and base stations. These simple devices typically embed a low power computational unit (microcontrollers, FPGAs etc.), a wireless communication unit, one or more sensors and a some form of energy supply (either batteries or energy scavenger modules). WNS promises of revolutionizing the interactions between the real physical worlds and human beings. Low-cost, low-computational power, low energy consumption and small size are characteristics that must be taken into consideration when designing and dealing with WSNs. To fully exploit the potential of distributed sensing approaches, a set of challengesmust be addressed. Sensor nodes are inherently resource-constrained systems with very low power consumption and small size requirements which enables than to reduce the interference on the physical phenomena sensed and to allow easy and low-cost deployment. They have limited processing speed,storage capacity and communication bandwidth that must be efficiently used to increase the degree of local ”understanding” of the observed phenomena. A particular case of sensor nodes are video sensors. This topic holds strong interest for a wide range of contexts such as military, security, robotics and most recently consumer applications. Vision sensors are extremely effective for medium to long-range sensing because vision provides rich information to human operators. However, image sensors generate a huge amount of data, whichmust be heavily processed before it is transmitted due to the scarce bandwidth capability of radio interfaces. In particular, in video-surveillance, it has been shown that source-side compression is mandatory due to limited bandwidth and delay constraints. Moreover, there is an ample opportunity for performing higher-level processing functions, such as object recognition that has the potential to drastically reduce the required bandwidth (e.g. by transmitting compressed images only when something ‘interesting‘ is detected). The energy cost of image processing must however be carefully minimized. Imaging could play and plays an important role in sensing devices for ambient intelligence. Computer vision can for instance be used for recognising persons and objects and recognising behaviour such as illness and rioting. Having a wireless camera as a camera mote opens the way for distributed scene analysis. More eyes see more than one and a camera system that can observe a scene from multiple directions would be able to overcome occlusion problems and could describe objects in their true 3D appearance. In real-time, these approaches are a recently opened field of research. In this thesis we pay attention to the realities of hardware/software technologies and the design needed to realize systems for distributed monitoring, attempting to propose solutions on open issues and filling the gap between AmI scenarios and hardware reality. The physical implementation of an individual wireless node is constrained by three important metrics which are outlined below. Despite that the design of the sensor network and its sensor nodes is strictly application dependent, a number of constraints should almost always be considered. Among them: • Small form factor to reduce nodes intrusiveness. • Low power consumption to reduce battery size and to extend nodes lifetime. • Low cost for a widespread diffusion. These limitations typically result in the adoption of low power, low cost devices such as low powermicrocontrollers with few kilobytes of RAMand tenth of kilobytes of program memory with whomonly simple data processing algorithms can be implemented. However the overall computational power of the WNS can be very large since the network presents a high degree of parallelism that can be exploited through the adoption of ad-hoc techniques. Furthermore through the fusion of information from the dense mesh of sensors even complex phenomena can be monitored. In this dissertation we present our results in building several AmI applications suitable for a WSN implementation. The work can be divided into two main areas:Low Power Video Sensor Node and Video Processing Alghoritm and Multimodal Surveillance . Low Power Video Sensor Nodes and Video Processing Alghoritms In comparison to scalar sensors, such as temperature, pressure, humidity, velocity, and acceleration sensors, vision sensors generate much higher bandwidth data due to the two-dimensional nature of their pixel array. We have tackled all the constraints listed above and have proposed solutions to overcome the current WSNlimits for Video sensor node. We have designed and developed wireless video sensor nodes focusing on the small size and the flexibility of reuse in different applications. The video nodes target a different design point: the portability (on-board power supply, wireless communication), a scanty power budget (500mW),while still providing a prominent level of intelligence, namely sophisticated classification algorithmand high level of reconfigurability. We developed two different video sensor node: The device architecture of the first one is based on a low-cost low-power FPGA+microcontroller system-on-chip. The second one is based on ARM9 processor. Both systems designed within the above mentioned power envelope could operate in a continuous fashion with Li-Polymer battery pack and solar panel. Novel low power low cost video sensor nodes which, in contrast to sensors that just watch the world, are capable of comprehending the perceived information in order to interpret it locally, are presented. Featuring such intelligence, these nodes would be able to cope with such tasks as recognition of unattended bags in airports, persons carrying potentially dangerous objects, etc.,which normally require a human operator. Vision algorithms for object detection, acquisition like human detection with Support Vector Machine (SVM) classification and abandoned/removed object detection are implemented, described and illustrated on real world data. Multimodal surveillance: In several setup the use of wired video cameras may not be possible. For this reason building an energy efficient wireless vision network for monitoring and surveillance is one of the major efforts in the sensor network community. Energy efficiency for wireless smart camera networks is one of the major efforts in distributed monitoring and surveillance community. For this reason, building an energy efficient wireless vision network for monitoring and surveillance is one of the major efforts in the sensor network community. The Pyroelectric Infra-Red (PIR) sensors have been used to extend the lifetime of a solar-powered video sensor node by providing an energy level dependent trigger to the video camera and the wireless module. Such approach has shown to be able to extend node lifetime and possibly result in continuous operation of the node.Being low-cost, passive (thus low-power) and presenting a limited form factor, PIR sensors are well suited for WSN applications. Moreover techniques to have aggressive power management policies are essential for achieving long-termoperating on standalone distributed cameras needed to improve the power consumption. We have used an adaptive controller like Model Predictive Control (MPC) to help the system to improve the performances outperforming naive power management policies.
Resumo:
Il presente lavoro si occupa dell’analisi numerica di combustione di gas a basso potere calorifico (gas di sintesi derivanti da pirolisi di biomasse). L’analisi è stata condotta su due principali geometrie di camera di combustione. La prima è un bruciatore sperimentale da laboratorio adatto allo studio delle proprietà di combustione del singas. Esso è introdotto in camera separatamente rispetto ad una corrente d’aria comburente al fine di realizzare una combustione non-premiscelata diffusiva in presenza di swirl. La seconda geometria presa in considerazione è la camera di combustione anulare installata sulla microturbina a gas Elliott TA 80 per la quale si dispone di un modello installato al banco al fine dell’esecuzione di prove sperimentali. I principali obbiettivi conseguiti nello studio sono stati la determinazione numerica del campo di moto a freddo su entrambe le geometrie per poi realizzare simulazioni in combustione mediante l’utilizzo di diversi modelli di combustione. In particolare è stato approfondito lo studio dei modelli steady laminar flamelet ed unsteady flamelet con cui sono state esaminate le distribuzioni di temperatura e delle grandezze tipiche di combustione in camera, confrontando i risultati numerici ottenuti con altri modelli di combustione (Eddy Dissipation ed ED-FR) e con i dati sperimentali a disposizione. Di importanza fondamentale è stata l’analisi delle emissioni inquinanti, realizzata per entrambe le geometrie, che mostra l’entità di tali emissioni e la loro tipologia. Relativamente a questo punto, il maggior interesse si sposta sui risultati ottenuti numericamente nel caso della microturbina, per la quale sono a disposizione misure di emissione ottenute sperimentalmente. Sempre per questa geometria è stato inoltre eseguito il confronto fra microturbina alimentata con singas a confronto con le prestazioni emissive ottenute con il gas naturale. Nel corso dei tre anni, l’esecuzione delle simulazioni e l’analisi critica dei risultati ha suggerito alcuni limiti e semplificazioni eseguite sulle griglie di calcolo realizzate per lo studio numerico. Al fine di eliminare o limitare le semplificazioni o le inesattezze, le geometrie dei combustori e le griglie di calcolo sono state migliorate ed ottimizzate. In merito alle simulazioni realizzate sulla geometria del combustore della microturbina Elliott TA 80 è stata condotta dapprima l’analisi numerica di combustione a pieno carico per poi analizzare le prestazioni ai carichi parziali. Il tutto appoggiandosi a tecniche di simulazione RANS ed ipotizzando alimentazioni a gas naturale e singas derivato da biomasse. Nell’ultimo anno di dottorato è stato dedicato tempo all’approfondimento e allo studio della tecnica Large Eddy Simulation per testarne una applicazione alla geometria del bruciatore sperimentale di laboratorio. In tale simulazione è stato implementato l’SGS model di Smagorinsky-Lilly completo di combustione con modelli flamelet. Dai risultati sono stati estrapolati i profili di temperatura a confronto con i risultati sperimentali e con i risultati RANS. Il tutto in diverse simulazioni a diverso valore del time-step imposto. L’analisi LES, per quanto migliorabile, ha fornito risultati sufficientemente precisi lasciando per il futuro la possibilità di approfondire nuovi modelli adatti all’applicazione diretta sulla MTG.
Resumo:
Background. Outcome of elderly acute myeloid leukemia (AML) patients is dismal. Targeted-therapies might improve current results by overcoming drug-resistance and reducing toxicity. Aim. We conduced a phase II study aiming to assess efficacy and toxicity of Tipifarnib (Zarnestra®) and Bortezomib (Velcade®) association in AML patients >18 years, unfit for conventional therapy, or >60 years, in relapse. Furthermore, we aimed to evaluated the predictive value of the RASGRP1/APTX ratio, which was previously found to be associated to treatment sensitivity in patients receiving Zarnestra alone. Methods. Velcade (1.0 mg/m2) was administered as weekly infusion for 3 weeks (days 1, 8, 15). Zarnestra was administered at dose of 300-600 mg BID for 21 consecutive days. Real-time quantitative-PCR (q-PCR) was used for RASGRP1/APTX quantification. Results. 50 patients were enrolled. Median age was 71 years (56-89). 3 patients achieved complete remission (CR) and 1 partial response (PR). 2 patients obtained an hematological improvement (HI), and 3 died during marrow aplasia. 10 had progressive disease (PD) and the remaining showed stable disease (SD). RASGRP1/APTX was evaluated before treatment initiation on bone marrow (BM) and/or peripheral blood (PB). The median RASGRP/APTX value on BM was higher in responder (R) patients than in non responders (NR) ones, respectively (p=0.006). Interestingly, no marrow responses were recorded in patients with BM RASGRP1/APTX ratio <12, while the response rate was 50% in patients with ratio >12. Toxicity was overall mild, the most common being febrile neutropenia. Conclusion. We conclude that the clinical efficacy of the combination Zarnestra-Velcade was similar to what reported for Zarnestra alone. However we could confirm that the RASGPR1/APTX level is an effective predictor of response. Though higher RASGRP1/APTX is relatively rare (~10% of cases), Zarnestra (±Velcade) may represent an important option in a subset of high risk/frail AML patients.
Resumo:
Background: Nilotinib is a potent and selective BCR-ABL inhibitor. The phase 3 ENESTnd trial demonstrated superior efficacy nilotinib vs imatinib, with higher and faster molecular responses. After 24 months, the rates of progression to accelerated-blastic phase (ABP) were 0.7% and 1.1% with nilotinib 300mg and 400mg BID, respectively, significantly lower compared to imatinib (4.2%). Nilotinib has been approved for the frontline treatment of Ph+ CML. With imatinib 400mg (IRIS trial), the rate of any event and of progression to ABP were higher during the first 3 years. Consequently, a confirmation of the durability of responses to nilotinib beyond 3 years is extremely important. Aims: To evaluate the response and the outcome of patients treated for 3 years with nilotinib 400mg BID as frontline therapy. Methods: A multicentre phase 2 trial was conducted by the GIMEMA CML WP (ClinicalTrials.gov.NCT00481052). Minimum 36-month follow-up data for all patients will be presented. Definitions: Major Molecular Response (MMR): BCR-ABL/ABL ratio <0,1%IS; Complete Molecular Response (CMR): undetectable transcript levels with ≥10,000 ABL transcripts; failures: according to the revised ELN recommendations; events: failures and treatment discontinuation for any reason. All the analysis has been made according to the intention-to-treat principle. Results: 73 patients enrolled: median age 51 years; 45% low, 41% intermediate and 14% high Sokal risk. The cumulative incidence of CCgR at 12 months was 100%. CCgR at each milestone: 78%, 96%, 96%, 95%, 92% at 3, 6, 12, 18 and 24 months, respectively. The overall estimated probability of MMR was 97%, while the rates of MMR at 3, 6, 12, 18 and 24 months were 52%, 66%, 85%, 81% and 82%, respectively. The overall estimated probability of CMR was 79%, while the rates of CMR at 12 and 24 months were 12% and 27%, respectively. No patient achieving a MMR progressed to AP. Only one patient progressed at 6 months to ABP and subsequently died (high Sokal risk, T315I mutation). Adverse events were mostly grade 1 or 2 and manageable with appropriate dose adaptations. During the first 12 months, the mean daily dose was 600-800mg in 74% of patients. The nilotinib last daily dose was as follows: 800mg in 46 (63%) patients, 600mg in 3 (4%) patients and 400mg in 18 (25%), 6 permanent discontinuations. Detail of discontinuation: 1 patient progressed to ABP; 3 patients had recurrent episodes of amylase and/or lipase increase (no pancreatitis); 1 patient had atrial fibrillation (unrelated to study drug) and 1 patient died after 32 months of mental deterioration and starvation (unrelated to study drug). Two patients are currently on imatinib second-line and 2 on dasatinib third-line. With a median follow-up of 39 months, the estimated probability of overall survival, progression-free survival and failure-free survival was 97%, the estimated probability of event-free survival was 91%. Conclusions: The rate of failures was very low during the first 3 years. Responses remain stable. The high rates of responses achieved during the first 12 months are being translated into optimal outcome for most of patients.
Resumo:
The transition metal-catalyzed allylic alkylation (Tsuji-Trost type reaction) is a powerful tool for C-C, C-N, and C-O bond formation, which has been widely applied to organic chemistry over the last decades. Typical substrates for this transformation are activated allylic compounds such as halides, esters, carbonates, carbamates, phosphates, and so on. However, use of these substrates is associated with the disadvantage of generating a stoichiometric amount of chemical waste. Furthermore, these starting materials have to be prepared in an extra step from the corresponding allylic alcohol. Thus, ideal substrates would be the allylic alcohols themselves, with water being the only byproduct in this case. However, the scarse propensity of the hydroxyl moiety to act as good leaving group has significantly limited their use so far. During the last decade significant efforts have been made in order to develop more atom-economical and environmentally-friendly allylic alkylation protocols by employing allylic alcohols directly. In this PhD dissertation two main projects addressing this topic are presented. “Project 1” deals with the development of new metal-catalyzed intramolecular Friedel-Crafts (FC) allylic alkylations of electron-rich (PAPER A), as well as challenging electron-poor arenes (PAPER B) with alcohols. In “Project 2”, gold(I)-catalyzed intramolecular and stereoselective allylic alkylation reactions are reported. In particular, a FC alkylation of indole-containing allylic alcohols is presented in PAPER C. While, an O-alkylation of aminol-containing allylic alcohols is reported in PAPER D. To the best of knowledge, these reports represent the first example of gold(I)-catalyzed stereoselective alkylations with alcohols.
Resumo:
The needs of customers to improve machinery in recent years have driven tractor manufacturers to reduce product life and development costs. The most significant efforts have concentrated on the attempt to decrease the costs of the experimental testing sector. The validation of the tractor prototypes are presently performed with a replication of a particularly unfavourable condition a defined number of times. These laboratory tests do not always faithfully reproduce the real use of the tractor. Therefore, field tests are also carried out to evaluate the prototype during real use, but it is difficult to perform such tests for a period of time long enough to reproduce tractor life usage. In this context, accelerated tests have been introduced in the automotive sector, producing a certain damage to the structure in a reduced amount of time. The goal of this paper is to define a methodology for the realization of accelerated structural tests on a tractor, through the reproduction of real customer tractor usage. A market analysis was performed on a 80 kW power tractor and a series of measures were then taken to simulate the real use of the tractor. Subsequently, the rainflow matrixes of the signals were extrapolated and used to estimate the tractor loadings for 10 years of tractor life. Finally these loadings were reproduced on testing grounds with special road pavements. The results obtained highlight the possibility of reproducing field loadings during road driving on proving grounds (PGs), but the use of two field operations is also necessary. The global acceleration factor obtained in this first step of the methodology is equal to three.
L'area dei Lungarni di Pisa nel tardo Medioevo (XIV-XV secolo). un tentativo di ricostruzione in 3D.
Resumo:
Lo scopo di questa ricerca è la ricostruzione dei Lungarni di Pisa nel Tardo Medioevo (XIV-XV secolo); lo studio intende sottolineare le trasformazioni urbanistiche che hanno cambiato il volto di Pisa nel corso del tempo e ricordare che l’area fluviale ebbe un ruolo di primo piano come baricentro commerciale ed economico della città, vocazione che si è in gran parte persa con l’età moderna e contemporanea. La metodologia seguita, affinata e perfezionata durante la partecipazione al progetto Nu.M.E. (Nuovo Museo Elettronico della Città di Bologna), si basa sull’analisi e il confronto di fonti eterogenee ma complementari, che includono precedenti studi di storia dell’urbanistica, un corpus di documentazione di epoca medievale (provvedimenti amministrativi come gli Statuti del Comune di Pisa, ma anche descrizioni di cronisti e viaggiatori), fonti iconografiche, tra cui vedute e mappe cinquecentesche o successive, e fonti materiali, come le persistenze medievali ancora osservabili all’interno degli edifici ed i reperti rinvenuti durante alcune campagne di scavo archeologiche. Il modello 3D non è concepito come statico e “chiuso”, ma è liberamente esplorabile all’interno di un engine tridimensionale; tale prodotto può essere destinato a livelli di utenza diversi, che includono sia studiosi e specialisti interessati a conoscere un maggior numero di informazioni e ad approfondire la ricerca, sia semplici cittadini appassionati di storia o utenti più giovani, come studenti di scuole medie superiori e inferiori.
Resumo:
In questo lavoro sono state analizzate diverse strategie di recupero di una cava dismessa situata presso la località Colombara (Monte San Pietro, Bologna). Su questi terreni sono state condotte tre prove, costituite da diverse parcelle nelle quali sono stati adottati differenti trattamenti. Sono state svolte analisi di tipo quantitativo del suolo e della parte epigea delle specie arbustive e arboree, focalizzandosi sull'azoto (N totale, ammoniacale, nitrico, e firma isotopica) e sulla sostanza organica del suolo. Inoltre è stata effettuata un'indagine qualitativa della composizione floristica. Scopo della tesi è quello di individuare le strategie più efficaci per un recupero di suoli degradati. Non sempre a trattamenti iniziali migliori corrispondono i migliori risultati portando a conclusioni apparentemente controintuitive a cui si è cercato di dare risposta.
Resumo:
Il presente lavoro ha avuto lo scopo di identificare le caratteristiche di filtrabilità della birra attraverso lo svolgimento di prove tecnologiche di filtrazione in scala di laboratorio e su scala pilota, utilizzando diverse tipologie di sistemi filtranti e sperimentando diversi materiali di membrana. La fase preliminare della caratterizzazione della filtrabilità della birra è stata condotta presso i laboratori del Campden-BRI – The Brewing Research International, Inghilterra, mentre le prove tecnologiche su scala pilota si sono svolte presso il CERB – Centro di Eccellenza per la Ricerca sulla Birra. Le prove di filtrazione e le analisi sui campioni hanno permesso di verificare le performance delle diverse membrane utilizzate in risposta alla variazione dei principali parametri del processo di filtrazione tangenziale. Sono stati analizzati diversi parametri di qualità della birra filtrata attraverso il monitoraggio del processo e lo svolgimento di prove analitiche sul prodotto volte ad evidenziare gli effetti delle differenti tecnologie adottate. Per quanto riguarda le prove di laboratorio per la caratterizzazione della filtrabilità della birra, l’analisi della PCS (Photon Correlation Spectroscopy) è stata utilizzata per verificare l’influenza di diversi trattamenti enzimatici sulla efficienza del processo di filtrazione e la loro influenza sulla stabilità colloidale della birra filtrata. Dai risultati ottenuti è emerso che il PCS è un valido strumento per determinare la distribuzione in classi di diametro e il diametro medio effettivo delle particelle solide in sospensione nella birra e può essere utilizzato sia per predire la stabilità della birra filtrata, sia per monitorare il processo di filtrazione in tempo reale.
Resumo:
Il coordinamento tra sistemi impositivi è una questione originaria e tipica del diritto comunitario. La tesi ne esplora le conseguenze sotto più aspetti.
Resumo:
La ricerca ha ad oggetto l’analisi della disciplina della responsabilità del vettore terrestre di merci per conto terzi ed i riflessi che detta disciplina ha avuto modo di svilupparsi nel mercato assicurativo. L’attenzione è stata rivolta al contratto di trasporto di cose in generale, seguendone la disciplina codicistica e le evoluzioni legislative intervenute. Particolare rilievo assume la novella apportata all’art. 1696 c.c., introdotta dall’art. 10 del Dlgs. 286/2005, grazie alla quale l’ordinamento italiano ha potuto codificare il limite di indennizzo dovuto dal vettore nell’ipotesi di colpa lieve, L’introduzione del limite legale di indennizzo per le ipotesi di responsabilità per perdita o avaria della merce trasportata ha generato nel mondo assicurativo interessanti reazioni. L’elaborato esamina anche l’evoluzione giurisprudenziale formatisi in tema di responsabilità vettoriale, evidenziando il crescente rigore imposto dalla giurisprudenza fondato sul principio del receptum. Tale fenomeno ha visto immediata reazione nel mercato assicurativo il quale, sulla base di testi contrattuali non dissimili tra le diverse compagnie di assicurazioni operanti sul mercato domestico e che traevano origine dai formulari approvati dall’ANIA, ha seguito l’evoluzione giurisprudenziale apportando significative restrizioni al rischio tipico previsto dalle coperture della responsabilità civile vettoriale. La ricerca si è poi focalizzata sull’esame delle più comuni clausole contemplate dalle polizze di assicurazioni di responsabilità civile e sul loro significato alla luce delle disposizioni di legge in materia. Tale analisi riveste preminente interesse poiché consente di verificare in concreto come l’assicurazione possa effettivamente costituire per l’impresa di trasporto non tanto un costo bensì una opportunità di risparmio da un lato ed un modello comportamentale, sebbene indotto, dall’altro lato per il raggiungimento di quei canoni di diligenza che qualsiasi operatore del settore dovrebbe tenere durante l’esecuzione del trasporto ed il cui venir meno determina, come detto, sensibili effetti pregiudizievoli di carattere economico.