754 resultados para Perch.


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Per “effetto domino” si intende uno scenario incidentale in cui un evento primario si propaga ad apparecchiature contigue tramite un vettore di impatto, con innesco di eventi incidentali secondari ed amplificazione delle conseguenze finali dell’incidente. Nei casi di maggior gravità gli effetti di scenari incidentali di questo tipo possono danneggiare contemporaneamente più impianti appartenenti allo stesso stabilimento oppure addirittura coinvolgere più stabilimenti. Gli incidenti dovuti ad effetto domino sono tra i più severi e complessi che possono avere luogo nell’industria di processo; la complessità che contraddistingue l’effetto domino influenza anche la definizione stessa del fenomeno e ne rende difficoltosa l’individuazione delle caratteristiche principali. È comunque condivisa l’idea che, perch uno scenario incidentale evolva con effetto domino, sia necessario l’elemento “propagazione”, ovvero lo sviluppo di uno o più scenari secondari causati dall’incidente iniziale con un aggravio dell’area di danno rispetto a quella connessa allo scenario incidentale iniziale. L’effetto domino è un argomento di grande interesse nell’ambito della valutazione del rischio di incidente rilevante, sia a causa dell’elevato rischio connesso alla sequenza di eventi incidentali che esso comporta, sia dell’indeterminazione ancora presente nelle metodologie di analisi e di valutazione del fenomeno stesso. La Direttiva Europea 2012/18/UE (la cosiddetta Direttiva Seveso III) ed il suo recente recepimento italiano, il D.Lgs. 105/2015, stabiliscono la necessità di valutare l’effetto domino tra stabilimenti, in particolare in aree industriali ad elevata concentrazione di attività a rischio di incidente rilevante. Tuttavia anche la valutazione dell’effetto domino all’interno dei singoli stabilimenti è importante, potendo essa rappresentare, da un certo punto di vista, il completamento dell’analisi di sicurezza dello stabilimento. In un contesto come quello dell’analisi del rischio di incidente rilevante, in corrispondenza dell’aggiornamento quinquennale del Rapporto di Sicurezza di stabilimento richiesto dalle norme di legge, nel presente lavoro di tesi è stata effettuata la valutazione dell’effetto domino intra-stabilimento per un sito a rischio di incidente, applicando la metodologia proposta nell’Allegato E del D.Lgs. 105/2015.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tesi rivolta allo studio del comportamento di Google Inc. nel campo delle lobby, in America ed in Europa: quanto investe nell'attività di lobbying, quali leggi vuole far approvare, perch è interessata a quel disegno di legge, differenze tra lobby americane ed europee e difficoltà incontrate in Europa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’anemometro a filo caldo (in inglese hot wire) é lo strumento maggiormente usato per studiare sperimentalmente la turbolenza. A seconda di quante componenti della velocitá interessa studiare, esistono anemometri a uno, due o tre fili. Questo elaborato di tesi si concentra su sonde a due fili. Per prima cosa, ogni volta che si utilizza questo strumento bisogna effettuare una calibrazione, fase molto importante perch permette di relazionare le tensioni che ogni filo acquisisce con la velocitá reale del flusso. Sono presentati tre differenti metodi utilizzati per sonde a due fili e, dopo averli analizzati, sono stati applicati a dati acquisiti prima al CAT (Coaxial Aerodinamic Tunnel), struttura presente a Forlí, nell’hangar dell’Universitá di Bologna e poi al CICLoPE (Center for International Cooperation in Long Pipe Experiments), Long-Pipe costruito a Predappio, utilizzato per lo studio della turbolenza. La calibrazione per sonde a due fili si puó dividere in due parti, quella di velocitá e quella per gli angoli. Mentre al CAT é possibile effettuarle entrambi, al CICLoPE non é attualmente possibile eseguire la calibrazione angolare perch non esiste alcuno strumento utilizzabile per regolare la sonda all’angolo desiderato. Lo scopo di questo elaborato di tesi è trovare un metodo di calibrazione per sonde a due fili applicabile al CICLoPE eseguendo sul posto solamente una calibrazione di velocitá e adattando quella angolare effettuata precedentemente al CAT. Questo puó provocare dei problemi perch la calibrazione risulta fortemente dipendente da condizioni interne dei fili, come la resistenza, ma anche da condizioni al contorno, come la temperatura e la pressione dell’ambiente esterno. Dopo aver eseguito due campagne sperimentali di test, una al CAT e una al CICLoPE, i dati acquisiti sono stati elaborati per valutare l’efficacia dei vari metodi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo progetto di tesi è lo sviluppo di un sistema distribuito di acquisizione e visualizzazione interattiva di dati. Tale sistema è utilizzato al CERN (Organizzazione Europea per la Ricerca Nucleare) al fine di raccogliere i dati relativi al funzionamento dell'LHC (Large Hadron Collider, infrastruttura ove avvengono la maggior parte degli esperimenti condotti al CERN) e renderli disponibili al pubblico in tempo reale tramite una dashboard web user-friendly. L'infrastruttura sviluppata è basata su di un prototipo progettato ed implementato al CERN nel 2013. Questo prototipo è nato perch, dato che negli ultimi anni il CERN è diventato sempre più popolare presso il grande pubblico, si è sentita la necessità di rendere disponibili in tempo reale, ad un numero sempre maggiore di utenti esterni allo staff tecnico-scientifico, i dati relativi agli esperimenti effettuati e all'andamento dell'LHC. Le problematiche da affrontare per realizzare ciò riguardano sia i produttori dei dati, ovvero i dispositivi dell'LHC, sia i consumatori degli stessi, ovvero i client che vogliono accedere ai dati. Da un lato, i dispositivi di cui vogliamo esporre i dati sono sistemi critici che non devono essere sovraccaricati di richieste, che risiedono in una rete protetta ad accesso limitato ed utilizzano protocolli di comunicazione e formati dati eterogenei. Dall'altro lato, è necessario che l'accesso ai dati da parte degli utenti possa avvenire tramite un'interfaccia web (o dashboard web) ricca, interattiva, ma contemporaneamente semplice e leggera, fruibile anche da dispositivi mobili. Il sistema da noi sviluppato apporta miglioramenti significativi rispetto alle soluzioni precedentemente proposte per affrontare i problemi suddetti. In particolare presenta un'interfaccia utente costituita da diversi widget configurabili, riuitilizzabili che permettono di esportare i dati sia presentati graficamente sia in formato "machine readable". Un'alta novità introdotta è l'architettura dell'infrastruttura da noi sviluppata. Essa, dato che è basata su Hazelcast, è un'infrastruttura distribuita modulare e scalabile orizzontalmente. È infatti possibile inserire o rimuovere agenti per interfacciarsi con i dispositivi dell'LHC e web server per interfacciarsi con gli utenti in modo del tutto trasparente al sistema. Oltre a queste nuove funzionalità e possbilità, il nostro sistema, come si può leggere nella trattazione, fornisce molteplici spunti per interessanti sviluppi futuri.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In collaborazione con la sezione di Bologna dell’Istituto Nazionale di Geofisica e Vulcanologia (INGV) si è dato il via ad un progetto mirato alla costruzione di nuove stazioni monitoranti. Stazioni che dovranno avere un basso impatto in termini di costi e consumi energetici, dando contemporaneamente la possibilità di essere pilotate a distanza. Quest’ultimo è un parametro fondamentale perch permetterebbe di interagire con la stazione anche durante il verificarsi di calamità naturali. Per giungere ad una soluzione si è quindi proceduto analizzando i possibili scenari e le soluzioni attualmente impiegate. Valutandone gli aspetti negativi e positivi. Successivamente, terminata la fase di documentazione, si è passati a vagliare le soluzioni tecnologiche attualmente disponibili sul mercato e ad assemblare un prototipo sperimentale. Non appena in possesso di una macchina sulla quale poter effettuare tutte le prove necessarie si è passati alla fase successiva. L’implementazione di test che potessero rappresentare al meglio una situazione reale. Da qui si è giunti ad una conclusione, tenendo in considerazione diversi fattori: le condizioni imposte dall’ambiente durante le operazioni di test ed i risultati ottenuti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro nasce dalla mia curiosità di comprendere le vicende che hanno sconvolto Hong Kong da settembre 2014 fino ad oggi con l’obiettivo di cogliere le cause principali che hanno innescato le proteste degli abitanti dell’isola. Il mio elaborato è composto da due capitoli: il primo, riguardante la storia di Hong Kong, ne ripercorre tutte le fasi principali: dalla scoperta dell’isola da parte delle navi inglesi fino alla cosiddetta “Rivoluzione degli Ombrelli”, passando per il 1997, anno in cui Hong Kong ritorna alla Cina; il secondo capitolo è dedicato all’analisi terminologica condotta su un corpus di 177,671 token e 15,832 types creato il 5 Maggio 2015 utilizzando i software BootCat e Antconc. L’analisi terminologica ha come scopo quello di analizzare espressioni e termini riguardanti le proteste di Hong Kong, scoppiate il 28 Settembre 2014, per osservare in che modo il linguaggio politico e i simboli della protesta abbiano condizionato la percezione di questi avvenimenti da parte dell’opinione pubblica cinese ed internazionale. Infine, ho organizzato i termini più significativi in schede terminologiche che ho inserito nell’appendice. Gli obiettivi del mio elaborato sono quelli di presentare le recenti rivolte di Hong Kong che, a mio avviso, non hanno avuto una grande risonanza nel nostro paese, cercando di approfondirne gli aspetti più salienti. Inoltre ho scelto di trattare questo argomento perch analizzare le relazioni tra la Cina e una delle proprie “aree periferiche” permette di osservare la politica, la società e la cultura cinese da un punto di vista affascinante e inusuale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un manuale tecnico non veicola solo contenuti, ma definisce anche il rapporto tra emittente e destinatario all’interno di una relazione commerciale. Il testo deve quindi essere di buona qualità, altrimenti si potrebbero verificare danni economici e di immagine per l’emittente. Nonostante ciò, molte aziende dimostrano scarsa sensibilità al problema della qualità redazionale perch ottenerla significa affrontare investimenti di tempo e risorse. Con questa tesi propongo una modalità di revisione del manuale tecnico che tiene in considerazione esigenze di natura diversa: utilizzando gli strumenti CAT per la revisione è possibile, infatti, migliorare la qualità del manuale riducendo i tempi richiesti dal lavoro, e quindi contenerne i costi. Questa proposta, tuttavia, non è una soluzione definitiva perch la revisione migliora un singolo testo: affinché l’azienda comunichi in modo efficace non si può prescindere da un adeguato percorso di formazione dei redattori. In particolare, in un manuale tecnico la qualità corrisponde a un linguaggio chiaro, semplice e non ambiguo, ben lontano dunque dal burocratese che viene considerato da molti un buono stile e dall’antilingua contro cui già Calvino metteva in guardia. Le competenze non solo linguistiche del traduttore gli permettono di rivelarsi una figura determinante anche per la redazione e la revisione di testi monolingue. Così come tradurre non significa trasferire da una lingua all’altra le parole, ma i concetti, allo stesso modo rendere chiaro, semplice e univoco un manuale non vuol dire solo aumentarne la leggibilità, ma soprattutto mettere il destinatario nelle condizioni di capire i contenuti e di eseguire correttamente le istruzioni nel passaggio dal contesto linguistico a quello fattuale. Anche nella revisione, come nella traduzione, gli strumenti automatici non sostituiscono il professionista, ma gli permettono di finalizzare a uno scopo preciso le sue conoscenze sul funzionamento della lingua e della comunicazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ai nostri giorni le aree costiere risultano particolarmente sensibili perch sottoposte ad alcune fonti di stress, quali la salinizzazione degli acquiferi e la naturale ed antropica modificazione del territorio costiero. Questo lavoro indaga gli effetti dell’incendio del 2012 nella Pineta costiera di Lido di Dante (Ravenna) sull’acquifero costiero superficiale. Sono stati effettuati i rilievi in campo della tavola d’acqua, della conduttitivà elettrica e del pH nei mesi di novembre 2014 e luglio 2015. I campioni di acqua sono stati prelevati grazie alla tecnologia dei minifiltri, un sistema di campionamento multilivello molto preciso e rapido. Il campionamento comprende 3 transetti di minifiltri ubicati nella zona bruciata della pineta e un transetto di controllo nella zona verde della pineta, dove la vegetazione è intatta. Dall’elaborazione grafica di questi valori sono state ottenute delle isolinee rappresentative di valori soglia per le acque dolci, salmastre, salate, a pH 7.5 tipico delle acque meteoriche e a pH 8 tipico dell’acqua di mare. I valori di conduttività elettrica rapportati alla topografia e alla tavola d’acqua mostrano la formazione di lenti di acqua dolce nella zona dove la vegetazione è scomparsa a causa dell’incendio. Acque dolci assenti nella zona verde a causa della vegetazione e della sua attività evapotraspirativa. Le isolinee ottenute dal pH spiegano invece l’effetto delle ceneri dell’incendio dilavate dalle acque meteoriche e le differenze con la zona ancora ricoperta da vegetazione. I parametri analizzati risultano determinanti nella valutazione dello stato di salute della risorsa acquifera della costiera romagnola minacciata dalla salinizzazione e dalla modificazione del pH.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’interpretazione televisiva desta particolare interesse nella ricerca sull’interpretazione, perch questo contesto lavorativo dà una grande visibilità alla professione dell’interprete. Dato il considerevole aumento dell’importanza dei mezzi di comunicazione di massa e la loro capillarità, si impone una forma di trasferimento linguistico che renda fruibili al più vasto pubblico gli eventi trasmessi. Lo scopo di questo studio è presentare l’interpretazione televisiva nelle sue varie forme, soffermandosi poi sull’interpretazione simultanea e in particolare sull’analisi di due interpretazioni di uno stesso evento mediatico: il secondo dibattito televisivo del 2012 tra i due candidati alla presidenza degli Stati Uniti d’America: l’ex governatore del Massachusetts Mitt Romney e il presidente uscente Barack Obama. Il primo capitolo si basa sui dibattiti presidenziali statunitensi e illustra la storia dei dibattiti televisivi statunitensi, oltre al contesto e al discorso politico americano. Nel secondo capitolo viene analizzata l’interpretazione per la televisione. Dopo alcuni cenni storici, si passano in rassegna le diverse modalità di conversione linguistica utilizzate nel contesto televisivo. Il terzo capitolo verte sulla presentazione dei dati raccolti, la selezione e la trascrizione degli stessi. Il quarto capitolo contiene la vera e propria analisi delle rese interpretative in italiano dei dibattiti presidenziali americani scelti. Vengono prese in esame e confrontate le interpretazioni in italiano dello stesso dibattito trasmesse da due diversi canali: Rai News e Sky TG24. Il quinto capitolo contiene alcune considerazioni conclusive che si basano sul risultato dell’analisi dei dati. Nell’appendice viene invece presentata una parte del materiale analizzato, ovvero le trascrizioni segmentate e allineate del dibattito in originale e delle due interpretazioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi nasce con l'obbiettivo di studiare il modello di Guyton, proponendone una versione più dettagliata con lo scopo di utilizzarla poi come strumento di indagine per una patologia nota come atresia tricuspidale. Si è giunti così alla creazione di un modello ibrido del sistema cardiovascolare che vede la modellizzazione, a parametri concentrati, dell’intera rete circolatoria interfacciata con una rappresentazione dell' attività cardiaca mediante le cosidette curve di funzionalità. Nello specifico si è risaliti ad un modello della cicolazione cardiocircolatoria separando quella che è la circolazione sistemica dalla circolazione polmonare secondo il sopracitato modello di Guyton, dopo di chè si è trovato un analogo modello per pazienti sottoposti all' intervento di Fontan poiché affetti da atresia tricuspidale.Tramite l'ausilio del software Matlab sono stati implementati questi due modelli semplificati (“Guyton biventricolare” e “Guyton monoventricolare”) e il corrispondente algoritmo risolutivo, con l'obiettivo di verificare, graficamente e numericamente, i risultati ottenuti dalla simulazione.Una volta accertatisi della attendibilità dei risultati, mediante il confronto con dati fisiologici dai manuali e dagli articoli su cui si è fondato questo elaborato, si è proceduto alla simulazione di casi fisiologici di attività fisica e di malfunzionamento del ventricolo sinistro.L'utilizzo di un modello matematico per la circolazione permette di studiare e simulare l'interazione di diversi sistemi fisiologici superando il problema che si ha in ambito clinico, dove l'analisi è più complessa perch la misurazione delle numerose variabili fisiologiche è indaginosa e a volte non fattibile.Fine ultimo dell'elaborato tuttavia non è quello di dare valutazioni cliniche dei casi presi in esame e delle loro variabili, ma quello di presentare un metodo per studiare come la fisiologia della circolazione umana reagisce a dei cambiamenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'evoluzione del concetto di infinito nella storia presenta difficoltà che ancora oggi non sono sono state eliminate: la nostra mente è adattata al finito, per questo quando ha a che fare con oggetti troppo grandi o troppo piccoli, essa crea delle immagini che le permettono di vederli e manipolarli. Bisogna tuttavia stare attenti alle insidie che questi modelli nascondono, perch attribuiscono agli enti originali alcune proprietà fuorvianti, che ci portano a conclusioni distorte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi ci siamo concentrati su ponte pedonale di Vagli, celebre opera dell’ing. Riccardo Morandi progettata nel 1953. Tale opera, che appartiene ora all’archeologia industriale, è molto interessante per le soluzioni costruttive adottate al tempo, per la fama del progettista e per il fatto di essere un raro esempio di ponte con fondazioni sommerse entro un invaso artificiale, e per essere stato costruito in una zona in cui la progettazione antisismica moderna prevedrebbe accortezze molto diverse. È stato pertanto deciso di effettuare una caratterizzazione dinamica completa del suolo di fondazione e della struttura stessa, sia dal punto di vista sperimentale in condizioni passive che dal punto di vista teorico-modellistico in condizioni attive (cioè in presenza di terremoto). La caratterizzazione dinamica sperimentale dell’opera è stata effettuata prima ad invaso completamente svuotato e quindi con i pilastri del ponte a contatto con l’aria.La caratterizzazione è stata poi ripetuta in condizioni di invaso riempito, con circa 15 metri di acqua. Questo caso di studio si rivela particolarmente interessante per comprendere come il livello dell’acqua modifichi o meno il comportamento dinamico del ponte, e le implicazioni che questo avrebbe nella progettazione sismica moderna. I risultati ottenuti sono rilevanti perch forniscono una caratterizzazione completa dell’opera (suolo-struttura) allo stato attuale e possono quindi essere usati, attraverso il confronto con dati futuri, per valutare l’invecchiamento della struttura stessa o per effettuare verifiche strutturali post-sisma. A fronte di danni strutturali anche invisibili all’occhio umano, infatti, la risposta dinamica della struttura cambia e conoscere lo stato pre-sisma permette di valutare dove e quanto tale risposta sia eventualmente cambiata. L’analisi qui effettuata permette infine di rendere conto dei parametri con cui quest’opera sarebbe dovuta essere costruita secondo gli standard normativi attuali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Cloud Computing permette di utilizzare al meglio le risorse distribuite allo scopo di risolvere problemi di computazione su larga scala, e viene distribuito dai provider all'utente finale sotto forma di servizio. Presentati i diversi modelli di distribuzione dei servizi Cloud, si discutono le varie tipologie di servizi offerti. Efficaci meccanismi di elasticità e scalabilità hanno permesso al Cloud Computing di superare lo scoglio iniziale di utilizzo medio dei server al 10%. L'elasticità (rapid elasticity) è l’abilità di acquisire e rilasciare le risorse di un'infrastruttura Cloud su richiesta, l’abilità di un'applicazione di cambiare le sue dimensione durante il suo tempo di esecuzione; la scalabilità è un prerequisito per ottenere una buona elasticità per il sistema, ed è l'abilità che ha un layer di sostenere carichi di lavoro variabili continuando ad adempiere agli obblighi imposti dallo SLA allocando o disallocando risorse computazionali. Le diverse modalità di scaling e il loro utilizzo determinano la scalabilità e di conseguenza l'elasticità del sistema, e sfruttano la virtualizzazione per poter funzionare. Ciò ha portato notevoli benefici perch aumenta l'utilizzo dei server, migliora l'efficienza del sistema, e dona flessibilità in caso di errori massimizzando il tempo di funzionamento. Sono stati introdotti due esempi di sistemi elastici basati ovviamente sulla virtualizzazione come Amazon Web Services e Microsoft Azure, che dominano il mercato del Cloud Computing e fanno uso dei più efficenti meccanismi d'elasticità. Il cuore di questo elaborato è l'analisi dell'ampliamento dell'adozione del Cloud Computing in azienda Onit Group srl. L'obiettivo è trattare i punti fondamentali per il Cloud Computing, analizzarli e immagazzinare tutte queste conoscenze per analizzare lo stato attuale del Cloud nell'azienda focalizzando l'attenzione sui vantaggi e sugli svantaggi che un sostanziale ampliamento dell'adozione ai sistemi Cloud poteva apportare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi sono stati analizzati i dati raccolti nella sperimentazione di un percorso di fisica quantistica in una quinta liceo scientifico – indirizzo musicale, svolta nel periodo Marzo-Giugno 2015. Il percorso, progettato dai ricercatori in Didattica della Fisica del DIFA di Bologna, comprende una parte “genuinamente” quantistica sviluppata a partire dall’“Esperimento più bello della Fisica”. Il percorso è stato progettato sulla base dei criteri che definiscono l’appropriazione, costrutto che esprime un particolare tipo di apprendimento attraverso cui lo studente “fa proprio” un concetto. L’analisi è stata condotta con l’obiettivo di osservare casi di appropriazione tra gli studenti e di rifinire il costrutto di appropriazione, valutando in particolare l’efficacia del questionario sociometrico, uno strumento appositamente progettato dall’autore di questa tesi per valutare una delle dimensioni di cui si compone il costrutto di appropriazione. I principali dati analizzati per dare risposta agli obiettivi della tesi riguardano le risposte degli studenti a interviste realizzate alla fine del percorso scolastico, nonché gli esiti di altre attività appositamente progettate: svolgimento di un compito in classe, elaborazione di un tema scientifico, compilazione di questionari. I risultati mostrano come si siano ritrovati tre punti molto delicati che possono ostacolare l’appropriazione: il tempo a disposizione, le dinamiche di classe e soprattutto il rapporto che hanno avuto gli studenti con i concetti quantistici del percorso. Tali fattori hanno portato reazioni molto diverse: chi è stato stimolato e questo ha favorito l’appropriazione, chi ha compreso la fisica quantistica ma non l’ha accettata, chi l’ha compresa e accettata senza troppi problemi, chi si è rifiutato di studiarla perch “troppo grande per sé”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni si è potuto notare un notevole incremento dei servizi web che hanno come caratteristica comune quella di mettere in comunicazione domanda e offerta per un determinato tipo di bene o di servizio. Questi siti web o applicazioni per smartphone sono chiamati multisided platforms e, negli ultimi anni, oltre ad essere cresciuti molto come numero, hanno anche incrementato considerevolmente il loro valore. Booking.com, Uber, Airbnb, Alibaba, Expedia sono solo alcuni esempi di multisided platforms. È evidente che in tanti settori è in atto una rivoluzione di come si incontrerà la domanda e l’offerta e visto l'enorme successo negli ultimi anni di questo tipo di piattaforme questa tesi vuole studiare i motivi della loro crescita. Dal punto di vista dell’utente è evidente che le multi-sided platforms riducono i costi di transizione, permettendo una ricerca veloce tra le soluzioni che soddisfano il proprio bisogno. Ma dal punto di vista aziendale perch decidere di appoggiare il proprio business su questo tipo di siti o applicazioni? Per rispondere a questa domanda verrà inizialmente fatta una analisi del segmento delle MSPs, e successivamente verrà fatto un confronto tra le principali piattaforme di ecommerce (attualmente Amazon ed eBay) e una soluzione che non si basa su una piattaforma gestita da terzi.