1000 resultados para gruppi di isometrie dei fregi cristallografici piani Escher


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro viene condotta un’analisi critica delle caratteristiche materiali e delle performance di una classe di polimeri recentemente sviluppata, i “Polimeri a Microporosità Intrinseca”, di grande interesse per lo sviluppo di membrane per la separazione di gas, specialmente nella Carbon Capture. Partendo dall’analisi del meccanismo di separazione di gas in membrane polimeriche dense si fornisce una overview sulle tecnologie assodate e innovative per la separazione di gas e per la CC. Le caratteristiche e le proprietà strutturali di rilievo dei polimeri vetrosi sono poi brevemente illustrate e le correlazioni empiriche note tra le suddette e le proprietà di trasporto di materia. Vengono quindi descritti i PIMs analizzando in primis la loro tipica struttura chimica, i processi di sintesi e le caratteristiche principali. Per il PIM-1, capostipite della categoria, il trasporto di gas viene approfondito con lo studio della variabilità delle proprietà quali la permeabilità, la diffusività e la solubilità di penetranti gassosi con i parametri operativi (p, T, composizione dei feed), considerando anche fenomeni tipici dei polimeri vetrosi quali l’aging e l’effetto dei solventi. Sono poi analizzate le proprietà di trasporto nei diversi PIMs, e confrontate con quelle di polimeri di comune utilizzo nelle separazioni in esame. La rielaborazione dei dati raccolti permette di confrontare le performance di una varietà di polimeri nella separazione di gas. In particolare l’analisi critica dei diagrammi permeabilità/selettività induce ad una valutazione approssimativa ma significativa delle possibili soluzioni tra cui optare per una data separazione di gas, considerando anche i parametri operativi tipici della stessa. Infine, vengono riportati e commentati dati di permeazione di miscele gassose in due diversi PIMs e nel polimero PTMSP, ponendo l’attenzione sulle reali condizioni operative con cui la tecnologia a membrane si deve confrontare in applicazioni reali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo della presente tesi è sviluppare un ambiente per l'ottimizzazione strutturale di componenti per applicazione aerospaziale utilizzando codici open-source. In particolare, il codice Salome viene utilizzato per il disegno automatico delle strutture, il programma Code Aster permette di effettuare l'analisi agli elementi finiti del componente, mentre Octave viene utilizzato per svolgere l'ottimizzazione basata su un algoritmo euristico e per integrare fra di loro i differenti codici. Le tecniche di ottimizzazione dei componenti stanno rivestendo sempre più importanza visto che le moderne tecniche di Additive Manufacturing permettono di realizzare strutture molto complesse che un tempo non era conveniente (o possibile) realizzare con asportazione di materiale. Nella prima parte della tesi si descrivono gli strumenti software utilizzati e la loro integrazione al fine di parametrizzare la generazione di geometrie ed effettuare in modo automatico analisi strutturali. Successivamente si descrivono tre casi di studio in cui la metodologia è stata sperimentata: un primo caso di validazione in cui si è applicato il metodo alla definizione della geometria di minimo peso per una trave a sbalzo con carico concentrato, un secondo test di ottimizzazione di un longherone per aeromobile, un terzo caso applicativo legato alla ottimizzazione di un serbatoio per fluidi in pressione da utilizzare su un satellite.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Tesi tratta di un caso di studio di un magazzino ricambi in ottima di ottimizzazione e riprogettazione. Dall'analisi della situazione attuale in termini di scorte, processo e indice di saturazione volumetrico si evince come una nuova soluzione di magazzino sia l'unica strada da percorrere per fronteggiare l'attesa crescita del business. L'incremento delle vendite e allo stesso tempo il mantenimento dell'alto livello di servizio da garantire al cliente in termini di disponibilità dei codici e puntualità della consegna, sono due condizione che richiedono un innovazione di tipo radicale. Da un progetto a livello di Gruppo si arriva a definire la configurazione ideale del nuovo magazzino e si lascia ad uno sviluppo futuro l'effettiva gestione del tender per definire l'operatore logistico che porterà avanti il lavoro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La pianificazione e la gestione dei processi è diventata un elemento critico a causa della crescente complessità delle attività all’interno delle organizzazioni. Nell’era dell’impresa digitale, la gestione dei processi di businesss viene coadiuvata mediante l’utilizzo di sistemi software che sono in grado di gestire una grande quantità di informazioni ovvero i sistemi BPM. Il Business Performance Management è una disciplina gestionale che si occupa di descrivere e gestire i processi di business di una organizzazione. L’obiettivo della seguente tesi è verificare se il modello del processo realizzato precedentemente all’implementazione del sistema reale possa permettere una più dettagliata analisi del sistema e anticipare relative problematiche che talvolta si evincono solamente durante il mero sviluppo. Inoltre si vuole verificare se il modello realizzato in fase di discussione di un nuovo progetto cliente possa poi migliorare anche lo scambio di informazioni nel team di sviluppo. A supporto di questa tesi è stato sviluppato un caso di studio reale in una società di gestione del risparmio specializzata in fondi di investimento immobiliare. Inizialmente si è proceduto con una prima fase di raccolta dei requisiti dell’applicativo che si è conclusa con la realizzazione dei modelli creati utilizzando due linguaggi che sono il Business Process Model and Notation (BPMN) e il Decision Model and Notation (DMN); il medesimo applicativo è stato successivamente implementato seguendo i modelli realizzati. I tempi globali di sviluppo del sistema e la migliore comprensione del modello da parte del team di sviluppo hanno fatto evincere l’utilità della modellazione a fronte di maggiori giornate uomo. Inoltre è stata riscontata maggiore manutenibilità complessiva del sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella tesi si cerca di dare una nuova chiave di lettura del monumento unico nel suo genere, quanto noto Parliamo del Mausoleo di Teodorico che si erige nelle immediate vicinanze del centro di Ravenna.Il Mausoleo costruito nel v secolo, quando Ravenna è capitale dell’impero d’Occidente e vi si stabilisce Teodorico il Grande. La struttura è stata molto esaminata nel corso del tempo da molti studiosi ma non si ha notizia di una analisi d'insieme. Si è cercato quindi di mettere a fuoco uno degli aspetti più emblematici ed ancor ben lungi da scientifiche certezze: La sua copertura.Si tratta di un monolite con un peso stimato tra le 240 e le 270 Tonnellate proveniente dalle cave di Aurisina in Istria. Numerosi studiosi si sono cimentati nello stipulare le proprie ipotesi sul trasporto e soprattutto sulla sua messa in opera senza giungere ad un univoca conclusione. Si è proceduto poi alla loro schematizzazione in filoni principali senza tralasciare una propria opinione valutandone i pro e i contro anche in base alle conoscenze attuali. Si sono confrontati metodi di trasporto dei monoliti, senza tralasciare l’analisi delle macchine da cantiere dell’epoca a supporto delle ipotesi proposte. Da ultimo mi sono soffermato sul significato semantico delle dentellature di sommità della copertura, o modiglioni: anche per questi elementi vi sono stati e mi auguro ci saranno numerosi dibattiti sul loro aspetto simbolico o quantomeno funzionale. Durante la stesura della è scaturito anche un interessante confronto di idee che testimonia quanto la questione sia ancora articolata ed interessante. Si apre quindi a suggerimenti per spunti futuri specialmente per quanto riguarda indagini diagnostiche strumentali sulla cupola e sulla sua crepa. Mi auguro che raccogliendo e analizzando le principali ipotesi si possa proseguire questo filone investigativo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi nasce in seguito all’esperienza di tirocinio svolta presso l’Arcispedale Santa Maria Nuova di Reggio Emilia. Fulcro di questo lavoro è lo sviluppo di un sistema di pianificazione della dose per il trattamento dei pazienti sottoposti a Molecular Radionuclide Therapy (MRT). Presso tale struttura ospedaliera è già stato sviluppato uno strumento che si appoggia all’ambiente di lavoro Matlab per il calcolo dosimetrico. Tale programma è chiamato VoxelMed. Si tratta di uno strumento di calcolo che lavora al così detto voxel-level, tecnica di sviluppo recente che permette il calcolo della dose assorbita all’interno di un paziente in modo più dettagliato rispetto ai metodi di calcolo basati unicamente sulla stima media per organo, tipicamente impiegati in dosimetria tradizionale. Parte del lavoro di tesi consiste nell’implementare nuove modalità di calcolo ed aggiungere ulteriori accorgimenti all’attuale versione di VoxelMed. In VoxelMed è stata poi integrata ex-novo una componente di calcolo di misure radiobiologiche, in particolare della BED. La dose assorbita non è infatti un parametro sufficiente per valutare gli effetti della radiazione sui tessuti, a parità di tipo ed energia della radiazione gli effetti possono essere molto variabili. La BED è il parametro che tiene conto della risposta del tessuto sano o cancerogeno alla radiazione. Parte del lavoro è stato svolto sperimentalmente, tramite misure con fantocci acquisiti o preparati ad hoc. In particolare si sono utilizzati diverse tipologie di fantocci, per effettuare protocolli di calibrazione dei sistemi di acquisizione, misure di curve di effetto di volume parziale e test finali di verifica. Per un ulteriore verifica delle prestazioni di calcolo si sono effettuate misurazioni su un gruppo di pazienti e si sono confrontati i risultati con quelli ottenuti dal software maggiormente utilizzato nella pratica clinica, OLINDA/EXM.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Modello Standard delle particelle elementari prevede l’universalità del sapore leptonico, cioè l’uguaglianza della probabilità di accoppiamento dei bosoni di gauge carichi dell’interazione debole con tutti i leptoni. Recentemente, le Collaborazioni LHCb, BaBar e Belle, misurando il rapporto tra i branching ratio dei decadimenti $B^0\to D^{∗− }\tau^+\nu_{\tau} e $B^0 →D^{∗−}\mu^+\nu_{\mu}, hanno osservato una deviazione dai valori previsti dal Modello Standard di 3.9 deviazioni standard. Questo interessante risultato, se confermato, indicherebbe l’esistenza di nuove particelle, come per esempio il bosone di Higgs carico. Analogamente ai decadimenti del mesone $B^0$ , è possibile cercare effetti analoghi anche nel rapporto di branching ratio dei decadimenti $D^0\to K^ −\mu^+\nu_{\mu}$ e $D^0\to K^−e^+\nu_e$ . In questo lavoro di tesi è stato realizzato uno studio preliminare di questa misura. In particolare, è stato studiata, tramite simulazioni Monte Carlo, la ricostruzione del processo $D^{*\pm}\to D^0 (\to K^− \mu+\nu_{\mu})\pi_s^{\pm}$ nell’esperimento LHCb. Questo canale ha la particolarità di avere una particella invisibile, il neutrino, al rivelatore LHCb. Tuttavia, mediante vincoli cinematici e topologici, è possibile ricavare le componenti dell’impulso del neutrino, con risoluzioni non paragonabili a quelle di una particella visibile, ma comunque accettabili. In questa tesi sono riportati i calcoli che permettono di ottenere queste informazioni ed è stata studiata la risoluzione sulla massa invariante del $D^{∗\pm}$ . La tesi è organizzata nel seguente modo: il primo capitolo riporta le motivazioni della misura dei rapporti dei branching ratio e l’attuale stato sperimentale; il secondo capitolo contiene una breve descrizione del rivelatore LHCb; il terzo capitolo, infine, descrive lo studio di fattibilità della ricostruzione del decadimento $D^0\to K^-\mu^+\nu_{\mu}.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Un problema fondamentale nello studio delle particelle elementari è disporre di misure più accurate possibile delle traiettorie che queste seguono all'interno dei rivelatori. La precisione di misura dei parametri di traccia è importante per poter descrivere accuratamente gli eventi e le interazioni che avvengono all'interno dei rivelatori. LHCb è un esempio di esperimento progettato con lo scopo di ottenere misure di precisione dei parametri della cinematica delle particelle per poter studiare la violazione delle simmetrie. Rivelatori come quello dell'esperimento LHCb utilizzano avanzate tecniche di tracciamento per individuare le traiettorie. Queste sono influenzate da fattori di rumore dovuti all'interazione tra le particelle e il materiale del rivelatore stesso. Nell'analisi delle misure effettuate quindi occorre tenere conto che sia la sensibilità del rivelatore che i fattori di rumore contribuiscono nella determinazione dell'incertezza sulla misura. Uno strumento matematico usato per ottenere precise stime dei parametri di traccia è il filtro di Kalman, che implementato su un campione di misure di una determinata grandezza, consente di minimizzare gli effetti dovuti a rumori statistici. In questo lavoro di tesi sono stati studiati la struttura e il funzionamento del rivelatore dell'esperimento LHCb e dei sistemi di tracciamento che lo caratterizzano e che ne costituiranno il futuro aggiornamento. Inoltre è stata analizzata l'azione del filtro di Kalman, implementandolo in una simulazione di tracciamento al calcolatore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La gestione del fine vita dei prodotti è un argomento di interesse attuale per le aziende; sempre più spesso l’imprese non possono più esimersi dall’implementare un efficiente sistema di Reverse Logistics. Per rispondere efficacemente a queste nuove esigenze diventa fondamentale ampliare i tradizionali sistemi logistici verso tutte quelle attività svolte all’interno della Reverse Logitics. Una gestione efficace ed efficiente dell’intera supply chain è un aspetto di primaria importanza per un’azienda ed incide notevolmente sulla sua competitività; proprio per perseguire questo obiettivo, sempre più aziende promuovono politiche di gestione delle supply chain sia Lean che Green. L’obiettivo di questo lavoro, nato dalle esigenze descritte sopra, è quello di applicare un modello innovativo che consideri sia politiche di gestione Lean, che dualmente politiche Green, alla gestione di una supply chain del settore automotive, comprendente anche le attività di gestione dei veicoli fuori uso (ELV). Si è analizzato per prima cosa i principi base e gli strumenti utilizzati per l’applicazione della Lean Production e del Green supply chain management e in seguito si è analizzato le caratteristiche distintive della Reverse Logistics e in particolare delle reti che trattano i veicoli a fine vita. L’obiettivo finale dello studio è quello di elaborare e implementare, tramite l’utilizzo del software AMPL, un modello di ottimizzazione multi-obiettivo (MOP- Multi Objective Optimization) Lean e Green a una Reverse Supply Chain dei veicoli a fine vita. I risultati ottenuti evidenziano che è possibile raggiungere un ottimo compromesso tra le due logiche. E' stata effettuata anche una valutazione economica dei risultati ottenuti, che ha evidenziato come il trade-off scelto rappresenti anche uno degli scenari con minor costi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel panorama mondiale di contenimento delle emissioni inquinanti in atmosfera é divenuto sempre più importante limitare la parte derivante dai motori a combustione interna: l'utilizzo di motori GDI a carica stratificata e di ricircolo dei gas di scarico (EGR) sono esempi di tecnologie pensate proprio in tale ottica. Sia la presenza di un ambiente magro che di EGR nel cilindro, come anche l'aumento della pressione nel cilindro per l'incremento della pressione di sovralimentazione o del rapporto di compressione, hanno lo svantaggio di limitare la velocità di combustione e rendere più sfavorevoli le condizioni di accensione della miscela; in questo scenario diviene di fondamentale importanza il miglioramento dei sistemi di accensione, la creazione di modelli volti a simularli e la comprensione dei fenomeni che ne stanno alla base. Il seguente lavoro di tesi si inserisce proprio in questo contesto, indagando le varie fasi di cui si compone il fenomeno dell'accensione e le relazioni che legano le variabili di interesse fisico, verificate sulla base di evidenze sperimentali. Successivamente vengono analizzati i principali modelli d'accensione che sono stati proposti e implementati in codici computazionali fluidodinamici; l'analisi mette in luce le differenze, i punti di forza e le semplificazioni introdotte in ognuno di essi, in modo da poterli valutare criticamente. La suddetta analisi é anche utile per introdurre il modello frutto del lavoro del gruppo di ricerca dell'Università di Bologna; ci si concentra particolarmente su quest'ultimo poiché un obiettivo di questo lavoro di tesi é stato proprio l'implementazione e l'utilizzo del modello in un codice fluidodinamico tridimensionale quale CONVERGE CFD. L'implementazione é stata poi validata attraverso simulazioni su una geometria reale di un motore a combustione interna ad elevate prestazioni, confrontando i risultati ottenuti con il nuovo modello rispetto ai dati sperimentali sulla combustione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Limiti sempre più stringenti sulle emissioni inquinanti ed una maggiore attenzione ai consumi, all'incremento di prestazioni e alla guidabilità, portano allo sviluppo di algoritmi di controllo motore sempre più complicati. Allo stesso tempo, l'unità di propulsione sta diventando un insieme sempre più variegato di sottosistemi che devono lavorare all'unisono. L'ingegnere calibratore si trova di fronte ad una moltitudine di variabili ed algoritmi che devono essere calibrati e testati e necessita di strumenti che lo aiutino ad analizzare il comportamento del motore fornendo risultati sintetici e facilmente accessibili. Nel seguente lavoro è riportato lo sviluppo di un sistema di analisi della combustione: l'obbiettivo è stato quello di sviluppare un software che fornisca le migliori soluzioni per l'analisi di un motore a combustione interna, in termini di accuratezza dei risultati, varietà di calcoli messi a disposizione, facilità di utilizzo ed integrazione con altri sistemi tramite la condivisione dei risultati calcolati in tempo reale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca è nata dalla volontà di indagare il legame tra innovazione sociale, sviluppo e turismo. La domanda di ricerca che ha guidato questo lavoro ha assunto una duplice natura. Il primo obiettivo, di natura teorica, è stato quello di concettualizzare l’IS attraverso uno studio comparativo della letteratura internazionale, definendone le dimensioni e i processi di diffusione. Dal punto di vista empirico, è stata effettuata una ricerca-azione di tipo qualitativo nella città di Bologna. Partendo da un approfondimento storico che ha analizzato alcune peculiarità territoriali – il movimento cooperativo, i distretti industriali, etc. – l’indagine ha fornito una prima panoramica del fenomeno attraverso una mappatura delle realtà bolognesi. I risultati emersi hanno dimostrato che i legami tra IS, sviluppo e turismo sono complessi. L’IS comporta delle conseguenze per il territorio, andando ad intervenire all’interno dei processi di sviluppo. Nel rispondere a bisogni emergenti, essa promuove agency ed empowerment, creatività e capitale sociale abilitante. In un’ottica di sviluppo territoriale integrato, l’IS agisce sul processo di capacitazione, sia attraverso la valorizzazione del capitale sociale e la creazione di reti, sia attraverso processi di negoziazione e conflitto. L’indagine ha mostrato che tra turismo e IS esiste una triplice relazione. Innanzitutto, il turismo può essere considerato come uno strumento di analisi per osservare l’IS, ma la relazione avviene soprattutto a livello di pratiche sociali. Esistono, infatti, a Bologna diversi casi di iniziative di IS che diventano esperienze turistiche e viceversa. Citando Lefebvre, quando IS e turismo trovano spazi di intersezione emerge un duplice diritto alla città. Un diritto che si manifesta nella (ri)appropriazione di spazi fisici e simbolici dove si collocano le relazioni sociali e dove si elaborano progettualità condivise e dove la comunità può partecipare, supportando la capacità di aspirare dei soggetti locali

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In caso di una lesione del legamento crociato anteriore (ACL), l'approccio chirurgico gold standard è la tecnica di ricostruzione ACL Single-Bundle (SB). Recentemente, sono state proposte altre tecniche alternative per ridurre il rischio di lassità residua post-operatoria, come la ricostruzione del Single Bundle con aggiunta di palstica latearle (SBLP) e le procedure a doppio fascio (DB). Quarantadue pazienti sottoposti a ricostruzione ACL sono stati inclusi prospetticamente nello studio. È stata eseguita una randomizzazione per allocare i pazienti nei diversi gruppi di studio: Single-Bundle-Lateral-Plasty, Single-Bundle e Double-Bundle. Un sistema di navigazione intraoperatorio è stato utilizzato per valutare i valori di lassità. I valori di lassità pre e post-chirurgici sono stati valutati tramite i test Lachman test (AP30), Drawer test (AP90), Varus-Valgus stress test a 0° e 30° flessione del ginocchio (VV0, VV30), rotazione esterna interna (IE30, IE90), e il test del pivot shift (PS). . In tutti e tre i gruppi, i valori di lassità post-ricostruzione sono risultati statisticamente ridotti rispetto ai valori pre-ricostruzione (P < 0,05) per tutti i test analizzati. Considerando l'analisi del test del cassetto e della rotazione interna-esterna a 30 e 90 gradi di flessione del ginocchio, è stata identificata una differenza significativa tra le diverse ricostruzioni chirurgiche. La tecnica SBLP ha portato ad avere i valori di migliori rispetto alle tecniche SB (PIE90 - 0,001) e DB (PAP90 - 0.012; PIE30 - 0,021; PIE90 - 0,003). La tecnica SBLP ha ottenuto risultati significativamente migliori rispetto alle altre tecniche studiate in termini di riduzione della lassità antero-posteriore e interna-esterna a tempo zero dopo la ricostruzione del legamento crociato anteriore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi studia ed approfondisce la disciplina dei mercati di crescita per le PMI, indagando il regime normativo delle società ivi quotate. Considerata la struttura composita dell’architettura regolamentare (direttive e regolamenti europei, fonti primarie nazionali e regolamento del mercato) l’indagine adotta una prospettiva olistica sulla regolamentazione, al fine di individuare principii comuni e risolevere dubbi interpretativi. Inoltre, l’approfondimento in chiave storica e di economia politica, volto a ricostruire le ragioni per l’introduzione dei mercati di crescita e gli obiettivi perseguiti dal legislatore europeo, permette di identificare le rationes sottostanti alle disposizioni e di facilitarne l’interpretazione. Il primo capitolo approfondisce l’evoluzione storica e istituzionale dei mercati di crescita per le PMI e gli obiettivi che il legislatore europeo si prefigge di raggiungere. Il secondo capitolo affronta invece il processo di registrazione dei sistemi multilaterali di negoziazione come mercati di crescita. Il capitolo indaga quali siano i requisiti affinché un sistema multilaterale possa essere registrato come mercato di crescita, come si svolga il processo di registrazione e quale sia il ruolo dell’autorità di vigilanza. Il terzo capitolo approfondisce quali siano le disposizioni di diritto societario applicabili agli emittenti quotati sui mercati di crescita. Infatti, mentre la disciplina per gli emittenti quotati sui mercati regolamentati non è direttamente applicabile a queste società, non si può neppure escludere in via preliminare che determinate disposizioni non siano applicabili in via analogica, a causa delle specifiche caratteristiche conferite a questi emittenti ed ai titoli ammessi alla negoziazione dalla quotazione. Il quarto capitolo analizza diverse disposizioni relative all’informazione, intesa in senso ampio. Infine, il quinto capitolo affronta la disciplina dell’o.p.a. obbligatoria prevista dal regolamento del mercato di crescita AIM Italia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La presente ricerca, focalizzata sull’evoluzione di Piacenza tra età antica e altomedioevo, si mette nel solco del dibattito sull’archeologia urbana sviluppatosi in Italia a partire dagli anni Ottanta del Novecento. Dopo la raccolta dei dati di scavo negli archivi della Soprintendenza e delle testimonianze delle fonti scritte è stato creato un geodatabase che potesse gestirli in maniera integrata. Lo studio è stato svolto per temi trasversali che prendessero in esame lo sviluppo dei diversi aspetti di Piacenza dalla fondazione al IX secolo, per poi restituire in fase di conclusione dei quadri sincronici relativi alla città romana, tardoantica e altomedievale. Il quadro che si delinea dallo studio condotto è quello di una città che, seppure interessata dalle vicende storiche che hanno coinvolto buona parte del nord della penisola, tra la tarda Antichità e l’alto Medioevo, mostra sia fenomeni che la accomunano alle altre realtà urbane regionali e extraregionali, sia caratteristiche specifiche scarsamente riscontrate altrove. L’età carolingia è il periodo nel quale il caso piacentino si presenta maggiormente denso di spunti per il tema dell’urbanesimo. Su questo Piacenza, soprattutto per il tramite delle fonti scritte, offre uno spaccato che poche altre città possono dare e che sarebbe ulteriormente implementabile con nuove e mirate ricerche archeologiche.