546 resultados para reattore digestione anaerobica girante agitatore viscosità reometro moto vettore velocità


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La miscelazione di sistemi gas-liquido all’interno di recipienti meccanicamente agitati ritrova molte applicazioni industriali. I recipienti meccanicamente agitati rappresentano la scelta più conveniente poiché consentono una dispersione ottimale della fase dispersa all’interno della fase continua ed uno scambio di materia e di calore efficiente. I parametri chiave sono il consumo di potenza, l’hold-up di gas ed il regime gas-impeller. La fase sperimentale è stata sviluppata mediante l’utilizzo di un reattore pilota operante con tre turbine Rushton. Il consumo di potenza è stato valutato ed i risultati ottenuti dalle analisi di laboratorio sono stati confrontati con la correlazione empirica di Warmoeskerken (1986). Le tecniche impiegate in passato per la caratterizzazione dei sistemi gas-liquido sono caratterizzate da diversi svantaggi quali la possibilità di essere utilizzate solo per lo studio di sistemi trasparenti, l’intrusività ed i costi alti. Attualmente, la tomografia a resistenza elettrica (ERT) è una delle tecniche di ispezione più utilizzate grazie alla sua potenzialità di fornire informazioni qualitative e quantitativi. Uno degli obiettivi di questo lavoro di tesi è quello di validare una metodologia da seguire per la caratterizzazione dei sistemi gas-liquido. L’ERT è stata utilizzata per la valutazione dell’hold-up di gas e per l’identificazione del regime instaurato all’interno dell’apparecchiatura. I risultati sono stati confrontati con le valutazioni visive e le correlazioni proposte dalla letteratura. La strumentazione dell’ERT comprende un sistema di sensori, un sistema di acquisizione dati (DAS) ed un computer sul quale è installato il software per la ricostruzione dell’immagine, il quale, generalmente, è basato sull’algoritmo linear back - projection. Ulteriore obiettivo di questo lavoro di tesi è quello di investigare sulla convenienza di adoperare un software più sofisticato per la ricostruzione dell’immagine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel presente elaborato è stata studiata la capacità biodegradativa di cinque differenti set di colture microbiche miste in anaerobiosi, rispetto all’acido perfluoroottanoico (PFOA). Quest’ultimo è un contaminante riconosciuto dalla comunità scientifica internazionale come persistente, tossico, bioaccumulante e ubiquitario, tipicamente trasportato nell’ecosistema acquatico. Le colture studiate sono state realizzate in microcosmi di acqua di falda, a partire da colture ottenute in uno studio di biodegradazione precedente, condotto su acque di falda contaminate da sostanze perfluoroalchiliche (PFASs), arricchendole in PFOA a una concentrazione di 50 mg/L in presenza di diversi accettori finali di elettroni (Fe(III), NO3— e SO42-) e donatori di elettroni (H2, NH4+, CH3-CHOH-COO- e CH3COO-) La prova sperimentale ha evidenziato una crescita microbica in alcune delle condizioni realizzate (NO3—-riduzione con ossidazione di CH3COO-, Fe(III)-riduzione con ossidazione di NH4+, SO42—-riduzione con ossidazione di CH3-CHOH-COO-). Sebbene sia stato osservato un consumo di metaboliti talvolta notevole nelle suddette condizioni, non è stata riscontrata una rimozione significativa dell’acido perfluoroottanoico ad esso correlata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La seguente tesi ha lo scopo di dare una caratterizzazione del moto naturale di un sistema materiale di punti, in particolare tramite le equazioni di Eulero-Lagrange, deducendole secondo i due metodi classici: il principio di d'Alembert e il principio variazionale di Hamilton. Infine si approfondisce l'analogia tra la meccanica e l'ottica, in particolar modo confrontando il principio di Fermat e quello di Maupertuis, analogie che portarono alla successiva nascita della meccanica ondulatoria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Numerosi sono gli effetti astrofisici determinati dal moto relativo tra sorgente e osservatore, i quali pemettono non solo di inferire proprietà cinematiche degli oggetti studiati, ma addirittura caratterizanti della loro struttura e fenomenologia. Nonostante gran parte dei fenomeni in Astrofisica appartengano al regime newtoniano, esistono situazioni in cui si rende necessario l'intervento della relatività di Einstein al fine di comprenderle nella maniera più completa. La branca dell'Astrofisica che si occupa dello studio di questi oggetti tanto peculiari è detta Astrofisica delle alte energie. In seguito verrano presentati i principali strumenti offerti dalla relatività, sia nel caso speciale che in quello più generale, per trattatare effetti quali il beaming, l'effetto doppler, il redshift gravitazionale e il lensing. Per quanto riguarda il beaming e l'effetto doppler, verrà affrontata con particolare riguardo la radiazione di sincrotrone e la sua polarizzazione, come questi influenzano la struttura delle righe del ferro nei dischi di accrescimento in AGN e i moti superluminali. In conclusione si tratteranno i moti superluminali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si pensa che i campi magnetici siano presenti in qualsiasi oggetto celeste, e nel mezzo tra di essi. Non siamo capaci di misurare questi campi in modo diretto, ma possiamo derivare delle misure da metodi indiretti, osservando e analizzando gli effetti che essi hanno sulla radiazione. Questi possono riguardare sia come la radiazione si propaga sia come essa viene generata. I campi magnetici esercitano una forza sul plasma cosmico, e possono influenzare in maniera più o meno marcata il moto di questo. Essi non possono competere con le interazioni gravitazionali in gioco nelle galassie, o in scale ancora più grandi, ma giocano un ruolo fondamentale nei moti del gas sulle piccole scale. In questo scritto analizzeremo per prima cosa i principali metodi utili per la rilevazione dei campi magnetici in astrofisica senza entrare eccessivamente nel dettaglio, ma riportando gli aspetti essenziali sia dal punto di vista descrittivo dell’effetto fisico sul quale si basano, sia dal punto di vista delle formule. Dopodiché si passera ad analizzare i principali scenari ipotizzati per l’origine dei campi magnetici di una galassia. Si accennerà anche all’amplificazione di piccoli campi originari per raggiungere i valori osservati oggigiorno. Al fine di trattare questo particolare aspetto, si spenderà un capitolo per parlare del congelamento del campo nella materia. Infine nell’ultimo capitolo si affronterà il campo magnetico della Via Lattea. Ci si concentrerà in tre regioni diverse della galassia: l’halo, il disco e la zona centrale. Per questi si riporteranno i risultati ottenuti utilizzando i vari metodi precedentemente descritti, al fine di ottenere un’idea di quale sia la struttura a larga scala del campo magnetico della galassia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel 1932 l'ingegnere e fisico Karl Jansky progettò un’antenna in grado di rilevare onde radio alla frequenza di 20.5 MHz, con la quale notò un'emissione diffusa che proveniva da ogni zona del cielo e si intensificava verso la costellazione del Sagittario. Oggi sappiamo che quella osservata da Jansky è radiazione di sincrotrone. Il meccanismo di emissione di sincrotrone affonda le sue radici nelle leggi dell'elettromagnetismo: quando una particella carica attraversa una regione di spazio in cui è presente un campo magnetico, viene accelerata dalla forza di Lorentz e comincia ad irraggiare in virtù dell'accelerazione subita, come previsto dalla formula di Larmor. A seconda che il moto avvenga a velocità non relativistiche, relativistiche o ultrarelativistiche, l’emissione è chiamata rispettivamente radiazione di ciclotrone, ciclotrone relativistico e sincrotrone. L’emissione diffusa osservata da Jansky, allora, può essere interpretata come radiazione di sincrotrone prodotta dall’interazione delle particelle ultrarelativistiche dei raggi cosmici con il campo magnetico che permea la Via Lattea, mentre l’emissione più intensa nel Sagittario è oggi identificata con la radiosorgente Sagittarius A*, localizzata in corrispondenza del buco nero supermassiccio al centro della Galassia. L’emissione di sincrotrone rappresenta uno dei processi di emissione più rilevanti in Astrofisica ed è in grado di spiegare l’origine di gran parte della radiazione osservata nella banda radio, tanto di quella diffusa quanto di quella generata da radiosorgenti individuali, come radiogalassie e resti di supernova. Le proprietà e la peculiare distribuzione spettrale della radiazione di sincrotrone consentono di ricavare una serie di informazioni sulla sorgente da cui è stata emessa. Per via dello stretto legame con il campo magnetico, inoltre, la radiazione di questo tipo è uno strumento d’indagine fondamentale per la ricostruzione del campo magnetico galattico ed extragalattico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Grazie all’evoluzione degli strumenti di calcolo e delle strutture digitali, le intelligenze artificiali si sono evolute considerevolmente negli ultimi anni, permettendone sempre nuove e complesse applicazioni. L’interesse del presente progetto di tesi è quello di creare un modello di studio preliminare di intelligenza artificiale definita come Rete Neurale Convoluzionale, o Convolutional Neural Network (CNN), al fine di essere impiegata nel campo della radioscienza e dell’esplorazione planetaria. In particolare, uno degli interessi principali di applicazione del modello è negli studi di geodesia compiuti tramite determinazione orbitale di satelliti artificiali nel loro moto attorno ai corpi celesti. Le accelerazioni causate dai campi gravitazionali planetari perturbano le orbite dei satelliti artificiali, queste variazioni vengono captate dai ricevitori radio a terra sottoforma di shift Doppler della frequenza del segnale, a partire dalla quale è quindi possibile determinare informazioni dettagliate sul campo di gravità e sulla struttura interna del corpo celeste in esame. Per poter fare ciò, occorre riuscire a determinare l’esatta frequenza del segnale in arrivo, il quale, per via di perdite e disturbi durante il suo tragitto, presenterà sempre una componente di rumore. Il metodo più comune per scindere la componente di informazione da quella di rumore e ricavarne la frequenza effettiva è l’applicazione di trasformate di Fourier a tempo breve, o Short-time Fourier Transform (STFT). Con l’attività sperimentale proposta, ci si è quindi posto l’obiettivo di istruire un CNN alla stima della frequenza di segnali reali sinusoidali rumorosi per avere un modello computazionalmente rapido e affidabile a supporto delle operazioni di pre-processing per missioni di radio-scienza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel seguente elaborato è stata trattata l’analisi di un flusso bifase, newtoniano, incomprimibile, turbolento attraverso i dati ricavati tramite una simulazione numerica diretta (DNS) del flusso. I due fluidi, aventi le stesse caratteristiche di densità e viscosità, sono stati separati da un’interfaccia caratterizzata da una tensione superficiale costante. Sono quindi stati paragonati i risultati ottenuti da tale simulazione con quelli ricavati da una DNS di flusso bifase precedentemente svolta, avente stesse proprietà dei fluidi ma diversa altezza dell’interfaccia. Attraverso tale confronto, si è notato come la presenza di un’interfaccia abbia modificato in maniera rilevante il comportamento della turbolenza nei pressi di quest’ultima, incrementando la portata volumetrica del flusso. In particolare si è osservato come, ad un maggiore spessore del fluido lubrificante (fluido avente spessore minore tra i due), seguisse una portata volumetrica maggiore.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La pelle dello squalo è stata validata come un efficace sistema di controllo della resistenza di attrito privilegiato in regime turbolento. Essa è stata oggetto di numerosi studi volti a rendere realizzabili repliche quanto più simili alla sua reale struttura superficiale. In questa trattazione, partendo da una breve digressione storica sull’evoluzione dello studio delle rugosità superficiali, sono state analizzate le principali campagne sperimentali svolte in merito alla replica di superfici con Riblets 2D. Di queste ultime, sono state stimate le prestazioni per sezioni triangolari, smerlate, a lama e, per ciascuna di esse, è stata fornita la rispettiva ottimizzazione dei parametri caratteristici della geometria. Inoltre, è stato presentato uno studio sperimentale, in cui sono state impiegate Riblets 3D a lama trapezoidale, mostrando le criticità rispetto alle Riblets 2D. Successivamente, è stata fornita un’analisi che ha evidenziato il ruolo dell’orientazione delle superfici Riblet e delle nervature tridimensionali disposte sopra di esse, rispetto al flusso; in quanto è stato supposto che, nella reale pelle di squalo, ciò avrebbe potuto compensare la perdita di prestazioni rispetto al caso 2D. Infine, sono state discusse le tecniche di fabbricazione delle superfici Riblet tramite micro-goffratura e micro-stampaggio, considerando qulle più efficaci per la produzione di superfici ad alte prestazioni, commercializzabili in ambito industriale. In particolare, in questa trattazione è stata discussa la produzione di pellicole di rivestimento per la superficie esterna dei velivoli, stimando la riduzione della resistenza su diversi profili alari in differenti regimi di moto e sono state confrontate le prestazioni delle riblets su tre diversi tessuti impiegati per il nuoto competitivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio ha lo scopo di isolare additivi di origine vegetale che possono essere utilizzati all’interno di una preparazione a base di carne al fine di migliorarne alcune caratteristiche funzionali. Lo studio si sviluppa in quattro frasi, nella prima dopo aver scelto la matrice vegetale su cui concentrarsi, ovvero il ribes rosso, sono stati estratti due ingredienti una polvere ottenuta dalla sansa del frutto ottenuta dopo un’estrazione con CO2 supercritica ed un estratto sfruttando due metodiche, la macerazione ed una sfruttando l’estrattore Naviglio. Ottenuti i due additivi vegetali sono stati analizzati a livello compositivo, caratterizzando i valori nutrizionali della polvere, eseguendo analisi sulla capacità antiossidante dei due ingredienti ed infine eseguendo una quantificazione del contenuto totale di flavonoidi sugli estratti. Conclusa l’analisi degli ingredienti lo studio prosegue con la parte applicativa ovvero la produzione di hamburger di carne di suino con l’aggiunta degli additivi prodotti, prima con dei test preliminari per poi delineare un piano operativo. Sono stati prodotti, molteplici repliche per tre diversi hamburger ognuno con una diversa concentrazione dei due ingredienti più il campione usato come controllo; in diversi giorni durante la loro shelf life sia i campioni crudi che quelli cotti sono stati analizzati con diverse metodiche analitiche per valutarne le caratteristiche e la loro evoluzione nel tempo. Nella fase conclusiva dello studio è stato eseguito un processo di digestione in vitro su tutti i campioni prodotti il giorno zero, tale tecnica simula tre fasi digestive orale, gastrica e intestinale producendo dopo ognuna soluzioni all’interno dei quali vi sono le componenti non digerite, su tali soluzioni sono stati eseguiti i test sull’attività antiossidante per valutarne gli effetti residui dopo essere stati digeriti e quindi l’efficacia dell’aggiunta di tali additivi in un prodotto a base di carne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesi intende dare un panorama e ricostruire il contesto nel quale si istaurò il Festival cinematografico Visione Italiane, realizzato nella città di Bologna dal 1994. La tesi fornisce una retrospettiva per capire le forme in cui il Festival è concepito e una decostruzione storica della sua struttura attraverso la revisione delle singole edizioni durante tutto il suo periodo di attività fino al presente. La finalità del lavoro consiste in dare un riconoscimento e una valorizzazione alle manifestazioni cinematografiche dedicate al cortometraggio, in particolare a Visioni Italiane, il quale ha un lungo percorso e costituisce di per sé un archivio di opere di esordio di autori che sono di vitale importanza per i suoi apporti alla cinematografia nazionale. Inoltre, l’elaborato cerca di fare una riflessione delle condizioni generali esistenti nell’ambito degli eventi cinematografici, schematizzando le nuove opportunità legate alle tecnologie e alle trasformazioni del pubblico e dei modi di fruizioni attuali, così come esponendo alcuni elementi che sono in crisi. Attraverso l’analisi del contesto in cui si è cimentato il Festival e la sua situazione odierna si sono evidenziati i punti di forza dell’evento, individuandolo come manifestazione chiave del cortometraggio in città, e allo stesso tempo sono emerse nel trascorso dello svolgimento della tesi degli elementi che attualmente nuocciono l’industria del cinema in Italia, e ancora più fortemente un settore come quello del corto e mediometraggio. Infine, si sono anche verificati alcuni meccanismi messi in moto dagli operatori culturali del settore e degli autori in pro del recupero della crisi, peggiorata dalla pandemia COVID-19.

Relevância:

0.00% 0.00%

Publicador:

Resumo:

Le ricerche di carattere eustatico, mareografico, climatico, archeologico e geocronologico, sviluppatesi soprattutto nell’ultimo ventennio, hanno messo in evidenza che gran parte delle piane costiere italiane risulta soggetta al rischio di allagamento per ingressione marina dovuta alla risalita relativa del livello medio del mare. Tale rischio è la conseguenza dell’interazione tra la presenza di elementi antropici e fenomeni di diversa natura, spesso difficilmente discriminabili e quantificabili, caratterizzati da magnitudo e velocità molto diverse tra loro. Tra le cause preponderanti che determinano l’ingressione marina possono essere individuati alcuni fenomeni naturali, climatici e geologici, i quali risultano fortemente influenzati dalle attività umane soprattutto a partire dal XX secolo. Tra questi si individuano: - la risalita del livello del mare, principalmente come conseguenza del superamento dell’ultimo acme glaciale e dello scioglimento delle grandi calotte continentali; - la subsidenza. Vaste porzioni delle piane costiere italiane risultano soggette a fenomeni di subsidenza. In certe zone questa assume proporzioni notevoli: per la fascia costiera emiliano-romagnola si registrano ratei compresi tra 1 e 3 cm/anno. Tale subsidenza è spesso il risultato della sovrapposizione tra fenomeni naturali (neotettonica, costipamento di sedimenti, ecc.) e fenomeni indotti dall’uomo (emungimenti delle falde idriche, sfruttamento di giacimenti metaniferi, escavazione di materiali per l’edilizia, ecc.); - terreni ad elevato contenuto organico: la presenza di depositi fortemente costipabili può causare la depressione del piano di campagna come conseguenza di abbassamenti del livello della falda superficiale (per drenaggi, opere di bonifica, emungimenti), dello sviluppo dei processi di ossidazione e decomposizione nei terreni stessi, del costipamento di questi sotto il proprio peso, della carenza di nuovi apporti solidi conseguente alla diminuita frequenza delle esondazioni dei corsi d’acqua; - morfologia: tra i fattori di rischio rientra l’assetto morfologico della piana e, in particolare il tipo di costa (lidi, spiagge, cordoni dunari in smantellamento, ecc. ), la presenza di aree depresse o comunque vicine al livello del mare (fino a 1-2 m s.l.m.), le caratteristiche dei fondali antistanti (batimetria, profilo trasversale, granulometria dei sedimenti, barre sommerse, assenza di barriere biologiche, ecc.); - stato della linea di costa in termini di processi erosivi dovuti ad attività umane (urbanizzazione del litorale, prelievo inerti, costruzione di barriere, ecc.) o alle dinamiche idro-sedimentarie naturali cui risulta soggetta (correnti litoranee, apporti di materiale, ecc. ). Scopo del presente studio è quello di valutare la probabilità di ingressione del mare nel tratto costiero emiliano-romagnolo del Lido delle Nazioni, la velocità di propagazione del fronte d’onda, facendo riferimento allo schema idraulico del crollo di una diga su letto asciutto (problema di Riemann) basato sul metodo delle caratteristiche, e di modellare la propagazione dell’inondazione nell’entroterra, conseguente all’innalzamento del medio mare . Per simulare tale processo è stato utilizzato il complesso codice di calcolo bidimensionale Mike 21. La fase iniziale di tale lavoro ha comportato la raccolta ed elaborazione mediante sistema Arcgis dei dati LIDAR ed idrografici multibeam , grazie ai quali si è provveduto a ricostruire la topo-batimetria di dettaglio della zona esaminata. Nel primo capitolo è stato sviluppato il problema del cambiamento climatico globale in atto e della conseguente variazione del livello marino che, secondo quanto riportato dall’IPCC nel rapporto del 2007, dovrebbe aumentare al 2100 mediamente tra i 28 ed i 43 cm. Nel secondo e terzo capitolo è stata effettuata un’analisi bibliografica delle metodologie per la modellazione della propagazione delle onde a fronte ripido con particolare attenzione ai fenomeni di breaching delle difese rigide ed ambientali. Sono state studiate le fenomenologie che possono inficiare la stabilità dei rilevati arginali, realizzati sia in corrispondenza dei corsi d’acqua, sia in corrispondenza del mare, a discapito della protezione idraulica del territorio ovvero dell’incolumità fisica dell’uomo e dei territori in cui esso vive e produce. In un rilevato arginale, quale che sia la causa innescante la formazione di breccia, la generazione di un’onda di piena conseguente la rottura è sempre determinata da un’azione erosiva (seepage o overtopping) esercitata dall’acqua sui materiali sciolti costituenti il corpo del rilevato. Perciò gran parte dello studio in materia di brecce arginali è incentrato sulla ricostruzione di siffatti eventi di rottura. Nel quarto capitolo è stata calcolata la probabilità, in 5 anni, di avere un allagamento nella zona di interesse e la velocità di propagazione del fronte d’onda. Inoltre è stata effettuata un’analisi delle condizioni meteo marine attuali (clima ondoso, livelli del mare e correnti) al largo della costa emiliano-romagnola, le cui problematiche e linee di intervento per la difesa sono descritte nel quinto capitolo, con particolare riferimento alla costa ferrarese, oggetto negli ultimi anni di continui interventi antropici. Introdotto il sistema Gis e le sue caratteristiche, si è passati a descrivere le varie fasi che hanno permesso di avere in output il file delle coordinate x, y, z dei punti significativi della costa, indispensabili al fine della simulazione Mike 21, le cui proprietà sono sviluppate nel sesto capitolo.

Relevância:

0.00% 0.00%

Publicador:

Resumo:

Il progresso nella tecnica di recupero e di rinforzo nelle strutture metalliche con i polimeri fibro-rinforzati FRP (fibre reinforced polymers). 1.1 Introduzione nelle problematiche ricorrenti delle strutture metalliche. Le strutture moderne di una certa importanza, come i grattacieli o i ponti, hanno tempi e costi di costruzione molto elevati ed è allora di importanza fondamentale la loro durabilità, cioè la lunga vita utile e i bassi costi di manutenzione; manutenzione intesa anche come modo di restare a livelli prestazionali predefiniti. La definizione delle prestazioni comprende la capacità portante, la durabilità, la funzionalità e l’aspetto estetico. Se il livello prestazionale diventa troppo basso, diventa allora necessario intervenire per ripristinare le caratteristiche iniziali della struttura. Strutture con una lunga vita utile, come per la maggior parte delle strutture civili ed edilizie, dovranno soddisfare esigenze nuove o modificate: i mezzi di trasporto ad esempio sono diventati più pesanti e più diffusi, la velocità dei veicoli al giorno d'oggi è aumentata e ciò comporta anche maggiori carichi di tipo dinamico.

Relevância:

0.00% 0.00%

Publicador:

Resumo:

Oggetto di questa tesi è lo studio della qualità del servizio di trasporto erogato che condiziona la qualità percepita dall’utente, poiché spesso proprio a causa di un errato processo di pianificazione e gestione della rete, molte aziende non sono in grado di consolidare un alto livello di efficienza che permetta loro di attrarre e servire la crescente domanda. Per questo motivo, si è deciso di indagare sugli aspetti che determinano la qualità erogata e sui fattori che la influenzano, anche attraverso la definizione di alcuni indicatori rappresentativi del servizio erogato. L’area di studio considerata è stata quella urbana di Bologna, e sono state prese in esame due linee di ATC, la 19 e la 27, caratterizzate entrambe da una domanda di trasporto molto elevata. L’interesse è ricaduto in modo particolare sugli aspetti legati alla regolarità del servizio, ovvero al rispetto della cadenza programmata delle corse e alla puntualità, ossia il rispetto dell’orario programmato delle stesse. Proprio da questi due aspetti, infatti, dipende in larga misura la percezione della qualità che gli utenti hanno del servizio di trasporto collettivo. Lo studio è stato condotto sulla base di dati raccolti attraverso due campagne di rilevamento, una effettuata nel mese di maggio dell’anno 2008 e l’altra nel mese di settembre dello stesso anno. La scelta del periodo, della zona e delle modalità di rilevamento è strettamente connessa all’obiettivo prefissato. Il servizio è influenzato dalle caratteristiche del sistema di trasporto: sia da quelle legate alla domanda che da quelle legate all’offerta. Nel caso della domanda di trasporto si considera l’influenza sul servizio del numero di passeggeri saliti e del tempo di sosta alle fermate. Nel caso dell’offerta di trasporto si osservano soprattutto gli aspetti legati alla rete di trasporto su cui si muovono gli autobus, analizzando quindi i tempi di movimento e le velocità dei mezzi, per vedere come le caratteristiche dell’infrastruttura possano condizionare il servizio. A tale proposito è opportuno dire che, mentre i dati della prima analisi ci sono utili per lo studio dell’influenza del tempo di sosta sull’intertempo, nella seconda analisi si vuole cercare di effettuare ulteriori osservazioni sull’influenza del tempo di movimento sulla cadenza, prendendo in esame altri elementi, come ad esempio tratti di linea differenti rispetto al caso precedente. Un’attenzione particolare, inoltre, verrà riservata alla verifica del rispetto della cadenza, dalla quale scaturisce la definizione del livello di servizio per ciò che riguarda la regolarità. Per quest’ultima verrà, inoltre, determinato anche il LOS relativo alla puntualità. Collegato al problema del rispetto della cadenza è il fenomeno dell’accodamento: questo si verifica quando i mezzi di una stessa linea arrivano contemporaneamente ad una fermata uno dietro l’altro. L’accodamento ha, infatti, origine dal mancato rispetto della cadenza programmata tra i mezzi ed è un’evidente manifestazione del mal funzionamento di un servizio di trasporto. Verrà infine condotta un’analisi dei fattori che possono influenzare le prestazioni del servizio di trasporto pubblico, così da collocare i dati ottenuti dalle operazioni di rilevamento in un quadro più preciso, capace di sottolineare alcuni elementi di criticità e possibili rapporti di causalità.