60 resultados para Quantização geometrica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesi concerne il trattato "Ottica" scritto da Euclide nel III secolo a.C. quando, nell'area del bacino del Mediterraneo, si verificò una rivoluzione scientifica che diede origine alla nascita della scienza moderna. Si colloca nel filone delle ricerche volte a ricostruire la verità storica ed il contenuto scientifico del pensiero dello scienziato ed a meglio illustrare i contributi dati, dalla scienza ellenistica, alla conoscenza del fenomeno visivo. Si sono presi in esame dunque il momento storico e la situazione economica, sociale e scientifica verificatasi nel III secolo a.C., in particolare ad Alessandria d'Egitto, dove l'incontro del pensiero greco con le culture preesistenti portò alla nascita del metodo scientifico moderno; si sono considerati il pensiero filosofico del tempo e le teorie scientifiche sviluppatesi, con particolare riguardo alla matematica ed alla scienza medica, fondata dal medico alessandrino Erofilo. Si è poi preso in esame il contenuto del trattato. L' "Ottica" è il primo trattato di ottica geometrica della storia e la prima teoria scientifica che si occupi della visione. È basato sul metodo ipotetico-deduttivo, su conoscenze di oftalmologia e sulla scienza matematica degli Elementi. È un modello geometrico di un processo fisiologico e riconferma la matematica quale strumento principe per la costruzione del sapere scientifico. Crea modelli utili per altre teorie scientifiche (ad es. l'astronomia) e per le arti figurative ed ha applicazioni tecnologiche (ad es. l'astrolabio e la diottra). È il testo di base della moderna ottica geometrica. Non si pone come una verità assoluta ma come un'ipotesi di lavoro. Si sono esaminati il difficile percorso storico e bibliografico dell'opera caratterizzato da incomprensioni e manomissioni nonché la ricerca filologica volta a ricostruire l'integrità del testo. Si ritenne infatti che la sua validità fosse inficiata da alcuni "errori", in realtà dovuti all'incomprensione dei concetti e del metodo euclidei ed alle successive manomissioni. Emerge come la scienza non abbia avuto un progresso costante, continuo, aprioristico e come sia incerta ed instabile la conservazione nel tempo del sapere scientifico. Appare inoltre evidente come la scienza sia un prodotto della cultura umana e pertanto come la conoscenza della storia sia una condizione fondante per il progresso scientifico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesi tratta delle analisi di sicurezza delle intersezioni sia esistenti, sia di nuova progettazione. Nel primo capitolo vengono definite le intersezioni secondo il D.M. 19-04-06 “Norme funzionali e geometriche per la costruzione delle intersezioni stradali”. Sono descritte le manovre possibili, le problematiche ed i punti di conflitto che si vengono a creare durante l’attraversamento, definendo le varie tipologie. Successivamente si affronta una classificazione tipologica delle intersezioni rappresentando per mezzo di una matrice simbolica tutti i possibili nodi. Questi vengono suddivisi in base alla possibilità di connessione. Ampio spazio è dato alla descrizione dell’intersezione a raso dove vengono esaminate le caratteristiche geometriche tra cui le configurazioni delle corsie e le tipologie di isole divisionali. Vengono esaminate le particolarità dell’intersezione semaforizzata definendo il ciclo semaforico e gli elementi che lo compongono, la fasatura, il livello di servizio (LOS), il ritardo, definendo gli elementi che lo compongono per mezzo di formule empiriche. Nella seconda parte del capitolo viene descritta l’intersezione a rotatoria in base al D.M. 19-04-06. Inizialmente si introduce l’argomento con nozioni storiche a carattere informativo, quindi si da una classificazione generale degli elementi che la caratterizzano. Viene descritta l’isola divisionale spiegandone la tipologia costruttiva e rappresentando i parametri di classificazione geometrica. A titolo di esempio sono state inserite varie rappresentazioni di rotatorie suddivise per tipologie costruttive. Nell’ultima parte viene affrontato l’elemento rotatoria definendo la distanza di visibilità e i criteri per il calcolo della capacità. Il secondo capitolo parla delle analisi di sicurezza delle intersezioni. Inizialmente viene descritta la circolare 3699 “Linee guida per le analisi di sicurezza delle strade” definendo il concetto di analisi di sicurezza ed esaminando le differenze tra le due tipologie di analisi: Road safety review e Road safety audit. In seguito si descrivono gli obbiettivi dell’analisi di sicurezza, vantaggi e svantaggi e la valutazione dell’approccio concettuale. Viene descritta più approfonditamente la tipologia del Road safety review evidenziando l’utilità, gli elementi che la caratterizzano, le figure professionali che prendono parte a queste analisi con le azioni che devono seguire. Dopo si analizzano i criteri per affrontare gli studi sulla sicurezza e le fasi per le procedure di analisi. Si procede con la descrizione di una tipologia di ispezione, analizzando le problematiche e la stesura del rapporto di analisi con la descrizione dei tempi di attuazione. Nella parte centrale del capitolo viene descritta la direttiva del parlamento europeo e del consiglio sulla gestione della sicurezza delle infrastrutture stradali con i relativi obbiettivi che si prefigge. Vengono riportati i 13 articoli che si compone con i relativi 4 allegati inerenti a: - Valutazione di impatto sulla sicurezza; - Audit della sicurezza stradale; - Gestione dei tratti stradali ad alto rischio, gestione della sicurezza della rete e ispezione di sicurezza; - Dati che devono figurare nelle relazioni di incidenti. L’ultimo argomento preso in esame riguarda le norme per gli interventi di adeguamento delle strade esistenti. Vengono descritte le categorie di intervento e gli obbiettivi da raggiungere distinguendoli in obbiettivi prestazionali, di funzionalità operativa e sicurezza della circolazione. Vengono affrontate le caratteristiche e le differenze tra interventi strutturali e non strutturali con i relativi obbiettivi valutando gli effetti che si ottengono dall’adeguamento delle strade. Successivamente vengono descritte le campagne di monitoraggio con le relative procedure e tempistiche. Infine si valutano le responsabilità degli interventi. Nel capitolo 3 viene descritta l’analisi dello stato di fatto. Si è proceduto con la classificazione della infrastruttura descrivendo i tratti di strada interessati dall’intervento ed utilizzando delle foto per individuare alcune problematiche emerse nell’intersezione. Utilizzando l’elaborato “azzonamento del territorio comunale di Carpi” è stata descritta la zona oggetto di studio. Poi con la macroclassificazione del territorio con scala 1:10000 viene mostrato graficamente il territorio urbanizzato, in corso di urbanizzazione e a destinazione urbana. L’ultimo elaborato preso in esame riguarda la classificazione acustica del territorio. Infine si è proceduto con l’analisi del traffico e di incidentalità. Utilizzando i dati rilevati dalla polizia municipale del comune di Carpi sono stati costruiti i grafici e studiati gli andamenti nel periodo di tempo di riferimento dal 2000 al 2008. Utilizzando poi i dati dei flussi di traffico si sono analizzati le tipologie e i volumi di traffico nell’intersezione. Nell’ultimo capitolo viene studiato il Road safety review dell’intersezione. Si procede con una descrizione generale dell’intersezione, e si prosegue poi con l’individuazione delle problematiche lungo il tracciato. Inizialmente sono state scattate numerose foto nella zona interessata poi sono state divise per tipologia di problema. Per ogni problema si è cercato una soluzione descrivendo e motivando la scelta. Nelle conclusioni si sono descritti i risultati ottenuti nell’analisi di sicurezza elencando le principali raccomandazioni emerse dall’analisi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro svolto nella presente tesi di laurea si sviluppa all’interno del progetto di ricerca europeo SmooHs (Smart Monitoring of Historic Structures-Monitoraggio intelligente di edifici e strutture storiche) nell’ambito del 7 Programma Quadro della Commissione Europea. Gli edifici storici sono caratterizzati da elementi architettonici, materiali e soluzioni progettuali uniche e pertanto da valorizzare. Al fine si salvaguardare tali beni storici si richiede una conoscenza approfondita dei processi di deterioramento, legati spesso a fattori ambientali, e una loro rilevazione immediata. Il monitoraggio continuo dei possibili parametri che influenzano i suddetti processi può contribuire significativamente, ma un’applicazione estesa di questa tecnica è finora fallita a causa dei costi elevati di sistemi completi di monitoraggio; per questo sono stati osservati solitamente pochi parametri. L’obiettivo del progetto prevede lo sviluppo di strumenti di monitoraggio e diagnostica competitivi per gli specialisti nel settore che vada al di là del mero accumulo di dati. La normativa, in particolare le Linee Guida per l’applicazione al patrimonio culturale della normativa tecnica di cui all’Ordinanza PCM-3274 del 2005, evidenziano l’importanza di raggiungere un elevato livello di informazione dell’oggetto e del suo comportamento strutturale attraverso un percorso conoscitivo pluriramificato. “Si ha pertanto la necessità di affinare tecniche di analisi ed interpretazione dei manufatti storici mediante fasi conoscitive dal diverso grado di attendibilità, anche in relazione al loro impatto. La conoscenza può infatti essere conseguita con diversi livelli di approfondimento, in funzione dell’accuratezza delle operazioni di rilievo, delle ricerche storiche e delle indagini sperimentali” (Linee guida per l’applicazione all patrimonio culturale della normativa tecnica di cui all’ordinanza PCM-3274, 2005). Per quanto riguarda la caratterizzazione meccanica dei materiali, la normativa cita “Tecniche diagnostiche non distruttive di tipo indiretto, quali prove soniche ed ultrasoniche, consentono di valutare l’omogeneità dei parametri meccanici nelle diverse parti della costruzione, ma non forniscono stime quantitative attendibili dei loro valori, in quanto essi vengono desunti dalla misura di altre grandezze”. Non viene identificata una procedura univoca di prove non distruttive per ciascuna tipologia edilizia, pertanto ci domandiamo quale sia la procedura più idonea da utilizzare, considerando il tipo di risultato che si vuole ottenere. Si richiedono quindi degli studi di fattibilità di diverse tecniche non distruttive, soprattutto tecniche per immagini che diano un risultato più immediato da comprendere. Per questo scopo è stato impostato un programma di ricerca per valutare l’efficacia di una tecnica non distruttiva, la tomografia sonica, su provini in muratura costruiti nei laboratori del LaRM (Laboratorio di Resistenza dei Materiali del DISTART dell’Università di Bologna), reputando questa la strada da percorrere verso una diagnostica strutturale sempre più dettagliata. I provini in muratura di laterizio PNDE e PNDF, presentano al loro interno dei difetti (in polistirolo espanso) di geometria e posizione nota e diverse tessiture murarie (muratura di laterizio tradizionale e muratura a sacco). Nel capitolo 2 vengono descritte le caratteristiche e le basi teoriche delle prove soniche e di altre tecniche non distruttive, al fine di poterne fare un confronto. La tomografia sonica è definita e sono illustrate le sue peculiarità; vengono inoltre riportati alcuni esempi di applicazioni della stessa su strutture storiche lignee e murarie. Nel capitolo 3 sono presentati i provini oggetto di studio ed introdotto qualche accenno sulla natura delle murature di laterizio. Sono specificati i corsi e le sezioni verticali sui quali viene sperimentata la tomografia; essi hanno precise caratteristiche che permettono di eseguire una sperimentazione mirata all’individuazione di anomalie in una sezione e al riconoscimento di diverse tessiture murarie. Nel capitolo 4 è illustrata la procedura di acquisizione dei dati in laboratorio e di rielaborazione degli stessi nella fase di post-processing. Dopo aver scelto, in base alla risoluzione, la distanza che intercorre tra le stazioni di misura, sono stati progettati i vari percorsi uscenti da ogni stazione trasmittente, andando a definire i ray-paths delle sezioni sia orizzontali che verticali. I software per il calcolo dei tempi di volo (in ambiente LabView) e per l’inversione degli stessi (Geotom) sono presentati e vengono definite le istruzioni per l’utilizzo. Il capitolo 5 assieme al capitolo 6, mostra i risultati ottenuti dall’inversione dei tempi di volo. Per i diversi corsi orizzontali e sezioni verticali sono riportate le mappe di velocità ottenute al variare di diversi parametri di settaggio impostati nel software tomografico. Le immagini tomografiche evidenziano le caratteristiche interne delle sezioni studiate, in base alla risoluzione geometrica della tecnica. Nel capitolo 7 e 8 sono mostrati i risultati delle prove soniche dirette applicate sia sui corsi verticali sia sulle sezioni verticali. Le stazioni di misura considerate sono le stesse utilizzate per la tomografia. Il capitolo 9 riporta il confronto tra le mappe di velocità prodotte dalla tomografia sonica e gli istogrammi delle velocità registrate nelle prove soniche dirette. Si evidenziano le differenze nell’individuazione di difetti tra due metodologie differenti. Infine sono riportate le conclusioni sul lavoro svolto. I limiti e i vantaggi della tecnica tomografica vengono desunti dai risultati ottenuti per varie tipologie di sezioni, a confronto anche con risultati di prove soniche dirette. Ciò ci porta a definire la fattibilità di utilizzo della tomografia sonica nella diagnosi delle strutture in muratura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente dissertazione illustra lo studio, svolto in ambito di Tesi di Laurea Specialistica, della difesa delle aree di pianura prospicienti il tratto medio inferiore del Fiume Po dalle cosiddette piene al limite della prevedibilità, ovvero quelle aventi intensità al di sopra della quale le procedure di stima statistica perdono di significato a causa della mancanza di eventi osservati confrontabili (Majone, Tomirotti, 2006). In questo contesto si è definito come evento di piena al limite della prevedibiltà un evento con tempo di ritorno pari a cinquecento anni. Lo studio ha necessariamente preso in considerazione e riprodotto attraverso una schematizzazione concettuale le esondazioni all'esterno delle arginature maestre che si verificherebbero in conseguenza ad un evento estremo, quale quello preso in esame, nei comparti idraulici prospicienti l'asta fluviale. Detti comparti sono costituiti dalle zone di pianura latistanti l’asta fluviale, classificate dall'Autorità di Bacino come Fascia C e suddivise in base alla presenza degli affluenti principali del fiume Po e delle principali infrastrutture viarie e ferroviarie situate in tale fascia. Il presente studio persegue l’obiettivo di analizzare alcune politiche di intervento per la mitigazione del rischio alluvionale alternative al sovralzo e ringrosso arginale e ricade all'interno delle linee strategiche individuate dall' AdB-Po per la mitigazione del rischio residuale, ossia quello che permane anche in presenza di opere di difesa progettate e verificate con riferimento ad un ben preciso tempo di ritorno (nel caso in esame Trit = 200 anni). Questa linea di intervento si traduce praticamente individuando sul territorio aree meno "sensibili", in virtù del minor valore o dell'inferiore vulnerabilità dei beni in esse presenti, e dunque adatte ad accogliere i volumi di piena esondabili in occasione di quegli eventi di piena incompatibili con i presidi idraulici preesistenti, le sopra richiamate piene al limite della prevedibilità. L'esondazione controllata dei volumi di piena in tali aree avrebbe infatti il fine di tutelare le aree di maggior pregio, interessate da centri abitati, infrastrutture e beni di vario tipo; tale controllo è da considerarsi auspicabile in quanto sedici milioni di persone abitano la zona del bacino del Po e qui sono concentrati il 55% del patrimonio zootecnico italiano, il 35% della produzione agricola e il 37% delle industrie le quali però sostengono il 46% dei posti di lavoro (fonte AdB-Po). Per questi motivi il Po e il suo bacino sono da considerare come zone nevralgiche per l’intera economia italiana e una delle aree europee con la più alta concentrazione di popolazione, industrie e attività commerciali. Dal punto di vista economico, l’area è strategica per il Paese garantendo un PIL che copre il 40% di quello nazionale, grazie alla presenza di grandi industrie e di una quota rilevante di piccole e medie imprese, nonché d’attività agricole e zootecniche diffuse. Il punto di partenza è stato il modello numerico quasi-bidimensionale precedentemente sviluppato dal DISTART nel 2008 con il software HEC-RAS, la cui schematizzazione geometrica copriva unicamente l'alveo del Fiume (Fasce A e B secondo la denominazione adottata dall'AdB-Po) e le cui condizioni iniziali e al contorno rispecchiavano un evento con tempo di ritorno pari a duecento anni. Si è proceduto dunque alla definizione di nuove sollecitazioni di progetto, volte a riprodurre nelle sezioni strumentate del Po gli idrogrammi sintetici con tempo di ritorno di cinquecento anni messi a punto dal D.I.I.A.R. (Dipartimento di Ingegneria Idraulica, Ambientale e del Rilevamento, DIIAR, 2001) del Politecnico di Milano. Il modello stesso è stato poi aggiornato e considerevolmente modificato. Il risultato consiste in un nuovo modello matematico idraulico di tipo quasi-bidimensionale che, attraverso una schematizzazione concettuale, riproduce il comportamento idraulico in occasione di eventi di piena al limite della prevedibilità per tutte e tre le Fasce Fluviali considerate nel Piano stralcio per l’Assetto Idrogeologico redatto dall'AdB-Po (Fasce A, B C, v. PAI, 1999). I diversi comparti idraulici in cui può essere suddivisa la Fascia C sono stati inseriti nel modello e geometricamente descritti in termini di curve di riempimento, ricavate a partire dal DTM del Bacino del Po attraverso opportune elaborazioni in ambiente GIS (Geographic Information System). Una volta predisposto il modello sono state condotte due tipologie di simulazioni. Una prima serie è stata volta alla definizione in maniera iterativa dei punti critici degli argini maestri, ovvero quelli nei quali si prevedeva avvenisse la tracimazione, e alla modellazione in essi della formazione di brecce, decisive per una corretta riproduzione del fenomeno di esondazione all'esterno delle arginature maestre nell'attuale configurazione; bisogna infatti considerare che le arginature maestre vengono comunemente progettate con il solo fine di contenere le portate di piena in alveo, e che dunque un’eventuale tracimazione induce fenomeni erosivi che solitamente portano all'apertura di una breccia nel manufatto (rotta arginale). Un'ulteriore simulazione ha permesso di valutare l'evoluzione del fenomeno sotto l'ipotesi di un intervento di consolidamento degli argini maestri nei tratti critici (interessati dai sormonti) e quindi di rotta arginale impedita. Il confronto dei risultati ottenuti ha evidenziato i benefici associati ad una laminazione controllata dell'evento di piena all'esterno delle arginature. In questo contesto il termine "controllata" è esclusivamente associato al fenomeno di rotta arginale, come detto inibita per lo scenario ipotetico. I benefici di tale controllo si hanno in termini di volumi, di portate esondate e di tiranti attesi nei comparti idraulici. Lo strumento modellistico predisposto nell’ambito della Tesi di Laurea Specialistica si presta ad essere utilizzato a supporto dell’identificazione su ampia scala delle zone della Fascia C meno “sensibili”, in quanto meno vulnerabili ai fenomeni di allagamento. Questo ulteriore passaggio costituisce il punto di partenza per delineare le strategie ottimali di laminazione controllata in Fascia C degli eventi al limite della prevedibilità al fine della riduzione del rischio idraulico nelle aree di pianura prospicienti il Po, aspetto che verrà affrontato in sviluppi successivi del presente lavoro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’alta risoluzione nel telerilevamento termico (Thermal Remote Sensing) da aereo o satellitare si rivela molto importante nell’analisi del comportamento termico delle superfici, in particolare per lo studio dei fenomeni climatici locali dello spazio urbano. La stato termico dell'ambiente urbano è oggi motivo di grande interesse per ricercatori, organi istituzionali e cittadini. Uno dei maggiori campi di studio del comportamento termico urbano interessa il problema energetico: la riduzione dei consumi e delle emissioni di CO2 è un obiettivo primario da perseguire per uno sviluppo sostenibile, spesso supportato da criteri legislativi e progetti comunitari. Su scala differente e con caratteristiche differenti, un altro degli argomenti che scuote da anni e con notevole interesse la ricerca scientifica, è il fenomeno termico urbano che prende il nome di isola di calore; questa si sviluppa non solo in conseguenza al calore sensibile rilasciato da attività antropiche, ma anche a causa della sempre maggiore conversione del territorio rurale in urbanizzato (inurbamento), con conseguente riduzione del fenomeno dell’evapotraspirazione. Oggetto di questa dissertazione è lo studio del comportamento termico delle superfici in ambito urbano, sperimentato sulla città di Bologna. Il primo capitolo si interessa dei principi e delle leggi fisiche sui quali è basato il telerilevamento effettuato nelle bende spettrali dell’infrarosso termico. Viene data una definizione di temperatura radiometrica e cinematica, tra loro legate dall’emissività. Vengono esposti i concetti di risoluzione (geometrica, radiometrica, temporale e spettrale) dell’immagine termica e viene data descrizione dei principali sensori su piattaforma spaziale per l’alta risoluzione nel TIR (ASTER e Landsat). Il secondo capitolo si apre con la definizione di LST (Land Surface Temperature), parametro del terreno misurato col telerilevamento, e ne viene descritta la dipendenza dal flusso della radiazione in atmosfera e dalle condizioni di bilancio termico della superficie investigata. Per la sua determinazione vengono proposti metodi diversi in funzione del numero di osservazioni disponibili nelle diverse bande spettrali dell’IR termico. In chiusura sono discussi i parametri che ne caratterizzano la variabilità. Il capitolo terzo entra nel dettaglio del telerilevamento termico in ambito urbano, definendo il fenomeno dell’Urban Heat Island su tutti i livelli atmosferici interessati, fornendo un quadro di operabilità con gli strumenti moderni di rilievo alle differenti scale (analisi multiscala). Un esempio concreto di studio multiscala dei fenomeni termici urbani è il progetto europeo EnergyCity, volto a ridurre i consumi energetici e le emissioni di gas serra di alcune città del centro Europa. Il capitolo quarto riporta la sperimentazione condotta sull’isola di calore urbana della città di Bologna tramite immagini ASTER con risoluzione spaziale 90 m nel TIR e ricampionate a 15 m dal VIS. Lo studio dell’isola di calore si è effettuata a partire dal calcolo della Land Surface Temperature utilizzando valori di emissività derivati da classificazione delle superfici al suolo. Per la validazione dei dati, in alternativa alle stazioni di monitoraggio fisse dell’ARPA, presenti nell’area metropolitana della città, si è sperimentato l’utilizzo di data-loggers per il rilievo di temperatura con possibilità di campionamento a 2 sec. installati su veicoli mobili, strumentati con ricevitori GPS, per la misura dei profili di temperatura atmosferica near-ground lungo transetti di attraversamento della città in direzione est-ovest.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’arteria principale dell’antica Regio VIII si è dimostrata l’elemento cardine per la fondazione delle città in epoca romana. Le città che nascono sulla via Emilia entrano in un rapporto di simbiosi e di dipendenza con la strada antica, tanto che quest’ultima diventa l’asse generatore di tutta la forma urbis. Questo tracciato generatore è rimasto immutato se non per alcune sporadiche eccezioni e si è consolidato, nella sua forma e funzione, andando a creare così un’integrazione perfetta con l’imago urbis. Anche la città di Claterna deve la sua fondazione alla presenza di questo importante segno, tracciato nel 187 a.C.; un segno che nasce da un’astrazione e dal possesso dell’idea di linea retta da parte dei romani, il cui compito è dare ordine allo spazio che consideravano un caos, e come tale doveva essere organizzato in maniera geometrica e razionale. La via Emilia diventa l’asse generatore della città, la quale segue appunto l’orientamento fornito dall’asse stesso che assume il ruolo di decumanus maximus per l’insediamento, e sulla quale si baserà la costruzione della centuriazione claternate. Il tracciato così forte e importante dal punto di vista funzionale assume però in contemporanea un ruolo di divisione della civitas, in quanto va a separare in maniera netta la zona sud da quella nord. Questa situazione è maggiormente percepibile oggi rispetto al passato, vista la situazione di incolto che prevale sull’area. L’area di progetto risulta infatti tagliata dalla strada statale ed è di conseguenza interessata da problematiche di traffico veicolare anche pesante; tale situazione di attraversamento veloce non permette al viaggiatore di cogliere una lettura completa e unitaria di quello che era l’antico insediamento romano. Inoltre la quota di campagna, che racchiude il layer archeologico, è più bassa rispetto alla quota di percorrenza della strada e non essendoci alcun elemento visivo che possa richiamare l’attenzione di chi percorre questo tratto di via Emilia, l’area d’interesse rimane completamente nascosta e inserita nel contesto paesaggistico. Il paesaggio diventa l’unico immediato protagonista in questo frangente di via Emilia; qui è diverso da molte altre situazioni in cui l’abitato si accosta alla strada, o ancora da quando la strada antica, e ciò si verifica nei maggiori centri urbani, viene ad essere inglobata nel reticolo cittadino fatto di strade ed edifici e con esso si va a confondere ed integrare. Infatti nella porzione compresa tra il comune di Osteria Grande e la frazione di Maggio, ci si trova di fronte ad un vero e proprio spaccato della conformazione geomorfologica del territorio che interessa tutta la regione Emilia Romagna: rivolgendosi verso sud, lo sguardo è catturato dalla presenza della catena appenninica, dove si intravede il grande Parco dei Gessi, che si abbassa dolcemente fino a formare le colline. I lievi pendii si vanno a congiungere con la bassa pianura che si scontra con il segno della via Emilia, ma al di là della quale, verso nord, continua come una distesa senza limite fino all’orizzonte, per andare poi a sfumare nel mare Adriatico. Questi due aspetti, la non percepibilità della città romana nascosta nella terra e la forte presenza del paesaggio che si staglia sul cielo, entrano in contrasto proprio sulla base della loro capacità di manifestarsi all’occhio di chi sta percorrendo la via Emilia: la città romana è composta da un disegno di tracce al livello della terra; il paesaggio circostante invece diventa una vera e propria quinta scenica che non ha però oggetti da poter esporre in quanto sono sepolti e non sono ancora stati adeguatamente valorizzati. Tutte le città, da Rimini a Piacenza, che hanno continuato ad esistere, si sono trasformate fortemente prima in epoca medievale e poi rinascimentale tanto che il layer archeologico romano si è quasi completamente cancellato. La situazione di Claterna è completamente diversa. La città romana è stata mano a mano abbandonata alla fine del IV secolo fino a diventare una delle “semirutarum urbium cadavera” che, insieme a Bononia, Mutina, Regium e Brixillum fino a Placentia, Sant’Ambrogio ha descritto nella sua Epistola all’amico Faustino. Ciò mostra molto chiaramente quale fosse la situazione di tali città in età tardo-antica e in che situazione di degrado e abbandono fossero investite. Mentre alcune di queste importanti urbes riuscirono a risollevare le loro sorti, Claterna non fu più interessata dalla presenza di centri abitati, e ciò è dovuto probabilmente al trasferimento degli occupanti in centri e zone più sicure. Di conseguenza non si è verificato qui quello che è successo nei più importanti centri emiliano-romagnoli. Le successive fasi di sviluppo e di ampliamento di città come Bologna e Piacenza sono andate ad attaccare in maniera irrecuperabile il layer archeologico di epoca romana tanto da rendere lacunosa la conoscenza della forma urbis e delle sue più importanti caratteristiche. A Claterna invece lo strato archeologico romano è rimasto congelato nel tempo e non ha subito danni contingenti come nelle città sopra citate, in quanto il suolo appunto non è stato più interessato da fenomeni di inurbamento, di edificazione e di grandi trasformazioni urbane. Ciò ha garantito che i resti archeologici non venissero distrutti e quindi si sono mantenuti e conservati all’interno della terra che li ha protetti nel corso dei secoli dalla mano dell’uomo. Solo in alcune porzioni sono stati rovinati a causa degli strumenti agricoli che hanno lavorato la terra nell’ultimo secolo andando ad asportare del materiale che è stato quindi riportato alla luce. E’ stata proprio questa serie di ritrovamenti superficiali e fortunati a far intuire la presenza di resti archeologici, e che di conseguenza ha portato ad effettuare delle verifiche archeologiche con sondaggi che si sono concluse con esiti positivi e hanno permesso la collocazione di un vincolo archeologico come tutela dell’area in oggetto. L’area di progetto non è quindi stata contaminata dall’opera dell’uomo e ciò ha garantito probabilmente, secondo le indagini degli archeologi che lavorano presso il sito di Claterna, un buono stato di conservazione per gran parte dell’insediamento urbano e non solo di alcune porzioni minori di città o di abitazioni di epoca romana. Tutto questo attribuisce al sito una grande potenzialità visto che i casi di ritrovamenti archeologici così ampi e ben conservati sono molto limitati, quasi unici. Si tratterebbe quindi di riportare alla luce, in una prospettiva futura, un intero impianto urbano di epoca romana in buono stato di conservazione, di restituire un sapere che è rimasto nascosto e intaccato per secoli e di cui non si hanno che altre limitatissime testimonianze.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Presentiamo alcune proposte di modifica alle superfici di suddivisione di Catmull-Clark, per garantire la continuità del secondo ordine anche nei vertici straordinari e una buona qualità di forma. La ricerca di questi miglioramenti è motivata dal tentativo di integrazione delle superfici di suddivisione in un sistema di modellazione geometrica in contesto CAD/CAGD, il quale richiede che certi requisiti di regolarità e qualità siano soddisfatti. Illustriamo due approcci differenti per la modifica della superficie limite. Il primo prevede il blending tra la superficie originale e una superficie polinomiale approssimante, definita opportunamente, in modo tale da ottenere la regolarità desiderata. Il secondo metodo consiste nella sostituzione della superficie di Catmull-Clark con un complesso di patch di Gregory bicubici e adeguatamente raccordati. Insieme all’attività di analisi, riformulazione ed estensione di queste proposte, abbiamo realizzato una implementazione in codice C/C++ e OpenGL (con programmi accessori scritti in MATLAB e Mathematica), finalizzata alla sperimentazione e alla verifica delle caratteristiche dei metodi presentati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro parte da un’estensione analitica del concetto di convessità geometrica, dimostrandone l’equivalenza e introducendo la forma di Levi, per arrivare alla definizione di pseudoconvessità. Nel secondo capitolo si introduce il concetto di curvatura di Levi, dandone alcune caratterizzazioni ed esempi, fino a dimostrare la stima isoperimetrica che lega curvatura di Levi e misura di un insieme. Nell’ultimo capitolo si definiscono una serie di operatori di curvatura, in relazione con la forma di Levi, che permettono di dimostrare alcuni teoremi di confronto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il posizionamento terrestre negli ultimi anni è stato sempre più facilitato dallo sviluppo delle tecniche satellitari, che permettono di localizzare un punto sulla superficie terrestre con precisioni superiori a quelle richieste per la pura navigazione, tramite la comunicazione tra ricevitore e satelliti. Per la disponibilità del sistema satellitare è indispensabile l’intervisibilità ottica satellite - ricevitore, condizione che viene a mancare nel caso ad esempio di trekking sottobosco, a causa della copertura data da manto vegetale e chiome arboree che non permettono una corretta triangolazione geometrica satellitare. Rientrano nei sistemi navigazionali anche le piattaforme inerziali, sistemi che rilevano le accelerazioni impresse e l’orientamento della piattaforma stessa. Se montati su un veicolo possono fungere da ausilio alla determinazione dell’ “attitude”, cioè dell’atteggiamento del veicolo durante il suo movimento in uno spazio tridimensionale. In questo lavoro ci si propone di unire i benefici delle due tecnologie, satellitari e inerziali, grazie alla complementarietà delle loro caratteristiche sugli errori, unendone le potenzialità e verificando i benefici prodotti dal loro uso integrato. In particolare si utilizzeranno dispositivi di costo relativamente contenuto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La nanotecnologia è una scienza innovativa che sviluppa e utilizza materiali di dimensioni nanometriche (< 100 nm). Lo sviluppo e il mercato delle nanoparticelle in merito alle loro interessanti proprietà chimico‐fisiche, é accompagnato da una scarsa conoscenza relativa al destino finale e agli effetti che questi nano materiali provocano nell’ ambiente [Handy et al., 2008]. La metodologia LCA (Life Cycle Assessment – Valutazione del Ciclo di Vita) è riconosciuta come lo strumento ideale per valutare e gestire gli impatti ambientali indotti dalle ENPs, nonostante non sia ancora possibile definire, in maniera precisa, un Fattore di Caratterizzazione CF per questa categoria di sostanze. Il lavoro di questa tesi ha l’obbiettivo di stimare il Fattore di Effetto EF per nanoparticelle di Diossido di Titanio (n‐TiO2) e quindi contribuire al calcolo del CF; seguendo il modello di caratterizzazione USEtox, l’EF viene calcolato sulla base dei valori di EC50 o LC50 relativi agli organismi appartenenti ai tre livelli trofici di un ecosistema acquatico (alghe, crostacei, pesci) e assume valore pari a 49,11 PAF m3/Kg. I valori tossicologici utilizzati per il calcolo del Fattore di Effetto derivano sia da un’accurata ricerca bibliografica sia dai risultati ottenuti dai saggi d’inibizione condotti con n‐TiO2 sulla specie algale Pseudokirchneriella Subcapitata. La lettura dei saggi è stata svolta applicando tre differenti metodi quali la conta cellulare al microscopio ottico (media geometrica EC50: 2,09 mg/L, (I.C.95% 1,45‐ 2,99)), l’assorbanza allo spettrofotometro (strumento non adatto alla lettura di test condotti con ENPs) e l’intensità di fluorescenza allo spettrofluorimetro (media geometrica EC50: 3,67 mg/L (I.C.95% 2,16‐6,24)), in modo tale da confrontare i risultati e valutare quale sia lo strumento più consono allo studio di saggi condotti con n‐TiO2. Nonostante la grande variabilità dei valori tossicologici e la scarsa conoscenza sui meccanismi di tossicità delle ENPs sulle specie algali, il lavoro sperimentale e la ricerca bibliografica condotta, hanno permesso di individuare alcune proprietà chimico‐fisiche delle nanoparticelle di Diossido di Titanio che sembrano essere rilevanti per la loro tossicità come la fase cristallina, le dimensioni e la foto attivazione [Vevers et al., 2008; Reeves et al., 2007]. Il lavoro sperimentale ha inoltre permesso di ampliare l’insieme di valori di EC50 finora disponibile in letteratura e di affiancare un progetto di ricerca dottorale utilizzando il Fattore di Effetto per n‐ TiO2 nel calcolo del Fattore di Caratterizzazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il fenomeno dello scattering diffuso è stato oggetto di numerosi studi nell’arco degli ultimi anni, questo grazie alla sua rilevanza nell’ambito della propagazione elettromagnetica così come in molti altri campi di applicazione (remote sensing, ottica, fisica, etc.), ma la compresione completa di questo effetto è lungi dall’essere raggiunta. Infatti la complessità nello studio e nella caratterizzazione della diffusione deriva dalla miriade di casistiche ed effetti che si possono incontrare in un ambiente di propagazione reale, lasciando intuire la necessità di trattarne probabilisticamente il relativo contributo. Da qui nasce l’esigenza di avere applicazioni efficienti dal punto di vista ingegneristico che coniughino la definizione rigorosa del fenomeno e la conseguente semplificazione per fini pratici. In tale visione possiamo descrivere lo scattering diffuso come la sovrapposizione di tutti quegli effetti che si scostano dalle classiche leggi dell’ottica geometrica (riflessione, rifrazione e diffrazione) che generano contributi del campo anche in punti dello spazio e direzioni in cui teoricamente, per oggetti lisci ed omogenei, non dovrebbe esserci alcun apporto. Dunque l’effetto principale, nel caso di ambiente di propagazione reale, è la diversa distribuzione spaziale del campo rispetto al caso teorico di superficie liscia ed omogenea in congiunzione ad effetti di depolarizzazione e redistribuzione di energia nel bilancio di potenza. Perciò la complessità del fenomeno è evidente e l’obiettivo di tale elaborato è di proporre nuovi risultati che permettano di meglio descrivere lo scattering diffuso ed individuare altresì le tematiche sulle quali concentrare l’attenzione nei lavori futuri. In principio è stato quindi effettuato uno studio bibliografico così da identificare i modelli e le teorie esistenti individuando i punti sui quali riflettere maggiormente; nel contempo si sono analizzate le metodologie di caratterizzazione della permittività elettrica complessa dei materiali, questo per valutare la possibilità di ricavare i parametri da utilizzare nelle simulazioni utilizzando il medesimo setup di misura ideato per lo studio della diffusione. Successivamente si è realizzato un setup di simulazione grazie ad un software di calcolo elettromagnetico (basato sul metodo delle differenze finite nel dominio del tempo) grazie al quale è stato possibile analizzare la dispersione tridimensionale dovuta alle irregolarità del materiale. Infine è stata condotta una campagna di misure in camera anecoica con un banco sperimentale realizzato ad-hoc per effettuare una caratterizzazione del fenomeno di scattering in banda larga.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi viene presentata una scelta dei passaggi fondamentali per arrivare alla dimostrazione della congettura della double bubble, dovuta ad Hutchings, Morgan, Ritoré e Ros. Questa dimostrazione assicura l'esistenza e l'unicità della superficie minima che permette di racchiudere due volumi nello spazio reale tridimensionale; si tratta quindi di un caso particolare del problema delle bolle di sapone, che ha richiesto la messa a punto di strumenti sofisticati di teoria geometrica della misura, calcolo delle variazioni ed equazioni differenziali non lineari.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo eleborato viene presentato uno studio focalizzato sull’ottimizzazione della geometria dei microcanali di un dissipatore di calore, con lo scopo di fornire una serie di relazioni operative e quindi direttamente utilizzabili per la progettazione di tali dispositivi. Alla definizione delle tradizionali funzioni obiettivo, legate ai Performance Evaluation Criteria (PEC), è stata aggiunta un’analisi dal punto di vista del secondo principio della termodinamica, per valutare l’entropia generata da un flusso fluido in un canale. Normalizzando l’entropia generata si è passati all’utilizzo di un numero di generazione entropica adimensionale e quindi più adatto alla valutazione delle prestazioni. Dopo una prima fase di analisi dal punto di vista fisico, il modello è stato applicato a casi concreti, in cui funzione obiettivo e numero di generazione entropica sono stati espressi in dipendenza dell’incognita geometrica da valutare. Inoltre, è stato approfondito anche il caso in cui non siano trascurabili gli effetti di dissipazione viscosa, che possono effettivamente incidere in modo determinante sullo scambio termico, soprattutto alle microscale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dal punto di vista geometrico, il tracciato delle linee AV/AC è determinato in funzione delle velocità di progetto, attualmente variabili tra 250 e 300 km/h, e in modo da limitare i parametri cinematici. In questa maniera è assicurata la corretta qualità di marcia dei treni ad alta velocità. La sovrastruttura ferroviaria è realizzata in modo da sopportare i carichi dinamici trasmessi dai convogli transitanti a elevate velocità, e da garantire la sicurezza della circolazione e il comfort di marcia. In particolare, la qualità del binario ferroviario è determinata attraverso una serie di parametri geometrici fondamentali, definiti da Rete Ferroviaria Italiana. A seconda dei valori assunti da tali parametri, il binario rientra in un livello di qualità geometrica: sono definiti tre livelli per i quali la circolazione ferroviaria avviene senza limitazioni e un livello che richiede l’imposizione di vincoli all’esercizio (rallentamenti o interruzioni). L’introduzione dei parametri geometrici e dei rispettivi valori di riferimento ha lo scopo di mantenere elevati livelli qualitativi e di sicurezza per l’infrastruttura ferroviaria, in materia di geometria dell’armamento. Infatti, il superamento di certe soglie da parte dei parametri, implica l’intervento manutentivo sul binario, al fine di ripristinare la corretta geometria e di garantire così la qualità della marcia dei treni. La politica è quella d’intervento prima del raggiungimento del quarto livello di qualità, per il quale sono necessarie restrizioni alla circolazione e interventi correttivi immediati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this study the population structure and connectivity of the Mediterranean and Atlantic Raja clavata (L., 1758) were investigated by analyzing the genetic variation of six population samples (N = 144) at seven nuclear microsatellite loci. The genetic dataset was generated by selecting population samples available in the tissue databases of the GenoDREAM laboratory (University of Bologna) and of the Department of Life Sciences and Environment (University of Cagliari), all collected during past scientific surveys (MEDITS, GRUND) from different geographical locations in the Mediterranean basin and North-east Atlantic sea, as North Sea, Sardinian coasts, Tuscany coasts and Cyprus Island. This thesis deals with to estimate the genetic diversity and differentiation among 6 geographical samples, in particular, to assess the presence of any barrier (geographic, hydrogeological or biological) to gene flow evaluating both the genetic diversity (nucleotide diversity, observed and expected heterozygosity, Hardy- Weinberg equilibrium analysis) and population differentiation (Fst estimates, population structure analysis). In addition to molecular analysis, quantitative representation and statistical analysis of morphological individuals shape are performed using geometric morphometrics methods and statistical tests. Geometric coordinates call landmarks are fixed in 158 individuals belonging to two population samples of Raja clavata and in population samples of closely related species, Raja straeleni (cryptic sibling) and Raja asterias, to assess significant morphological differences at multiple taxonomic levels. The results obtained from the analysis of the microsatellite dataset suggested a geographic and genetic separation between populations from Central-Western and Eastern Mediterranean basins. Furthermore, the analysis also showed that there was no separation between geographic samples from North Atlantic Ocean and central-Western Mediterranean, grouping them to a panmictic population. The Landmark-based geometric morphometry method results showed significant differences of body shape able to discriminate taxa at tested levels (from species to populations).