928 resultados para Tomografia, prove soniche dirette, surfer, geotom, velocità di propagazione
Resumo:
L’argomento trattato in questo elaborato è il problema sempre più emergente dello smaltimento dei fanghi provenienti dalla depurazione delle acque reflue. La quantità di fanghi da smaltire, infatti, è in continuo aumento e continuerà a crescere nel corso dei prossimi anni a causa di trattamenti sempre più spinti di depurazione e della costruzione di nuovi impianti. Dopo aver analizzato i vari scenari possibili per lo smaltimento dei fanghi ed i relativi costi, si passa ad analizzare le varie tecniche utilizzate per l’essiccamento dei fanghi (dirette ed indirette), includendo anche tecniche di ultima generazione come l’essiccamento per via solare. Si è andati poi ad analizzare nel dettaglio il funzionamento dell’impianto di essiccamento termico dei fanghi di depurazione di Coriano (RN), situato presso il termovalorizzatore e che sfrutta il calore proveniente da questo come fonte di calore per essiccare i fanghi. Sono state evidenziate le varie parti che compongono l’impianto e le caratteristiche delle correnti in ingresso ed uscita. Si è passati poi ad analizzare il pericolo di esplosione, all’interno dello stesso impianto, dovuto alla presenza di miscele esplosive formate dalla polvere organica del fango e dall’aria. Si sono analizzate tutte le modifiche apportate all’impianto in modo tale da prevenire questo rischio di esplosione. Infine è stata condotta una valutazione economica per dimostrare che l’essiccamento dei fanghi risulta un processo molto conveniente, perché consente di ridurre i volumi da trattare, e, quindi, di conseguenza anche i costi dello smaltimento finale.
Resumo:
Questo lavoro di tesi nasce da un progetto di ricerca promosso nel 2001 dal Prof. Leonardo Seccia (Seconda Facoltà di Ingegneria, sede di Forlì, e C.I.R.A.M., Università di Bologna), dal Prof. Nicola Santopuoli (Facoltà di Architettura Valle Giulia, Sapienza Università di Roma), dal Prof. Ingo Muller e dal Dott. André Musolff (Technical University Berlin, Facultat III, Thermodynamics). Tale progetto ha avuto come obiettivo lo studio, la progettazione e la realizzazione di un dispositivo di ancoraggio in lega a memoria di forma per il restauro di affreschi e mosaici parietali, che presentino distacchi più o meno evidenti fra gli strati di intonaco di supporto, proponendosi come mezzo efficace per la salvaguardia strutturale di tali zone variamente ammalorate. In particolare, è stata programmata una serie di prove di laboratorio per caratterizzare in modo preciso il comportamento del materiale prescelto, al fine di realizzare un prototipo rispondente alle caratteristiche di progetto ed anche per implementare un modello numerico sufficientemente realistico. A questo proposito, è stato anche approfondito il problema della scelta del modello costitutivo più adeguato. Successivamente, i risultati ottenuti sono stati impiegati nella progettazione e realizzazione di nuovi dispositivi in lega a memoria di forma da impiegare nel campo dei beni culturali, fra cui sistemi reversibili per il ricongiungimento di parti fratturate e sistemi di movimentazione intelligenti sia per lastre di protezione di superfici affrescate, sia per finestre da inserire in contesti museali per il controllo del microclima.
Resumo:
SCOPO DELLA RICERCA Aedes albopictus è diventata in pochi anni dalla sua introduzione in Italia la specie di zanzara più nociva e più importante sotto il profilo sanitario. Essendo una zanzara tipicamente urbana e ad attività diurna, limita fortemente la fruizione degli spazi aperti ed incide negativamente su alcune attività economiche. Il recente episodio epidemico di Chikungunya, che ha colpito il nostro Paese, ha allarmato le autorità sanitarie nazionali ed europee che stanno attivando misure di prevenzione e contrasto per fronteggiare il rischio che il virus diventi endemico o che altri virus possano essere introdotti nelle nostre aree. Le misure di lotta contro Aedes albopictus attualmente in essere (lotta larvicida, rimozione dei microfocolai, informazione e coinvolgimento dei cittadini) non danno risultati sufficienti in termini di capacità di contenimento delle densità del vettore. Per questo è stato avviato un progetto di ricerca centrato sull'applicazione del metodo dell'autocidio a questa specie. L’attività di ricerca svolta ha avuto come scopo la messa a punto delle metodiche di allevamento massale e di sterilizzazione in grado di permettere la produzione di maschi di qualità sufficiente a garantire una buona fitness nelle condizioni di campo e competitività coi maschi selvatici nella fase di accoppiamento. Le prove condotte possono essere raggruppate sotto tre principali campi di indagine: Prove di allevamento, Prove di Irraggiamento e Prove di Competizione. 1. Prove di allevamento In questo ambito sono state esaminate nuove diete larvali al fine di ottenere una più elevata produttività in termini di pupe con tempi di impupamento e dimensioni delle pupe più omogenei. È stata inoltre valutata la possibile reazione fagostimolante dell’ATP addizionato al pasto di sangue delle femmine adulte con lo scopo di incrementare la produttività di uova prodotte dai ceppi di Ae.albopictus in allevamento. 2. Prove di irraggiamento Attraverso prove di laboratorio sono stati investigati in gabbia gli effetti sterilizzanti di diverse dosi radianti (20 - 85 Gy) sulle pupe maschio di Ae. albopictus per la valutazione dei livelli di sterilità, fertilità e fecondità indotti sulle femmine. Si sono compiute inoltre indagini per valutare eventuali alterazioni dello stato fisiologico dei maschi irraggiati e dei livelli di sterilità indotti su femmine, in funzione dell’età pupale alla quale venivano sottoposti a radiazioni. Analisi degli effetti delle radiazioni sui tempi di rotazione genitale, sulla velocità ed efficacia degli accoppiamenti e sui tempi di sfarfallamento degli adulti sono state condotte su maschi irraggiati a diverse dosi. Infine su femmine di Ae. albopictus si sono realizzate prove in gabbia per lo studio dei tempi di recettività all'accoppiamento. Prove di competizione L'effetto negativo della colonizzazione in condizioni artificiali e l'irraggiamento sono riconosciuti come i fattori principali che incidono sulla competitività dei maschi sterilizzati nei confronti di quelli fertili. Per la verifica della variazione di fitness dovuta a imbreeding ed eterosi, prove di competizione in serra (7,5 x 5 x 2,80 m) sono state realizzate impiegando ceppi allevati in laboratorio, ceppi selvatici raccolti in campo e ceppi ibridi ottenuti incrociando diversi ceppi di laboratorio. RISULTATI 1. Prove di allevamento Sono state confrontate la dieta standard (DS = 2,5 mg/larva Friskies Adult ® + 0,5 mg/larva lievito di birra) e la nuova dieta integrata addizionata di Tetramin ® (DI = DS + 0,2 mg/larva Tetramin ®) per l’alimentazione delle larve in allevamento. Le prove condotte hanno evidenziato una buona risposta nelle percentuali di impupamento e di produttività in termini di pupe per la nuova dieta senza però evidenziare miglioramenti significativi con la DS. Con la dieta integrata si ottiene un impupamento a 7 giorni del 66,6% delle larve allevate (65% con la DS) e il setacciamento a 1400 μm delle pupe ottenute produce in media il 98,3% di maschi nel setacciato (98,5% con la DS). Con la dieta standard la percentuale di maschi ottenuti sulle larve iniziali è pari a 27,2% (20-25% con la DS). Come riportato da Timmermann e Briegel (1999) la dieta delle larve va strutturata con l’obiettivo di garantire un ampio range di elementi nutritivi evitando così il rischio di carenze o sub-carenze che possano influire negativamente sulla produttività dell’allevamento e sulle condizioni di vigore dei maschi. Secondo Reisen (1980, 1982), l’influenza negativa dell’allevamento sulla competitività dei maschi nella fase di accoppiamento potrebbe essere di maggiore peso rispetto all’influenza dell’irraggiamento dei maschi. Infine le prove di laboratorio condotte per la verifica dell’efficacia fagostimolante di ATP nel pasto di sangue offerto alle femmine dell’allevamento non hanno evidenziato differenze significative in nessuno dei parametri considerati tra il campione nutrito con ATP e il testimone. Nella realizzazione di allevamenti massali per la produzione di maschi da irraggiare, si ritiene quindi opportuno mantenere la nuova dieta testata che garantisce una spettro nutritivo più ampio e completo alle larve in allevamento. L’aggiunta di ATP nel pasto di sangue delle femmine adulte non sarà impiegato in quanto troppo costoso e significativamente poco produttivo nel garantire un aumento del numero di uova prodotte. 2. Prove di irraggiamento Oltre alla sopravvivenza e alla sterilità, la scelta dello stadio di sviluppo più conveniente da irraggiare in un programma SIT dipende dalla possibilità di maneggiare in sicurezza grandi quantità di insetti senza danneggiarli durante tutte le fasi che intercorrono tra l’allevamento massale, l’irraggiamento e il lancio in campo. La fase pupale risulta sicuramente più vantaggiosa per il maggior numero di pupe irraggiabili per unità di volume e per il minimo danneggiamento arrecabile all'insetto che viene mantenuto in acqua durante tutte le procedure. La possibilità di lavorare con la minima dose radiante efficace, significa ridurre lo stress provocato inevitabilmente alle pupe maschio, che si manifesta nell’adulto con una ridotta longevità, una diminuita capacità di accoppiamento o di ricerca del partner e attraverso possibili alterazioni comportamentali che possono rendere il maschio inattivo o inefficace una volta introdotto in campo. I risultati ottenuti sottoponendo pupe maschili a irraggiamento a differenti ore dall’impupamento evidenziano come la maturità del campione influisca sia sulla mortalità delle pupe che sull’efficacia sterilizzante dell’irraggiamento. Come riportato anche da Wijeyaratne (1977) le pupe più vecchie mostrano una minore mortalità e una maggiore sensibilità alle radiazioni rispetto a quelle più giovani. In particolare si è osservato come pupe maschili di età superiore 24h fossero maggiormente sensibili all’irraggiamento riportando minore perdita di competitività rispetto alle pupe irraggiate precocemente. La minore dose impiegata per il raggiungimento della sterilità con minimi effetti sulla longevità dei maschi trattati e con livelli di fecondità e fertilità indotti sulle femmine non differenti dal testimone, corrisponde a 40Gy (Cs 137 - 2,3 Gy/min). Analizzando la sopravvivenza dei maschi, si osserva una tendenza all'aumento della mortalità in funzione dell’aumento della dose fornita per tutte le età pupali di irraggiamento testate. Per trattamenti condotti su pupe di età > 30h la longevità dei maschi non risente dell’irraggiamento fino a dosi di 40Gy. La fecondità delle femmine accoppiatesi con maschi irraggiati con dosi superiori a 40Gy mostra una tendenza alla riduzione del numero di uova prodotte con l’aumentare della dose ricevuta dal maschio. L’irraggiamento delle pupe non determina variazioni significative nei tempi di sfarfallamento degli adulti per le diverse dosi radianti fornite e per le differenti età pupali testate in rapporto al testimone. L’irraggiamento influenza al contrario i tempi di rotazione dei genitali esterni dei maschi evidenziando un ritardo proporzionale alla dose ricevuta. Resta da definire sui maschi irraggiati l’effetto combinato dei due effetti sui tempi di sfarfallamento degli adulti anche se appare chiara l’assenza di variazioni significative per la dose di irraggiamento 40Gy scelta come radiazione utile per la sterilizzazione dei maschi da lanciare in campo. Per quanto riguarda l’analisi dei tempi di accoppiamento dei maschi irraggiati si osserva in generale una minore reattività rispetto ai maschi fertili particolarmente marcata nei maschi irraggiati a dosi superiori i 40 Gy. Gli studi condotti sui tempi di accoppiamento delle femmine evidenziano una buona recettività (>80%) all’accoppiamento solo per femmine di età superiore a 42 - 48 h femmine. Prima di tale periodo la femmina realizza accoppiamenti con normale appaiamento dei due sessi ma non riceve il trasferimento degli spermi. 3. Prove di competizione Prove preliminari di competizione in tunnel svolte nel 2006 su ceppi selvatici e di allevamento avevano mostrato risultati di competitività dei maschi sterili (50 Gy) segnati da forte variabilità. Nel 2007 dopo aver condotto analisi per la verifica dei tempi di sfarfallamento, di accoppiamento e di rotazione genitale nei maschi sterilizzati, e di recettività nelle femmine, sono state realizzate nuove prove. In queste prove maschi adulti di Ae. albopictus irraggiati a 40Gy sono stati posizionati in campo, in ambiente naturale ombreggiato ed isolato, all’interno di serre (8x5x2,8 m) insieme a maschi adulti fertili e femmine vergini di Ae. albopictus con rapporto 1:1:1. Le prove preliminari 2006 erano condotte con le medesime condizioni sperimentali del 2007 ad eccezione dei tempi di inserimento delle femmine vergini passati da 1 giorno nel 2006, a 3 giorni nel 2007 dall’immissione dei maschi in tunnel. Sono state effettuate prove testando la competizione tra esemplari provenienti da ceppi di allevamento (cicli di allevamento in gabbia > 15), ceppi selvatici (da materiale raccolto in campo e con cicli di allevamento in gabbia < 5) e ceppi ibridi (ottenuti dall’incrocio di ceppi italiani di diversa provenienza geografica). I risultati ottenuti mostrano indici di competizioni medi accettabili senza evidenziare differenza fra i ceppi impiegati. L’allevamento massale quindi non deprime i ceppi allevati e gli ibridi realizzati non mostrano una vigoria superiore ne rispetto ai ceppi selvatici ne rispetto agli allevati in laboratorio.
Resumo:
Lo studio del processo produttivo del riciclo di materiali provenienti da attività di C&D in un impianto di nuova realizzazione, presentato in questa tesi di laurea,è così articolato: nel primo capitolo si analizza la complicata evoluzione della normativa in materia di rifiuti (non solo da C&D) su scala europea e nazionale accennando i provvedimenti legislativi su scala regionale, con particolare riferimento alla Regione Veneto. Si esamineranno, pertanto, le direttive e le decisioni della Comunità Europea che hanno ispirato, a partire dal 1975, i provvedimenti legislativi nazionali, tra cui vale la pena di ricordare il “Decreto Ronchi”, emanato nel febbraio del 1997, l’attuale D.Lgs. 3/4/2006 n.152, e i Decreti Ministeriali di riferimento per la materia di studio, ovvero il D.M. 5/2/1998, riguardante l’individuazione dei rifiuti per cui è possibile procedere al loro trattamento in regime semplificato e l’ancora poco attuato D.M.8/5/2003 n.203, riferito all’utilizzo di materiale riciclato nelle Pubbliche Amministrazioni. Il secondo capitolo definisce, invece, le caratteristiche principali dei rifiuti da C&D, appartenenti alla categoria dei rifiuti inerti, e delinea le odierne problematiche inerenti a tali materiali. A conferma di queste, nella seconda parte del capitolo, sono presentati alcuni dati che fotografano oggettivamente gli scenari attuali in Europa e in Italia in riferimento alla produzione, al recupero e allo smaltimento di questa categoria di rifiuti. In seguito, il terzo capitolo inizia a definire gli aspetti relativi alla realizzazione di un impianto di studio per il riciclo di rifiuti da C&D. In esso si evidenziano le procedure amministrative, gli adempimenti burocratici e in generale tutti gli aspetti inerenti alla gestione dei rifiuti da C&D per l’esecuzione delle attività di recupero e smaltimento previste dal D.Lgs. n.152/2006, così come modificato dal recentissimo D.Lgs. n.4/2008. Il quarto capitolo definisce i termini per poter considerare i rifiuti da C&D trattati in impianto come MPS. L’attenzione è riposta sulla Direttiva 89/106/CEE, che impone obbligatoriamente, dal 01/06/2004, la marcatura CE per tutti i prodotti da costruzione e, quindi, anche per gli aggregati riciclati. Pertanto, in questo capitolo, vengono definite le prove richieste obbligatoriamente dal D.M 11/4/2007 in accordo con la norma europea UNI EN 13242 recante “Aggregati per materiali non legati e legati con leganti idraulici per l'impiego in opere di ingegneria civile e nella costruzione di strade" ed, in conclusione, viene studiata la Circolare n.5205/2005 che dovrebbe dare attuazione nel settore edile, stradale e ambientale al D.M. n.203/2003. Successivamente, il quinto capitolo delinea le caratteristiche principali degli impianti di trattamento per il recupero dei rifiuti da C&D, delineando le principali differenze tra gli impianti fissi e i mobili ed esaminando le diverse fasi del ciclo produttivo, anche in relazione ad un impianto di studio situato nella provincia di Verona. Infine, il sesto capitolo riassume i risultati delle prove di marcatura CE per gli aggregati riciclati prodotti nell’impianto descritto. Tali prove sono state eseguite presso il Laboratorio di Strade della Facoltà di Ingegneria dell’Università degli Studi di Bologna.
Resumo:
Nella prima parte di questa tesi di dottorato sono presentate le attività svolte, di carattere numerico, ai fini della modellizzazione di macchine volumetriche ad ingranaggi esterni. In particolare viene dapprima presentato un modello a parametri concentrati utilizzato per l’analisi dei fenomeni che coinvolgono l’area di ingranamento della macchina; un codice di calcolo associato al modello è stato sviluppato ed utilizzato per la determinazione dell’influenza delle condizioni di funzionamento e delle caratteristiche geometriche della macchina sulle sovra-pressioni e sull’eventuale instaurarsi della cavitazione nei volumi tra i denti che si trovano nell’area di ingranamento. In seguito vengono presentati i risultati ottenuti dall’analisi del bilanciamento assiale di diverse unità commerciali, evidenziando l’influenza delle caratteristiche geometriche delle fiancate di bilanciamento; a questo proposito, viene presentato anche un semplice modello a parametri concentrati per valutare il rendimento volumetrico della macchina ad ingranaggi esterni, con l’intenzione di usare tale parametro quale indice qualitativo della bontà del bilanciamento assiale. Infine, viene presentato un modello completo della macchina ad ingranaggi esterni, realizzato in un software commerciale a parametri concentrati, che permette di analizzare nel dettaglio il funzionamento della macchina e di studiare anche l’interazione della stessa con il circuito idraulico in cui è inserita. Nella seconda parte della tesi si presentano le attività legate alla messa in funzione di due banchi prova idraulici per la caratterizzazione sperimentale di macchine volumetriche e componenti di regolazione, con particolare attenzione dedicata alla messa a punto del sistema di acquisizione e gestione dei dati sperimentali; si presentano infine i risultati di alcune prove eseguite su componenti di regolazione e macchine volumetriche.
Resumo:
Providing support for multimedia applications on low-power mobile devices remains a significant research challenge. This is primarily due to two reasons: • Portable mobile devices have modest sizes and weights, and therefore inadequate resources, low CPU processing power, reduced display capabilities, limited memory and battery lifetimes as compared to desktop and laptop systems. • On the other hand, multimedia applications tend to have distinctive QoS and processing requirementswhichmake themextremely resource-demanding. This innate conflict introduces key research challenges in the design of multimedia applications and device-level power optimization. Energy efficiency in this kind of platforms can be achieved only via a synergistic hardware and software approach. In fact, while System-on-Chips are more and more programmable thus providing functional flexibility, hardwareonly power reduction techniques cannot maintain consumption under acceptable bounds. It is well understood both in research and industry that system configuration andmanagement cannot be controlled efficiently only relying on low-level firmware and hardware drivers. In fact, at this level there is lack of information about user application activity and consequently about the impact of power management decision on QoS. Even though operating system support and integration is a requirement for effective performance and energy management, more effective and QoSsensitive power management is possible if power awareness and hardware configuration control strategies are tightly integratedwith domain-specificmiddleware services. The main objective of this PhD research has been the exploration and the integration of amiddleware-centric energymanagement with applications and operating-system. We choose to focus on the CPU-memory and the video subsystems, since they are the most power-hungry components of an embedded system. A second main objective has been the definition and implementation of software facilities (like toolkits, API, and run-time engines) in order to improve programmability and performance efficiency of such platforms. Enhancing energy efficiency and programmability ofmodernMulti-Processor System-on-Chips (MPSoCs) Consumer applications are characterized by tight time-to-market constraints and extreme cost sensitivity. The software that runs on modern embedded systems must be high performance, real time, and even more important low power. Although much progress has been made on these problems, much remains to be done. Multi-processor System-on-Chip (MPSoC) are increasingly popular platforms for high performance embedded applications. This leads to interesting challenges in software development since efficient software development is a major issue for MPSoc designers. An important step in deploying applications on multiprocessors is to allocate and schedule concurrent tasks to the processing and communication resources of the platform. The problem of allocating and scheduling precedenceconstrained tasks on processors in a distributed real-time system is NP-hard. There is a clear need for deployment technology that addresses thesemulti processing issues. This problem can be tackled by means of specific middleware which takes care of allocating and scheduling tasks on the different processing elements and which tries also to optimize the power consumption of the entire multiprocessor platform. This dissertation is an attempt to develop insight into efficient, flexible and optimalmethods for allocating and scheduling concurrent applications tomultiprocessor architectures. It is a well-known problem in literature: this kind of optimization problems are very complex even in much simplified variants, therefore most authors propose simplified models and heuristic approaches to solve it in reasonable time. Model simplification is often achieved by abstracting away platform implementation ”details”. As a result, optimization problems become more tractable, even reaching polynomial time complexity. Unfortunately, this approach creates an abstraction gap between the optimization model and the real HW-SW platform. The main issue with heuristic or, more in general, with incomplete search is that they introduce an optimality gap of unknown size. They provide very limited or no information on the distance between the best computed solution and the optimal one. The goal of this work is to address both abstraction and optimality gaps, formulating accurate models which accounts for a number of ”non-idealities” in real-life hardware platforms, developing novel mapping algorithms that deterministically find optimal solutions, and implementing software infrastructures required by developers to deploy applications for the targetMPSoC platforms. Energy Efficient LCDBacklightAutoregulation on Real-LifeMultimediaAp- plication Processor Despite the ever increasing advances in Liquid Crystal Display’s (LCD) technology, their power consumption is still one of the major limitations to the battery life of mobile appliances such as smart phones, portable media players, gaming and navigation devices. There is a clear trend towards the increase of LCD size to exploit the multimedia capabilities of portable devices that can receive and render high definition video and pictures. Multimedia applications running on these devices require LCD screen sizes of 2.2 to 3.5 inches andmore to display video sequences and pictures with the required quality. LCD power consumption is dependent on the backlight and pixel matrix driving circuits and is typically proportional to the panel area. As a result, the contribution is also likely to be considerable in future mobile appliances. To address this issue, companies are proposing low power technologies suitable for mobile applications supporting low power states and image control techniques. On the research side, several power saving schemes and algorithms can be found in literature. Some of them exploit software-only techniques to change the image content to reduce the power associated with the crystal polarization, some others are aimed at decreasing the backlight level while compensating the luminance reduction by compensating the user perceived quality degradation using pixel-by-pixel image processing algorithms. The major limitation of these techniques is that they rely on the CPU to perform pixel-based manipulations and their impact on CPU utilization and power consumption has not been assessed. This PhDdissertation shows an alternative approach that exploits in a smart and efficient way the hardware image processing unit almost integrated in every current multimedia application processors to implement a hardware assisted image compensation that allows dynamic scaling of the backlight with a negligible impact on QoS. The proposed approach overcomes CPU-intensive techniques by saving system power without requiring either a dedicated display technology or hardware modification. Thesis Overview The remainder of the thesis is organized as follows. The first part is focused on enhancing energy efficiency and programmability of modern Multi-Processor System-on-Chips (MPSoCs). Chapter 2 gives an overview about architectural trends in embedded systems, illustrating the principal features of new technologies and the key challenges still open. Chapter 3 presents a QoS-driven methodology for optimal allocation and frequency selection for MPSoCs. The methodology is based on functional simulation and full system power estimation. Chapter 4 targets allocation and scheduling of pipelined stream-oriented applications on top of distributed memory architectures with messaging support. We tackled the complexity of the problem by means of decomposition and no-good generation, and prove the increased computational efficiency of this approach with respect to traditional ones. Chapter 5 presents a cooperative framework to solve the allocation, scheduling and voltage/frequency selection problem to optimality for energyefficient MPSoCs, while in Chapter 6 applications with conditional task graph are taken into account. Finally Chapter 7 proposes a complete framework, called Cellflow, to help programmers in efficient software implementation on a real architecture, the Cell Broadband Engine processor. The second part is focused on energy efficient software techniques for LCD displays. Chapter 8 gives an overview about portable device display technologies, illustrating the principal features of LCD video systems and the key challenges still open. Chapter 9 shows several energy efficient software techniques present in literature, while Chapter 10 illustrates in details our method for saving significant power in an LCD panel. Finally, conclusions are drawn, reporting the main research contributions that have been discussed throughout this dissertation.
Resumo:
Il lavoro svolto, in collaborazione con “Ducati Motor Holding”, si propone l’analisi, mediante l’applicazione di un software FEM (HyperWorks 9.0), delle strutture rappresentate dall’assieme paracoppa-parasassi e dal silenziatore. Il primo obiettivo consiste nell’ottenimento di un modello agli elementi finiti della struttura. Le simulazioni di calcolo consistono in analisi di tipo dinamico per determinare i modi di vibrare delle strutture. Sulla base di ulteriori simulazioni sulla risposta al transitorio del sistema si è studiato il loro comportamento nelle condizioni di funzionamento. La finalità del lavoro risiede dunque nella determinazione delle criticità strutturali che i componenti hanno manifestato durante prove sperimentali verificandole attraverso calcolo numerico e applicazione delle potenzialità del software applicato, per l’analisi degli aspetti sopra esposti.
Resumo:
In questo studio vengono riportati i risultati di prove di fatica oligociclica eseguiti su provini dello stesso materiale ottenuti con uguali processi tecnologici ma provenienti da differenti colate di metallo. Il materiale in questione è un acciaio di elevata qualità frequentemente utilizzato per la realizzazione di cappe per turboalternatori. Obiettivo dello studio è stato ricavare i coefficienti necessari per tracciare le curve di fatica del materiale, non ancora presenti in letteratura, ed infine indagare la bontà del risultato ottenuto con un’analisi statistica delle curve e dei risultati ottenuti. Nella prima parte è descritto l’attuale stato dell’arte e la situazione in cui si colloca il presente studio. Nella seconda parte viene fornita una descrizione dettagliata del materiale studiato, delle condizioni nelle quali sono state eseguite le prove e delle attrezzature utilizzate a tale scopo. Si conclude esponendo i risultati ottenuti, comprensivi dei confronti e delle considerazioni derivate dalle analisi statistiche eseguite.
Resumo:
Se il lavoro dello storico è capire il passato come è stato compreso dalla gente che lo ha vissuto, allora forse non è azzardato pensare che sia anche necessario comunicare i risultati delle ricerche con strumenti propri che appartengono a un'epoca e che influenzano la mentalità di chi in quell'epoca vive. Emergenti tecnologie, specialmente nell’area della multimedialità come la realtà virtuale, permettono agli storici di comunicare l’esperienza del passato in più sensi. In che modo la storia collabora con le tecnologie informatiche soffermandosi sulla possibilità di fare ricostruzioni storiche virtuali, con relativi esempi e recensioni? Quello che maggiormente preoccupa gli storici è se una ricostruzione di un fatto passato vissuto attraverso la sua ricreazione in pixels sia un metodo di conoscenza della storia che possa essere considerato valido. Ovvero l'emozione che la navigazione in una realtà 3D può suscitare, è un mezzo in grado di trasmettere conoscenza? O forse l'idea che abbiamo del passato e del suo studio viene sottilmente cambiato nel momento in cui lo si divulga attraverso la grafica 3D? Da tempo però la disciplina ha cominciato a fare i conti con questa situazione, costretta soprattutto dall'invasività di questo tipo di media, dalla spettacolarizzazione del passato e da una divulgazione del passato parziale e antiscientifica. In un mondo post letterario bisogna cominciare a pensare che la cultura visuale nella quale siamo immersi sta cambiando il nostro rapporto con il passato: non per questo le conoscenze maturate fino ad oggi sono false, ma è necessario riconoscere che esiste più di una verità storica, a volte scritta a volte visuale. Il computer è diventato una piattaforma onnipresente per la rappresentazione e diffusione dell’informazione. I metodi di interazione e rappresentazione stanno evolvendo di continuo. Ed è su questi due binari che è si muove l’offerta delle tecnologie informatiche al servizio della storia. Lo scopo di questa tesi è proprio quello di esplorare, attraverso l’utilizzo e la sperimentazione di diversi strumenti e tecnologie informatiche, come si può raccontare efficacemente il passato attraverso oggetti tridimensionali e gli ambienti virtuali, e come, nel loro essere elementi caratterizzanti di comunicazione, in che modo possono collaborare, in questo caso particolare, con la disciplina storica. La presente ricerca ricostruisce alcune linee di storia delle principali fabbriche attive a Torino durante la seconda guerra mondiale, ricordando stretta relazione che esiste tra strutture ed individui e in questa città in particolare tra fabbrica e movimento operaio, è inevitabile addentrarsi nelle vicende del movimento operaio torinese che nel periodo della lotta di Liberazione in città fu un soggetto politico e sociale di primo rilievo. Nella città, intesa come entità biologica coinvolta nella guerra, la fabbrica (o le fabbriche) diventa il nucleo concettuale attraverso il quale leggere la città: sono le fabbriche gli obiettivi principali dei bombardamenti ed è nelle fabbriche che si combatte una guerra di liberazione tra classe operaia e autorità, di fabbrica e cittadine. La fabbrica diventa il luogo di "usurpazione del potere" di cui parla Weber, il palcoscenico in cui si tengono i diversi episodi della guerra: scioperi, deportazioni, occupazioni .... Il modello della città qui rappresentata non è una semplice visualizzazione ma un sistema informativo dove la realtà modellata è rappresentata da oggetti, che fanno da teatro allo svolgimento di avvenimenti con una precisa collocazione cronologica, al cui interno è possibile effettuare operazioni di selezione di render statici (immagini), di filmati precalcolati (animazioni) e di scenari navigabili interattivamente oltre ad attività di ricerca di fonti bibliografiche e commenti di studiosi segnatamente legati all'evento in oggetto. Obiettivo di questo lavoro è far interagire, attraverso diversi progetti, le discipline storiche e l’informatica, nelle diverse opportunità tecnologiche che questa presenta. Le possibilità di ricostruzione offerte dal 3D vengono così messe a servizio della ricerca, offrendo una visione integrale in grado di avvicinarci alla realtà dell’epoca presa in considerazione e convogliando in un’unica piattaforma espositiva tutti i risultati. Divulgazione Progetto Mappa Informativa Multimediale Torino 1945 Sul piano pratico il progetto prevede una interfaccia navigabile (tecnologia Flash) che rappresenti la pianta della città dell’epoca, attraverso la quale sia possibile avere una visione dei luoghi e dei tempi in cui la Liberazione prese forma, sia a livello concettuale, sia a livello pratico. Questo intreccio di coordinate nello spazio e nel tempo non solo migliora la comprensione dei fenomeni, ma crea un maggiore interesse sull’argomento attraverso l’utilizzo di strumenti divulgativi di grande efficacia (e appeal) senza perdere di vista la necessità di valicare le tesi storiche proponendosi come piattaforma didattica. Un tale contesto richiede uno studio approfondito degli eventi storici al fine di ricostruire con chiarezza una mappa della città che sia precisa sia topograficamente sia a livello di navigazione multimediale. La preparazione della cartina deve seguire gli standard del momento, perciò le soluzioni informatiche utilizzate sono quelle fornite da Adobe Illustrator per la realizzazione della topografia, e da Macromedia Flash per la creazione di un’interfaccia di navigazione. La base dei dati descrittivi è ovviamente consultabile essendo contenuta nel supporto media e totalmente annotata nella bibliografia. È il continuo evolvere delle tecnologie d'informazione e la massiccia diffusione dell’uso dei computer che ci porta a un cambiamento sostanziale nello studio e nell’apprendimento storico; le strutture accademiche e gli operatori economici hanno fatto propria la richiesta che giunge dall'utenza (insegnanti, studenti, operatori dei Beni Culturali) di una maggiore diffusione della conoscenza storica attraverso la sua rappresentazione informatizzata. Sul fronte didattico la ricostruzione di una realtà storica attraverso strumenti informatici consente anche ai non-storici di toccare con mano quelle che sono le problematiche della ricerca quali fonti mancanti, buchi della cronologia e valutazione della veridicità dei fatti attraverso prove. Le tecnologie informatiche permettono una visione completa, unitaria ed esauriente del passato, convogliando tutte le informazioni su un'unica piattaforma, permettendo anche a chi non è specializzato di comprendere immediatamente di cosa si parla. Il miglior libro di storia, per sua natura, non può farlo in quanto divide e organizza le notizie in modo diverso. In questo modo agli studenti viene data l'opportunità di apprendere tramite una rappresentazione diversa rispetto a quelle a cui sono abituati. La premessa centrale del progetto è che i risultati nell'apprendimento degli studenti possono essere migliorati se un concetto o un contenuto viene comunicato attraverso più canali di espressione, nel nostro caso attraverso un testo, immagini e un oggetto multimediale. Didattica La Conceria Fiorio è uno dei luoghi-simbolo della Resistenza torinese. Il progetto è una ricostruzione in realtà virtuale della Conceria Fiorio di Torino. La ricostruzione serve a arricchire la cultura storica sia a chi la produce, attraverso una ricerca accurata delle fonti, sia a chi può poi usufruirne, soprattutto i giovani, che, attratti dall’aspetto ludico della ricostruzione, apprendono con più facilità. La costruzione di un manufatto in 3D fornisce agli studenti le basi per riconoscere ed esprimere la giusta relazione fra il modello e l’oggetto storico. Le fasi di lavoro attraverso cui si è giunti alla ricostruzione in 3D della Conceria: . una ricerca storica approfondita, basata sulle fonti, che possono essere documenti degli archivi o scavi archeologici, fonti iconografiche, cartografiche, ecc.; . La modellazione degli edifici sulla base delle ricerche storiche, per fornire la struttura geometrica poligonale che permetta la navigazione tridimensionale; . La realizzazione, attraverso gli strumenti della computer graphic della navigazione in 3D. Unreal Technology è il nome dato al motore grafico utilizzato in numerosi videogiochi commerciali. Una delle caratteristiche fondamentali di tale prodotto è quella di avere uno strumento chiamato Unreal editor con cui è possibile costruire mondi virtuali, e che è quello utilizzato per questo progetto. UnrealEd (Ued) è il software per creare livelli per Unreal e i giochi basati sul motore di Unreal. E’ stata utilizzata la versione gratuita dell’editor. Il risultato finale del progetto è un ambiente virtuale navigabile raffigurante una ricostruzione accurata della Conceria Fiorio ai tempi della Resistenza. L’utente può visitare l’edificio e visualizzare informazioni specifiche su alcuni punti di interesse. La navigazione viene effettuata in prima persona, un processo di “spettacolarizzazione” degli ambienti visitati attraverso un arredamento consono permette all'utente una maggiore immersività rendendo l’ambiente più credibile e immediatamente codificabile. L’architettura Unreal Technology ha permesso di ottenere un buon risultato in un tempo brevissimo, senza che fossero necessari interventi di programmazione. Questo motore è, quindi, particolarmente adatto alla realizzazione rapida di prototipi di una discreta qualità, La presenza di un certo numero di bug lo rende, però, in parte inaffidabile. Utilizzare un editor da videogame per questa ricostruzione auspica la possibilità di un suo impiego nella didattica, quello che le simulazioni in 3D permettono nel caso specifico è di permettere agli studenti di sperimentare il lavoro della ricostruzione storica, con tutti i problemi che lo storico deve affrontare nel ricreare il passato. Questo lavoro vuole essere per gli storici una esperienza nella direzione della creazione di un repertorio espressivo più ampio, che includa gli ambienti tridimensionali. Il rischio di impiegare del tempo per imparare come funziona questa tecnologia per generare spazi virtuali rende scettici quanti si impegnano nell'insegnamento, ma le esperienze di progetti sviluppati, soprattutto all’estero, servono a capire che sono un buon investimento. Il fatto che una software house, che crea un videogame di grande successo di pubblico, includa nel suo prodotto, una serie di strumenti che consentano all'utente la creazione di mondi propri in cui giocare, è sintomatico che l'alfabetizzazione informatica degli utenti medi sta crescendo sempre più rapidamente e che l'utilizzo di un editor come Unreal Engine sarà in futuro una attività alla portata di un pubblico sempre più vasto. Questo ci mette nelle condizioni di progettare moduli di insegnamento più immersivi, in cui l'esperienza della ricerca e della ricostruzione del passato si intreccino con lo studio più tradizionale degli avvenimenti di una certa epoca. I mondi virtuali interattivi vengono spesso definiti come la forma culturale chiave del XXI secolo, come il cinema lo è stato per il XX. Lo scopo di questo lavoro è stato quello di suggerire che vi sono grosse opportunità per gli storici impiegando gli oggetti e le ambientazioni in 3D, e che essi devono coglierle. Si consideri il fatto che l’estetica abbia un effetto sull’epistemologia. O almeno sulla forma che i risultati delle ricerche storiche assumono nel momento in cui devono essere diffuse. Un’analisi storica fatta in maniera superficiale o con presupposti errati può comunque essere diffusa e avere credito in numerosi ambienti se diffusa con mezzi accattivanti e moderni. Ecco perchè non conviene seppellire un buon lavoro in qualche biblioteca, in attesa che qualcuno lo scopra. Ecco perchè gli storici non devono ignorare il 3D. La nostra capacità, come studiosi e studenti, di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio che il 3D porta con sè, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Una ricostruzione storica può essere molto utile dal punto di vista educativo non sono da chi la visita ma, anche da chi la realizza. La fase di ricerca necessaria per la ricostruzione non può fare altro che aumentare il background culturale dello sviluppatore. Conclusioni La cosa più importante è stata la possibilità di fare esperienze nell’uso di mezzi di comunicazione di questo genere per raccontare e far conoscere il passato. Rovesciando il paradigma conoscitivo che avevo appreso negli studi umanistici, ho cercato di desumere quelle che potremo chiamare “leggi universali” dai dati oggettivi emersi da questi esperimenti. Da punto di vista epistemologico l’informatica, con la sua capacità di gestire masse impressionanti di dati, dà agli studiosi la possibilità di formulare delle ipotesi e poi accertarle o smentirle tramite ricostruzioni e simulazioni. Il mio lavoro è andato in questa direzione, cercando conoscere e usare strumenti attuali che nel futuro avranno sempre maggiore presenza nella comunicazione (anche scientifica) e che sono i mezzi di comunicazione d’eccellenza per determinate fasce d’età (adolescenti). Volendo spingere all’estremo i termini possiamo dire che la sfida che oggi la cultura visuale pone ai metodi tradizionali del fare storia è la stessa che Erodoto e Tucidide contrapposero ai narratori di miti e leggende. Prima di Erodoto esisteva il mito, che era un mezzo perfettamente adeguato per raccontare e dare significato al passato di una tribù o di una città. In un mondo post letterario la nostra conoscenza del passato sta sottilmente mutando nel momento in cui lo vediamo rappresentato da pixel o quando le informazioni scaturiscono non da sole, ma grazie all’interattività con il mezzo. La nostra capacità come studiosi e studenti di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio sottinteso al 3D, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Le esperienze raccolte nelle pagine precedenti ci portano a pensare che in un futuro non troppo lontano uno strumento come il computer sarà l’unico mezzo attraverso cui trasmettere conoscenze, e dal punto di vista didattico la sua interattività consente coinvolgimento negli studenti come nessun altro mezzo di comunicazione moderno.
Resumo:
La tesi si pone come finalità quella di analizzare un comprensorio territoriale dal punto di vista insediativo, cercando di coglierne le peculiarità e i mutamenti nel lungo periodo attraverso un uso incrociato di fonti scritte e archeologiche. La ricerca ha preso avvio dall’analisi del Saltopiano, uno dei distretti di ambito rurale che si ritrova nelle fonti tra IX-XII secolo, in passato già affrontato dalla storiografia specialmente in relazione all’organizzazione istituzionale delle aree rurali tra Longobardia e Romania durante i secoli altomedievali. Attraverso l’esame delle fonti scritte edite si è cercato di ricostruire il quadro dell’organizzazione territoriale, partendo dalla disamina dei centri di potere laici ed ecclesiastici che a questa area avevano rivolto il proprio interesse patrimoniale e politico, ma proponendo in modo analitico i dati che forniscono indicazioni dirette in relazione all’organizzazione insediativa e quindi alla gestione del territorio dal punto di vista socioeconomico. E’ stato posto in risalto il carattere di un insediamento rurale a maglie larghe, secondo la scansione in fundi e la presenza di poli di accentramento importanti come pievi, castra, vici e con una compresenza, per quanto ristretta a pochi esempi significativi, di altre forme di organizzazione come la curtis e la massa. Con la prosecuzione dello studio del territorio in senso diacronico, prima la scomparsa del riferimento al Saltopiano, poi la progressiva conquista del contado da parte del Comune di Bologna ha determinato un vero e proprio mutamento nell’approccio di analisi. E’ stato dato spazio all’analisi di fondi inediti (conservati principalmente all’Archivio di Stato di Bologna) e specificamente legati alla realtà territoriale studiata. In primo luogo, sono stati esaminati gli estimi del contado (Galliera e Massumatico), una fonte già frequentata in passato da altri studiosi, soprattutto con un interesse dal punto di vista demografico e economico. Nel caso specifico, sono stati estrapolati dalle prime rilevazioni fiscali del 1235 e del 1245 e poi da quelle di primo Trecento i dati che restituiscono l’organizzazione del territorio in modo concreto. Partendo dalle riflessioni di studi svolti in passato, che avevano considerato il fondamentale inserimento di importanti famiglie cittadine nella gestione sempre più ampia dei beni agricoli nel contado è stata avviata l’analisi di un altro fondo inedito, quello dei registri del Vicariato di Galliera (in particolare quelli concernenti la denuncia dei “danni dati” sulle proprietà agricole), da cui emerge in modo evidente la presenza di famiglie come i Guastavillani, i Caccianemici, i Lambertini. Tali dati, in associazione a quelli tratti dagli estimi, hanno fornito elementi essenziali per la comprensione del territorio rurale nel suo complesso e nei rapporti di interdipendenza tra le diverse componenti sociali. Una terza parte della tesi è dedicata nella sua totalità all’analisi delle fonti materiali che forniscono dati per lo studio dell’insediamento medievale nel territorio compreso tra gli attuali comuni di S. Pietro in Casale e Galliera. Partendo da alcune ricerche preliminari compiute negli anni ’90 del secolo scorso, è stato impostato un progetto di ricerca archeologica articolatosi in due campagne di ricognizione di superficie e in una prima campagna di scavo tramite sondaggio presso la torre di Galliera, al fine di ricavare dati di prima mano in un’area pressoché inesplorata dal punto di vista archeologico. Nonostante i limiti riscontrati dal punto di vista pratico, a causa del terreno fortemente alluvionato, si sono raccolti dati specifici che aiutano a inquadrare questo comprensorio e a confrontarlo con altre aree della regione e in particolare del comitato bolognese studiate in ricerche analoghe, mettendone in evidenza le specificità e le caratterizzazioni. Inoltre, alcune importanti persistenze materiali (un sistema di torri di cui rimangono alcuni esempi ancora conservati in alzato) hanno permesso di gettare luce sul valore commerciale e quindi strategico dell’area, soprattutto in funzione del passaggio delle merci lungo una via fluviale fondamentale tra XIII-XIV secolo nel collegare Ferrara a Bologna.
Resumo:
Il trasporto intermodale ha acquisito un ruolo sempre più importante nello scenario dei trasporti comunitari merci durante gli ultimi quindici anni. La sfida che si era posta a inizi anni novanta in Europa consisteva nello sviluppo di una rete europea di trasporto combinato strada-ferrovia. A questo fine è stata fondamentale la cooperazione tra gli operatori del settore e le istituzioni (comunitarie e nazionali), nonché l’impulso dato dalla liberalizzazione del trasporto ferroviario, che fortemente influenza il trasporto combinato. Questa tesi, in particolare, intende studiare il ruolo del Sistema Gateway come strumento innovativo e di nuovo impulso per lo sviluppo della rete di trasporto combinato strada-rotaia in ambito europeo. Grazie a questo sistema, le unità di carico, dirette in una determinata regione, giungono ad un "Terminal Gateway", dove secondo un sistema di tipo “hub-and-spoke” vengono trasbordate a mezzo gru su treni “Shuttle” verso la destinazione finale. Tutto ciò avviene con operazioni fortemente automatizzate e veloci con sensibile vantaggio in termini di tempo e costi. La tesi parte da una descrizione del trasporto intermodale, facendo un focus sugli aspetti strutturali, tecnici e organizzativi del trasporto combinato strada – rotaia e del suo funzionamento. Passando attraverso l’analisi delle reti di trasporto merci in Europa, nel secondo capitolo. Il terzo capitolo entra nel vivo della Tesi introducendo l’oggetto dell’indagine: il Sistema Gateway nell’ambito dello sviluppo della rete europea del traffico combinato strada-ferrovia. Nella seconda parte della tesi è voluto studiare il Sistema Gateway con l’ausilio dei metodi d’analisi che vengono applicati per la scelta fra progetti alternativi nel campo della pianificazione dei trasporti, pertanto sono stati presi in rassegna e descritti i metodi più utilizzati: l’Analisi Benefici-Costi e l’Analisi Multicriteria. Nel caso applicativo è stata utilizzata l’Analisi Benefici-Costi. Infine nel capitolo sesto è stato presentato dettagliatamente il caso reale di studio che riguarda il progetto per la trasformazione del terminal di Verona Quadrante Europa in un terminal gateway.
Resumo:
Questa si ripropone in prima istanza di analizzare le origini e l’evoluzione del concetto di sostenibilità e successivamente di prendere in considerazione uno dei tanti mezzi che consentono di perseguirla: la gestione della sosta. Per molti anni infatti, a partire dal momento in cui sono iniziate ad emergere le esternalità negative legate al traffico, si è pensato che quello dei parcheggi fosse solo un ulteriore problema. Solo di recente, dalla fine degli anni ’90, fatta eccezione per il caso della Gran Bretagna che ha fatto da capofila già a partire dagli anni ’80, si è iniziato a considerare la sosta come parte della soluzione dei problemi di congestione, inquinamento e di vivibilità delle città. Verrà analizzata perciò nel secondo capitolo l’evoluzione delle politiche della sosta a livello europeo, con particolare attenzione all’operato svolto dall’EPA (European Parking Association) associazione leader nel settore riconosciuta dall’Unione Europea e sostenuta da 18 Paesi membri tra cui anche l’Italia. Il lavoro svolto da quest’associazione, nata nei primi anni ’80, è quello di decidere insieme agli associati delle linee comuni da seguire per migliorare le politiche a livello europeo riguardo la gestione della sosta. Si tratta nella pratica di studi, convegni e analisi degli effetti prodotti da provvedimenti intrapresi nelle varie città che hanno iniziato ad introdurre la regolamentazione della sosta. Sempre nel secondo capitolo saranno quindi presentate le linee guida europee nell’ambito dei parcheggi e si analizzeranno casi di “Best Practices” di alcuni Paesi che hanno introdotto provvedimenti per la gestione della sosta. Nel terzo capitolo invece viene considerata la situazione in Italia parlando in principio di Aipark, l’associazione italiana operatori nel settore dei parcheggi che partecipa alle attività dell’Epa e prendendo in esame in seguito le politiche adottate a livello nazionale e nello specifico in alcune tra le più importanti città italiane. Si vedrà come sia ancora troppo marcata la distanza del nostro Paese dai progressi registrati in altri Paesi dell’UE, con le dovute eccezioni. Per quel che riguarda l’aspetto normativo è significativo il fatto che, nonostante il riconoscimento della forte influenza che le politiche della sosta hanno sulla regolazione del traffico, ci siano ancora molte lacune legislative e che spesso la sosta non compaia tra i soggetti delle leggi in tale settore. La legislazione italiana nell’ambito dei parcheggi verrà analizzata nel quarto capitolo. Successivamente, nei capitoli 5 e 6 si parlerà delle fasi preliminari della redazione del Piano della Sosta di Casalecchio di Reno. Il Piano della Sosta è uno dei Piani Particolareggiati che costituiscono il 2° livello di progettazione del PUT (Piano Urbano del Traffico) e rappresenta uno strumento di pianificazione utile ad analizzare lo stato di fatto del sistema dei parcheggi di una città in modo da coglierne le criticità e fornire eventualmente le soluzioni per ovviare ad esse. Nel quinto capitolo viene effettuato un inquadramento territoriale di Casalecchio e si parlerà delle problematiche della sosta emerse nel PGTU (Piano Generale del Traffico Urbano) che costituisce il progetto preliminare o Piano Quadro del PUT. Le fasi attraverso le quali viene elaborato un Piano della sosta si possono sintetizzare nei seguenti punti: - Studio della normativa nazionale e locale e di esempi significativi di altre realtà nell’ambito della sosta. - Analisi dello stato di fatto in termini di domanda e offerta. - Indagini mediante incontri pubblici, distribuzione di questionari o interviste dirette, per cogliere le esigenze degli utenti che usufruiscono del servizio. - Analisi delle eventuali criticità emerse. - Progettazione del nuovo assetto della sosta. - Campagna di sensibilizzazione per fare “accettare” con più facilità i cambiamenti agli utenti. Nel sesto capitolo di questa tesi, e negli allegati si possono consultare i risultati delle indagini su domanda e offerta condotte da TPS (Transport Planning Service), azienda che svolge attività di pianificazione e progettazione, di fornitura software, oltre che indagini e rilievi nell’ambito dei trasporti. Verranno descritte le modalità di rilievo e verranno presentati i risultati ottenuti dall’elaborazione dei dati raccolti, con qualche accenno alle possibili soluzioni per risolvere le problematiche emerse. La fase di progettazione vera e propria degli interventi non verrà invece trattata in questa sede.
Resumo:
Nel periodo storico compreso tra la seconda metà dell’Ottocento ed il primo ventennio del Novecento, un’ondata di innovazioni tecnologiche e scientifiche, unitamente all’espansione dell’industria siderurgica e la conseguente diffusione del ferro come materiale da costruzione, portarono alla realizzazione di strutture metalliche grandiose. Ciò fu reso possibile grazie ad una fervida attività di ricerca che permise la risoluzione di problematiche tecniche di assoluto rilievo, come la progettazione di grandi coperture o di ponti destinati al traffico ferroviario in grado di coprire luci sempre maggiori. In questo contesto si sviluppò il sistema della chiodatura come metodo di unione per il collegamento rigido e permanente dei vari elementi che compongono la struttura portante metallica. Ad oggi il sistema della chiodatura è stato quasi completamente sostituito dalla bullonatura di acciaio ad alta resistenza e dalla saldatura, che garantendo gli stessi standard di affidabilità e sicurezza, offrono vantaggi in termini economici e di rapidità esecutiva. Tuttavia lo studio delle unioni chiodate continua a rivestire notevole importanza in tutti quei casi in cui il progettista debba occuparsi di restauro, manutenzione o adeguamento di strutture esistenti che in molti casi continuano ad assolvere le funzioni per le quali erano state progettate. La valutazione delle strutture esistenti, in particolare i ponti, ha assunto un’importanza sempre crescente. L’incremento della mobilità e del traffico sulle infrastrutture di trasporto ha portato ad un incremento contemporaneo di carichi e velocità sui ponti. In particolare nelle ferrovie, i ponti rappresentano una parte strategica della rete ferroviaria e in molti casi, essi hanno già raggiunto i loro limiti di capacità di traffico, tanto è vero che l’età media del sessanta percento dei ponti metallici ferroviari è di un centinaio di anni. Pertanto i carichi di servizio, i cicli di sforzo accumulati a causa dei carichi da traffico e il conseguente invecchiamento delle strutture esistenti, inducono la necessità della valutazione della loro rimanente vita a fatica. In questo contesto, la valutazione delle condizioni del ponte e le conseguenti operazioni di manutenzione o sostituzione diventano indispensabili. Negli ultimi decenni sono state effettuate numerose iniziative di ricerca riguardo il comportamento a fatica dei ponti ferroviari chiodati, poiché le passate esperienze hanno mostrato che tali connessioni sono suscettibili di rotture per fatica. Da uno studio dell’ASCE Committee on Fatigue and Fracture Reliability è emerso che l’ottanta, novanta percento delle crisi nelle strutture metalliche è da relazionarsi ai fenomeni di fatica e frattura. Il danno per fatica riportato dai ponti chiodati è stato osservato principalmente sulle unioni tra elementi principali ed è causato dagli sforzi secondari, che si possono sviluppare in diverse parti delle connessioni. In realtà riguardo la valutazione della fatica sui ponti metallici chiodati, si è scoperto che giocano un ruolo importante molti fattori, anzitutto i ponti ferroviari sono soggetti a grandi variazioni delle tensioni indotte da carichi permanenti e accidentali, così come imperfezioni geometriche e inclinazioni o deviazioni di elementi strutturali comportano sforzi secondari che solitamente non vengono considerati nella valutazione del fenomeno della fatica. Vibrazioni, forze orizzontali trasversali, vincoli interni, difetti localizzati o diffusi come danni per la corrosione, rappresentano cause che concorrono al danneggiamento per fatica della struttura. Per questo motivo si studiano dei modelli agli elementi finiti (FE) che riguardino i particolari delle connessioni e che devono poi essere inseriti all’interno di un modello globale del ponte. L’identificazione degli elementi critici a fatica viene infatti solitamente svolta empiricamente, quindi è necessario che i modelli numerici di cui si dispone per analizzare la struttura nei particolari delle connessioni, così come nella sua totalità, siano il più corrispondenti possibile alla situazione reale. Ciò che ci si propone di sviluppare in questa tesi è un procedimento che consenta di affinare i modelli numerici in modo da ottenere un comportamento dinamico analogo a quello del sistema fisico reale. Si è presa in esame la seguente struttura, un ponte metallico ferroviario a binario unico sulla linea Bologna – Padova, che attraversa il fiume Po tra le località di Pontelagoscuro ed Occhiobello in provincia di Ferrara. Questo ponte fu realizzato intorno agli anni che vanno dal 1945 al 1949 e tra il 2002 e il 2006 ha subito interventi di innalzamento, ampliamento ed adeguamento nel contesto delle operazioni di potenziamento della linea ferroviaria, che hanno portato tra l’altro all’affiancamento di un nuovo ponte, anch’esso a singolo binario, per i convogli diretti nella direzione opposta. Le travate metalliche del ponte ferroviario sono costituite da travi principali a traliccio a gabbia chiusa, con uno schema statico di travi semplicemente appoggiate; tutte le aste delle travi reticolari sono formate da profilati metallici in composizione chiodata. In particolare si è rivolta l’attenzione verso una delle travate centrali, della quale si intende affrontare un’analisi numerica con caratterizzazione dinamica del modello agli Elementi Finiti (FEM), in modo da conoscerne lo specifico comportamento strutturale. Ad oggi infatti l’analisi strutturale si basa prevalentemente sulla previsione del comportamento delle strutture tramite modelli matematici basati su procedimenti risolutivi generali, primo fra tutti il Metodo agli Elementi Finiti. Tuttavia i risultati derivanti dal modello numerico possono discostarsi dal reale comportamento della struttura, proprio a causa delle ipotesi poste alla base della modellazione. Difficilmente infatti si ha la possibilità di riscontrare se le ipotesi assunte nel calcolo della struttura corrispondano effettivamente alla situazione reale, tanto più se come nella struttura in esame si tratta di una costruzione datata e della quale si hanno poche informazioni circa i dettagli relativi alla costruzione, considerando inoltre che, come già anticipato, sforzi secondari e altri fattori vengono trascurati nella valutazione del fenomeno della fatica. Nel seguito si prenderanno in esame le ipotesi su masse strutturali, rigidezze dei vincoli e momento d’inerzia delle aste di parete, grandezze che caratterizzano in particolare il comportamento dinamico della struttura; per questo sarebbe ancora più difficilmente verificabile se tali ipotesi corrispondano effettivamente alla costruzione reale. Da queste problematiche nasce l’esigenza di affinare il modello numerico agli Elementi Finiti, identificando a posteriori quei parametri meccanici ritenuti significativi per il comportamento dinamico della struttura in esame. In specifico si andrà a porre il problema di identificazione come un problema di ottimizzazione, dove i valori dei parametri meccanici vengono valutati in modo che le caratteristiche dinamiche del modello, siano il più simili possibile ai risultati ottenuti da elaborazioni sperimentali sulla struttura reale. La funzione costo è definita come la distanza tra frequenze proprie e deformate modali ottenute dalla struttura reale e dal modello matematico; questa funzione può presentare più minimi locali, ma la soluzione esatta del problema è rappresentata solo dal minimo globale. Quindi il successo del processo di ottimizzazione dipende proprio dalla definizione della funzione costo e dalla capacità dell’algoritmo di trovare il minimo globale. Per questo motivo è stato preso in considerazione per la risoluzione del problema, l’algoritmo di tipo evolutivo DE (Differential Evolution Algorithm), perché gli algoritmi genetici ed evolutivi vengono segnalati per robustezza ed efficienza, tra i metodi di ricerca globale caratterizzati dall’obiettivo di evitare la convergenza in minimi locali della funzione costo. Obiettivo della tesi infatti è l’utilizzo dell’algoritmo DE modificato con approssimazione quadratica (DE-Q), per affinare il modello numerico e quindi ottenere l’identificazione dei parametri meccanici che influenzano il comportamento dinamico di una struttura reale, il ponte ferroviario metallico a Pontelagoscuro.