999 resultados para Tecnopolimeri radiopachi, test di radiopacità, prove accelerate
Resumo:
"Indice generale delle cose notabili descritte in tutta l'opers": p. [585]-645.
Resumo:
Mode of access: Internet.
Resumo:
Gli obiettivi della presente ricerca sono stati l’identificazione di un protocollo per la conservazione ex situ e lo studio delle risposte fisiologiche allo stress salino di due specie endemiche della regione Liguria, di particolare interesse poiché protette e a rischio d’estinzione. Sia il Limonium cordatum che il Convolvulus sabatius vivono in condizioni naturali particolari, infatti, sono costantemente esposte agli aerosol marini, che presentano elevate concentrazioni di NaCl, per tali ragioni si è cercato di comprendere quali fossero i meccanismi di risposta delle due specie allo stress salino; da ultimo, se presentassero risposte simili, visto l’habitat comune che condividono. Per capire in modo più approfondito le risposte fisiologiche delle due piante, è stato anche preso in considerazione l’habitat naturale per cogliere eventuali differenze nella zona di crescita, per esempio maggiore e/o minore esposizione agli spruzzi marini di una piuttosto che dell’altra. Per il raggiungimento di tali obiettivi si è proceduto con: •L’utilizzo della coltura in vitro per comprendere i meccanismi responsabili della tolleranza e/o dell’adattamento allo stress salino, che ha permesso di confrontare le due specie in un ambiente controllato con la sola variabile della concentrazione salina. Per valutare tali risposte si sono effettuate delle indagini morfologiche, istologiche e fisiologiche; • L’identificazione delle condizioni ambientali migliori per la possibile reintroduzione, sia con l’uso della coltura in vitro, che ha permesso di stabilire il valore soglia di tolleranza della concentrazione di NaCl di entrambe le specie, che con sopralluoghi in loco, per individuare eventuali situazioni differenti tra le due specie, che giustificassero risposte diverse tra di esse. Nel caso del Convolvulus sabatius, essendo il suo areale di crescita più limitato e, volendo quindi approfondire le condizioni ambientali naturali di crescita, si è provveduto a simulare l’habitat autoctono con prove in vivo.
Resumo:
La presente Tesi ha per oggetto lo sviluppo e la validazione di nuovi criteri per la verifica a fatica multiassiale di componenti strutturali metallici . In particolare, i nuovi criteri formulati risultano applicabili a componenti metallici, soggetti ad un’ampia gamma di configurazioni di carico: carichi multiassiali variabili nel tempo, in modo ciclico e random, per alto e basso/medio numero di cicli di carico. Tali criteri costituiscono un utile strumento nell’ambito della valutazione della resistenza/vita a fatica di elementi strutturali metallici, essendo di semplice implementazione, e richiedendo tempi di calcolo piuttosto modesti. Nel primo Capitolo vengono presentate le problematiche relative alla fatica multiassiale, introducendo alcuni aspetti teorici utili a descrivere il meccanismo di danneggiamento a fatica (propagazione della fessura e frattura finale) di componenti strutturali metallici soggetti a carichi variabili nel tempo. Vengono poi presentati i diversi approcci disponibili in letteratura per la verifica a fatica multiassiale di tali componenti, con particolare attenzione all'approccio del piano critico. Infine, vengono definite le grandezze ingegneristiche correlate al piano critico, utilizzate nella progettazione a fatica in presenza di carichi multiassiali ciclici per alto e basso/medio numero di cicli di carico. Il secondo Capitolo è dedicato allo sviluppo di un nuovo criterio per la valutazione della resistenza a fatica di elementi strutturali metallici soggetti a carichi multiassiali ciclici e alto numero di cicli. Il criterio risulta basato sull'approccio del piano critico ed è formulato in termini di tensioni. Lo sviluppo del criterio viene affrontato intervenendo in modo significativo su una precedente formulazione proposta da Carpinteri e collaboratori nel 2011. In particolare, il primo intervento riguarda la determinazione della giacitura del piano critico: nuove espressioni dell'angolo che lega la giacitura del piano critico a quella del piano di frattura vengono implementate nell'algoritmo del criterio. Il secondo intervento è relativo alla definizione dell'ampiezza della tensione tangenziale e un nuovo metodo, noto come Prismatic Hull (PH) method (di Araújo e collaboratori), viene implementato nell'algoritmo. L'affidabilità del criterio viene poi verificata impiegando numerosi dati di prove sperimentali disponibili in letteratura. Nel terzo Capitolo viene proposto un criterio di nuova formulazione per la valutazione della vita a fatica di elementi strutturali metallici soggetti a carichi multiassiali ciclici e basso/medio numero di cicli. Il criterio risulta basato sull'approccio del piano critico, ed è formulato in termini di deformazioni. In particolare, la formulazione proposta trae spunto, come impostazione generale, dal criterio di fatica multiassiale in regime di alto numero di cicli discusso nel secondo Capitolo. Poiché in presenza di deformazioni plastiche significative (come quelle caratterizzanti la fatica per basso/medio numero di cicli di carico) è necessario conoscere il valore del coefficiente efficace di Poisson del materiale, vengono impiegate tre differenti strategie. In particolare, tale coefficiente viene calcolato sia per via analitica, che per via numerica, che impiegando un valore costante frequentemente adottato in letteratura. Successivamente, per validarne l'affidabilità vengono impiegati numerosi dati di prove sperimentali disponibili in letteratura; i risultati numerici sono ottenuti al variare del valore del coefficiente efficace di Poisson. Inoltre, al fine di considerare i significativi gradienti tensionali che si verificano in presenza di discontinuità geometriche, come gli intagli, il criterio viene anche esteso al caso dei componenti strutturali intagliati. Il criterio, riformulato implementando il concetto del volume di controllo proposto da Lazzarin e collaboratori, viene utilizzato per stimare la vita a fatica di provini con un severo intaglio a V, realizzati in lega di titanio grado 5. Il quarto Capitolo è rivolto allo sviluppo di un nuovo criterio per la valutazione del danno a fatica di elementi strutturali metallici soggetti a carichi multiassiali random e alto numero di cicli. Il criterio risulta basato sull'approccio del piano critico ed è formulato nel dominio della frequenza. Lo sviluppo del criterio viene affrontato intervenendo in modo significativo su una precedente formulazione proposta da Carpinteri e collaboratori nel 2014. In particolare, l’intervento riguarda la determinazione della giacitura del piano critico, e nuove espressioni dell'angolo che lega la giacitura del piano critico con quella del piano di frattura vengono implementate nell'algoritmo del criterio. Infine, l’affidabilità del criterio viene verificata impiegando numerosi dati di prove sperimentali disponibili in letteratura.
Resumo:
Growing evidence suggest the importance of different environments in promoting the pathogenesis and/or exacerbation of asthma. Indoor air pollution is a major contributor to human exposure, since people spend up to 90% of their day indoors. Apart from active smoking, indoor pollution is considered one of the major preventable risk factors of chronic respiratory diseases. The professional activity can also be dangerous because it exposes the subject to environments that can promote the onset of asthma or worsening of the latter in those already affected. Even bad habits such as incorrect diet, lead to more difficulty in controlling their disease. However asthma is a multifactorial disease in nature so it is not easy to distinguish the role of occupational exposure, pollution and normal habits such as smoking, nutrition, sports, etc. This retrospective study was conducted on a sample of asthma patients residing in the metropolitan area of Parma. 116 patients were selected among those who are followed up at least two years at the Asthma outpatient Clinic of Parma University Hospital. The sample in question is therefore closely controlled and monitored; it comes to patients who are well educated on the control of their disease, are able to take appropriate measures to minimize the symptomatology. With this tight approach is proposed to minimize the effect of confounding and then traced with greater certainty the possible cause of the failure to control the disease. For this purpose, each patient was subjected to regular checkups; we took as a reference the period of time between April and October 2015. During each visit, in addition to general data for each patient, we were collected personal information about their habits and way of life through a validated questionnaire delivered and completed by the patient during the visit in the presence of the permanent staff. The questionnaire covers mainly the qualification of the patient, its possible occupational exposure, his home, with information about nearby traffic, time spent outside, physical activity (place and time), exposure to chemicals, exposure to various fumes (fireplace or stove) and cigarette smoke, comorbidities and any drugs taken during the visits considered. Regarding the respiratory conditions of patients during every examination we were considered: Asthma Control Test (a test performed by patients to assess the state of the disease during the month preceding the test), the measurement of exhaled nitric oxide (FeNO) as an index of airways inflammation, measuring the resistance level of small airways (R5-R20) and some spirometric values observed in experiment; in particular the forced vital capacity (FVC), forced expiratory volume in the first second (FEV 1), FEV1/FVC ratio, forced expiratory flow rate over the middle 50% of the FVC (FEF25–75) and FEF25-75/FVC were recorded. The sample has been studied considering both the changes of the respiratory parameters for every patient in their examinations, and the respiratory parameters of all the examinations took as a whole in relation with the variables considered. From the results obtained, the patients are clinically stable; their adopted lifestyle and the exposure to possible sources of outdoor pollution, seems not affect the overall control of their disease. Some findings of our study are of interest. First, the subjects who carry a steroid therapy show a clinical worst, as revealed by the decrease of most spirometric indices, particularly FEF25, FEF75, FEF25-75 and R5-R20; also, the presence of comorbidities and the subsequent intake of other drugs, in addition to normal therapy for asthma, seem to be conditions associated with poorer performance in the functional respiratory parameters in particular FEV1/FVC, FEF75 and FEF25-75. Spirometric indexes that are down are mainly those related to obstruction imposed on small airways; this suggests a neglect to the latter on the contrary should be further explored and treated accordingly. It is also observed that both patients are overweight than those living on the lower floors and/or who have the most windows exposed to traffic, showed a decrease of pulmonary function, especially those relate to an obstruction at the small airways level. In conclusion, our results provided the evidence that a most appropriate therapy, specific to reach the small airways, associated with a healthy lifestyle, can help improve the management of asthma.
Resumo:
The object of this work was to further develop the idea introduced by Muaddi et al (1981) which enables some of the disadvantages of earlier destructive adhesion test methods to be overcome. The test is non-destructive in nature but it does need to be calibrated against a destructive method. Adhesion is determined by measuring the effect of plating on internal friction. This is achieved by determining the damping of vibrations of a resonating specimen before and after plating. The level of adhesion was considered by the above authors to influence the degree of damping. In the major portion of the research work the electrodeposited metal was Watt's nickel, which is ductile in nature and is therefore suitable for peel adhesion testing. The base metals chosen were aluminium alloys S1C and HE9 as it is relatively easy to produce varying levels of adhesion between the substrate and electrodeposited coating by choosing the appropriate process sequence. S1C alloy is the commercially pure aluminium and was used to produce good adhesion. HE9 aluminium alloy is a more difficult to plate alloy and was chosen to produce poorer adhesion. The "Modal Testing" method used for studying vibrations was investigated as a possible means of evaluating adhesion but was not successful and so research was concentrated on the "Q" meter. The method based on the use of a "Q" meter involves the principle of exciting vibrations in a sample, interrupting the driving signal and counting the number of oscillations of the freely decaying vibrations between two known preselected amplitudes of oscillations. It was not possible to reconstruct a working instrument using Muaddi's thesis (1982) as it had either a serious error or the information was incomplete. Hence a modified "Q" meter had to be designed and constructed but it was then difficult to resonate non-magnetic materials, such as aluminium, therefore, a comparison before and after plating could not be made. A new "Q" meter was then developed based on an Impulse Technique. A regulated miniature hammer was used to excite the test piece at the fundamental mode instead of an electronic hammer and test pieces were supported at the two predetermined nodal points using nylon threads. This instrument developed was not very successful at detecting changes due to good and poor pretreatments given before plating, however, it was more sensitive to changes at the surface such as room temperature oxidation. Statistical analysis of test results from untreated aluminium alloys show that the instrument is not always consistent, the variation was even bigger when readings were taken on different days. Although aluminium is said to form protective oxides at room temperature there was evidence that the aluminium surface changes continuously due to film formation, growth and breakdown. Nickel plated and zinc alloy immersion coated samples also showed variation in Q with time. In order to prove that the variations in Q were mainly due to surface oxidation, aluminium samples were lacquered and anodised Such treatments enveloped the active surfaces reacting with the environment and the Q variation with time was almost eliminated especially after hard anodising. This instrument detected major differences between different untreated aluminium substrates.Also Q values decreased progressively as coating thicknesses were increased. This instrument was also able to detect changes in Q due to heat-treatment of aluminium alloys.
Resumo:
Il lavoro di questa tesi è frutto dell’esperienza maturata in quattro mesi di tirocinio presso l’U.S. Geological Survey di Menlo Park, da ottobre 2015 a gennaio 2016. Durante questo periodo sono state eseguite quattro campagne di raccolta dati sismici e geotecnici presso la città di Napa, ove, il 24 agosto 2014, si è verificato un terremoto di magnitudo momento pari a 6.0. Quest’area è stata interessata in precedenza da terremoti minori, il più significativo dei quali risulta essere il terremoto di Yountville del 2000 di magnitudo momento pari a 5.1. I rilievi macrosismici, effettuati immediatamente dopo il terremoto di Napa del 2014, hanno fornito una classificazione dettagliata delle strutture danneggiate nel distretto colpito. Obiettivo di questa tesi è comprendere se la distribuzione dei danni osservata sia legata anche alle caratteristiche geologiche locali (effetti di sito), oltre che alla vicinanza all’epicentro. A questo scopo sono state acquisite 63 misure sismiche passive a stazione singola e 4 prove di sismica attiva multicanale, la cui inversione congiunta ha permesso di creare mappe dei riflettori sismici principali sotto le zone interessate dal terremoto. Allo stesso tempo tali mappe, interpretate alla luce della cartografia geologica, hanno permesso di costruire sezioni geologiche e di identificare le corrispondenze tra riflettori geologici e riflettori sismici. Si è così potuto osservare che le zone più pesantemente danneggiate dal terremoto sono quelle che ricadono ove si sono misurate amplificazioni per risonanza in medio-alta frequenza (> 3 Hz) mentre scarsi danni si sono registrati nelle aree caratterizzate da roccia affiorante (e curve di amplificazione per risonanza piatte) e danni minori nelle zone contraddistinte solo da bedrock sismico profondo. La distribuzione del danno, evidenziatosi prevalentemente dove le frequenze proprie di vibrazione del suolo sono mediamente sopra 3 Hz, risulta compatibile con gli intervalli di frequenza attesi per le strutture residenziali tipiche di Napa Valley, che sono costituite da 2-3 piani fuori terra, in legno e di altezza non superiore ai 10 metri.
Resumo:
Questo elaborato di tesi ha lo scopo di illustrare un'applicazione realizzata per dispositivi Android in grado di localizzare l'utente all'interno di un ambiente indoor sfruttando l'utilizzo dei Beacon e dare una valutazione dei risultati ottenuti. L'utente potrà registrare i dispositivi Beacon in suo possesso all'interno dell'applicazione, caricare la planimetria di un ambiente e configurarlo indicando esattamente quale Beacon si trova in una determinata posizione. Infine potrà scegliere quale tra i tre algoritmi implementati (Prossimità, Triangolazione e Fingerprinting) utilizzare per visualizzare la propria posizione sulla mappa. I tre algoritmi sono stati sottoposti a vari test che hanno permesso di analizzare le differenze tra di essi in termini di accuratezza e le performance generali dell'applicativo.
Resumo:
Scopo di questo elaborato di tesi è la modellazione e l’implementazione di una estensione del simulatore Alchemist, denominata Biochemistry, che permetta di simulare un ambiente multi-cellulare. Al fine di simulare il maggior numero possibile di processi biologici, il simulatore dovrà consentire di modellare l’eterogeneità cellulare attraverso la modellazione di diversi aspetti dei sistemi cellulari, quali: reazioni intracellulari, segnalazione tra cellule adiacenti, giunzioni cellulari e movimento. Dovrà, inoltre, essere ammissibile anche l’esecuzione di azioni impossibili nel mondo reale, come la distruzione o la creazione dal nulla di molecole chimiche. In maniera più specifica si sono modellati ed implementati i seguenti processi biochimici: creazione e distruzione di molecole chimiche, reazioni biochimiche intracellulari, scambio di molecole tra cellule adiacenti, creazione e distruzione di giunzioni cellulari. È stata dunque posta particolare enfasi nella modellazione delle reazioni tra cellule vicine, il cui meccanismo è simile a quello usato nella segnalazione cellulare. Ogni parte del sistema è stata modellata seguendo fenomeni realmente presenti nei sistemi multi-cellulari, e documentati in letteratura. Per la specifica delle reazioni chimiche, date in ingresso alla simulazione, è stata necessaria l’implementazione di un Domain Specific Language (DSL) che consente la scrittura di reazioni in modo simile al linguaggio naturale, consentendo l’uso del simulatore anche a persone senza particolari conoscenze di biologia. La correttezza del progetto è stata validata tramite test compiuti con dati presenti in letteratura e inerenti a processi biologici noti e ampiamente studiati.
Resumo:
Questa tesi si inserisce nell’ambito del progetto WA104-NESSiE al CERN per il quale era richiesto lo sviluppo di un tracciatore di particelle cariche da utilizzare in presenza di campi magnetici e avente una risoluzione sulla posizione ricostruita di 1-2 mm. Il lavoro di tesi ha riguardato l'analisi dei dati raccolti con un prototipo del tracciatore composto da barre di scintillatori a sezione triangolare, accoppiati a SiPM i cui segnali sono acquisiti in modalità analogica. Il prototipo è stato esposto a particelle cariche presso la linea di fascio T9 del PS del CERN nel maggio 2016. La catena di analisi è stata validata con dati provenienti da una simulazione Monte Carlo basata su Geant4 che fornisce la risposta del tracciatore al passaggio di particelle cariche (pioni e muoni) a diversi impulsi (1-10 GeV/c). Successivamente, è stata fatta un'analisi preliminare dei dati reali e un confronto con la simulazione Monte Carlo. La risoluzione ottenuta per pioni di 5 GeV è di ∼ 2 mm, compatibile con il valore ottenuto dalla simulazione Monte Carlo di ∼ 1.5 mm. Questi risultati sono stati ricavati analizzando una frazione degli eventi acquisiti durante il test beam. Una misura più accurata della risoluzione del tracciatore può essere ottenuta introducendo alcune correzioni, come ad esempio l’allineamento dei piani, la ricalibrazione dei segnali dei singoli canali e, infine, analizzando l’intero campione.
Resumo:
La tesi analizza la problematica del monitoraggio ambientale a basso costo, cercando di approfondirne le caratteristiche e studiando le situazioni in cui questo vi si adatta bene. Lo studio ha permesso di realizzare due tipologie di stazioni di raccolta dati, una dedicata alla misurazione delle polveri sottili, e una dedicata alla misurazione dell’acidità delle piogge. Entrambe le stazioni condividono la logica di funzionamento, quindi il “core” rimane lo stesso pur lavorando con dati estremamente diversi, mentre si distinguono per i due sensori utilizzati. In fase di test i sensori si sono dimostrati sufficientemente precisi lasciando ben sperare per la realizzazione di applicazioni in contesti reali simili a quelli considerati durante l’analisi. Le stazioni sono in grado di fornire dati geo-localizzati consultabili attraverso un portale web, è possibile visualizzare ogni stazione su una mappa ricevendo aggiornamenti sulle ultime misurazioni, inoltre si possono modellare i dati e visualizzarli su una serie di grafici. Una delle caratteristiche fondamentali che ha guidato tutta la progettazione è stata l’estendibilità del modello, la logica di funzionamento della stazione può essere facilmente implementata su tecnologie hardware e software diverse.
Resumo:
Il lavoro di tesi riguarda lo studio dettagliato di un ciclone di tipo tropicale (tropical like cyclone, TLC) verificatosi nel Canale di Sicilia nel novembre 2014, realizzato attraverso un'analisi modellistica effettuata con i modelli BOLAM e MOLOCH (sviluppati presso il CNR-ISAC di Bologna) e il confronto con osservazioni. Nel primo capitolo è fornita una descrizione generale dei cicloni tropicali e dei TLC, indicando come la formazione di questi ultimi sia spesso il risultato dell'evoluzione di cicloni extratropicali baroclini nel Mediterraneo; sono identificate le aree geografiche con i periodi dell'anno maggiormente soggetti all'influenza di questi fenomeni, riportando un elenco dei principali TLC verificatisi nel Mediterraneo negli utlimi tre decenni e lo stato dell'arte sullo studio di questi eventi. Nel secondo capitolo sono descritte le modalità di implementazione delle simulazioni effettuate per il caso di studio e presentati i principali prodotti dell'analisi modellistica e osservazioni da satellite. Il terzo capitolo si apre con la descrizione della situazione sinottica e l'analisi osservativa con immagini Meteosat e rilevazioni radar che hanno permesso di ricostruire la traiettoria osservata del TLC. In seguito, viene dapprima fornito l'elenco completo delle simulazioni numeriche, quindi sono presentati alcuni dei più importanti risultati ottenuti, dai quali emerge che la previsione della traiettoria e intensità del TLC differisce notevolmente dalle osservazioni. Tenendo conto della bassa predicibilità che ha caratterizzato l'evento, nel quarto capitolo è descritto il metodo usato per ricostruire in maniera ottimale la traiettoria, utilizzando spezzoni da varie simulazioni, che ha permesso un confronto più realistico con i dati osservati e un'analisi dei processi fisici. Nel quinto capitolo sono riportati i principali risultati di alcuni test mirati a valutare l'impatto di aspetti legati all'implementazione delle simulazioni e ad altre forzanti fisiche.
Resumo:
Il lavoro di questa tesi è focalizzato sulla valutazione della sensibilità delle microonde rispetto a differenti idrometeore per le frequenze a 89 GHz e 150 GHz e nella banda di assorbimento del vapor d'acqua a 183.31 GHz. Il metodo di indagine consiste nell'utilizzo del modello di trasferimento radiativo RTTOV (Eyre, 1991) per simulare radianze dei canali dei sensori satellitari nelle microonde Advanced Microwave Sounding Unit-B (AMSU-B) e Microwave Humidity Sounder (MHS). Le simulazioni basate sul modello RTTOV si sono focalizzate su tre dataset indipendenti, forniti da ECMWF. Il primo passo tiene conto di una selezione di categorie dei profili atmosferici basato su una distinzione della fase delle idrometeore, LWP, IWP e WVP, con sottoclassi terra e oceano. La distinzione in diverse categorie permette di valutare la sensibilità di ciascuna frequenza utilizzata nelle simulazioni al variare del contenuto di acqua e ghiaccio. Un secondo approccio è usato per valutare la risposta di ciascuna frequenza nei casi di nevicate sulla terraferma. Questa indagine ha permesso lo sviluppo di un nuovo algoritmo prototipale per la stima dell'intensità di precipitazione nevosa basato su una serie di test a soglia e una equazione di combinazione lineare multipla che sfrutta una combinazione dei canali più sensibili alla snowfall: 150, 186 e 190 GHz. Una prima verifica su casi di studio pre-selezionati di snowstorm sembra fornire risultati promettenti. Infine è stato realizzato uno studio di sensibilità dell’algoritmo 183-WSL (Laviola and Levizzani, 2011) utilizzando le simulazioni di RTTOV con precipitazione/non precipitazione come predittori discreti e con le intensità di precipitazione come predittori continui. Le simulazioni RTTOV rivelano una sovrastima delle radianze in presenza di profili di pioggia e ciò potrebbe essere dovuto alle approssimazioni e parametrizzazioni adottate nel modello RTTOV-SCATT usato per la risoluzione dello scattering in presenza di precipitazione.
Resumo:
Il presente lavoro di tesi è finalizzato all'ottimizzazione della formulazione iniziale e delle condizioni di stagionatura per ottenere un materiale utilizzabile come refrattario in applicazioni che richiedono elevate temperature di esposizione. L’interesse della ricerca scientifica verso questa nuova classe di materiali nasce dai vantaggi ambientali ed economici che essi possono fornire. Inoltre, le buone proprietà di resistenza e stabilità termica evidenziate dagli studi condotti negli ultimi anni inducono a sperimentare l’impiego dei materiali geopolimerici in sostituzione dei materiali refrattari o cementiferi attualmente in commercio. A tal fine sono state determinate le caratteristiche fisico-meccaniche, microstrutturali e termiche di matrici geopolimeriche additivate con scarti refrattari. Lo studio svolto, si può suddividere in tre fasi successive. Inizialmente sono state ottimizzazione le formulazioni geopolimeriche. Successivamente i prodotti ottenuti sono stati oggetto di caratterizzazione fisico-meccanica, microstrutturale e termica. Tali caratterizzazioni sono state eseguite attraverso: analisi al microscopio ottico, assorbimento di acqua, determinazione della densità geometrica, prove ultrasoniche per la determinazione dell’omogeneità del materiale, resistenza meccanica a compressione, diffrattometria ai raggi X (XRD), microscopio riscaldante, ciclo termico in muffola e analisi dilatometriche. Nella terza fase sono stati analizzati ed elaborati i risultati ottenuti, evidenziando le soddisfacenti proprietà di stabilità e resistenza termica. È stata inoltre effettuata una analisi economica preliminare evidenziando la competitività nel marcato del sistema geopolimerico studiato. Se a questo si aggiungono i considerevoli benefici ambientali dovuti al fatto che il prodotto è ottenuto con sostanze di recupero, non sarebbe sorprendente che in un futuro prossimo i geopolimeri possano essere largamente prodotti e commercializzati.
Resumo:
Il presente testo viene redatto con lo scopo di studiare l’effettiva interazione tra i cantieri stradali, con la relativa segnaletica, e gli utenti che transitano sulla sede stradale interessata da lavori di rifacimento, manutenzione o adeguamento della stessa, partendo dalla conoscenza di tutta la normativa che disciplina i cantieri su strada. Nel presente testo verrà esposta in modo dettagliato la sperimentazione effettuata, analizzando il percorso di prova, il campo prove con i relativi partecipanti, la tipologia dei cantieri presenti lungo il percorso e il segnalamento di ciascuno di essi. Questo studio verrà svolto analizzando nel dettaglio il comportamento dell’utente alla guida ed in particolare la sua risposta alle informazioni fornite dalla segnaletica temporanea di cantiere, sia verticale che orizzontale, grazie a strumenti specifici quali il Mobile-Eye ed il V-Box. I risultati ottenuti, infine, saranno discussi per valutare quali siano le migliori pratiche di installazione di un cantiere su strada e di posizionamento della relativa segnaletica, per ottenere la massima visibilità e considerazione da parte dei conducenti, e quindi la regolazione del loro comportamento in termini di adeguamento della velocità di marcia in relazione ad una situazione straordinaria che si presenta lungo il tracciato che stanno percorrendo. Tutto ciò potrà servire a redigere delle linee guida specifiche in merito all’installazione dei cantieri e al posizionamento della relativa segnaletica di avviso e preavviso, sempre nel rispetto di tutta la normativa che ne disciplina gli stessi.