908 resultados para ciclone di tipo tropicale,predicibilità,caratteristiche termodinamiche,confronto con osservazioni
Resumo:
Lo scritto ha l’obiettivo di definire dinamiche e cronologie di quel complesso processo espansionistico che portò Roma alla conquista dei territori dell’Ager Gallicus, partendo dall’analisi dettagliata della cultura materiale e dei rispettivi contesti di provenienza emersi dalle recenti indagini archeologiche realizzate dal Dipartimento di Storia Culture Civiltà dell’Università degli Studi di Bologna nella città di Senigallia. In armonia con quanto testimoniato dalle sequenze stratigrafiche documentate, si delineano quattro principali fasi di vita dell’abitato: la prima preromana, la seconda riferibile alla prima fase di romanizzazione del sito, la terza inerente allo sviluppo dell’insediamento con la fondazione della colonia romana e l’ultima riferibile all’età repubblicana. Emerge con chiarezza la presenza già dalla fine del IV-inizio III a.C., di un insediamento romano nel territorio della città, sviluppatosi con la fondazione di un’area sacra e la predisposizione di un’area produttiva. La scelta del sito di Sena Gallica fu strategica: un territorio idoneo allo sfruttamento agricolo e utile come testa di ponte per la conquista dei territori del Nord Italia. Inoltre, questo centro aveva già intrecciato rapporti commerciali con gli insediamenti costieri adriatici e mediterranei. La presenza di ceramica di produzione locale, il rinvenimento di elementi distanziatori e le caratteristiche geomorfologiche del sito, fanno ipotizzare la presenza in loco di un’officina ceramica. Ciò risulta di grande importanza dato che tutte le attestazioni ceramiche prodotte localmente e rinvenute nel territorio, fino ad oggi sono attribuite alle officine di Aesis e Ariminum. Dunque Sena Gallica sarebbe stata un centro commerciale e produttivo. La precoce presenza di ceramica a Vernice Nera di tipo romano-laziale prodotte localmente prima dell’istituzione ufficiale della colonia, che permette di ipotizzare uno stanziamento di piccoli gruppi di Romani in territori appena conquistati ma non ancora colonizzati, attestata a Sena Gallica, trova riscontro anche in altri centri adriatici come Ariminum, Aesis, Pisaurum, Suasa e Cattolica.
Resumo:
Nell'ultimo decennio sono stati sviluppati numerosi materiali π-coniugati contenenti unità tiofeniche per applicazioni in dispositivi organici a film sottile. Nel campo delle celle solari, la possibilità di creare dispositivi basati sull’utilizzo di materiali organici, rispetto ai dispositivi attualmente in commercio a base di silicio, ha suscitato grande interesse soprattutto per la possibilità di realizzare dispositivi su larga area con basso costo di produzione e su substrati flessibili. Gli oligo- e i politiofeni sono eccellenti candidati grazie alle ottime proprietà di trasporto di carica e alle caratteristiche di assorbimento di luce. In celle solari di tipo Bulk-Heterojunction (BHJ), ad esempio, il poli(3-esiltiofene) è uno tra i materiali più studiati. Ad oggi, con il P3HT sono state raggiunte efficienze certificate superiori all’8%, variando sia parametri dipendenti dalla struttura molecolare, come ad esempio il peso molecolare, la regioregolarità delle catene alchiliche, il grado di polidispersità, il grado di polimerizzazione, sia parametri da cui dipende l’organizzazione della blend donatore-accettore. Per superare l’efficienza di conversione ottenuta con i polimeri classici come il P3HT è necessario progettare e sintetizzare materiali con precise caratteristiche: basso energy gap per aumentare l’assorbimento di luce, elevata mobilità di carica per avere una rapida estrazione delle cariche, posizione ottimale degli orbitali di frontiera per garantire una efficiente dissociazione dell’eccitone ed infine buona solubilità per migliorare la processabilità. Il presente lavoro di tesi si è articolato nei seguenti punti: sintesi di oligo- e politiofeni tioalchil sostituiti con inserzione di unità benzotiadiazolo per massimizzare l’assorbimento ed abbassare il gap energetico; studio dell’effetto della ramificazione del gruppo tioalchilico sull’organizzazione supramolecolare allo stato solido e successiva ottimizzazione della morfologia del film solido variando metodi di deposizione e solventi; applicazione degli oligomeri e dei polimeri sintetizzati come materiali donatori in celle fotovoltaiche di tipo Bulk-Heterojunction in presenza di fenil-C61-butirrato di metile (PCBM) come materiale accettore.
Resumo:
Scopo primario della tesi è studiare e progettare un sistema informatico che proponga un buon livello di innovazione tecnologica in relazione al contesto applicativo di riferimento, ovvero relativamente al supporto al lavoro cooperativo di operatori in scenari d'emergenza. In particolare, la tesi si concentra sul'ecosistema software che ruota attorno al singolo operatore con l'obiettivo di dotarlo di uno strumento informatico che gli consenta di avvalersi di un efficace ed efficiente supporto per l'esecuzione delle proprie azioni sul campo (in generale, per la prima assistenza ai pazienti, triage e monitoraggio di parametri vitali). A tal proposito, l'ambito tecnologico di riferimento è quello del Pervasive Mobile Computing, con specifico riferimento ai sistemi context-aware e a quelli con comportamenti fortemente autonomi. Inoltre, al fine di dotare l'operatore di un supporto per l'interazione con il sistema stesso in modalità hands-free, sono stati analizzati i dispositivi wearable di tipo "see-through"; in particolare, i recenti glasses per realtà aumentata. La progettazione del sistema e il conseguente sviluppo del prototipo (che implementa le caratteristiche più significative ed innovative), è stata guidata da un'ispirazione basata sul modello ad agenti (integrato a quello ad oggetti), rivisitando opportunamente l'utilizzo dei componenti offerti dalla tecnologia Android, al fine di ottenere un prodotto software robusto e modulare facilmente manutenibile ed estendibile. Infine, per garantire a ciascun operatore rapida fruibilità del sistema sono state sfruttate le potenzialità offerte dall'uso di smartcard NFC ed inoltre è stato progettato un protocollo di comunicazione ad hoc, basato su stack Bluetooth, per l'integrazione degli AR-Glasses all'intero sistema.
Resumo:
Oggetto di questa tesi sono l’analisi e il commento dei temi e delle difficoltà che si presentano nella traduzione di un testo letterario dal tedesco all’italiano. Il lavoro è stato condotto su brani estratti dal romanzo Toskana für Arme: Liebeserklärung an ein italienisches Dorf di Uli T. Swidler, pubblicato in Germania nel 2009 dalla Kindler Verlag e ad oggi inedito in Italia. Sono state analizzate le caratteristiche del testo originale, sia in termini di genere che di contenuti, secondo le linee guida già stabilite nella teoria della traduzione, ed è stato stabilito un approccio traduttivo. La traduzione è stata disposta in un testo a fronte allo scopo di facilitare un confronto con il testo di partenza e di evidenziare determinate scelte. Essa è stata inoltre accompagnata da un commento al lavoro traduttivo riguardante le diverse tipologie di problemi riscontrati e di considerazioni fatte. Ulteriore oggetto di trattazione è stato il tema del confronto culturale che emerge chiaramente dal romanzo. In primo luogo tale concetto è stato illustrato secondo la sua definizione psicologica e antropologica, e in seguito sono state analizzate le specificità del rapporto interculturale che lega tedeschi e italiani, con un’attenzione particolare agli stereotipi che lo contraddistinguono storicamente e soprattutto a quelli che risultano dal testo preso in esame.
Il progetto delle pavimentazioni stradali in materiale lapideo: il caso del centro storico di Modena
Resumo:
Le vibrazioni indotte dal traffico costituiscono un problema diffuso a causa degli effetti indesiderati che possono generare a lungo termine sulle opere architettoniche e sulle persone. L’intensità di questi fenomeni dipende da numerosi fattori tra cui le caratteristiche dei veicoli (massa, tipo di sospensioni), le relative velocità, la regolarità del piano viabile, le proprietà del terreno di sottofondo, la struttura degli edifici esposti e, soprattutto, le caratteristiche meccaniche dei materiali costituenti la pavimentazione. Il problema è particolarmente sentito nei centri storici delle aree urbane per la presenza di edifici di grande valore artistico e per l’impiego di pavimentazioni di tipo lapideo, caratterizzate da numerose irregolarità di superficie: nasce, quindi, l’esigenza di individuare criteri progettuali e tecnologie costruttive mirati all’attenuazione di questi fenomeni indesiderati e nocivi. A tal fine la presente tesi prevede: • una prima parte, che descrive il centro storico di Modena a partire da un quadro generale storico-morfologico e di pianificazione urbanistica, con particolare attenzione alle tipologie di pavimentazioni stradali ad elementi lapidei e ai materiali tradizionalmente in uso nel territorio modenese; • una seconda parte, che presenta il caso di studio di Piazza Roma e il relativo progetto di recupero per la pedonalizzazione dello spazio pubblico tuttora in corso di realizzazione. Quest'ultimo è stato analizzato da un punto di vista non solo teorico-descrittivo, ma anche pratico-sperimentale, seguendo l’esecuzione dei lavori in cantiere in collaborazione con il Settore Manutenzione e Logistica del Comune di Modena; • una terza parte, relativa al problema delle vibrazioni indotte dal traffico sulle pavimentazioni stradali ad elementi lapidei. Il problema è stato affrontato in termini prima generali, descrivendo i meccanismi di generazione, propagazione e ricezione delle vibrazioni, gli effetti di danneggiamento che possono provocare sulle costruzioni circostanti, le più diffuse tipologie di intervento note in letteratura. Successivamente è stato considerato il caso di Piazza Roma e, partendo dalla rilevazione sperimentale del quadro vibratorio degli edifici adiacenti alla sede stradale, è stata valutata l’efficacia di alcune soluzioni progettuali ai fini della riqualificazione dello stato di fatto.
Resumo:
La complessa materia della prevenzione incendi può essere approcciata secondo due strategie sostanzialmente differenti. Da una parte, l’approccio di tipo deterministico, imperante in Italia, si concretizza nell’emanazione di norme estremamente prescrittive e nel ricorso da parte del progettista a strumenti di calcolo molto semplici. Il pregio maggiore di tale approccio risiede senza dubbio alcuno nella sua estrema semplicità, nella garanzia di una certa omogeneità di applicazione e nella possibilità di erogare in tempi ragionevoli una formazione uniforme ed accettabile ai controllori. Mentre il limite più evidente consiste nella rigidità, talora eccessiva, delle prescrizioni normative e nelle procedure di calcolo da adottare. Dall’altra, un approccio di tipo ingegneristico (Fire Safety Engineering), seguito per lo più nei paesi anglosassoni, si basa sulla predizione della dinamica evolutiva dell’incendio tramite l’applicazione di idonei modelli di calcolo fisicamente basati (physically sound). Punto di forza di questa seconda strategia è la sua estrema flessibilità, che consente la simulazione d’incendi di complessità anche molto elevata. Per contro i limiti più evidenti di tale approccio risiedono nella problematica validazione sperimentale dei modelli in argomento, data la natura distruttiva delle prove che andrebbero condotte, nella spinta preparazione richiesta ai professionisti ed ancor più ai controllori, dato il proliferare negli anni di modelli anche molto diversi tra loro, ed, infine, nel caso di raffinati modelli di campo, in un onere computazionale non sempre sostenibile con i PC di comune diffusione. Allo stato attuale in Italia il ricorso alla Fire Safety Engineering è di fatto circoscritto alle applicazioni per le quali non esiste una specifica norma prescrittiva, su tutte la valutazione del rischio in attività a rischio di incidente rilevante e la Fire Investigation; talora essa è impiegata anche per la valutazione della sicurezza equivalente in occasione di richiesta di deroga a norme prescrittive.
Resumo:
In questo lavoro, svolto presso l'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (I.R.S.T.) (I.R.C.C.S) di Meldola, si sono studiate le caratteristiche di un tomografo Philips Brilliance iCT 256 strati, con l'obiettivo di individuare le variazioni di qualità delle immagini e di dose in funzione dei parametri di acquisizione dello strumento, al fine di una successiva ottimizzazione dei protocolli degli esami tomografici. Le valutazioni sono state fatte sul tomografo multistrato Philips mediante uso di diversi fantocci e dosimetri, seguendo le linee guida della pubblicazione per il controllo di qualità in tomografia computerizzata dell'International Atomic Energy Agency (IAEA). Si è utilizzato il fantoccio Catphan per la caratterizzazione della qualità dell'immagine, acquisendo immagini sia in modalità assiale che spirale e variando parametri di acquisizione quali spessore di strato, kV, mAs e pitch. Per le varie combinazioni di questi parametri sono state misurate, mediante l'utilizzo dei software ImageJ ed ImageOwl, grandezze oggettive quali risoluzione spaziale, risoluzione a basso contrasto e rumore dell'immagine acquisita. Due fantocci di polimetilmetacrilato (PMMA) head e body sono serviti, insieme ad una camera a ionizzazione di tipo pencil, per la misura di indici di dose per la tomografia computerizzata (CTDI). L'irraggiamento di questi strumenti è stato effettuato a diversi valori di tensione del tubo radiogeno e ha permesso di confrontare i valori CTDI misurati con quelli forniti dal tomografo. Si sono quindi calcolate le dosi efficaci di alcuni protocolli della macchina per poi confrontarle con livelli di riferimento diagnostici (DRL), strumenti utilizzati con l'obiettivo di raggiungere valori di dose adeguati per lo scopo clinico dell'esame. Come ulteriore valutazione dosimetrica, si è utilizzato il fantoccio antropomorfo Rando, in cui sono stati inseriti dei dosimetri a termoluminescenza (TLD) per la misura della dose organo. Dai risultati si osserva un andamento inversamente proporzionale tra tensione del tubo radiogeno e contrasto dell'immagine. Impostando valori alti di kV si ottiene però un'immagine meno rumorosa. Oltre alla tensione del tubo, si è valutato come anche lo spessore di strato e la corrente influiscano sul rumore dell'immagine. I risultati ottenuti dimostrano che i valori dei parametri oggettivi di qualità delle immagini rientrano nei limiti di attendibilità, così come i valori di CTDI visualizzati dal tomografo. Lo studio della dipendenza di questi parametri oggettivi dalle impostazione di scansione permette di ottimizzare l'acquisizione TC, ottenendo un buon compromesso fra dose impartita e qualità dell'immagine.
Resumo:
Nell’ambito di un progetto di ricerca sui sistemi di accumulo dell’energia elettrica, in corso di avvio al “Laboratorio di microreti di generazione e accumulo” di Ravenna, è stato sviluppato un modello di calcolo in grado di simulare il comportamento di un elettrolizzatore.Il comportamento di un generico elettrolizzatore è stato modellato mediante una serie di istruzioni e relazioni matematiche, alcune delle quali ricavate tramite un’analisi dettagliata della fisica del processo di elettrolisi, altre ricavate empiricamente sulla base delle prove sperimentali e dei dati presenti nella bibliografia. Queste espressioni sono state implementate all’interno di un codice di calcolo appositamente sviluppato, realizzato in linguaggio Visual Basic, che sfrutta come base dati i fogli di calcolo del software Microsoft Excel per effettuare la simulazione. A partire dalle caratteristiche dell’elettrolizzatore (pressione e temperatura di esercizio, dimensione degli elettrodi, numero di celle e fattore di tuning, più una serie di coefficienti empirici) e dell’impianto generale (potenza elettrica disponibile e pressione di stoccaggio), il modello è in grado di calcolare l’idrogeno prodotto e l’efficienza globale di produzione e stoccaggio. Il modello sviluppato è stato testato sia su di un elettrolizzatore alcalino, quello del progetto PHOEBUS, basato su una tecnologia consolidata e commercialmente matura, sia su di un apparecchio sperimentale di tipo PEM in fase di sviluppo: in entrambi i casi i risultati forniti dal modello hanno trovato pieno riscontro coi dati sperimentali.
Resumo:
Negli ultimi anni si è imposto il concetto di Ubiquitous Computing, ovvero la possibilità di accedere al web e di usare applicazioni per divertimento o lavoro in qualsiasi momento e in qualsiasi luogo. Questo fenomeno sta cambiando notevolmente le abitudini delle persone e ciò è testimoniato anche dal fatto che il mercato mobile è in forte ascesa: da fine 2014 sono 45 milioni gli smartphone e 12 milioni i tablet in circolazione in Italia. Sembra quasi impossibile, dunque, rinunciare al mobile, soprattutto per le aziende: il nuovo modo di comunicare ha reso necessaria l’introduzione del Mobile Marketing e per raggiungere i propri clienti ora uno degli strumenti più efficaci e diretti sono le applicazioni. Esse si definiscono native se si pongono come traguardo un determinato smartphone e possono funzionare solo per quel sistema operativo. Infatti un’app costruita, per esempio, per Android non può funzionare su dispositivi Apple o Windows Phone a meno che non si ricorra al processo di porting. Ultimamente però è richiesto un numero sempre maggiore di app per piattaforma e i dispositivi presenti attualmente sul mercato presentano differenze tra le CPU, le interfacce (Application Programming Interface), i sistemi operativi, l’hardware, etc. Nasce quindi la necessità di creare applicazioni che possano funzionare su più sistemi operativi, ovvero le applicazioni platform-independent. Per facilitare e supportare questo genere di lavoro sono stati definiti nuovi ambienti di sviluppo tra i quali Sencha Touch e Apache Cordova. Il risultato finale dello sviluppo di un’app attraverso questi framework è proprio quello di ottenere un oggetto che possa essere eseguito su qualsiasi dispositivo. Naturalmente la resa non sarà la stessa di un’app nativa, la quale ha libero accesso a tutte le funzionalità del dispositivo (rubrica, messaggi, notifiche, geolocalizzazione, fotocamera, accelerometro, etc.), però con questa nuova app vi è la garanzia di un costo di sviluppo minore e di una richiesta considerevole sul mercato. L’obiettivo della tesi è quello di analizzare questo scenario attraverso un caso di studio proveniente da una realtà aziendale che presenta proprio la necessità di sviluppare un’applicazione per più piattaforme. Nella prima parte della tesi viene affrontata la tematica del mobile computing e quella del dualismo tra la programmazione nativa e le web app: verranno analizzate le caratteristiche delle due diverse tipologie cercando di capire quale delle due risulti essere la migliore. Nella seconda parte sarà data luce a uno dei più importanti framework per la costruzione di app multi-piattaforma: Sencha Touch. Ne verranno analizzate le caratteristiche, soffermandosi in particolare sul pattern MVC e si potrà vedere un confronto con altri framework. Nella terza parte si tratterà il caso di studio, un app mobile per Retail basata su Sencha Touch e Apache Cordova. Nella parte finale si troveranno alcune riflessioni e conclusioni sul mobile platform-independent e sui vantaggi e gli svantaggi dell’utilizzo di JavaScript per sviluppare app.
Resumo:
L’uso dei materiali compositi è andato aumentando negli ultimi decenni per la loro elevata rigidezza, la resistenza specifica e il possibile risparmio, notevole in termini di peso dell’intera struttura. Tali materiali introducono però nuove problematiche riguardanti le modalità di danneggiamento e il comportamento a fatica. Mentre questi fenomeni sono relativamente ben compresi nei materiali metallici, per una struttura in composito non esistono ancora modelli in grado di predire con sufficiente affidabilità l’evoluzione del danneggiamento. Negli ultimi anni la ricerca si è focalizzata sullo sviluppo di sistemi in grado di rilevare la presenza e l’evoluzione del danno, definiti Structural Health Monitoring Systems, ovvero sistemi di monitoraggio strutturale. Il danneggiamento strutturale può così essere individuato e identificato per mezzo di sensori distribuiti integrati nella struttura stessa, aventi la possibilità di trasmettere queste informazioni a un sistema di analisi esterno permettendo di valutare lo stato di degrado della struttura in tempo reale. In questo contesto si inseriscono le attività di ricerca sulle strutture intelligenti che, inglobando al loro interno opportune tipologie di sensori e attuatori, sono in grado di monitorare l’ambiente fisico operativo, raccoglierne e interpretarne le informazioni per poi rispondere ai cambiamenti della struttura in modo appropriato attraverso gli attuatori. L’impiego di sensori e attuatori inglobati nelle strutture offre molteplici vantaggi rispetto ai sistemi di trasduzione e attuazione convenzionali. L’attività di ricerca condotta in questa tesi è rivolta all’indagine di tecniche di SHM per mezzo di sensori a fibra ottica. Essi presentano molteplici peculiarità che li rendono i candidati ideali per queste applicazioni. Esistono diversi tipi di sensori che utilizzano le fibre ottiche. Nel presente lavoro si sono utilizzati sensori di deformazione basati sui reticoli di Bragg (FBG) chirped. Questi sensori sono costituiti da un reticolo inscritto all’interno della fibra, che ha l’effetto di riflettere solo alcune lunghezze d’onda della luce incidente. Se le proprietà geometriche del reticolo cambiano per effetto di una deformazione, cambia anche la forma dello spettro riflesso. Inoltre, con il tipo di sensore usato, è possibile correlare lo spettro con la posizione di eventuali danneggiamenti interni al materiale. Gli obbiettivi di questa ricerca sono di verificare gli effetti della presenza di una fibra ottica sulle caratteristiche meccaniche di un laminato e di trovare un legame tra la risposta in frequenza del sensore FBG e lo stato tensionale e il grado di danneggiamento di un componente in composito.
Resumo:
La stima della frequenza di accadimento di eventi incidentali di tipo random da linee e apparecchiature è in generale effettuata sulla base delle informazioni presenti in banche dati specializzate. I dati presenti in tali banche contengono informazioni relative ad eventi incidentali avvenuti in varie tipologie di installazioni, che spaziano dagli impianti chimici a quelli petrolchimici. Alcune di queste banche dati risultano anche piuttosto datate, poiché fanno riferimento ad incidenti verificatisi ormai molto addietro negli anni. Ne segue che i valori relativi alle frequenze di perdita forniti dalle banche dati risultano molto conservativi. Per ovviare a tale limite e tenere in conto il progresso tecnico, la linea guida API Recommended Pratice 581, pubblicata nel 2000 e successivamente aggiornata nel 2008, ha introdotto un criterio per determinare frequenze di perdita specializzate alla realtà propria impiantistica, mediante l’ausilio di coefficienti correttivi che considerano il meccanismo di guasto del componente, il sistema di gestione della sicurezza e l’efficacia dell’attività ispettiva. Il presente lavoro di tesi ha lo scopo di mettere in evidenza l’evoluzione dell’approccio di valutazione delle frequenze di perdita da tubazione. Esso è articolato come descritto nel seguito. Il Capitolo 1 ha carattere introduttivo. Nel Capitolo 2 è affrontato lo studio delle frequenze di perdita reperibili nelle banche dati generaliste. Nel Capitolo 3 sono illustrati due approcci, uno qualitativo ed uno quantitativo, che permettono di determinare le linee che presentano priorità più alta per essere sottoposte all’attività ispettiva. Il Capitolo 4 è dedicato alla descrizione della guida API Recomended Practice 581. L’applicazione ad un caso di studio dei criteri di selezione delle linee illustrati nel Capitolo 3 e la definizione delle caratteristiche dell’attività ispettiva secondo la linea guida API Recomended Practice 581 sono illustrati nel Capitolo 5. Infine nel Capitolo 6 sono rese esplicite le considerazioni conclusive dello studio effettuato.
Resumo:
Conoscere dal punto di vista tecnico-costruttivo una costruzione storica è fondamentale per un’attendibile valutazione della sicurezza strutturale attuale e per la scelta di un eventuale ed efficace intervento di miglioramento. Per le strutture di interesse storico appartenenti al patrimonio culturale, ma anche per gli altri edifici, risulta difficile conoscere le origini del manufatto, le modifiche avvenute nel corso del tempo dovute a fenomeni di danneggiamento derivanti dal peggioramento delle condizioni dei materiali e dall’avvenimento di eventi calamitosi a causa della mancanza di documentazione storica. La mia tesi e’ focalizzata su tecniche di indagine non distruttive in modo da migliorare la conoscenza della struttura per poi intervenire in modo corretto. L’obiettivo del lavoro svolto e’ stato indagare il contributo delle indagini sperimentali alla diagnosi di edifici storici, in particolare elementi strutturali lignei e di muratura applicando indagini sperimentali non distruttive. Ho dapprima descritto lo stato dell’arte delle varie prove effettuate attraverso la lettura e il confronto di diversi articoli tecnico-scientifici riportando gli obiettivi, la strumentazione impiegata e i risultati ottenuti dalle diverse prove. Ho poi effettuato uno studio del materiale legno utilizzato per le costruzioni, riportandone la descrizione dal punto di vista strutturale, le caratteristiche fisiche, chimiche e meccaniche, le diverse classificazioni e le fasi di lavorazione. Quindi ho analizzato alcune delle prove non distruttive necessarie per una diagnosi di elementi lignei. Per ogni prova vengono riportate alcune caratteristiche, il principio di funzionamento e la strumentazione utilizzata con eventuali software annessi. Negli ultimi 3 capitoli si procede con l’applicazione sperimentale delle prove in sito o in laboratorio precedentemente descritte, in diversi casi di studio; in particolare 1) l’applicazione della prova di compressione assiale su alcuni provini ricavati da un elemento strutturale in legno antico per ricavare vari parametri fisici e meccanici; 2) lo studio di una capriata di legno presente in laboratorio, recuperata dopo il sisma dell’Emilia del 2012, iniziando dall’ispezione visuale classificazione a vista degli elementi sulla base di quanto riportato nella normativa per poi analizzare i dati delle varie prove non distruttive eseguite. 3) Infine è applicata la prova termografica ad un edificio di interesse storico, come l’ex Monastero di Santa Marta, situato in via S. Vitale a Bologna per indagare la tipologia strutturale, le tecnologie costruttive impiegate nelle varie epoche di questo complesso.
Resumo:
Il seguente elaborato si propone di mettere a confronto le espressioni idiomatiche applicate alle parti del corpo nella lingua italiana e spagnola. I modismi rappresentano in linguistica un ambito spesso trascurato, e con questa tesi ho voluto puntare i riflettori su un argomento che mi ha sempre affascinato per la sua vastità, oltre che per la sua complessità. Per facilitare l’analisi delle espressioni idiomatiche mi sono aiutato con un glossario da me redatto, comprensivo di definizioni nella lingua originale, che impiegherò durante la ricerca. Lo studio si apre con un breve excursus teorico sulle nozioni di base e sulle caratteristiche delle espressioni idiomatiche. In seguito vengono prese in esame le coppie fraseologiche, a seconda della soluzione traduttiva riscontrata, più o meno fedele a quella della lingua di partenza. La ricerca si conclude con alcuni esempi di espressioni che non presentano una traduzione equivalente nell’altra lingua e con alcune riflessioni personali.
Resumo:
Il lavoro svolto nella zona di Vareš, in particolare nella zona del lago di Veovača ha investigato diverse matrici ambientali (sedimenti, suoli, acque) per valutare le loro caratteristiche e la loro qualità. Nella zona è stata presente in passato attività estrattiva e di lavorazione dei minerali estratti, da qui la necessità di questo studio esplorativo. Il lavoro svolto si divide in tre fasi: campionamento, svolto in quattro giorni passati in campagna; analisi dei campioni raccolti e interpretazione dei risultati. Sono state campionate acque e sedimenti in punti interni al lago, altri in corrispondenza delle sue sponde e punti lungo la diga. Sul materiale solido sono state svolte analisi di spettrometria di fluorescenza a raggi X, mentre sulle acque sono state applicate tecniche di spettrometria di assorbimento atomico (AAS), spettrometria di emissione al plasma induttivamente accoppiato (ICP-AES) e cromatografia ionica oltre che a misure di parametri chimico-fisici in campo. Sono stati poi valutati i risultati, attraverso il confronto con banche dati di riferimento ed elaborazioni statistiche e grafiche. Si tratta di uno studio preliminare effettuato su un piccolo numero di campioni e perciò solo indicativo e non in grado di fornire risposte definitive sulla condizione ambientale dell'area. Tuttavia queste prime informazioni consentono di delineare un quadro nel quale future indagini potranno approfondire aspetti e problemi critici per la qualità ambientale.
Resumo:
Sebbene la selettività nel tramaglio sia assodata, rimangono solitamente catturati dalla rete individui di specie bentoniche che non hanno rilevanza ai fini della commercializzazione ma svolgono ruoli ecologici rilevanti nell'ecosistema marino. Oltre che il danno ecologico, la cattura di invertebrati del benthos costituisce un aggravio di lavoro per i pescatori che impiegano molto tempo per la pulizia delle reti. L'obiettivo generale di questo lavoro è la riduzione della cattura "indesiderata" di invertebrati del benthos, migliorando la selettività ed aumentando ulteriormente la sostenibilità della pesca con il tramaglio. Nello specifico si è voluto sperimentare l'installazione di una "greca" sulla parte terminale del tramaglio. Si tratta di una fascia di rete mono-panno montata alla base dell'attrezzo, prima della lima dei piombi, allo scopo di minimizzare la cattura di specie accessorie e il rischio di danneggiamento degli organismi bentonici. Sono state impiegate 2 imbarcazioni provviste di attrezzo sperimentale in ciascuna delle tre differenti aree di indagine (Favignana, Marettimo, Trapani), per un totale di 48 uscite. Le prove di pesca sono state condotte all’interno dell’Area Marina Protetta Isole Egadi. E’ stato previsto che ogni barca impieghi un attrezzo sperimentale di 1000 metri di lunghezza in cui si alternano 50 metri di tramaglio standard (pannello interno con maglia di 31,25 mm di lato, pannelli esterni con maglia di 180 mm di lato), con pezze delle stesse caratteristiche a cui è stata aggiunta una “greca” di 35 cm di altezza, di maglia di 50 mm di lato. Dal confronto delle catture di specie commerciali e non commerciali ottenute con il tramaglio sperimentale, valutando le differenze di cattura tra le pezze con "greca" e quelle armate in maniera tradizionale, si è osservato che si ha una riduzione degli organismi bentonici nonché delle specie commerciali. L'attrezzo risulta in generale più selettivo nei confronti della rete tradizionale.