927 resultados para utilizzo dei sensori multispettrali nel monitoraggio degli incendi, sensore ASTER, telerilevamento
Resumo:
L’importanza dell’acqua nel territorio ravennate è facilmente riscontrabile nella sua storia: la città sorge letteralmente in mezzo all’acqua, composta da fiumi, canali e specchi d’acqua, mutati profondamente nel corso del tempo grazie alle bonifiche e all’opera dell’uomo. Diventa, quindi, fondamentale uno studio di come la città abbia convissuto, si sia adattata all’acqua e di come l’uomo abbia cambiato la conformazione della città nel tempo in base al sistema idrico. Ora Ravenna ha, per cosi dire, perso il suo carattere di città marittima, ciò che prima si trovava a diretto contatto con il mare ora risulta distaccato e le tracce di questa evoluzione si sono via via perse col passare degli anni. L’unico collegamento al mare e alle zona lagunare limitrofa al porto rimane il canale Candiano, un collegamento che porta l’acqua fino al confine del centro storico. Il porto che prima rivestiva un ruolo importante e di sopravvivenza, in quanto il mercato ittico rappresentava un punto nodale nella vita della città e dei suoi abitanti, ora ha cambiato la sua destinazione a crocevia del commercio e di materie prime utilizzate dalle industrie sorte lungo le sponde del canale Candiano. Il museo delle acque vuole essere perciò un salto nel passato, riscoprendo e valorizzando l’antico legame tra uomo, città e acqua. Alla luce dello stato di fatto, dei cambiamenti e degli studi condotti sull’area, andiamo ora a chiarire gli aspetti basilari e generatori dell’edificio museale: - L’ingresso verrà posto lungo l’asse viario proveniente dalla città e dal mausoleo di Teodorico. - L’intero progetto verrà immerso nel verde, e collegato al vicino parco di Teodorico. - Il museo verrà realizzato all’interno di una piazza urbana che diverrà il fulcro della nuova cittadella della cultura. Prima di tutto è importante capire cosa si vuole esporre all’interno del museo e a che tipo di visitatore le mostre sono dedicate. Il museo prevede per lo più mostre permanenti dedicate al tema dell’acqua. L’esposizione si dividerà principalmente in due parti, la prima riguarderà le lagune costiere presenti nelle zone del porto di Ravenna, la seconda dedicata al Mare saranno quindi idealmente due percorsi differenti. Il percorso inizierà al primo piano con una sala completamente buia nella quale verranno presentati gli aspetti principali dei fondali. Nel caso delle lagune, saranno esposte le stratificazione e composizione dei fondali con carotaggi e pannelli illustrativi dell’evoluzione nel tempo, gli aspetti chimici e soprattutto idraulici di questo sistema. Il tutto sarà improntato per far comprendere l’importanza delle lagune, grazie alle quali è possibile il corretto funzionamento del porto, dovuto elle maree. Al secondo piano del Museo verrà illustrata la vita all’interno della laguna, quindi le specie presenti, sia animali che vegetali, siano esse naturali o introdotte dall’uomo, come nel caso degli allevamenti di vongole filippine, determinando le dinamiche di conservazione di questo patrimonio faunistico e naturalistico, con attività di analisi legate al centro ricerche. Si provvederà in questo senso anche a controllare i vari livelli massimi di inquinamento delle attività industriali presenti nel canale. Al terzo piano si andranno ad analizzare e mostrare gli aspetti che legano queste zone alle attività umane, che possiamo riunire in due settori principali quali la pesca e la navigazione. Verranno esposti utilizzando modelli in scala, cartellonistica, pannelli illustrativi ed immagini e tutta una serie di oggetti che illustrano le relazioni tre l’uomo e il luogo. Ci sarà una sezione dedicata alle imbarcazioni utilizzate per il guado dei canali, fino ai più piccoli strumenti usati proprio nelle attività di pesca. Al quarto piano si concluderà l’esposizione cercando di lasciare l’aspetto scientifico e ci si dedicherà all’evoluzione del porto dalle origini con il suo mercato ittico, fino ai giorni nostri in cui i traffici di materie prime destinate alle industrie sono l’aspetto principale. Il percorso museale si eleva a spirale, è formato da due rampe quadrate che servono i piani e che si intrecciano senza mai toccarsi. Questo permette al visitatore di scegliere il percorso che più gli interessa e nel modo che vuole, non è obbligato né dall’architettura né dal percorso espositivo, è quindi un sistema molto flessibile rispetto quello del museo classico, può capitare che due visitatori entrino nel museo insieme, inizino il giro in senso opposto, e non si incontrino mai, questa idea risulta complessa e nuova in un edificio che almeno esternamente sembra molto regolare e schematico. Per quanto riguarda la parte dell’illuminazione, che ha avuto anch’essa un ruolo molto importante all’interno del progetto del museo, l’idea è quella di rendere un effetto di risalita dalle profondità del mare fino alla superficie, man mano che si sale lungo il percorso espositivo. Per fare ciò, è stato svolto uno studio attento delle aperture, lasciando il primo piano espositivo cieco ed aprendo il secondo e il terzo piano in maniera da avere un progressivo aumento di luce nelle sale. Le finestre sono state posizionate compatibilmente con la composizione esterna dei prospetti, alla ricerca di un giusto equilibrio tra pieni e vuoti e tra composizione e tecnica.
Resumo:
Nella tesi verranno presi in considerazione tre aspetti: si descriverà come la teoria dei nodi si sia sviluppata nel corso degli anni in relazione alle diverse scoperte scientifiche avvenute. Si potrà quindi subito avere una idea di come questa teoria sia estremamente connessa a diverse altre. Nel secondo capitolo ci si occuperà degli aspetti più formali di questa teoria. Si introdurrà il concetto di nodi equivalenti e di invariante dei nodi. Si definiranno diversi invarianti, dai più elementari, le mosse di Reidemeister, il numero di incroci e la tricolorabilità, fino ai polinomi invarianti, tra cui il polinomio di Alexander, il polinomio di Jones e quello di Kaufman. Infine si spiegheranno alcune applicazioni della teoria dei nodi in chimica, fisica e biologia. Sulla chimica, si definirà la chiralità molecolare e si mostrerà come la chiralità dei nodi possa essere utile nel determinare quella molecolare. In campo fisico, si mostrerà la relazione che esiste tra l'equazione di Yang-Baxter e i nodi. E in conclusione si mostrerà come modellare un importante processo biologico, la recombinazione del DNA, grazie alla teoria dei nodi.
Resumo:
Synchronization is a key issue in any communication system, but it becomes fundamental in the navigation systems, which are entirely based on the estimation of the time delay of the signals coming from the satellites. Thus, even if synchronization has been a well known topic for many years, the introduction of new modulations and new physical layer techniques in the modern standards makes the traditional synchronization strategies completely ineffective. For this reason, the design of advanced and innovative techniques for synchronization in modern communication systems, like DVB-SH, DVB-T2, DVB-RCS, WiMAX, LTE, and in the modern navigation system, like Galileo, has been the topic of the activity. Recent years have seen the consolidation of two different trends: the introduction of Orthogonal Frequency Division Multiplexing (OFDM) in the communication systems, and of the Binary Offset Carrier (BOC) modulation in the modern Global Navigation Satellite Systems (GNSS). Thus, a particular attention has been given to the investigation of the synchronization algorithms in these areas.
Resumo:
Lo scopo della presente tesi di dottorato è di illustrare il lavoro svolto nella progettazione del circuito a metallo liquido del Test Blanket System (TBS) Helium Cooled Lithium Lead (HCLL), uno dei sistemi fondamentali del reattore sperimentale ITER che dovrà dimostrare la fattibilità di produrre industrialmente energia elettrica da processi di fusione nucleare. Il blanket HCLL costituisce una delle sei configurazioni che verranno testate in ITER, sulla base degli esperimenti condotti nei 10 dieci anni di vita del reattore verrà selezionata la configurazione che determinerà la costituzione del primo reattore dimostrativo per la produzione di un surplus di energia elettrica venti volte superiore all’energia consumata, DEMO. Il circuito ausiliario del blanket HCLL è finalizzato, in DEMO all’estrazione del trizio generato mediante il TES; ed in ITER alla dimostrazione della fattibilità di estrarre il trizio generato e di poter gestire il ciclo del trizio. Lo sviluppo dei componenti, svolto in questa tesi, è accentrato su tale dispositivo, il TES. In tale ambito si inseriscono le attività che sono descritte nei capitoli della seguente tesi di dottorato: selezione e progettazione preliminare del sistema di estrazione del trizio dalla lega eutettica Pb15.7Li del circuito a metallo liquido del TBM HCLL; la progettazione, realizzazione e qualifica dei sensori a permeazione per la misura della concentrazione di trizio nella lega eutettica Pb15.7Li; la qualificazione sperimentale all’interno dell’impianto TRIEX (TRItium EXtarction) della tecnologia selezionata per l’estrazione del trizio dalla lega; la progettazione della diagnostica di misura e controllo del circuito ausiliario del TBM HCLL.
Resumo:
Le fioriture algali rappresentano un problema emergente che colpisce le attività ricreative costiere negli ultimi decenni e molta responsabilità è attribuita alla pressione antropica sulle coste, anche se fondamentalmente i fenomeni di fioriture dannose rimangono imprevedibili. Un tempo confinate in aree tropicali e sub-tropicali, nuove alghe tossiche produttrici di composti palitossina-simili, quali Ostreopsis spp., si sono diffuse anche in regioni temperate, come il Mediterraneo. Le condizioni di sviluppo di queste fioriture sono legate a fattori ambientali quali irraggiamento, temperatura, concentrazione di nutrienti e alle caratteristiche biologiche delle singole specie. Per valutare il rischio reale sulla salute dell’uomo, vi è necessità di conoscere i parametri ambientali ottimali alla proliferazione delle specie, in termini di temperatura, intensità luminosa e disponibilità di nutrienti, così come di chiarire la struttura delle tossine e le condizioni che possono favorire la loro produzione. In questo studio un ceppo della dinoflagellata Ostreopsis ovata e un ceppo della dinoflagellata Prorocentrum lima sono stati coltivati in colture batch a tre diverse temperature (20°C, 25°C, 30°C) come monocolture e come colture miste. La raccolta è avvenuta nel periodo della loro presunta fase stazionaria. Le informazioni circa il comportamento delle microalghe nelle diverse colture sono state raccolte tramite calcolo del tasso di crescita, analisi del consumo di nutrienti, valutazione dell’efficienza fotosintetica, produzione di tossine. E’ stato applicato un nuovo metodo di misura per il calcolo dei biovolumi. Tra le due microalghe, O. ovata ha esibito maggiore variabilità morfologica, tassi di crescita più elevati e migliore efficienza fotosintetica, mostrando però di subire stress alla temperatura di 30°C. P. lima ha presentato tassi di crescita inferiori, incompleto utilizzo dei nitrati e minore efficienza fotosintetica, accompagnata da grande dissipazione di energia sotto forma di calore. Nelle colture miste, l’uptake più rapido di nitrati da parte di O. ovata ha fatto sì che il numero di cellule di P. lima fosse notevolmente inferiore a quello sviluppatosi nelle colture pure. Ciononostante, la produzione di acido okadaico da parte di P. lima non si è modificata in presenza di O. ovata. Il ceppo di O. ovata utilizzato è stato in grado di produrre ovatossina-a, la tossina maggiormente presente nelle cellule, e quantità circa quattro volte inferiori di ovatossine d+e, oltre a piccole quantità di palitossina putativa. Non è stato invece in grado di produrre le altre due ovatossine conoscisute, l’ovatossina-b e l’ovatossina-c. La produzione di tossine ha dimostrato di essere correlata positivamente con l’aumento della temperatura quando espressa su unità di biovolume, ed è stata inferiore nelle colture miste rispetto alle colture pure. Grazie alla maggiore capacità di crescita, al miglior utilizzo di nutrienti e alla migliore efficienza fotosintetica, O. ovata si dimostra in grado di dare origine a importanti eventi di fioritura, mentre per P. lima i parametri di crescita studiati non evidenziano questa capacità. Le analisi in corso circa la quantità di tossine emesse nel mezzo di coltura permetterano di completare il quadro delineato dal presente studio. Allo stato attuale, non si può concludere che esista attività allelopatica di una specie nei confronti dell’altra.
Resumo:
La catena respiratoria mitocondriale è principalmente costituita da proteine integrali della membrana interna, che hanno la capacità di accoppiare il flusso elettronico, dovuto alle reazioni redox che esse catalizzano, al trasporto di protoni dalla matrice del mitocondrio verso lo spazio intermembrana. Qui i protoni accumulati creano un gradiente elettrochimico utile per la sintesi di ATP ad opera dell’ATP sintasi. Nonostante i notevoli sviluppi della ricerca sulla struttura e sul meccanismo d’azione dei singoli enzimi della catena, la sua organizzazione sovramolecolare, e le implicazioni funzionali che ne derivano, rimangono ancora da chiarire in maniera completa. Da questa problematica trae scopo la presente tesi volta allo studio dell’organizzazione strutturale sovramolecolare della catena respiratoria mediante indagini sia cinetiche che strutturali. Il modello di catena respiratoria più accreditato fino a qualche anno fa si basava sulla teoria delle collisioni casuali (random collision model) che considera i complessi come unità disperse nel doppio strato lipidico, ma collegate funzionalmente tra loro da componenti a basso peso molecolare (Coenzima Q10 e citocromo c). Recenti studi favoriscono invece una organizzazione almeno in parte in stato solido, in cui gli enzimi respiratori si presentano sotto forma di supercomplessi (respirosoma) con indirizzamento diretto (channeling) degli elettroni tra tutti i costituenti, senza distinzione tra fissi e mobili. L’importanza della comprensione delle relazioni che si instaurano tra i complessi , deriva dal fatto che la catena respiratoria gioca un ruolo fondamentale nell’invecchiamento, e nello sviluppo di alcune malattie cronico degenerative attraverso la genesi di specie reattive dell’ossigeno (ROS). E’ noto, infatti, che i ROS aggrediscono, anche i complessi respiratori e che questi, danneggiati, producono più ROS per cui si instaura un circolo vizioso difficile da interrompere. La nostra ipotesi è che, oltre al danno a carico dei singoli complessi, esista una correlazione tra le modificazioni della struttura del supercomplesso, stress ossidativo e deficit energetico. Infatti, la dissociazione del supercomplesso può influenzare la stabilità del Complesso I ed avere ripercussioni sul trasferimento elettronico e protonico; per cui non si può escludere che ciò porti ad un’ulteriore produzione di specie reattive dell’ossigeno. I dati sperimentali prodotti a sostegno del modello del respirosoma si riferiscono principalmente a studi strutturali di elettroforesi su gel di poliacrilammide in condizioni non denaturanti (BN-PAGE) che, però, non danno alcuna informazione sulla funzionalità dei supercomplessi. Pertanto nel nostro laboratorio, abbiamo sviluppato una indagine di tipo cinetico, basata sull’analisi del controllo di flusso metabolico,in grado di distinguere, funzionalmente, tra supercomplessi e complessi respiratori separati. Ciò è possibile in quanto, secondo la teoria del controllo di flusso, in un percorso metabolico lineare composto da una serie di enzimi distinti e connessi da intermedi mobili, ciascun enzima esercita un controllo (percentuale) differente sull’intero flusso metabolico; tale controllo è definito dal coefficiente di controllo di flusso, e la somma di tutti i coefficienti è uguale a 1. In un supercomplesso, invece, gli enzimi sono organizzati come subunità di una entità singola. In questo modo, ognuno di essi controlla in maniera esclusiva l’intero flusso metabolico e mostra un coefficiente di controllo di flusso pari a 1 per cui la somma dei coefficienti di tutti gli elementi del supercomplesso sarà maggiore di 1. In questa tesi sono riportati i risultati dell’analisi cinetica condotta su mitocondri di fegato di ratto (RLM) sia disaccoppiati, che accoppiati in condizioni fosforilanti (stato 3) e non fosforilanti (stato 4). L’analisi ha evidenziato l’associazione preferenziale del Complesso I e Complesso III sia in mitocondri disaccoppiati che accoppiati in stato 3 di respirazione. Quest’ultimo risultato permette per la prima volta di affermare che il supercomplesso I+III è presente anche in mitocondri integri capaci della fosforilazione ossidativa e che il trasferimento elettronico tra i due complessi possa effettivamente realizzarsi anche in condizioni fisiologiche, attraverso un fenomeno di channeling del Coenzima Q10. Sugli stessi campioni è stata eseguita anche un analisi strutturale mediante gel-elettroforesi (2D BN/SDS-PAGE) ed immunoblotting che, oltre a supportare i dati cinetici sullo stato di aggregazione dei complessi respiratori, ci ha permesso di evidenziare il ruolo del citocromo c nel supercomplesso, in particolare per il Complesso IV e di avviare uno studio comparativo esteso ai mitocondri di cuore bovino (BHM), di tubero di patata (POM) e di S. cerevisiae.
Resumo:
La ricerca impostata considera campi disciplinari specifici e distinti, verso la loro integrazione, mirando a produrre un avanzamento relativo alla scienza della voce attraverso la pratica e lo studio della sua applicazione in campo artistico. A partire dall’analisi delle teorie novecentesche relative alla fonazione nel mondo della scena (Antonin Artaud, Stanislavskij e altri) per giungere alle acquisizioni prodotte dalle terapie corporee e vocali (Tomatis, Lowen, Wilfart in particolare), Marco Galignano ha sviluppato un percorso originale che è passato inoltre attraverso lo studio della pratica di una serie di artisti contemporanei (tra cui Baliani, Belli, Bergonzoni, Jodorowski, Hera, Lucenti e Manfredini) e di pedagoghi e terapeuti (da Serge Wilfart al maestro Paolo Zedda). Galignano ha inoltre riferito, nel suo lavoro, gli esiti della sua personale esperienza di formatore, sviluppata a Bologna all’interno di diversi Dipartimenti dell’Università Alma Mater, del Conservatorio di Musica G.B. Martini, dell’Accademia di Belle Arti e del Teatro Duse in particolare. L’obiettivo della tesi è dunque quello di fondare le basi teoriche per una rinnovata pedagogia vocale, a partire dalla possibile riscoperta del suono naturale fino a giungere alle potenzialità terapeutiche ed artistiche del linguaggio. Gli obiettivi di questo lavoro contemplano l’istituzione di una nuova modalità pedagogica, la sua diffusione attraverso una presentazione opportunamente composta e la sua inscrizione in diverse occorrenze artistiche e professionali. Molte le personalità di spicco del panorama internazionale della scienza e dell’arte della voce che hanno contribuito, negli anni, alla presente ricerca: Francesca Della Monica, insegnante di canto e performer, Tiziana Fuschini, logopedista, Franco Fussi, foniatra, Silvia Magnani, foniatra ed esperta di teatro, Gianpaolo Mignardi, logopedista, Dimitri Pasquali, pedagogo, Livio Presutti, medico chirurgo otorinolaringoiatra, Simonetta Selva, medico dello sport, Serge Wilfart, terapeuta della voce, Paolo Zedda, professore di canto in diverse realtà e Maestro di dizione al Conservatorio Nazionale di Parigi, e molti altri, oltre agli artisti citati in fondo, con le loro ricerche hanno contribuito direttamente alla redazione dell’elaborato finale, che mira a fondare le basi di una rinnovata pedagogia vocale per il teatro in Italia. La ricerca vuole infatti colmare in parte la penuria di apporti scientifici specificamente rivolti alla formazione vocale dell’attore teatrale. II lavoro vorrebbe inoltre raccogliere l’eredita di quei teorici, maestri e registi-pedagoghi che nel Novecento hanno posto le basi per la formazione dell’attore, e al tempo stesso prolungare la linea genealogica che da Stanislavskji trascorre in Grotowski, senza escludere esperienze fondate su presupposti alternativi alla formazione del repertorio vocale del performer: psicofisicità, terapie olistiche, fisica quantistica. Come accennato, una parte della ricerca è stata condotta in collaborazione col Prof. Franco Fussi, correlatore, e grazie al lavoro di redazione nel gruppo della rivista Culture Teatrali, diretto da Marco De Marinis, relatore. II percorso ha inteso infatti sviluppare alcune delle linee di ricerca aperte da Fussi virandole verso lo specifico dell’attività e del training vocale dell’attore, e ha avuto una tappa di verifica rilevante nel Convegno Internazionale di Foniatria e Logopedia “La Voce Artistica” di cui Fussi è direttore, a cui Galignano ha partecipato in veste di relatore. 1. II concetto guida del lavoro di Galignano risiede nell’idea di vibrazione e nel rapporto che questa intrattiene col suono. Il suono, per l’essere umano, costituisce la base materiale della fonazione, del linguaggio codificato comunitariamente così come dei particolari idioletti in continua evoluzione, basi della comunicazione verbale e paraverbale. Il linguaggio umano è costituito principalmente da sonorità vocale e da articolazione consonantica (rumori), e cioè composto di suoni armonici e di rumori prodotti da apparati articolari del corpo che risultano efficaci solo se integrati nel corpo da cui originano. A partire da un tentativo di definizione di salute corporea e di equilibrio psicofisico, attraverso l’analisi della rigenerazione cellulare e delle dinamiche comportamentali, Galignano definisce scientificamente la lingua parlata come emersione di codici comunicativi che originano da una schematizzazione del mondo intimo-personale del soggetto e si fondano su memorie molecolari, sull’attitudine comportamentale abituale, tra spontaneità, automatismi e capacità episodica di attenzione psicofisica. Ciò costituisce, per Galignano, la “risonanza olistica” alla base dell’efficacia comunicativa in sede pedagogica. L’argomento, che verrà sviluppato per la presentazione editoriale dell’elaborato e di cui la tesi di dottorato è solo una prima tappa in fieri, è stato sviscerato anche sulla base di nozioni di fisica classica e di fisica quantistica. Ciò senza dimenticare gli studi approfonditi sulla vocalità in ambito filosofico, da Bologna a Cavarero, da Napolitano a Zumthor. La tesi è composta attraverso una progressione che, a partire da una dichiarazione di poetica, trascorre poi verso l’analisi della fisiologia e della psicologia della voce, per approdare a una zona di approfondimento scientifico, teorico ed empirico, di una serie di metodi d’avanguardia di abilitazione e riabilitazione. In ultimo, come appendice, vengono riferiti i risultati del percorso laboratoriale condotto nel corso degli anni del dottorato di ricerca. Le esperienze sul campo maturate nell’ambito dell’attività pedagogica e laboratoriale si sono inoltre sviluppate a partire da un Progetto Strategico d’Ateneo dell’Università di Bologna intitolato “La Voce nel Corpo. La Recitazione e il Movimento Coreografico”, di cui Marco Galignano è responsabile scientifico. Un tempo specifico della tesi di dottorato è dunque composto a partire dai risultati maturati attraverso le varie azioni, laboratoriali e artistiche, che fin qui il progetto “La Voce nel Corpo” ha prodotto. In definitiva, attraverso il tessuto composto da esperienze pedagogiche, pratica artistica e ricerca scientifica, la tesi di dottorato di Galignano, work in progress, mira a comporre un sistema integrato, teorico-pratico, per l’insegnamento e la trasmissione di una specifica tecnica vocale calata nella pratica attoriale, ma utile a fini ulteriori, da quello riabilitativo fino alle tecniche di cura del sé su cui s’e appuntata la riflessione filosofica erede della teoresi artaudiana. La parte conclusiva della ricerca riguarda i suoi possibili futuri sviluppi, specifici, impostati attraverso la collaborazione, attuale, passata o in divenire, con artisti quali Marco Baliani, Matteo Belli, Alessandro Bergonzoni, Albert Hera, Michela Lucenti, Danio Manfredini e altri a cui Marco Galignano è particolarmente riconoscente.
Resumo:
The "sustainability" concept relates to the prolonging of human economic systems with as little detrimental impact on ecological systems as possible. Construction that exhibits good environmental stewardship and practices that conserve resources in a manner that allow growth and development to be sustained for the long-term without degrading the environment are indispensable in a developed society. Past, current and future advancements in asphalt as an environmentally sustainable paving material are especially important because the quantities of asphalt used annually in Europe as well as in the U.S. are large. The asphalt industry is still developing technological improvements that will reduce the environmental impact without affecting the final mechanical performance. Warm mix asphalt (WMA) is a type of asphalt mix requiring lower production temperatures compared to hot mix asphalt (HMA), while aiming to maintain the desired post construction properties of traditional HMA. Lowering the production temperature reduce the fuel usage and the production of emissions therefore and that improve conditions for workers and supports the sustainable development. Even the crumb-rubber modifier (CRM), with shredded automobile tires and used in the United States since the mid 1980s, has proven to be an environmentally friendly alternative to conventional asphalt pavement. Furthermore, the use of waste tires is not only relevant in an environmental aspect but also for the engineering properties of asphalt [Pennisi E., 1992]. This research project is aimed to demonstrate the dual value of these Asphalt Mixes in regards to the environmental and mechanical performance and to suggest a low environmental impact design procedure. In fact, the use of eco-friendly materials is the first phase towards an eco-compatible design but it cannot be the only step. The eco-compatible approach should be extended also to the design method and material characterization because only with these phases is it possible to exploit the maximum potential properties of the used materials. Appropriate asphalt concrete characterization is essential and vital for realistic performance prediction of asphalt concrete pavements. Volumetric (Mix design) and mechanical (Permanent deformation and Fatigue performance) properties are important factors to consider. Moreover, an advanced and efficient design method is necessary in order to correctly use the material. A design method such as a Mechanistic-Empirical approach, consisting of a structural model capable of predicting the state of stresses and strains within the pavement structure under the different traffic and environmental conditions, was the application of choice. In particular this study focus on the CalME and its Incremental-Recursive (I-R) procedure, based on damage models for fatigue and permanent shear strain related to the surface cracking and to the rutting respectively. It works in increments of time and, using the output from one increment, recursively, as input to the next increment, predicts the pavement conditions in terms of layer moduli, fatigue cracking, rutting and roughness. This software procedure was adopted in order to verify the mechanical properties of the study mixes and the reciprocal relationship between surface layer and pavement structure in terms of fatigue and permanent deformation with defined traffic and environmental conditions. The asphalt mixes studied were used in a pavement structure as surface layer of 60 mm thickness. The performance of the pavement was compared to the performance of the same pavement structure where different kinds of asphalt concrete were used as surface layer. In comparison to a conventional asphalt concrete, three eco-friendly materials, two warm mix asphalt and a rubberized asphalt concrete, were analyzed. The First Two Chapters summarize the necessary steps aimed to satisfy the sustainable pavement design procedure. In Chapter I the problem of asphalt pavement eco-compatible design was introduced. The low environmental impact materials such as the Warm Mix Asphalt and the Rubberized Asphalt Concrete were described in detail. In addition the value of a rational asphalt pavement design method was discussed. Chapter II underlines the importance of a deep laboratory characterization based on appropriate materials selection and performance evaluation. In Chapter III, CalME is introduced trough a specific explanation of the different equipped design approaches and specifically explaining the I-R procedure. In Chapter IV, the experimental program is presented with a explanation of test laboratory devices adopted. The Fatigue and Rutting performances of the study mixes are shown respectively in Chapter V and VI. Through these laboratory test data the CalME I-R models parameters for Master Curve, fatigue damage and permanent shear strain were evaluated. Lastly, in Chapter VII, the results of the asphalt pavement structures simulations with different surface layers were reported. For each pavement structure, the total surface cracking, the total rutting, the fatigue damage and the rutting depth in each bound layer were analyzed.
Resumo:
Il trauma cranico é tra le piú importanti patologie traumatiche. Ogni anno 250 pazienti ogni 100.000 abitanti vengono ricoverati in Italia per un trauma cranico. La mortalitá é di circa 17 casi per 100.000 abitanti per anno. L’Italia si trova in piena “media” Europea considerando l’incidenza media in Europa di 232 casi per 100.000 abitanti ed una mortalitá di 15 casi per 100.000 abitanti. Degli studi hanno indicato come una terapia anticoagulante é uno dei principali fattori di rischio di evolutiviá di una lesione emorragica. Al contrario della terapia anticoagulante, il rischio emorragico correlato ad una terapia antiaggregante é a tutt’oggi ancora in fase di verifica. Il problema risulta rilevante in particolare nella popolazione occidentale in quanto l’impiego degli antiaggreganti é progressivamente sempre piú diffuso. Questo per la politica di prevenzione sostenuta dalle linee guida nazionali e internazionali in termini di prevenzione del rischio cardiovascolare, in particolare nelle fasce di popolazione di etá piú avanzata. Per la prima volta, é stato dimostrato all’ospedale di Forlí[1], su una casistica sufficientemente ampia, che la terapia cronica con antiaggreganti, per la preven- zione del rischio cardiovascolare, puó rivelarsi un significativo fattore di rischio di complicanze emorragiche in un soggetto con trauma cranico, anche di grado lieve. L’ospedale per approfondire e convalidare i risultati della ricerca ha condotto, nell’anno 2009, una nuova indagine. La nuova indagine ha coinvolto oltre l’ospedale di Forlí altri trentuno centri ospedalieri italiani. Questo lavoro di ricerca vuole, insieme ai ricercatori dell’ospedale di Forlí, verificare: “se una terapia con antiaggreganti influenzi l’evolutivitá, in senso peggiorativo, di una lesione emorragica conseguente a trauma cranico lieve - moderato - severo in un soggetto adulto”, grazie ai dati raccolti dai centri ospedalieri nel 2009. Il documento é strutturato in due parti. La prima parte piú teorica, vuole fissare i concetti chiave riguardanti il contesto della ricerca e la metodologia usata per analizzare i dati. Mentre, la seconda parte piú pratica, vuole illustrare il lavoro fatto per rispondere al quesito della ricerca. La prima parte é composta da due capitoli, che sono: • Il capitolo 1: dove sono descritti i seguenti concetti: cos’é un trauma cra- nico, cos’é un farmaco di tipo anticoagulante e cos’é un farmaco di tipo antiaggregante; • Il capitolo 2: dove é descritto cos’é il Data Mining e quali tecniche sono state usate per analizzare i dati. La seconda parte é composta da quattro capitoli, che sono: • Il capitolo 3: dove sono state descritte: la struttura dei dati raccolti dai trentadue centri ospedalieri, la fase di pre-processing e trasformazione dei dati. Inoltre in questo capitolo sono descritti anche gli strumenti utilizzati per analizzare i dati; • Il capitolo 4: dove é stato descritto come é stata eseguita l’analisi esplorativa dei dati. • Il capitolo 5: dove sono descritte le analisi svolte sui dati e soprattutto i risultati che le analisi, grazie alle tecniche di Data Mining, hanno prodotto per rispondere al quesito della ricerca; • Il capitolo 6: dove sono descritte le conclusioni della ricerca. Per una maggiore comprensione del lavoro sono state aggiunte due appendici. La prima tratta del software per data mining Weka, utilizzato per effettuare le analisi. Mentre, la seconda tratta dell’implementazione dei metodi per la creazione degli alberi decisionali.
Resumo:
Scopo dell’elaborato risulta l’analisi del rapporto tra atto politico e motivazione politica. Partendo da una ricostruzione storica, l’obiettivo del lavoro è mettere in luce i profili problematici ed i riflessi che l’atto politico – tema apparentemente sopito tanto a livello dottrinale, quanto giurisprudenziale - ricomincia, soprattutto grazie a un certo numero di recenti pronunce dei giudici amministrativi, ad avere, fornendo nuovi spunti di riflessione. Proprio questa nuova tendenza giurisprudenziale, diventa l’oggetto di analisi del terzo capitolo. In esso si esamina il repertorio di casistica giurisprudenziale in materia di atti di alta amministrazione. In breve, tale capitolo viene orientato all’esame di tutte quelle tipologie di atti emergenti dalla valutazione caso per caso effettuata dalla giurisprudenza che, nel tempo, sono state fatte rientrare nel novero degli atti di alta amministrazione, al fine di mettere in evidenza la necessità di un riequilibrio della categoria dell’atto di alta amministrazione, che ormai sembra non apparire più rispondente alla ratio della sua previsione, verso l’emersione di una nuova categoria: il provvedimento amministrativo a motivazione politica. In particolare, si sostiene come non si possano ritenere rientranti tra gli atti di alta amministrazione quegli atti a carattere puntuale a motivazione politica, cioè sorretti da ragioni di fiduciarietà politica, quali, ad esempio, le nomine di carattere fiduciario, strettamente informate dalla contingenza politica. Evidentemente, se tale base giustificativa costituisce la ratio sottesa alla legittimità di tali nomine, non si comprende la ragione per cui l’atto di revoca degli incarichi derivanti da tali nomine sia sottoposto ad un sindacato di ragionevolezza cui sfugge la nomina stessa da cui origina. Ed allora non può non ammettersi che anche l’atto di revoca possa essere sorretto da una motivazione politica perché, altrimenti, perderebbe ragione d’essere anche la nomina stessa. La corrispondenza di disciplina tra nomina e revoca si renderebbe necessaria in quanto, in caso contrario, risulterebbero vanificate fin dall’inizio le esigenze garantiste da assicurare ai singoli e si rischierebbe di bloccare il corretto esercizio della funzione di governo. Si propone, allora, la prospettazione della nuova categoria del provvedimento amministrativo a motivazione politica come quella categoria che, contraddistinta dal carattere della fiduciarietà, venga in soccorso agli organi politici per un recupero effettivo del loro ruolo senza impingere con le esigenze di tutela dei singoli. L’ultimo capitolo della tesi, quindi, si incentra su “Il provvedimento a motivazione politica: una nuova categoria della politicità”. Si tenta di ricostruirne il particolare regime di disciplina, mettendo in evidenza i limiti e le deroghe alle previsioni della l. n. 241/1990, nonchè la peculiarietà di ritenere integrato il requisito della motivazione nella forma del “venir meno della fiducia”. Scopo dell’ultima parte del lavoro diviene, quindi, quello di comprendere quale volto assume la politicità degli atti nell’ordinamento contemporaneo. Si ipotizzano, infatti, tre facce della politicità degli atti, dislocate su tre diversi livelli: atto politico, atto di alta amministrazione e provvedimento amministrativo a motivazione politica.
Resumo:
Nell’ultimo decenno si è assisitito ad una frenetica evoluzione delle tecnologie di connessione e trasferimento dati, dagli impianti di fibra ottica sempre più diffusi e performanti, alle varie tecnologie mobile UMTS e LTE. Tutto ciò ha permesso a sempre più persone di poter spendere una maggiore fetta del proprio tempo sulla rete sia per svago che per lavoro. Questo ha portato col tempo l’utente interattivo alla ricerca di servizi remoti che prima usufruiva in locale, sia per motivi di portabilità e di interconnessione, sia per una semplice questione di sincronizzazione fra i vari dispositivi posseduti. Il presente progetto di tesi si pone come obiettivo di indagare con occhio ingegneristico all’evoluzione della struttura del web fino ad identificare e analizzare l’attuale necessità di poter avere in rete tutti quei servizi anche completi e strutturalmente complessi che prima si aveva sul proprio desktop; tutto ciò attraverso l’esempio di un nuovo linguaggio di sviluppo per applicazioni web strutturate proposto da Google: DART. In questa analisi non si potrà prescindere dallo studio attento della tecnologia che sin dagli inizi della rete ha fatto da struttura al web ovvero l’Html e il suo ultimo standard Hmtl5. Nella prima parte verrà mostrata, attraverso un breve percorso, la nascita e lo sviluppo del web, sino ai giorni nostri. Si effettuerà quindi una panoramica, rivisitando tutti più importanti passi che hanno portato la rete internet ad essere ciò che oggi utilizziamo, ponendo una particolare attenzione alle attuali esigenze di progettazione della struttura dei servizi web. Nel secondo capitolo viene introdotta la tecnologia a base del web, l’Html; attraverso una breve analisi dell’evoluzione di quest’ultima si arriverà sino all’attuale HTML5 e alle funzionalità offerte nell’ottica della programmazione web strutturata. Nel terzo capitolo si analizzerà in maniera più approfondita la necessità di un web strutturato e le potenzialità del progetto Dart attraverso alcuni esempi esplicativi. Infine si trarranno alcune conclusioni sull’attuale situazione del web, sulla necessità di un web strutturato e sulla possibilità di riuscita del progetto Dart.
Resumo:
Gli impianti di depurazione rappresentano, nei contesti urbani, elementi di imprescindibile importanza nell’ambito di una corretta gestione e tutela della risorsa idrica e dell’ambiente. Il crescente grado di antropizzazione delle aree urbanizzate e parallelamente le sempre minori disponibilità in termini di spazi utilizzabili a fini depurativi comportano sempre di più la necessità di ottimizzare i processi di dimensionamento degli impianti. Inoltre, l’obiettivo di aumentare l’efficienza del ciclo depurativo andando a minimizzare i costi correlati alla gestione degli stessi indirizza verso una omogeneizzazione nei criteri di dimensionamento adottati. In questo senso, la normativa tecnica di settore risulta carente, andandosi a concentrare prevalentemente sul rispetto di fissati standard ambientali senza però fornire indicazioni precise sui criteri di progettazione da adottare per perseguire tali standard. La letteratura scientifica pur indicando range di possibili valori di riferimento da adottare, nel dimensionamento degli impianti, lascia un ampio margine di discrezionalità al progettista. La presente tesi si pone pertanto, a partire da tali valori di letteratura, di andare a definire da un lato le caratteristiche quali-quantitative del refluo in ingresso e dall’altro i valori di riferimento da adottare in sede di progettazione per perseguire gli obiettivi precedentemente indicati. La prima parte, di valenza generale, oltre alla caratterizzazione dell’influente descrive nel dettaglio le diverse fasi del processo e il loro dimensionamento che in tutte le sezioni, ad eccezione del biologico, viene effettuato attraverso equazioni semplificate mettendo a confronto e analizzando i parametri progettuali proposti da letteratura. Per quanto riguarda il comparto biologico la maggior complessità del fenomeno da descrivere rende difficile la valutazione delle grandezze che caratterizzano il funzionamento mediante l’utilizzo di equazioni semplificate. Per questo si è deciso di modellare questo comparto, unito a quello della sedimentazione, attraverso un software (WEST) che permette non solo di simulare il processo ma anche, attraverso le analisi di scenario, di determinare quelli che sono i valori progettuali puntuali che consentono di ottenere da un lato una minimizzazione dei costi dell’impianto, sia costruttivi che gestionali, e dall’altro la massimizzazione delle rese depurative. Nello specifico si è fatto riferimento ad impianto fanghi attivi a schema semplificato con potenzialità fissata pari a 10000 AE. Il confronto con i dati di esercizio di alcuni impianti di analoga tipologia ha evidenziato che una buona capacità dello strumento di modellazione utilizzato di descrivere i processi. E’ possibile quindi concludere che tali strumenti, affiancati ad una lettura critica dei risultati ottenuti possono essere ottimi strumenti di supporto sia in fase di progettazione che in prospettiva di gestione dell’impianto al fine di ottimizzare i processi e quindi i costi.
Resumo:
L’oggetto del lavoro si sostanzia nella verifica del grado di giustiziabilità che i diritti sociali ricevono nell’ordinamento dell’Unione europea. L’indagine si articola in tre capitoli. Il primo è dedicato ad una sintetica ricostruzione dei modelli di welfare state riconosciuti dagli ordinamenti dei diversi paesi membri dell’Unione attraverso cui, la candidata enuclea un insieme di diritti sociali che ricevono tutela in tutti gli ordinamenti nazionali. L’esposizione prosegue, con la ricostruzione dell’evoluzione dei Trattati istitutivi dell’Unione e l’inclusione della sfera sociale tra gli obiettivi di questa. In particolare, il secondo capitolo esamina la giurisprudenza della Corte di Giustizia in relazione alle materie sociali, nonché l’inclusione dei diritti sociali nel testo della Carta dei diritti fondamentali. L’analisi si sofferma sulle tecniche normative adottate nell’area della politica sociale, evidenziando la tendenza ad un approccio di tipo “soft” piuttosto che attraverso il classico metodo comunitario. Esaurita questa analisi il terzo capitolo analizza i rapporti tra il diritto dell’Ue e quello della CEDU in materia di diritti sociali, evidenziano il diverso approccio utilizzato dalle due istanze sovranazionali nella tutela di questi diritti. Sulla base del lavoro svolto si conclude per una sostanziale mancanza di giustiziabilità dei diritti sociali in ambito dell’Unione. In particolare i punti deboli dell’Europa sociale vengono individuati in: un approccio regolativo alla dimensione sociale di tipo sempre più soft; la permanenza di alcuni deficit di competenze; la mancata indicazione di criteri di bilanciamento tra diritti sociali e libertà economiche e dalla compresenza delle due nozioni di economia sociale e di economia di mercato. Le conclusioni mostrano come l’assenza di competenze esclusive dell’Unione in materia di politica sociale non consenta una uniformazione/armonizzazione delle politiche sociali interne, che si riflette nell’incapacità dei modelli sociali nazionali di assorbire i grandi mutamenti macro economici che si sono avuti negli ultimi vent’anni, sia a livello sovranazionale che internazionale.
Resumo:
Nel corso degli anni diverse sono le tecniche proposte per il trattamento delle lesioni osteocondrali, da quelle mini-invasive con stimolazione midollare fino a quelle più aggressive basate sul trapianto di tessuti autologhi o eterologhi. Tutti questi metodi hanno comunque dei difetti ed è questo il motivo per cui il trattamento delle lesioni osteocondrali rappresenta tuttora una sfida per il chirurgo ortopedico, in considerazione dell’alta specializzazione e del basso potere di guarigione del tessuto cartilagineo. Buoni risultati sono stati ottenuti con innesti bioingegnerizzati o matrici polimeriche impiantati nei siti danneggiati. La quantità di scaffolds in uso per la riparazione condrale ed osteocondrale è molto ampia; essi differiscono non solo per il tipo di materiali usati per la loro realizzazione, ma anche per la presenza di promotori di una o più linee cellulari , su base condrogenica o osteogenica. Quando ci si approccia ad una lesione condrale di grandi dimensioni, l’osso sub-condrale è anch’esso coinvolto e necessita di trattamento per ottenere il corretto ripristino degli strati articolari più superficiali. La scelta più giusta sembra essere un innesto osteocondrale bioingegnerizzato, pronto per l’uso ed immediatamente disponibile, che consenta di effettuare il trattamento in un unico tempo chirurgico. Sulla base di questo razionale, dopo uno studio preclinico animale e previa autorizzazione del comitato etico locale, abbiamo condotto uno studio clinico clinico pilota utilizzando un nuovo innesto biomimetico nanostrutturato per il trattamento di lesioni condrali ed osteocondrali del ginocchio; la sua sicurezza e maneggevolezza, così come la facile riproducibilità della tecnica chirurgica ed i risultati clinici ottenuti sono stati valutati nel tempo a 6, 12, 24, 36 e 48 mesi dall’impianto in modo da testare il suo potenziale intrinseco senza l’aggiunta di alcuna linea cellulare.
Resumo:
Il Web nel corso della sua esistenza ha subito un mutamento dovuto in parte dalle richieste del mercato, ma soprattutto dall’evoluzione e la nascita costante delle numerose tecnologie coinvolte in esso. Si è passati da un’iniziale semplice diffusione di contenuti statici, ad una successiva collezione di siti web, dapprima con limitate presenze di dinamicità e interattività (a causa dei limiti tecnologici), ma successivamente poi evoluti alle attuali applicazioni web moderne che hanno colmato il gap con le applicazioni desktop, sia a livello tecnologico, che a livello di diffusione effettiva sul mercato. Tali applicazioni web moderne possono presentare un grado di complessità paragonabile in tutto e per tutto ai sistemi software desktop tradizionali; le tecnologie web hanno subito nel tempo un evoluzione legata ai cambiamenti del web stesso e tra le tecnologie più diffuse troviamo JavaScript, un linguaggio di scripting nato per dare dinamicità ai siti web che si ritrova tutt’ora ad essere utilizzato come linguaggio di programmazione di applicazioni altamente strutturate. Nel corso degli anni la comunità di sviluppo che ruota intorno a JavaScript ha prodotto numerose librerie al supporto del linguaggio dotando così gli sviluppatori di un linguaggio completo in grado di far realizzare applicazioni web avanzate. Le recenti evoluzioni dei motori javascript presenti nei browser hanno inoltre incrementato le prestazioni del linguaggio consacrandone la sua leadership nei confronti dei linguaggi concorrenti. Negli ultimi anni a causa della crescita della complessità delle applicazioni web, javascript è stato messo molto in discussione in quanto come linguaggio non offre le classiche astrazioni consolidate nel tempo per la programmazione altamente strutturata; per questo motivo sono nati linguaggi orientati alla programmazione ad oggetti per il web che si pongono come obiettivo la risoluzione di questo problema: tra questi si trovano linguaggi che hanno l’ambizione di soppiantare JavaScript come ad esempio Dart creato da Google, oppure altri che invece sfruttano JavaScript come linguaggio base al quale aggiungono le caratteristiche mancanti e, mediante il processo di compilazione, producono codice JavaScript puro compatibile con i motori JavaScript presenti nei browser. JavaScript storicamente fu introdotto come linguaggio sia per la programmazione client-side, che per la controparte server-side, ma per vari motivi (la forte concorrenza, basse performance, etc.) ebbe successo solo come linguaggio per la programmazione client; le recenti evoluzioni del linguaggio lo hanno però riportato in auge anche per la programmazione server-side, soprattutto per i miglioramenti delle performance, ma anche per la sua naturale predisposizione per la programmazione event-driven, paradigma alternativo al multi-threading per la programmazione concorrente. Un’applicazione web di elevata complessità al giorno d’oggi può quindi essere interamente sviluppata utilizzando il linguaggio JavaScript, acquisendone sia i suoi vantaggi che gli svantaggi; le nuove tecnologie introdotte ambiscono quindi a diventare la soluzione per i problemi presenti in JavaScript e di conseguenza si propongono come potenziali nuovi linguaggi completi per la programmazione web del futuro, anticipando anche le prossime evoluzioni delle tecnologie già esistenti preannunciate dagli enti standard della programmazione web, il W3C ed ECMAScript. In questa tesi saranno affrontate le tematiche appena introdotte confrontando tra loro le tecnologie in gioco con lo scopo di ottenere un’ampia panoramica delle soluzioni che uno sviluppatore web dovrà prendere in considerazione per realizzare un sistema di importanti dimensioni; in particolare sarà approfondito il linguaggio TypeScript proposto da Microsoft, il quale è nato in successione a Dart apparentemente con lo stesso scopo, ma grazie alla compatibilità con JavaScript e soprattutto con il vasto mondo di librerie legate ad esso nate in questi ultimi anni, si presenta nel mercato come tecnologia facile da apprendere per tutti gli sviluppatori che già da tempo hanno sviluppato abilità nella programmazione JavaScript.