910 resultados para metodo "Alpha",comportamento torsionale delle strutture,sistemi torsio-rigidi, sistemi torsio-flessibili, strutture asimmetriche in pianta
Resumo:
Nonostante lo sforzo sempre crescente mirato allo studio delle malattie che colpiscono le sclerattinie, ancora poco si sa circa distribuzione, prevalenza, host range e fattori che concorrono alla comparsa di queste patologie, soprattutto nell’area indopacifica. Questo studio si propone quindi lo scopo di documentare la presenza della Brown Band Disease all’interno delle scogliere madreporiche dell’Arcipelago delle Maldive. Nell’arco di tempo tra Novembre e Dicembre 2013 è stata effettuata una valutazione di tipo quantitativo di tale patologia su tre isole appartenenti l’Atollo di Faafu, rispettivamente Magoodhoo, Filitheyo e Adangau. Queste tre isole sono caratterizzate da un diverso sfruttamento da parte dell’uomo: la prima isola è abitata da locali, la seconda caratterizzata dalla presenza di un resort e l’ultima, un’isola deserta. Al fine di valutare prevalenza, distribuzione e host range della BrBD sono stati effettuati belt transect (25x2 m), point intercept transect e analisi chimico fisiche delle acque. La Brown Band Disease è risultata essere diffusa tra le isole con prevalenze inferiori al 0,50%. Queste non hanno mostrato differenze significative tra le isole, facendo quindi ipotizzare che i diversi valori osservati potrebbero essere imputati a variazioni casuali e naturali. In tutta l’area investigata, le stazioni più profonde hanno mostrato valori di prevalenza maggiori. La patologia è stata registrata infestare soprattutto il genere Acropora (con prevalenza media totale inferiore all’1%) e in un solo caso il genere Isopora. È stato dimostrato come sia presente una correlazione negativa tra densità totale delle sclerattinie e la prevalenza della Brown Band sul genere Acropora. É stato inoltre notato come vi fosse una correlazione positiva tra la prevalenza della BrBD e la presenza del gasteropode Drupella sulle colonie già malate. Poiché il principale ospite della patologia è anche il più abbondante nelle scogliere madreporiche maldiviane, si rendono necessari ulteriori accertamenti e monitoraggi futuri della BrBD.
Resumo:
Lo studio delle malattie che colpiscono i coralli rappresenta un campo di ricerca nuovo e poche sono le ricerche concentrate nell’Oceano Indo-Pacifico, in particolare nella Repubblica delle Maldive. Lo scopo di questa ricerca è stato approfondire le conoscenze riguardo distribuzione, prevalenza e host range della Skeleton Eroding Band (SEB) nell’atollo di Faafu. Durante il lavoro, svolto in campo tra il novembre e il dicembre 2013, sono state indagate le isole di: Magoodhoo, Filitheyo e Adangau al fine di rilevare differenze nei livelli di prevalenza della SEB in relazione ai diversi gradi di utilizzo da parte dell’uomo delle 3 isole. Il piano di campionamento ha previsto la scelta casuale, in ciascuna delle isole, di 4 siti in cui sono stati realizzati 3 belt transect e 3 point intercept transect a 2 profondità predefinite. La SEB è stata ritrovata con una prevalenza media totale di 0,27%. Dai risultati dell’analisi statistica le differenze fra le isole non sono apparse significative, facendo ipotizzare che i livelli di prevalenza differiscano a causa di oscillazioni casuali di carattere naturale e che quindi non siano dovute a dinamiche legate al diverso sfruttamento da parte dell’uomo. I generi Acropora e Pocillopora sono risultati quelli maggiormente colpiti con valori di prevalenza totale di 0,46% e 1,33%. Infine è stata rilevata una correlazione positiva tra il numero di colonie di madrepore affette dalla SEB e il numero di colonie in cui la malattia è associata alla presenza di lesioni provocate da danni meccanici. I dati di prevalenza ottenuti e le previsioni di cambiamenti climatici in grado di aumentare distribuzione, host range, abbondanza della patologia, pongono l’accento sulla necessità di chiarire il ruolo delle malattie dei coralli nel deterioramento, resilienza e recupero dei coral reefs, al fine di attuare politiche di gestione adatte alla protezione di questi fragili ecosistemi.
Resumo:
Le attuali sezioni d’urto di reazioni indotte da neutroni non sono sufficientemente accurate per essere utilizzate in progetti di ricerca di frontiera. Per soddisfare la richiesta di nuovi dati nucleari è stata recentemente costruita al CERN di Ginevra la facility n_TOF (neutron Time Of Flight). Le caratteristiche che contraddistinguono questa facility sono l’elevato flusso istantaneo di neutroni, l’ampio spettro energetico e l’eccellente risoluzione energetica. In questa tesi viene analizzata la sezione d’urto di cattura neutronica su 238U, fondamentale per la realizzazione dei reattori nucleari di nuova generazione che prevedono la sostituzione del combustibile 235U con 238U, molto più abbondante in natura e che permette di ridurre drasticamente l’accumulo di scorie nucleari. Nonostante le numerose misure già effettuate su questo elemento, ancora non si è raggiunta la precisione necessaria per le tecnologie nucleari emergenti quali i reattori di quarta generazione e gli ADS (Accelerator Drive System). Inoltre la parametrizzazione della sezione d’urto in termini di matrice R, non è così accurata quanto richiesto. In questo lavoro si è dapprima studiata l’assegnazione dello spin delle risonanze riportata in letteratura, elemento fondamentale per la successiva analisi delle risonanze e la parametrizzazione della sezione d’urto della reazione 238U(n, ). Parallelamente a questa attività si è studiata la funzione di risposta dello spettrometro n_TOF, che descrive la risoluzione energetica dei neutroni incidenti e va quindi a modificare la forma delle risonanze. I risultati ottenuti sono quindi stati confrontati con quelli in letteratura per poter essere validati e per poter verificare eventuali migliorie.
Resumo:
La ludicizzazione (deriv. Gamification) è l’utilizzo delle dinamiche proprie dei giochi, quali livelli, punti o premi, in contesti che, senza di essa, non avrebbero alcuna caratteristica di tipo ludico. Il suo principale scopo è quello di ridurre la percezione di compiere azioni noiose, routinarie e ripetitive focalizzando l'attenzione sul maggiore coinvolgimento e divertimento degli utenti. Il campo di applicazione della ludicizzazione è potenzialmente sconfinato. Sono numerose le aziende che investono su processi di produzione mirati all'attribuzione di una caratteristica ludica ai propri prodotti, allo scopo di aumentare la soddisfazione e la fedeltà dei clienti finali. In questo senso, anche il settore del turismo ha iniziato ad introdurre strumenti e tecnologie "ludicizzate", in grado di valorizzare maggiormente le risorse monumentali e fornire al turista un'esperienza completamente nuova e rinnovata. Il presente studio analizza in primis gli aspetti fondamentali del processo di ludicizzazione di un generico sistema o prodotto. Nella seconda parte dell'elaborato, invece, viene illustrata l'applicazione di tali principi per la progettazione di un'applicazione Android il cui scopo è fornire una guida interattiva della città di Bologna basata sulla ludicizzazione.
Resumo:
L'elaborato affronta le varie fasi progettuali relative alle opere di riqualifica delle infrastrutture di volo dell'aeroporto Marco Polo di venezia. Partendo da nozioni di carattere teorico, come i vari metodi di dimensionamento di una sovrastruttura aeroportuale, si è arrivati ad affrontare in modo pratico il calcolo di verifica delle pavimentazioni esistenti e quello di dimensionamento di due soluzioni progettuali ipotizzate. Infine è stato considerato anche l'aspetto ecosostenibile della progettazione, ipotizzando la possibilità di riutilizzare il materiale fresato dalla vecchia pavimentazione esistente.
Resumo:
Il progresso tecnologico nel campo della biologia molecolare, pone la comunità scientifica di fronte all’esigenza di dare un’interpretazione all’enormità di sequenze biologiche che a mano a mano vanno a costituire le banche dati, siano esse proteine o acidi nucleici. In questo contesto la bioinformatica gioca un ruolo di primaria importanza. Un nuovo livello di possibilità conoscitive è stato introdotto con le tecnologie di Next Generation Sequencing (NGS), per mezzo delle quali è possibile ottenere interi genomi o trascrittomi in poco tempo e con bassi costi. Tra le applicazioni del NGS più rilevanti ci sono senza dubbio quelle oncologiche che prevedono la caratterizzazione genomica di tessuti tumorali e lo sviluppo di nuovi approcci diagnostici e terapeutici per il trattamento del cancro. Con l’analisi NGS è possibile individuare il set completo di variazioni che esistono nel genoma tumorale come varianti a singolo nucleotide, riarrangiamenti cromosomici, inserzioni e delezioni. Va però sottolineato che le variazioni trovate nei geni vanno in ultima battuta osservate dal punto di vista degli effetti a livello delle proteine in quanto esse sono le responsabili più dirette dei fenotipi alterati riscontrabili nella cellula tumorale. L’expertise bioinformatica va quindi collocata sia a livello dell’analisi del dato prodotto per mezzo di NGS ma anche nelle fasi successive ove è necessario effettuare l’annotazione dei geni contenuti nel genoma sequenziato e delle relative strutture proteiche che da esso sono espresse, o, come nel caso dello studio mutazionale, la valutazione dell’effetto della variazione genomica. È in questo contesto che si colloca il lavoro presentato: da un lato lo sviluppo di metodologie computazionali per l’annotazione di sequenze proteiche e dall’altro la messa a punto di una pipeline di analisi di dati prodotti con tecnologie NGS in applicazioni oncologiche avente come scopo finale quello della individuazione e caratterizzazione delle mutazioni genetiche tumorali a livello proteico.
Resumo:
La maggior parte dei moderni dispositivi e macchinari, sia ad uso civile che industriale, utilizzano sistemi elettronici che ne supervisionano e ne controllano il funzionamento. All’ interno di questi apparati è quasi certamente impiegato un sistema di controllo digitale che svolge, anche grazie alle potenzialità oggi raggiunte, compiti che fino a non troppi anni or sono erano dominio dell’ elettronica analogica, si pensi ad esempio ai DSP (Digital Signal Processor) oggi impiegati nei sistemi di telecomunicazione. Nonostante l'elevata potenza di calcolo raggiunta dagli odierni microprocessori/microcontrollori/DSP dedicati alle applicazioni embedded, quando è necessario eseguire elaborazioni complesse, time-critical, dovendo razionalizzare e ottimizzare le risorse a disposizione, come ad esempio spazio consumo e costi, la scelta ricade inevitabilmente sui dispositivi FPGA. I dispositivi FPGA, acronimo di Field Programmable Gate Array, sono circuiti integrati a larga scala d’integrazione (VLSI, Very Large Scale of Integration) che possono essere configurati via software dopo la produzione. Si differenziano dai microprocessori poiché essi non eseguono un software, scritto ad esempio in linguaggio assembly oppure in linguaggio C. Sono invece dotati di risorse hardware generiche e configurabili (denominate Configurable Logic Block oppure Logic Array Block, a seconda del produttore del dispositivo) che per mezzo di un opportuno linguaggio, detto di descrizione hardware (HDL, Hardware Description Language) vengono interconnesse in modo da costituire circuiti logici digitali. In questo modo, è possibile far assumere a questi dispositivi funzionalità logiche qualsiasi, non previste in origine dal progettista del circuito integrato ma realizzabili grazie alle strutture programmabili in esso presenti.
Resumo:
Il presente elaborato si propone di esporre, in breve e con uno stile il più possibile divulgativo, gli studi che hanno dimostrato la forte peculiarità del processo di apprendimento di una o più lingue seconde affini alla propria lingua materna. Il lavoro si compone di tre capitoli: il primo ripercorre le grandi tappe dello studio dell’apprendimento linguistico, facendo riferimento alle principali teorie sviluppate, in ambito psicologico e linguistico, nel corso del '900; segue poi un capitolo dedicato all’analisi dell’influenza che esercita la lingua materna sull’apprendimento di lingue seconde, soprattutto sulla base dell’ipotesi del transfer; l’ultima parte, infine, si concentra sulle specificità che presenta l’apprendimento di un sistema linguistico strutturalmente simile a quello della propria lingua materna.
Resumo:
I Gangli della Base svolgono un importante ruolo nel controllo del movimento volontario: questi nuclei sottocorticali localizzati alla base di entrambi gli emisferi cerebrali sono densamente interconnessi con la corteccia cerebrale, il talamo e il tronco dell’encefalo, ma non con il midollo spinale. Facilitano l’esecuzione di un singolo atto motorio, sopprimendo tutti gli altri. Questa funzionalità ha lo scopo di favorire il comando più appropriato, inibendo i restanti per il tempo necessario. I Gangli della Base fungono da vero e proprio filtro, prendendo informazioni dall'intera corteccia, permettendo il passaggio di alcune e bloccandone altre. Per iniziare, verrà descritta l’anatomia e ogni singola parte che compone questi nuclei, elencando le varie interconnessioni sinaptiche. Successivamente, si passerà alla illustrazione della via diretta e della via indiretta e del meccanismo fisiologico che regola l’apprendimento sinaptico e la selezione di azioni, con annessi i principi teorici che ne costituiscono le fondamenta. Si affronterà il modello sviluppato presso l’Università di Bologna da C. Baston e M. Ursino e verranno mostrate varie simulazioni riguardanti tale modello. In conclusione, si tratteranno la malattia di Parkinson, patologia neurodegenerativa che colpisce principalmente le cellule dopaminergiche di alcune aree dei Gangli della Base, e il morbo di Huntington
Resumo:
La tecnologia rende ormai disponibili, per ogni tipologia di azienda, dispositivi elettronici a costo contenuto in grado di rilevare il comportamento dei propri clienti e quindi permettere di profilare bacini di utenza in base a comportamenti comuni. Le compagnie assicurative automobilistiche sono molto sensibili a questo tema poiché, per essere concorrenziali, il premio assicurativo che ogni cliente paga deve essere abbastanza basso da attirarlo verso la compagnia ma anche abbastanza alto da non diventare una voce negativa nel bilancio di quest'ultima. Negli ultimi anni vediamo dunque il diffondersi delle scatole nere, che altro non sono che dispositivi satellitari che aiutano le compagnie assicurative a definire più nel dettaglio il profilo del proprio cliente. Una migliore profilatura porta vantaggi sia all'assicurato che alla compagnia assicurativa, perché da un lato il cliente vede il premio dell'assicurazione abbassarsi, dall'altro la compagnia assicuratrice si sente rassicurata sull'affidabilità del cliente. Questi dispositivi sono costruiti per svolgere principalmente due compiti: raccogliere dati sulla guida dell'automobilista per una profilatura e rilevare un incidente. Come servizio aggiuntivo può essere richiesto supporto al primo soccorso. L'idea di questa tesi è quella di sviluppare un'applicazione per smartphone che funzioni da scatola nera e analizzare i vantaggi e i limiti dell'hardware. Prima di tutto l'applicazione potrà essere installata su diversi dispositivi e potrà essere aggiornata di anno in anno senza dover eliminare l'hardware esistente, d'altro canto lo smartphone permette di poter associare anche funzionalità di tipo client-care più avanzate. Queste funzionalità sarebbero di notevole interesse per l'automobilista, pensiamo ad esempio al momento dell'incidente, sarebbe impagabile un'applicazione che, rilevato l'incidente in cui si è rimasti coinvolti, avverta subito i soccorsi indicando esplicitamente l'indirizzo in cui è avvenuto.
Resumo:
Obiettivo del presente elaborato è quello di condurre un’analisi critica degli interventi atti a ridurre la vulnerabilità sismica di edifici esistenti in muratura al fine di individuare una metodologia che consenta di stimare l’intervento o la serie di interventi con il miglior rapporto diminuzione di vulnerabilità/costo d’intervento. Partendo dalla definizione dello United Nations Disaster Relief Coordination Office, con il termine vulnerabilità intenderò il grado di perdita di funzionalità, che può essere espresso in una scala da zero, che significa nessun danno, o cento, che significa perdita totale. Tale perdita si può produrre su un certo elemento o su un gruppo di elementi esposti a rischio al seguito del verificarsi di un evento calamitoso, nel caso specifico, il sisma. La normativa vigente individua, nel definire i criteri generali per la valutazione della sicurezza e per la progettazione, l’esecuzione ed il collaudo degli interventi sulle costruzioni esistenti, le seguenti categorie di intervento: 1)interventi di adeguamento atti a conseguire i livelli di sicurezza previsti dalla normativa stessa, 2)interventi di miglioramento atti ad aumentare la sicurezza strutturale esistente, pur senza necessariamente raggiungere i livelli richiesti dalla normativa, 3)riparazioni o interventi locali che interessino elementi isolati, e che comunque non comportino un miglioramento delle condizioni di sicurezza preesistenti. Nel proseguo, circoscriverò pertanto lo studio esclusivamente agli interventi di miglioramento, ovvero a quegli interventi che siano comunque finalizzati ad accrescere la capacità di resistenza delle strutture esistenti alle azioni considerate. Tuttavia, poiché gli interventi di riparazione del danno raramente sono solo fini a se stessi in quanto comportano sempre anche una componente di miglioramento, e dunque di riduzione della vulnerabilità sismica dell’edificio, la metodologia che verrà presentata potrà essere adottata sia nel caso di edifici che non hanno subito eventi sismici, e quindi non danneggiati, sia per gli edifici danneggiati da un evento sismico, scorporando, per questi ultimi, la quota parte del costo dell’intervento attribuibile alla sola riparazione del danno da quella attribuibile al miglioramento. Successivamente, partendo dalla descrizione delle schede di 2° livello GNDT (Gruppo Nazionale Difesa Terremoti), si procederà alla definizione di un indice di vulnerabilità degli edifici in muratura che tenga conto delle classi di vulnerabilità associate ai parametri riportati in dette schede in funzione delle carenze strutturali rilevate in fase di sopralluogo. Detto indice verrà poi utilizzato per valutare possibili ipotesi di intervento da applicarsi su un edificio in muratura esistente scelto come caso di studio. Per ciascun intervento ipotizzato, verrà calcolato il rapporto tra la riduzione di vulnerabilità ed i costi degli interventi stessi individuando, in un’ottica di analisi costi-benefici, l’ipotesi d’intervento più idonea.
Resumo:
This thesis presents a new Artificial Neural Network (ANN) able to predict at once the main parameters representative of the wave-structure interaction processes, i.e. the wave overtopping discharge, the wave transmission coefficient and the wave reflection coefficient. The new ANN has been specifically developed in order to provide managers and scientists with a tool that can be efficiently used for design purposes. The development of this ANN started with the preparation of a new extended and homogeneous database that collects all the available tests reporting at least one of the three parameters, for a total amount of 16’165 data. The variety of structure types and wave attack conditions in the database includes smooth, rock and armour unit slopes, berm breakwaters, vertical walls, low crested structures, oblique wave attacks. Some of the existing ANNs were compared and improved, leading to the selection of a final ANN, whose architecture was optimized through an in-depth sensitivity analysis to the training parameters of the ANN. Each of the selected 15 input parameters represents a physical aspect of the wave-structure interaction process, describing the wave attack (wave steepness and obliquity, breaking and shoaling factors), the structure geometry (submergence, straight or non-straight slope, with or without berm or toe, presence or not of a crown wall), or the structure type (smooth or covered by an armour layer, with permeable or impermeable core). The advanced ANN here proposed provides accurate predictions for all the three parameters, and demonstrates to overcome the limits imposed by the traditional formulae and approach adopted so far by some of the existing ANNs. The possibility to adopt just one model to obtain a handy and accurate evaluation of the overall performance of a coastal or harbor structure represents the most important and exportable result of the work.
Resumo:
Le reti transeuropee sono uno dei vettori della competitività, dell’integrazione e dello sviluppo sostenibile dell’Unione. La tesi mette in luce la progressiva affermazione di una coerente politica infrastrutturale europea a carattere strumentale, esaminando tale evoluzione sotto tre profili: normativo, istituzionale e finanziario. In primo luogo, sotto il profilo normativo, la tesi evidenzia, da un lato, la progressiva emancipazione delle istituzioni dell’Unione dall’influenza degli Stati membri nell’esercizio delle proprie competenze in materia di reti transeuropee e, dall’altro, lo sviluppo di relazioni di complementarietà e specialità tra la politica di reti e altre politiche dell’Unione. L’elaborato sottolinea, in secondo luogo, sotto il profilo istituzionale, il ruolo del processo di «integrazione organica» dei regolatori nazionali e del processo di «agenzificazione» nel perseguimento degli obiettivi di interconnessione e accesso alle reti nazionali. La tesi osserva, infine, sotto il profilo finanziario, l’accresciuta importanza del sostegno finanziario dell’UE alla costituzione delle reti, che si è accompagnata al parziale superamento dei limiti derivanti dal diritto dell’UE alla politiche di spesa pubblica infrastrutturale degli Stati membri. Da un lato rispetto al diritto della concorrenza e, in particolare, al divieto di aiuti di stato, grazie al rapporto funzionale tra reti e prestazione di servizi di interesse economico generale, e dall’altro lato riguardo ai vincoli di bilancio, attraverso un’interpretazione evolutiva della cd. investment clause del Patto di stabilità e crescita. La tesi, in conclusione, rileva gli sviluppi decisivi della politica di reti europea, ma sottolinea il ruolo che gli Stati membri sono destinati a continuare ad esercitare nel suo sviluppo. Da questi ultimi, infatti, dipende la concreta attuazione di tale politica, ma anche il definitivo superamento, in occasione di una prossima revisione dei Trattati, dei retaggi intergovernativi che continuano a caratterizzare il diritto primario in materia.
Resumo:
La verifica di vulnerabilità sismica di un edificio esistente è un procedimento volto a stabilire se questa è in grado o meno di resistere alla combinazione sismica di progetto. La vulnerabilità sismica di una struttura dipende da molteplici fattori quali la mancanza di requisiti fondamentali degli elementi strutturali, considerando che la maggior parte delle strutture presenti sul territorio italiano sono state progettate sulla base di normative che non consideravano l’azione sismica. Nel presente lavoro verranno analizzati tutti fattori necessari per effettuare una verifica di vulnerabilità sismica, determinando i fattori di sicurezza per ogni tipologia di verifica.
Resumo:
Il presente lavoro è inserito nel contesto di applicazioni che riguardano la pianificazione e gestione delle emergenze umanitarie. Gli aspetti che si sono voluti mettere in evidenza sono due. Da un lato l'importanza di conoscere le potenzialità dei dati che si hanno di fronte per poterli sfruttare al meglio. Dall'altro l'esigenza di creare prodotti che siano facilmente consultabili da parte dell'utente utilizzando due diverse tecniche per comprenderne le peculiarità. Gli strumenti che hanno permesso il presente studio sono stati tre: i principi del telerilevamento, il GIS e l'analisi di Change Detection.