508 resultados para strutture fragili, joint, sequenza di deformazione, fronte reattivo, diffusione, avvezione
Resumo:
Il lavoro svolto in questa tesi s’inserisce e sviluppa soprattutto nel campo dell’analisi della vulnerabilità relativa agli tsunami ed è centrato sull’analisi della vulnerabilità di strutture ed edifici. Per la precisione si è focalizzata l’attenzione su un’area geografica specifica, cioè si è considerata l’ipotesi che un maremoto colpisca le coste orientali della Sicilia ed in particolare della città di Siracusa. Questo lavoro di tesi prenderà in considerazione due modelli distinti per la stima della vulnerabilità: il modello SCHEMA (SCenarios for Hazard-induced Emergencies MAnagement) che prende il nome dal progetto europeo in cui è stato sviluppato e il modello PTVA (Papathoma Tsunami Vulnerability Assessment) introdotto da Papathoma et al. (2003) e successivamente modificato da Dominey-Howes et al. (2007) e da Dall’Osso et al. (2009). Tali modelli sono esempi dei due possibili approcci (quantitativo e qualitativo). Nei seguenti capitoli si sono trattate le curve di fragilità e di danno, in particolare seguendo la metodologia di Koshimura et al. (2009) ed il lavoro di Valencia et al. (2011). A seguire sono stati descritti i due metodi utilizzati per lo studio della vulnerabilità (SCHEMA, PTVA) ed il lavoro che è stato condotto nell’area di Siracusa. Il lavoro di tesi si è concluso mostrando i risultati della classificazione di vulnerabilità evidenziando e discutendo differenze e similarità delle mappe risultanti dai due metodi applicati.
Resumo:
Il successo di XML ha rinnovato l'interesse per il controllo delle modifiche sugli alberi e i dati semi-strutturati. Le necessità principali sono gestire le revisioni dei documenti, interrogare e monitorare i cambiamenti e scambiare efficientemente i documenti e i loro aggiornamenti. I cambiamenti che si verificano tra due versioni di un documento sono sconosciuti al sistema. Quindi, un algoritmo di diffing viene utilizzato per costruire un delta che rappresenta i cambiamenti. Sono stati proposti vari algoritmi di diffing. Alcuni considerano la struttura ad albero dei documenti XML, mentre altri non lo fanno. Inoltre, alcuni algoritmi possono trovare una sequenza più "sintetica" delle modifiche. Questo migliora la qualità del monitoraggio e l'interrogazione delle modifiche. Esistono altri approcci sviluppati per monitorare i cambiamenti sui documenti XML, differenti dagli algoritmi di diffing, ma che comunque ottengono risultati quasi identici ed offrono un'interrogazione delle modifiche più agevole per gli utenti umani. Esistono infatti programmi di editing con strumenti di change tracking, che permettono a più autori di modificare diverse versioni dei documenti contemporaneamente e registrando in tempo reale tutti i cambiamenti da loro apportati. In questo lavoro studio i diversi strumenti e confronto i loro risultati sulla base di esperimenti condotti su documenti XML opportunamente modificati per riconoscere determinati cambiamenti. Ci sono anche diverse proposte di formati del delta per rappresentare i cambiamenti in XML, ma non vi è ancora alcuno standard. Espongo le principali proposte in base alle loro specifiche, le loro implementazioni e sui risultati degli esperimenti condotti. L'obiettivo è di fornire una valutazione della qualità degli strumenti e, sulla base di questo, guidare gli utenti nella scelta della soluzione appropriata per le loro applicazioni.
Resumo:
L'oggetto della tesi è la costruzione di un modello organizzativo e funzionale per le nuove strutture previste a livello nazionale per l'assistenza primaria e denominate Unità Complesse di Cure Primarie (UCCP). Il modello è composto da un profilo organizzativo, un'architettura funzionale e un sistema di indicatori per il monitoraggio di un insieme di prestazioni rilevanti.
Resumo:
Il presente lavoro di tesi si è svolto in collaborazione con il Consiglio Nazionale delle Ricerche - Istituto di Ricerca per la Protezione Idrogeologica di Padova CNR IRPI. Questo elaborato è finalizzato allo studio dei dissesti per frana che coinvolgono le opere d’arte stradali della S.S. 52 Carnica nella zona del Passo della Morte, tra i comuni di Forni di Sotto e Ampezzo, in provincia di Udine. La presenza di un’arteria viaria di primaria importanza, qual è la strada statale 52 Carnica che collega le province di Udine e Belluno, ha reso necessario un accurato studio idrogeologico. Lo studio mira principalmente ad individuare una possibile relazione tra la sorgente sita all’interno della Galleria di S. Lorenzo S.S. 52 e la galleria drenante posta al di sotto di quest’ultima per permettere la progettazione di eventuali ulteriori opere di mitigazione del rischio da frana. Il lavoro è suddiviso in tre parti: la prima, introduttiva, include una caratterizzazione geografica, geologica e morfologica dell’area di studio. La seconda descrive l’opera in esame - la galleria di S. Lorenzo S.S. 52 Carnica - e le criticità derivanti dalla complessità dell’area. Infine, la terza, fondamentale, comprende un studio idrogeologico svolto raccogliendo sul campo i dati indispensabili alle ricerche. La metodologia è caratterizzata da un’analisi statistica basata sulla cross-correlazione tra i dati di precipitazione e quelli di portata in continuo della sorgente e della galleria drenante. Infine, a fronte dei dati ottenuti, si è ricavato un modello concettuale dei complessi fenomeni idrogeologici che si sviluppano nell’area di Passo della Morte.
Resumo:
Lo studio si inserisce all’interno del progetto THESEUS, il cui obiettivo primario è quello di fornire una metodologia integrata per la pianificazione di strategie di difesa sostenibile per la gestione dell’erosione costiera e delle inondazioni. Nel presente lavoro di tesi in particolare sono state esaminate le componenti biotiche e abiotiche della zona intertidale di 6 spiagge (Lido di Spina, Bellocchio, Lido di Dante, Cervia, Cesenatico, Cesenatico sud) lungo la costa emiliano-romagnola, diverse tra loro per caratteristiche morfodinamiche, per grado di antropizzazione, modalità di gestione ed interventi effettuati per contrastare i fenomeni di erosione costiera. Sono state quindi considerate porzioni di litorale in cui non sono presenti opere di difesa costiera rigide, quali pennelli e barriere, e dove sono quasi del tutto assenti strutture turistico-balneari, e tre siti più antropizzati per la presenza di strutture di difesa costiera o per attività inerenti il turismo. Lo scopo di questo lavoro consiste nella: 1) analisi delle comunità macrobentoniche della zona intertidale in termini di composizione tassonomica; 2) analisi delle comunità macrobentoniche in termini di gruppi funzionali o gruppi trofici, cioè specie che, all’interno della comunità, svolgono la stessa funzione ecologica; 3) relazione fra la struttura delle comunità e le caratteristiche abiotiche e morfodinamiche delle spiagge indagate. L’analisi dei dati ha mostrato come le comunità rinvenute a Bellocchio e Lido di Dante, sia in termini di struttura trofica che tassonomica, siano le più diverse fra di loro. Con l’eccezione di Bellocchio, tutte le spiagge sono dominate dal gruppo trofico dei “suspension feeders” a causa dell’elevata abbondanza del bivalve Lentidium mediterraneum. Quando dalla matrice multivariata biotica viene elimina questa specie, si evidenziano differenze più marcate fra i siti definiti naturali e quelli definiti più antropizzati. Considerando le matrici morfo-abiotiche, Lido di Spina, Cesenatico e Cesenatico sud presentano un sedimento medio-fine e moderatamente ben classato, tipico delle spiagge del litorale emiliano-romagnolo; viceversa Lido di Dante e Bellocchio presentano un sedimento rispettivamente più grossolano e molto fine e argilloso a Bellocchio.
Resumo:
Il lavoro svolto in questa tesi si colloca nell’area della robotica aerea e della visione artificiale attraverso l’integrazione di algoritmi di visione per il controllo di un velivolo senza pilota. Questo lavoro intende dare un contributo al progetto europeo SHERPA (Smart collaboration between Humans and ground-aErial Robots for imProving rescuing activities in Alpine environments), coordinato dall’università di Bologna e con la compartecipazione delle università di Brema, Zurigo, Twente, Leuven, Linkopings, del CREATE (Consorzio di Ricerca per l’Energia e le Applicazioni Tecnologiche dell’Elettromagnetismo), di alcune piccole e medie imprese e del club alpino italiano, che consiste nel realizzare un team di robots eterogenei in grado di collaborare con l’uomo per soccorrere i dispersi nell’ambiente alpino. L’obiettivo di SHERPA consiste nel progettare e integrare l’autopilota all’interno del team. In tale contesto andranno gestiti problemi di grande complessità, come il controllo della stabilità del velivolo a fronte di incertezze dovute alla presenza di vento, l’individuazione di ostacoli presenti nella traiettoria di volo, la gestione del volo in prossimità di ostacoli, ecc. Inoltre tutte queste operazioni devono essere svolte in tempo reale. La tesi è stata svolta presso il CASY (Center for Research on Complex Automated Systems) dell’università di Bologna, utilizzando per le prove sperimentali una PX4FLOW Smart Camera. Inizialmente è stato studiato un autopilota, il PIXHAWK, sul quale è possibile interfacciare la PX4FLOW, in seguito sono stati studiati e simulati in MATLAB alcuni algoritmi di visione basati su flusso ottico. Infine è stata studiata la PX4FLOW Smart Camera, con la quale sono state svolte le prove sperimentali. La PX4FLOW viene utilizzata come interfaccia alla PIXHAWK, in modo da eseguire il controllo del velivolo con la massima efficienza. E’ composta da una telecamera per la ripresa della scena, un giroscopio per la misura della velocità angolare, e da un sonar per le misure di distanza. E’ in grado di fornire la velocità di traslazione del velivolo, e quest’ultima, integrata, consente di ricostruire la traiettoria percorsa dal velivolo.
Resumo:
Influenza della deformabilità di piano in analisi non lineari di edifici in C.A.
Resumo:
Il progetto per il nuovo centro sportivo di Mirandola nasce prima di tutto dalla volontà di dare alla città un nuovo fronte e un nuovo ingresso. Lo studio generale del masterplan della città, prevede la creazione di tre grandi assi. Il primo a creare un mercato a cielo aperto lungo l’esistente parco, attraverso piccoli padiglioni dislocati lungo il percorso pedonale; il secondo che si sviluppa lungo il grande asse storico con l’accesso diretto al centro storico; il terzo, perpendicolare rispetto agli altri, che attraversa Mirandola da est a ovest e infine l’ultimo asse che dalle mura storiche arriva fino all’accesso principale del nuovo campo sportivo passando per l’ospedale. Partendo da questa idea quindi, si può subito notare come questo nuovo spazio vuole essere un collante tra il centro storico e la campagna, cosi importante in questa zona. Il nuovo centro sportivo vuole rivalorizzare un’area di Mirandola ora priva di servizi. Gli edifici si sviluppano li dove era già presente un campo da calcio. La prima scelta è stata quella di creare una struttura che non si imponesse troppo sul nuovo fronte e quindi sulla nuova arteria, per questo è stato scelto di interrare di quattro metri i campi da gioco. Il centro sportivo cosi facendo non si eleva troppo e l’unico elemento che supera i cinque metri è la copertura delle tribune. La struttura del campo sportivo è circondata dal verde, in modo da creare, come è stato fatto in grande scala per il masterplan generale, un filtro che potesse separare ma anche aprirsi al resto della città e della campagna. Oltre al grande spazio interrato dedicato allo sport è presente anche un’altra zona verde, in parte interrata, che rappresenta una arena a cielo aperto. L’arena è fornita di un’ampia tributa e di una rampa verde che svetta di due metri dal livello del terreno. L’arena è stata progettata per permettere a questo spazio di non essere solo un luogo adibito allo sport ma anche un luogo di incontri dove si possano fare concerti altre attività culturali o semplicemente come un’area verde di incontro. Proprio questo spazio movimenta ancora di più il fronte stradale, grazie anche all’aiuto dell’alberatura. Un altro asse fondamentale è il grande percorso pedonale perpendicolare agli altri tre percorsi verdi che si sviluppa accanto alla nuova infrastruttura. Esso parte proprio dall’accesso principale al campo sportivo fino a collegarsi con il grande parco/mercato. Al di la della strada il percorso viene arricchito con alcuni setti formati dai resti del terremoto e inglobati nel verde cosi da schermare gli edifici che a breve si affacceranno sulla grande arteria stradale.
Resumo:
Questo elaborato di tesi si propone di indicare due esempi di strutture in grado di misurare con una certa precisione i coefficienti di attrito che agiscono su un giunto filettato distinguendoli tra coefficiente di attrito nel sottotesta della vite e coefficiente di attrito sul filetto. I macchinari ideati saranno anche in grado di misurare la forza di precarico applicata e permetteranno l’analisi dei segni d’usura attorno ai fori che ospiteranno le viti.
Resumo:
La maggior parte dei moderni dispositivi e macchinari, sia ad uso civile che industriale, utilizzano sistemi elettronici che ne supervisionano e ne controllano il funzionamento. All’ interno di questi apparati è quasi certamente impiegato un sistema di controllo digitale che svolge, anche grazie alle potenzialità oggi raggiunte, compiti che fino a non troppi anni or sono erano dominio dell’ elettronica analogica, si pensi ad esempio ai DSP (Digital Signal Processor) oggi impiegati nei sistemi di telecomunicazione. Nonostante l'elevata potenza di calcolo raggiunta dagli odierni microprocessori/microcontrollori/DSP dedicati alle applicazioni embedded, quando è necessario eseguire elaborazioni complesse, time-critical, dovendo razionalizzare e ottimizzare le risorse a disposizione, come ad esempio spazio consumo e costi, la scelta ricade inevitabilmente sui dispositivi FPGA. I dispositivi FPGA, acronimo di Field Programmable Gate Array, sono circuiti integrati a larga scala d’integrazione (VLSI, Very Large Scale of Integration) che possono essere configurati via software dopo la produzione. Si differenziano dai microprocessori poiché essi non eseguono un software, scritto ad esempio in linguaggio assembly oppure in linguaggio C. Sono invece dotati di risorse hardware generiche e configurabili (denominate Configurable Logic Block oppure Logic Array Block, a seconda del produttore del dispositivo) che per mezzo di un opportuno linguaggio, detto di descrizione hardware (HDL, Hardware Description Language) vengono interconnesse in modo da costituire circuiti logici digitali. In questo modo, è possibile far assumere a questi dispositivi funzionalità logiche qualsiasi, non previste in origine dal progettista del circuito integrato ma realizzabili grazie alle strutture programmabili in esso presenti.
Resumo:
In questa tesi si è studiato un metodo per modellare e virtualizzare tramite algoritmi in Matlab le distorsioni armoniche di un dispositivo audio non lineare, ovvero uno “strumento” che, sollecitato da un segnale audio, lo modifichi, introducendovi delle componenti non presenti in precedenza. Il dispositivo che si è scelto per questo studio il pedale BOSS SD-1 Super OverDrive per chitarra elettrica e lo “strumento matematico” che ne fornisce il modello è lo sviluppo in serie di Volterra. Lo sviluppo in serie di Volterra viene diffusamente usato nello studio di sistemi fisici non lineari, nel caso in cui si abbia interesse a modellare un sistema che si presenti come una “black box”. Il metodo della Nonlinear Convolution progettato dall'Ing. Angelo Farina ha applicato con successo tale sviluppo anche all'ambito dell'acustica musicale: servendosi di una tecnica di misurazione facilmente realizzabile e del modello fornito dalla serie di Volterra Diagonale, il metodo permette di caratterizzare un dispositivo audio non lineare mediante le risposte all'impulso non lineari che il dispositivo fornisce a fronte di un opportuno segnale di test (denominato Exponential Sine Sweep). Le risposte all'impulso del dispositivo vengono utilizzate per ricavare i kernel di Volterra della serie. L'utilizzo di tale metodo ha permesso all'Università di Bologna di ottenere un brevetto per un software che virtualizzasse in post-processing le non linearità di un sistema audio. In questa tesi si è ripreso il lavoro che ha portato al conseguimento del brevetto, apportandovi due innovazioni: si è modificata la scelta del segnale utilizzato per testare il dispositivo (si è fatto uso del Synchronized Sine Sweep, in luogo dell'Exponential Sine Sweep); si è messo in atto un primo tentativo di orientare la virtualizzazione verso l'elaborazione in real-time, implementando un procedimento (in post-processing) di creazione dei kernel in dipendenza dal volume dato in input al dispositivo non lineare.
Resumo:
Lo scopo del clustering è quindi quello di individuare strutture nei dati significative, ed è proprio dalla seguente definizione che è iniziata questa attività di tesi , fornendo un approccio innovativo ed inesplorato al cluster, ovvero non ricercando la relazione ma ragionando su cosa non lo sia. Osservando un insieme di dati ,cosa rappresenta la non relazione? Una domanda difficile da porsi , che ha intrinsecamente la sua risposta, ovvero l’indipendenza di ogni singolo dato da tutti gli altri. La ricerca quindi dell’indipendenza tra i dati ha portato il nostro pensiero all’approccio statistico ai dati , in quanto essa è ben descritta e dimostrata in statistica. Ogni punto in un dataset, per essere considerato “privo di collegamenti/relazioni” , significa che la stessa probabilità di essere presente in ogni elemento spaziale dell’intero dataset. Matematicamente parlando , ogni punto P in uno spazio S ha la stessa probabilità di cadere in una regione R ; il che vuol dire che tale punto può CASUALMENTE essere all’interno di una qualsiasi regione del dataset. Da questa assunzione inizia il lavoro di tesi, diviso in più parti. Il secondo capitolo analizza lo stato dell’arte del clustering, raffrontato alla crescente problematica della mole di dati, che con l’avvento della diffusione della rete ha visto incrementare esponenzialmente la grandezza delle basi di conoscenza sia in termini di attributi (dimensioni) che in termini di quantità di dati (Big Data). Il terzo capitolo richiama i concetti teorico-statistici utilizzati dagli algoritimi statistici implementati. Nel quarto capitolo vi sono i dettagli relativi all’implementazione degli algoritmi , ove sono descritte le varie fasi di investigazione ,le motivazioni sulle scelte architetturali e le considerazioni che hanno portato all’esclusione di una delle 3 versioni implementate. Nel quinto capitolo gli algoritmi 2 e 3 sono confrontati con alcuni algoritmi presenti in letteratura, per dimostrare le potenzialità e le problematiche dell’algoritmo sviluppato , tali test sono a livello qualitativo , in quanto l’obbiettivo del lavoro di tesi è dimostrare come un approccio statistico può rivelarsi un’arma vincente e non quello di fornire un nuovo algoritmo utilizzabile nelle varie problematiche di clustering. Nel sesto capitolo saranno tratte le conclusioni sul lavoro svolto e saranno elencati i possibili interventi futuri dai quali la ricerca appena iniziata del clustering statistico potrebbe crescere.
Resumo:
Nella prima parte di questo lavoro di tesi è stata effettuata una ricerca sullo stato dell’arte attuale delle macchine per prove a fatica con principio di risonanza. Pertanto viene riportata una descrizione delle necessità che portarono all’interesse verso questa metodologia di prove a fatica oltre che una descrizione delle macchine ad ultrasuoni di concezione moderna, delle loro caratteristiche e dei loro componenti tipici. Successivamente si sono riportati i dibattiti principali riguardanti la validità delle prove ottenute con questa tipologia di macchine. Si è, di seguito, utilizzata la teoria classica delle onde elastiche per illustrare il principio di funzionamento della macchina. Si sono ottenute le soluzioni esatte dei campi di spostamento, deformazione e sforzo nel caso di provini o sonotrodi a sezione costante confrontando successivamente i risultati così ottenuti con soluzione in ambito FEM per dimostrare la validità degli stessi. Lo stesso tipo di analisi è stata effettuata anche per il provino tipico di prove a fatica, ossia il provino circolare, dove la soluzione esatta è stata ottenuta per similitudine nel provino, catenoidale. Sono riportati un breve riassunto dei nuovi fenomeni di fatica che si sono riscontrati grazie alle possibilità di effettuare test in regione VHCF, laddove non era possibile con le macchine convenzionali, e le conclusioni del presente lavoro di tesi.
Resumo:
La telemedicina è uno strumento in grado fornire assistenza ad un paziente o monitorarne le condizioni di salute, impiegando dispositivi di telecomunicazione avanzati i quali rendono possibile la trasmissione a distanza di informazioni mediche dal paziente alla struttura sanitaria o viceversa. Questo elaborato si propone di illustrare come la telemedicina sia utilizzata nel trattamento dello scompenso cardiaco a prescindere dalla distanza tra le strutture sanitarie e il luogo di residenza del malato ottenendo risultati incoraggianti sia dal punto di vista del quadro di salute psico-fisico dei pazienti sia dal punto di vista economico per il Sistema Sanitario Nazionale.
Resumo:
"Ricordi di scuola", il più celebre e personale tra i romanzi del giornalista, scrittore, umorista, nonché vignettista Giovanni Mosca, è il diario di un giovane maestro delle scuole elementari nella Roma fascista degli anni ’30. Il libro presenta uno stile semplice, fresco e lineare e racconta gli episodi di un maestro elementare e dei suoi alunni. La figura prevalente è sicuramente quella del maestro, un uomo “speciale” dalla personalità gentile, disponibile e per nulla severo, come ci si potrebbe aspettare, data l’epoca in cui il romanzo è ambientato, dimostrandosi comprensivo ed indulgente con i propri alunni senza però dimenticare la sua funzione educativa. Dal punto di vista della didattica il maestro Mosca si mostra diverso, quasi “rivoluzionario”. E’ un maestro che non dà voti e non boccia, che critica il nozionismo, i problemi astrusi e le poesie a memoria. Il racconto si compone di ventuno episodi, nei quali l’autore non nasconde la sua simpatia nei confronti degli alunni per la loro fantasia e la loro candida immaginazione e la sua ironia e la sua disapprovazione nei confronti degli adulti, di quei “grandi” che pensano di possedere la saggezza e la verità, ma che spesso si rivelano personaggi più immaturi e fragili dei loro stessi alunni. L’elaborato si compone di: introduzione al libro, traduzione di alcuni capitoli in lingua spagnola e analisi delle difficoltá traduttive incontrate durante la stesura.