906 resultados para lambda-calcolo, teoremi di separazione, risorse, espansione di Taylor


Relevância:

50.00% 50.00%

Publicador:

Resumo:

La leishmaniosi è una malattia protozoaria importante che interessa l’ambito della sanità animale e umana, in relazione al carattere zoonotico dell’infezione. In Italia l’infezione è sostenuta da Leishmania infantum, i cui ceppi viscerotropi sono responsabili della leishmaniosi canina (LCan) e della forma viscerale zoonotica (LVZ), ed i ceppi dermotropi della forma cutanea sporadica nell’uomo (LCS). La trasmissione dell’infezione è sostenuta da femmine ematofaghe di ditteri appartenenti al genere Phlebotomus, che hanno il ruolo di vettori biologici attivi. L’unico serbatoio domestico riconosciuto è il cane. In Italia la LCan è in forte espansione. Fino agli anni ottanta era presente in forma endemica nel centro-sud Italia e nelle isole mentre il nord Italia, fatta eccezione per la Liguria e una piccola parte dell’Emilia-Romagna risultava indenne. A partire dagli anni novanta, parallelamente ad un aumento della consistenza e del numero dei focolai nelle aree storicamente endemiche, sono iniziate, nelle regioni del Nord, le segnalazioni di focolai autoctoni stabili. Le attività del network scientifico LeishMap™, tra il 2002 e il 2005, hanno evidenziato un nuovo quadro epidemiologico in tutte le regioni del nord Italia, confermato anche da indagini successive. Alla riemergenza della leishmaniosi hanno concorso una serie di fattori ecologico-ambientali e umani. Tra i primi si ricorda il cambiamento climatico che ha influito sulla distribuzione e sulla densità della popolazione vettoriale; tra i secondi, ruolo fondamentale ha giocato la maggiore movimentazione di animali, provenienti da aree indenni, in zone interessate dalla malattia. La valutazione di tutti questi aspetti è stato il punto di partenza per la messa a punto di un progetto per la realizzazione della sorveglianza della leishmaniosi in Emilia-Romagna. Parte delle attività previste da tale progetto costituiscono la prima parte della presente tesi. Mediante la realizzazione di una banca dati e, la successiva georeferenziazione, dei casi di leishmaniosi canina (LCan) in cani di proprietà della regione e zone limitrofe (Pesaro-Urbino, Repubblica di San Marino), sono stati evidenziati 538 casi, la maggior parte dei quali nelle province di Bologna e Rimini (235 e 204, rispettivamente). Nelle due province sono stati individuati clusters di aggregazione importanti in base alla densità di casi registrati/km2 (4 nella provincia di Bologna e 3 in quella di Rimini). Nella seconda parte della presente tesi è stato approfondito l’aspetto diagnostico della malattia. Molte sono le metodiche applicabili alla diagnosi di LCan: da quelle dirette, come i metodi parassitologici e molecolari, a quelle indirette, come le tecniche sierologiche. Nella II parte sperimentale della presente tesi, 100 sieri di cane sono stati esaminati in Immunofluorescenza Indiretta (IFI), Enzyme-Linked Immunosorbent Assay (ELISA) e Western Blot (WB), al fine di valutare l’applicazione di queste metodiche a scopi diagnostici ed epidemiologici. L’elaborazione statistica dei risultati ottenuti conferma l’IFI metodica gold standard per la diagnosi della LCan. Inoltre, si è osservato che il grado di concordanza tra l’IFI e le altre due metodiche aumenta quando nell’animale si instaura una risposta anticorpale forte, che, corrisponderebbe ad uno stato di infezione in atto.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Calcolo della superficie curvilinea di scorrimento di un getto di litio in maniera che la pressione lungo il getto vari in maniera lineare. Formulazione di un codice di calcolo per la determinazione delle diverse possibili superfici. Studio termofluidodinamico del getto con codici CFD. Accoppiamento tra codici di sistema e codici CFD. Valutazioni delle condizioni di Incipient Boiling per il litio.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

INDICE INTRODUZIONE 1 1. DESCRIZIONE DEL SISTEMA COSTRUTTIVO 5 1.1 I pannelli modulari 5 1.2 Le pareti tozze in cemento armato gettate in opera realizzate con la tecnologia del pannello di supporto in polistirene 5 1.3 La connessione tra le pareti e la fondazione 6 1.4 Le connessioni tra pareti ortogonali 7 1.5 Le connessioni tra pareti e solai 7 1.6 Il sistema strutturale così ottenuto e le sue caratteristiche salienti 8 2. RICERCA BIBLIOGRAFICA 11 2.1 Pareti tozze e pareti snelle 11 2.2 Il comportamento scatolare 13 2.3 I muri sandwich 14 2.4 Il “ferro-cemento” 15 3. DATI DI PARTENZA 19 3.1 Schema geometrico - architettonico definitivo 19 3.2 Abaco delle sezioni e delle armature 21 3.3 Materiali e resistenze 22 3.4 Valutazione del momento di inerzia delle pareti estese debolmente armate 23 3.4.1 Generalità 23 3.4.2 Caratteristiche degli elementi provati 23 3.4.3 Formulazioni analitiche 23 3.4.4 Considerazioni sulla deformabilità dei pannelli debolmente armati 24 3.4.5 Confronto tra rigidezze sperimentali e rigidezze valutate analiticamente 26 3.4.6 Stima di un modulo elastico equivalente 26 4. ANALISI DEI CARICHI 29 4.1 Stima dei carichi di progetto della struttura 29 4.1.1 Stima dei pesi di piano 30 4.1.2 Tabella riassuntiva dei pesi di piano 31 4.2 Analisi dei carichi da applicare in fase di prova 32 4.2.1 Pesi di piano 34 4.2.2 Tabella riassuntiva dei pesi di piano 35 4.3 Pesi della struttura 36 4.3.1 Ripartizione del carico sulle pareti parallele e ortogonali 36 5. DESCRIZIONE DEL MODELLO AGLI ELEMENTI FINITI 37 5.1 Caratteristiche di modellazione 37 5.2 Caratteristiche geometriche del modello 38 5.3 Analisi dei carichi 41 5.4 Modello con shell costituite da un solo layer 43 5.4.1 Modellazione dei solai 43 5.4.2 Modellazione delle pareti 44 5.4.3 Descrizione delle caratteristiche dei materiali 46 5.4.3.1 Comportamento lineare dei materiali 46 6. ANALISI DEL COMPORTAMENTO STATICO DELLA STRUTTURA 49 6.1 Azioni statiche 49 6.2 Analisi statica 49 7. ANALISI DEL COMPORTAMENTO DINAMICO DELLA STRUTTURA 51 7.1 Determinazione del periodo proprio della struttura con il modello FEM 51 7.1.1 Modi di vibrare corrispondenti al modello con solai e pareti costituiti da elementi shell 51 7.1.1.1 Modi di vibrare con modulo pari a E 51 7.1.1.2 Modi di vibrare con modulo pari a 0,5E 51 7.1.1.3 Modi di vibrare con modulo pari a 0,1E 51 7.1.2 Modi di vibrare corrispondenti al modello con solai infinitamente rigidi e pareti costituite da elementi shell 52 7.1.2.1 Modi di vibrare con modulo pari a E 52 7.1.2.2 Modi di vibrare con modulo pari a 0,5E 52 7.1.2.3 Modi di vibrare con modulo pari a 0,1E: 52 7.1.3 Modi di vibrare corrispondenti al modello con solai irrigiditi con bielle e pareti costituite da elementi shell 53 7.1.3.1 Modi di vibrare con modulo pari a E 53 7.1.3.2 Modi di vibrare con modulo pari a 0,5E 53 7.1.3.3 Modi di vibrare con modulo pari a 0,1E 53 7.2 Calcolo del periodo proprio della struttura assimilandola ad un oscillatore semplice 59 7.2.1 Analisi svolta assumendo l’azione del sisma in ingresso in direzione X-X 59 7.2.1.1 Analisi svolta assumendo il modulo elastico E pari a 300000 Kg/cm2 59 7.2.1.1.1 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari ad E 59 7.2.1.1.2 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari ad E 61 7.2.1.1.3 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari ad E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 63 7.2.1.1.4 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari ad E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 66 7.2.1.2 Analisi svolta assumendo il modulo elastico E pari a 150000 Kg/cm2 69 7.2.1.2.1 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari a 0,5E 69 7.2.1.2.2 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari a 0,5E 71 7.2.1.2.3 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari a 0,5 E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 73 7.2.1.2.4 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari a 0,5 E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 76 7.2.1.3 Analisi svolta assumendo il modulo elastico E pari a 30000 Kg/cm2 79 7.2.1.3.1 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari a 0,1E 79 7.2.1.3.2 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari a 0,1E 81 7.2.1.3.3 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari a 0,1E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 83 7.2.1.3.4 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari a 0,1E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 86 7.2.2 Analisi svolta assumendo l’azione del sisma in ingresso in direzione Y-Y 89 7.2.2.1 Analisi svolta assumendo il modulo elastico E pari a 300000 Kg/cm2 89 7.2.2.1.1 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari ad E 89 7.2.2.1.2 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari ad E 91 7.2.2.1.3 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari ad E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 93 7.2.2.1.4 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari ad E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 98 7.2.2.1.5 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari ad E 103 7.2.2.1.6 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari ad E 105 7.2.2.1.7 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari ad E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 107 7.2.2.1.8 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari ad E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 112 7.2.2.2 Analisi svolta assumendo il modulo elastico E pari a 150000 Kg/cm2 117 7.2.2.2.1 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari a 0,5E 117 7.2.2.2.2 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari a 0,5E 119 7.2.2.2.3 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari a 0,5 E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 121 7.2.2.2.4 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari a 0,5 E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 126 7.2.2.2.5 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari a 0,5 E 131 7.2.2.2.6 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari ad E 133 7.2.2.2.7 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari a 0,5E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 135 7.2.2.2.8 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari a 0,5E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 140 7.2.2.3 Analisi svolta assumendo il modulo elastico E pari a 30000 Kg/cm2 145 7.2.2.3.1 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari a 0,1E 145 7.2.2.3.2 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari a 0,1E 147 7.2.2.3.3 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari a 0,1E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 149 7.2.2.3.4 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari a 0,1E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 154 7.2.2.3.5 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H e modulo elastico assunto pari a 0,1 E 159 7.2.2.3.6 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H e modulo elastico assunto pari ad E 161 7.2.2.3.7 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 2/3 H, modulo elastico assunto pari a 0,1E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 163 7.2.2.3.8 Determinazione del periodo proprio della struttura considerando la massa complessiva concentrata a 1/2 H, modulo elastico assunto pari a 0,1E, e struttura resistente costituita dai soli “maschi murari” delle pareti parallele all’azione del sisma 168 7.3 Calcolo del periodo proprio della struttura approssimato utilizzando espressioni analitiche 174 7.3.1 Approssimazione della struttura ad una mensola incastrata di peso Q=ql avente un peso P gravante all’estremo libero 174 7.3.1.1 Riferimenti teorici: sostituzione di masse distribuite con masse concentrate 174 7.3.1.2 Applicazione allo specifico caso di studio in esame con modulo elastico E=300000 kg/cm2 177 7.3.1.3 Applicazione allo specifico caso di studio in esame con modulo elastico E=30000 kg/cm2 179 7.3.2 Approssimazione della struttura ad una mensola incastrata alla base, di peso Q=ql, avente un peso P gravante all’estremo libero e struttura resistente costituita dai soli “maschi murari”delle pareti parallele all’azione del sisma 181 7.3.2.1 Applicazione allo specifico caso di studio in esame con modulo elastico E=300000 kg/cm2 181 7.3.2.2 Applicazione allo specifico caso di studio in esame con modulo elastico E=30000 kg/cm2 186 7.3.3 Approssimazione della struttura ad un portale avente peso Qp = peso di un piedritto, Qt=peso del traverso e un peso P gravante sul traverso medesimo 191 7.3.3.1 Riferimenti teorici: sostituzione di masse distribuite con masse concentrate 191 7.3.3.2 Applicazione allo specifico caso di studio in esame con modulo ellastico E=300000 kg/cm2 192 7.3.3.3 Applicazione allo specifico caso di studio in esame con modulo ellastico E=30000 kg/cm2 194 7.3.4 Approssimazione della struttura ad un portale di peso Qp = peso di un piedritto, Qt=peso del traverso e avente un peso P gravante sul traverso medesimo e struttura resistente costituita dai soli “maschi murari”delle pareti parallele all’azione del sisma 196 7.3.4.1 Applicazione allo specifico caso di studio in esame con modulo elastico E=300000 kg/cm2 196 7.3.4.2 Applicazione allo specifico caso di studio in esame con modulo elastico E=30000 kg/cm2 201 7.3.5 Approssimazione della struttura ad una mensola incastrata di peso Q=ql avente le masse m1,m2....mn concentrate nei punti 1,2….n 206 7.3.5.1 Riferimenti teorici: metodo approssimato 206 7.3.5.2 Applicazione allo specifico caso di studio in esame con modulo elastico E=300000 kg/cm2 207 7.3.5.3 Applicazione allo specifico caso di studio in esame con modulo elastico E=30000 kg/cm2 209 7.3.6 Approssimazione della struttura ad un telaio deformabile con tavi infinitamente rigide 211 7.3.6.1 Riferimenti teorici: vibrazioni dei telai 211 7.3.6.2 Applicazione allo specifico caso di studio in esame con modulo elastico E=300000 kg/cm2 212 7.3.6.3 Applicazione allo specifico caso di studio in esame con modulo elastico E=30000 kg/cm2 215 7.3.7 Approssimazione della struttura ad una mensola incastrata di peso Q=ql avente masse m1,m2....mn concentrate nei punti 1,2….n e studiata come un sistema continuo 218 7.3.7.1 Riferimenti teorici: metodo energetico; Masse ripartite e concentrate; Formula di Dunkerley 218 7.3.7.1.1 Il metodo energetico 218 7.3.7.1.2 Masse ripartite e concentrate. Formula di Dunkerley 219 7.3.7.2 Applicazione allo specifico caso di studio in esame con modulo elastico E=300000 kg/cm2 221 7.3.7.3 Applicazione allo specifico caso di studio in esame con modulo elastico E=30000 kg/cm2 226 7.4 Calcolo del periodo della struttura approssimato mediante telaio equivalente 232 7.4.1 Dati geometrici relativi al telaio equivalente e determinazione dei carichi agenti su di esso 232 7.4.1.1 Determinazione del periodo proprio della struttura assumendo diversi valori del modulo elastico E 233 7.5 Conclusioni 234 7.5.1 Comparazione dei risultati relativi alla schematizzazione dell’edificio con una struttura ad un grado di libertà 234 7.5.2 Comparazione dei risultati relativi alla schematizzazione dell’edificio con una struttura a più gradi di libertà e a sistema continuo 236 8. ANALISI DEL COMPORTAMENTO SISMICO DELLA STRUTTURA 239 8.1 Modello con shell costituite da un solo layer 239 8.1.1 Analisi dinamica modale con spettro di risposta avente un valore di PGA pari a 0,1g 239 8.1.1.1 Generalità 239 8.1.1.2 Sollecitazioni e tensioni sulla sezione di base 242 8.1.1.2.1 Combinazione di carico ”Carichi verticali più Spettro di Risposta scalato ad un valore di PGA pari a 0,1g” 242 8.1.1.2.2 Combinazione di carico ”Spettro di Risposta scalato ad un valore di 0,1g di PGA” 245 8.1.1.3 Spostamenti di piano 248 8.1.1.4 Accelerazioni di piano 248 8.1.2 Analisi Time-History lineare con accelerogramma caratterizzato da un valore di PGA pari a 0,1g 249 8.1.2.1 Generalità 249 8.1.2.2 Sollecitazioni e tensioni sulla sezione di base 251 8.1.2.2.1 Combinazione di carico ” Carichi verticali più Accelerogramma agente in direzione Ye avente una PGA pari a 0,1g” 251 8.1.2.2.2 Combinazione di carico ” Accelerogramma agente in direzione Y avente un valore di PGA pari a 0,1g ” 254 8.1.2.3 Spostamenti di piano assoluti 257 8.1.2.4 Spostamenti di piano relativi 260 8.1.2.5 Accelerazioni di piano assolute 262 8.1.3 Analisi dinamica modale con spettro di risposta avente un valore di PGA pari a 0,3g 264 8.1.3.1 Generalità 264 8.1.3.2 Sollecitazioni e tensioni sulla sezione di base 265 8.1.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il lavoro valuta le prestazioni di 14 stati membri dell'Unione Europea, la quale attraverso la strategia Europa 2020 propone il raggiungimento di 8 target fondamentali per una crescita intelligente, sostenibile e inclusiva entro il 2020. I target riguardano l'occupazione, il tasso d'istruzione superiore, la percentuale di energia rinnovabile, il consumo energetico, le emissioni di gas serra, la spesa in ricerca e sviluppo, la povertà , il prematuro abbandono scolastico. A tali target corrispondono indicatori che sono annualmente censiti attraverso le autorità statistiche nazionali ed Eurostat. La misura della performance degli Stati è stata effettuata mediante il calcolo della distanza dal target di ciascun paese negli anni compresi tra il 2000 e il 2009. In particolare si è effettuato, adattandolo alle esigenze del lavoro, il calcolo della distanza euclidea e della distanza di Mahalanobis. Con le limitazioni dovute alla qualità dei dati disponibili e ad una difficoltà oggettiva di stabilire una linea di base, il lavoro ha permesso di dare un giudizio alla qualità dello sforzo compiuto da ciascun paese per raggiungere i target, fornendo un quadro analitico e articolato dei rapporti che intercorrono tra i diversi indicatori. In particolare è stato realizzato un modello relazionale basato su quattro indicatori che sono risultati essere correlati e legati da relazioni di tipo causale. I risultati possono essere sintetizzati come segue. La strategia Europa 2020 sembra partire da buone basi in quanto si è potuto osservare che in generale tutti gli stati membri osservati, Europa a 15, mostrano avere un miglioramento verso i loro rispettivi target dal 2005. Durante gli anni osservati si è notato che il range temporale 2005 e 2008 sembra essere stato il periodo dove gli stati hanno rallentato maggiormente la loro crescita di performance, con poi un buon miglioramento nell'anno finale. Questo miglioramento è stato indagato ed è risultato essere coincidente con l'anno di inizio della crisi economica. Inoltre si sono osservate buone relazioni tra il GDP e gli indicatori che hanno contribuito alla diminuzione delle performance, ma il range di riferimento non molto ampio, non ha permesso di definire la reale correlazione tra il GDP e il consumo energetico ed il GDP e l'investimento in ricerca e sviluppo.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

L’obiettivo di questo lavoro è il calcolo del fattore di struttura R che può essere adottato in funzione delle caratteristiche della struttura: periodo naturale T, duttilità richiesta mu_r ed indice di smorzamento csi. Il modello adottato per rappresentare la struttura è l’oscillatore semplice elastico - perfettamente plastico. Operativamente, scelto un sisma registrato, si considera una struttura caratterizzata da un determinato periodo T e, a parità di livello di sicurezza (cioè a parità di duttilità richiesta), tramite un procedimento iterativo si procede al calcolo di R_5 relativo ad uno smorzamento pari al 5% e di R_csi relativo ad un generico smorzamento csi>5%; il confronto fra questi due valori è espresso dal parametro alpha_csi=R_csi/R_5. I risultati ottenuti dal calcolo vengono inseriti in un database. A seguire vengono implementate una serie di analisi (anche di tipo statistico) sui dati raccolti nel database per comprendere l’influenza delle varie caratteristiche della struttura sul valore del fattore di riduzione delle forze sismiche.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Oggi, grazie al continuo progredire della tecnologia, in tutti i sistemi di produzione industriali si trova almeno un macchinario che permette di automatizzare determinate operazioni. Alcuni di questi macchinari hanno un sistema di visione industriale (machine vision), che permette loro di osservare ed analizzare ciò che li circonda, dotato di algoritmi in grado di operare alcune scelte in maniera automatica. D’altra parte, il continuo progresso tecnologico che caratterizza la realizzazione di sensori di visione, ottiche e, nell’insieme, di telecamere, consente una sempre più precisa e accurata acquisizione della scena inquadrata. Oggi, esigenze di mercato fanno si che sia diventato necessario che macchinari dotati dei moderni sistemi di visione permettano di fare misure morfometriche e dimensionali non a contatto. Ma le difficoltà annesse alla progettazione ed alla realizzazione su larga scala di sistemi di visione industriali che facciano misure dimensioni non a contatto, con sensori 2D, fanno sì che in tutto il mondo il numero di aziende che producono questo tipo di macchinari sia estremamente esiguo. A fronte di capacità di calcolo avanzate, questi macchinari necessitano dell’intervento di un operatore per selezionare quali parti dell’immagine acquisita siano d’interesse e, spesso, anche di indicare cosa misurare in esse. Questa tesi è stata sviluppata in sinergia con una di queste aziende, che produce alcuni macchinari per le misure automatiche di pezzi meccanici. Attualmente, nell’immagine del pezzo meccanico vengono manualmente indicate le forme su cui effettuare misure. Lo scopo di questo lavoro è quello di studiare e prototipare un algoritmo che fosse in grado di rilevare e interpretare forme geometriche note, analizzando l’immagine acquisita dalla scansione di un pezzo meccanico. Le difficoltà affrontate sono tipiche dei problemi del “mondo reale” e riguardano tutti i passaggi tipici dell’elaborazione di immagini, dalla “pulitura” dell’immagine acquisita, alla sua binarizzazione fino, ovviamente, alla parte di analisi del contorno ed identificazione di forme caratteristiche. Per raggiungere l’obiettivo, sono state utilizzate tecniche di elaborazione d’immagine che hanno permesso di interpretare nell'immagine scansionata dalla macchina tutte le forme note che ci siamo preposti di interpretare. L’algoritmo si è dimostrato molto robusto nell'interpretazione dei diametri e degli spallamenti trovando, infatti, in tutti i benchmark utilizzati tutte le forme di questo tipo, mentre è meno robusto nella determinazione di lati obliqui e archi di circonferenza a causa del loro campionamento non lineare.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Negli ultimi anni si è sviluppata una forte sensibilità nei confronti del rischio che il dissesto idrogeologico comporta per il territorio, soprattutto in un paese come il nostro, densamente abitato e geologicamente fragile. Il rischio idrogeologico In Italia infatti è diffuso in modo capillare e si presenta in modo differente a seconda dell’assetto geomorfologico del territorio. Tra i fattori naturali che predispongono il nostro territorio a frane ed alluvioni, rientra la conformazione geologica e geomorfologica, caratterizzata da un’orografia giovane e da rilievi in via di sollevamento. A seguito del verificarsi di una serie di eventi calamitosi (Piemonte 1994, Campania 1998 e 1999, Sovereto 2000, Alpi centrali 2000 e 2002) sono state emanate leggi specifiche finalizzate all’individuazione e all’applicazione di norme, volte a prevenire e contenere i gravi effetti derivanti dai fenomeni di dissesto. Si fa riferimento in particolare, alle leggi n°267 del 3/08/1998 e 365/2000 che hanno integrato la legge 183/1989. In questo modo gli enti territoriali (Regioni, Autorità di bacino) sono stati obbligati a predisporre una adeguata cartografia con perimetrazione delle aree a differente pericolosità e rischio. Parallelamente continuano ad essere intrapresi, promossi e finanziati numerosi studi scientifici volti allo studio dei fenomeni ed alla definizione più puntuale delle condizioni di rischio, oltre alle iniziative volte alla creazione di un efficace sistema di allertamento e di sorveglianza dei fenomeni e alla messa a punto di una pianificazione di emergenza volta a coordinare in modo efficace la risposta delle istituzioni agli eventi. In questo contesto gli studi su validi approcci metodologici per l’analisi e la valutazione del rischio possono fornire un supporto al processo decisionale delle autorità preposte alla gestione del territorio, identificando gli scenari di rischio e le possibili strategie di mitigazione, e individuando la soluzione migliore in termini di accettabilità sociale e convenienza economica. Nel presente elaborato si vuole descrivere i temi relativi alla valutazione della pericolosità, del rischio e della sua gestione, con particolare attenzione ai fenomeni di instabilità dei versanti e nello specifico ai fenomeni di crollo da pareti rocciose che interessano il territorio della Provincia Autonoma di Bolzano. Il fenomeno della caduta massi infatti è comunemente diffuso in tutte le regioni di montagna e lungo le falesie costiere, ed in funzione dell’elevata velocità con cui si manifesta può costituire una costante fonte di pericolo per le vite, i beni e le attività umane in zone generalmente molto attive dal punto di vista del turismo e delle grandi vie di comunicazione. Il territorio della Provincia Autonoma di Bolzano è fortemente interessato da questo problema, sia per la morfologia montuosa della provincia che per le infrastrutture che sempre più occupano zone di territorio un tempo poco urbanizzate. Al fine di pervenire ad una legittima programmazione delle attività di previsione e prevenzione, il Dipartimento dei Lavori Pubblici della Provincia, ha scelto di utilizzare una strategia che prevedesse un insieme di attività dirette allo studio ed alla determinazione delle cause dei fenomeni calamitosi, alla identificazione dei rischi, ed alla determinazione delle zone del territorio soggette ai rischi stessi. E’ nato così, con l’operatività dell’Ufficio Geologia e Prove Materiali, il supporto del Dipartimento Opere Pubbliche e della Ripartizione Protezione Civile e la collaborazione scientifica del DISTART – Università degli Studi di Bologna, Alma Mater Studiorum, il progetto VISO che riguarda i pericoli generati da frane di crollo, ribaltamento, scivolamento di porzioni di pareti rocciose e caduta massi. Il progetto ha come scopo la valutazione del pericolo, della vulnerabilità e del rischio e dell’effettiva funzionalità delle opere di protezione contro la caduta massi lungo la strada statale del Brennero. Il presente elaborato mostra l’iter per l’individuazione del rischio specifico che caratterizza un particolare tratto stradale, così come è stato pensato dalla Provincia Autonoma di Bolzano all’interno di una strategia di previsione e prevenzione, basata su metodi il più possibile oggettivi, ed estesa all’intera rete stradale di competenza provinciale. Si esamina l’uso di metodologie diverse per calcolare l’intensità di un fenomeno franoso che potrebbe potenzialmente svilupparsi su un versante e si osserva in che modo la presenza di opere di protezione passiva influisce sull’analisi di pericolosità. Nel primo capitolo viene presentata una panoramica sui fenomeni di crollo descrivendo i fattori principali che li originano e gli interventi di protezione posti a difesa del versante. Si esaminano brevemente le tipologie di intervento, classificate in opere attive e passive, con particolare attenzione alle barriere paramassi., che si collocano tra gli interventi di difesa passivi e che stanno diventando il tipo di intervento più frequentemente utilizzato. Nel capitolo vengono descritte dal punto di vista progettuale, prendendo in esame anche la normativa di riferimento nonché le nuove linee guida per la certificazione CE delle barriere, nate negli ultimi anni per portare ad una facile comparabilità dei vari prodotti sottoposti ad impatti normalizzati, definendo con chiarezza i livelli energetici ai quali possono essere utilizzati i vari prodotti e, nel contempo, fornendo informazioni assolutamente indispensabili per la buona progettazione degli stessi. Nel capitolo successivo si prendono in esame i temi relativi alla valutazione della pericolosità e del rischio, l’iter procedurale di analisi del rischio adottato dalla Provincia Autonoma di Bolzano in relazione alle frane da crollo che investono le strade della rete provinciale ed in particolare viene descritto il progetto VISO (Viability Information Operating System), nato allo scopo di implementare un catasto informatizzato che raccolga indicazioni sul patrimonio delle opere di protezione contro la caduta massi e di rilevare e valutare il pericolo, la vulnerabilità, il rischio e l’effettiva funzionalità delle opere di protezione contro la caduta massi lungo le strade statali e provinciali. All’interno dello stesso capitolo si espone come, nell’ambito del progetto VISO e grazie alla nascita del progetto europeo Paramount ” (Improved accessibility reliability and safety of Alpine tran sport infrastructure related to mountainous hazard in a changing climate) si è provveduto, con l’aiuto di una collega del corso di laurea, a raccogliere i dati relativi all’installazione delle barriere paramassi sul territorio della Provincia Autonoma di Bolzano. Grazie ad un’analisi di archivio effettuata all’interno delle diverse sedi del servizio strade della Provincia Autonoma di Bolzano, si è presa visione (laddove presenti) delle schede tecniche delle barriere collocate sul territorio, si sono integrati i dettagli costruttivi contattando le principali ditte fornitrici e si è proceduto con una classificazione delle opere, identificando alcuni modelli di “barriere-tipo che sono stati inseriti nel database PARAMOUNT, già creato per il progetto VISO. Si è proseguito associando a tali modelli le barriere provviste di documentazione fotografica rilevate in precedenza dall’istituto di Geologia della Provincia Autonoma di Bolzano e inserite in VISO e si è valutata la corrispondenza dei modelli creati, andando a verificare sul posto che le barriere presenti sul territorio ed inserite nel database (tramite modello), effettivamente coincidessero, nelle misure e per le caratteristiche geometrico-costruttive, ai modelli a cui erano state associate. Inoltre sono stati considerati i danni tipici a cui può essere soggetta una barriera paramassi durante il suo periodo di esercizio poiché tali difetti andranno ad incidere sulla valutazione dell’utilità del sistema di difesa e di conseguenza sulla valutazione della pericolosità del versante(H*). Nel terzo capitolo si è esposta una possibile integrazione, mediante il software di calcolo RocFall, della procedura di valutazione dell’analisi di pericolosità di un versante utilizzata nell’ambito del progetto VISO e già analizzata in dettaglio nel secondo capitolo. Il software RocFall utilizza un metodo lumped mass su schema bidimensionale basato su ipotesi semplificative e consente di effettuare simulazioni probabilistiche di fenomeni di caduta massi, offrendo importanti informazioni sull’energia che si sviluppa durante il crollo, sulle velocità raggiunte e sulle altezze di rimbalzo lungo tutto il versante considerato, nonché sulla distanza di arresto dei singoli massi. Si sono realizzati dei profili-tipo da associare al versante, considerando il pendio suddiviso in tre parti : parete verticale (H = 100 m) lungo la quale si sviluppa il movimento franoso; pendio di altezza H = 100 m e angolo pari ai quattro valori medi della pendenza indicati nella scheda di campagna; strada (L = 10 m). Utilizzando il software Cad si sono realizzati 16 profili associando la pendenza media del versante a 4 morfologie individuate grazie all’esperienza dell’Istituto di Geologia e Prove materiali della Provincia Autonoma di Bolzano; si è proceduto importando tali profili in RocFall dove sono state aggiunte informazioni riguardanti la massa del blocco e l’uso del suolo, ottenendo 256 profili-tipo ai quali è stata associata una sigla definita come segue : morfologia (1, 2, 3, 4) _ pendenza (37, 53, 67, 83 gradi) _ uso del suolo (A, B, C, D) _ massa (a,b,c,d). Fissando i parametri corrispondenti al peso del masso ( inserito al solo scopo di calcolare la velocità rotazionale e l’energia cinetica ) e considerando, per ogni simulazione, un numero di traiettorie possibili pari a 1000, avendo osservato che all’aumentare di tale numero (purchè sufficientemente elevato) non si riscontrano variazioni sostanziali nei risultati dell’analisi, si è valutato come i parametri uso del suolo (A;B;C;D), morfologia (1;2;3;4) e pendenza (37°;53°;67°;83°) incidano sulla variazione di energia cinetica, di altezza di rimbalzo e sulla percentuale di massi che raggiunge la strada, scegliendo come punto di riferimento il punto di intersezione tra il pendio e la strada. Al fine di realizzare un confronto tra un profilo reale e un profilo-tipo, sono stati utilizzati 4 profili posti su un versante situato nel Comune di Laives, noto per le frequenti cadute di massi che hanno raggiunto in molti casi la strada. Tali profili sono stati visionati in sede di sopralluogo dove si è provveduto alla compilazione delle schede di campagna (impiegate per valutare l’intensità del fenomeno che potenzialmente si sviluppa dal versante) e all’individuazione dei profili-tipo corrispondenti. Sono state effettuate analisi di simulazione per entrambe le tipologie di profilo, e sono stati confrontati i risultati ottenuti in termini di Energia cinetica; altezza di rimbalzo e percentuale dei blocchi in corrispondenza della strada. I profili reali sono stati importati in RocFal in seguito ad estrapolazione dal modello digitale del terreno (ottenuto da analisi con Laser Scanner) utilizzando l’ estensione Easy Profiler nel software Arcmap. Infine si è valutata la possibilità di collocare eventuali barriere paramassi su un profilo reale, si è proceduto effettuando una analisi di simulazione di caduta massi in RocFall, importando in excel i valori corrispondenti all’andamento dei massimi dell’Energia cinetica e dell’altezza di rimbalzo lungo il pendio che forniscono una buona indicazione circa l´idonea ubicazione delle opere di protezione.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Fra le varie ragioni della crescente pervasività di Internet in molteplici settori di mercato del tutto estranei all’ICT, va senza dubbio evidenziata la possibilità di creare canali di comunicazione attraverso i quali poter comandare un sistema e ricevere da esso informazioni di qualsiasi genere, qualunque distanza separi controllato e controllore. Nel caso specifico, il contesto applicativo è l’automotive: in collaborazione col Dipartimento di Ingegneria Elettrica dell’Università di Bologna, ci si è occupati del problema di rendere disponibile a distanza la grande quantità di dati che i vari sotto-sistemi componenti una automobile elettrica si scambiano fra loro, sia legati al tipo di propulsione, elettrico appunto, come i livelli di carica delle batterie o la temperatura dell’inverter, sia di natura meccanica, come i giri motore. L’obiettivo è quello di permettere all’utente (sia esso il progettista, il tecnico riparatore o semplicemente il proprietario) il monitoraggio e la supervisione dello stato del mezzo da remoto nelle sue varie fasi di vita: dai test eseguiti su prototipo in laboratorio, alla messa in strada, alla manutenzione ordinaria e straordinaria. L’approccio individuato è stato quello di collezionare e memorizzare in un archivio centralizzato, raggiungibile via Internet, tutti i dati necessari. Il sistema di elaborazione a bordo richiede di essere facilmente integrabile, quindi di piccole dimensioni, e a basso costo, dovendo prevedere la produzione di molti veicoli; ha inoltre compiti ben definiti e noti a priori. Data la situazione, si è quindi scelto di usare un sistema embedded, cioè un sistema elettronico di elaborazione progettato per svolgere un limitato numero di funzionalità specifiche sottoposte a vincoli temporali e/o economici. Apparati di questo tipo sono denominati “special purpose”, in opposizione ai sistemi di utilità generica detti “general purpose” quali, ad esempio, i personal computer, proprio per la loro capacità di eseguire ripetutamente un’azione a costo contenuto, tramite un giusto compromesso fra hardware dedicato e software, chiamato in questo caso “firmware”. I sistemi embedded hanno subito nel corso del tempo una profonda evoluzione tecnologica, che li ha portati da semplici microcontrollori in grado di svolgere limitate operazioni di calcolo a strutture complesse in grado di interfacciarsi a un gran numero di sensori e attuatori esterni oltre che a molte tecnologie di comunicazione. Nel caso in esame, si è scelto di affidarsi alla piattaforma open-source Arduino; essa è composta da un circuito stampato che integra un microcontrollore Atmel da programmare attraverso interfaccia seriale, chiamata Arduino board, ed offre nativamente numerose funzionalità, quali ingressi e uscite digitali e analogici, supporto per SPI, I2C ed altro; inoltre, per aumentare le possibilità d’utilizzo, può essere posta in comunicazione con schede elettroniche esterne, dette shield, progettate per le più disparate applicazioni, quali controllo di motori elettrici, gps, interfacciamento con bus di campo quale ad esempio CAN, tecnologie di rete come Ethernet, Bluetooth, ZigBee, etc. L’hardware è open-source, ovvero gli schemi elettrici sono liberamente disponibili e utilizzabili così come gran parte del software e della documentazione; questo ha permesso una grande diffusione di questo frame work, portando a numerosi vantaggi: abbassamento del costo, ambienti di sviluppo multi-piattaforma, notevole quantità di documentazione e, soprattutto, continua evoluzione ed aggiornamento hardware e software. È stato quindi possibile interfacciarsi alla centralina del veicolo prelevando i messaggi necessari dal bus CAN e collezionare tutti i valori che dovevano essere archiviati. Data la notevole mole di dati da elaborare, si è scelto di dividere il sistema in due parti separate: un primo nodo, denominato Master, è incaricato di prelevare dall’autovettura i parametri, di associarvi i dati GPS (velocità, tempo e posizione) prelevati al momento della lettura e di inviare il tutto a un secondo nodo, denominato Slave, che si occupa di creare un canale di comunicazione attraverso la rete Internet per raggiungere il database. La denominazione scelta di Master e Slave riflette la scelta fatta per il protocollo di comunicazione fra i due nodi Arduino, ovvero l’I2C, che consente la comunicazione seriale fra dispositivi attraverso la designazione di un “master” e di un arbitrario numero di “slave”. La suddivisione dei compiti fra due nodi permette di distribuire il carico di lavoro con evidenti vantaggi in termini di affidabilità e prestazioni. Del progetto si sono occupate due Tesi di Laurea Magistrale; la presente si occupa del dispositivo Slave e del database. Avendo l’obiettivo di accedere al database da ovunque, si è scelto di appoggiarsi alla rete Internet, alla quale si ha oggi facile accesso da gran parte del mondo. Questo ha fatto sì che la scelta della tecnologia da usare per il database ricadesse su un web server che da un lato raccoglie i dati provenienti dall’autovettura e dall’altro ne permette un’agevole consultazione. Anch’esso è stato implementato con software open-source: si tratta, infatti, di una web application in linguaggio php che riceve, sotto forma di richieste HTTP di tipo GET oppure POST, i dati dal dispositivo Slave e provvede a salvarli, opportunamente formattati, in un database MySQL. Questo impone però che, per dialogare con il web server, il nodo Slave debba implementare tutti i livelli dello stack protocollare di Internet. Due differenti shield realizzano quindi il livello di collegamento, disponibile sia via cavo sia wireless, rispettivamente attraverso l’implementazione in un caso del protocollo Ethernet, nell’altro della connessione GPRS. A questo si appoggiano i protocolli TCP/IP che provvedono a trasportare al database i dati ricevuti dal dispositivo Master sotto forma di messaggi HTTP. Sono descritti approfonditamente il sistema veicolare da controllare e il sistema controllore; i firmware utilizzati per realizzare le funzioni dello Slave con tecnologia Ethernet e con tecnologia GPRS; la web application e il database; infine, sono presentati i risultati delle simulazioni e dei test svolti sul campo nel laboratorio DIE.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Il presente lavoro si occupa dell’analisi numerica di combustione di gas a basso potere calorifico (gas di sintesi derivanti da pirolisi di biomasse). L’analisi è stata condotta su due principali geometrie di camera di combustione. La prima è un bruciatore sperimentale da laboratorio adatto allo studio delle proprietà di combustione del singas. Esso è introdotto in camera separatamente rispetto ad una corrente d’aria comburente al fine di realizzare una combustione non-premiscelata diffusiva in presenza di swirl. La seconda geometria presa in considerazione è la camera di combustione anulare installata sulla microturbina a gas Elliott TA 80 per la quale si dispone di un modello installato al banco al fine dell’esecuzione di prove sperimentali. I principali obbiettivi conseguiti nello studio sono stati la determinazione numerica del campo di moto a freddo su entrambe le geometrie per poi realizzare simulazioni in combustione mediante l’utilizzo di diversi modelli di combustione. In particolare è stato approfondito lo studio dei modelli steady laminar flamelet ed unsteady flamelet con cui sono state esaminate le distribuzioni di temperatura e delle grandezze tipiche di combustione in camera, confrontando i risultati numerici ottenuti con altri modelli di combustione (Eddy Dissipation ed ED-FR) e con i dati sperimentali a disposizione. Di importanza fondamentale è stata l’analisi delle emissioni inquinanti, realizzata per entrambe le geometrie, che mostra l’entità di tali emissioni e la loro tipologia. Relativamente a questo punto, il maggior interesse si sposta sui risultati ottenuti numericamente nel caso della microturbina, per la quale sono a disposizione misure di emissione ottenute sperimentalmente. Sempre per questa geometria è stato inoltre eseguito il confronto fra microturbina alimentata con singas a confronto con le prestazioni emissive ottenute con il gas naturale. Nel corso dei tre anni, l’esecuzione delle simulazioni e l’analisi critica dei risultati ha suggerito alcuni limiti e semplificazioni eseguite sulle griglie di calcolo realizzate per lo studio numerico. Al fine di eliminare o limitare le semplificazioni o le inesattezze, le geometrie dei combustori e le griglie di calcolo sono state migliorate ed ottimizzate. In merito alle simulazioni realizzate sulla geometria del combustore della microturbina Elliott TA 80 è stata condotta dapprima l’analisi numerica di combustione a pieno carico per poi analizzare le prestazioni ai carichi parziali. Il tutto appoggiandosi a tecniche di simulazione RANS ed ipotizzando alimentazioni a gas naturale e singas derivato da biomasse. Nell’ultimo anno di dottorato è stato dedicato tempo all’approfondimento e allo studio della tecnica Large Eddy Simulation per testarne una applicazione alla geometria del bruciatore sperimentale di laboratorio. In tale simulazione è stato implementato l’SGS model di Smagorinsky-Lilly completo di combustione con modelli flamelet. Dai risultati sono stati estrapolati i profili di temperatura a confronto con i risultati sperimentali e con i risultati RANS. Il tutto in diverse simulazioni a diverso valore del time-step imposto. L’analisi LES, per quanto migliorabile, ha fornito risultati sufficientemente precisi lasciando per il futuro la possibilità di approfondire nuovi modelli adatti all’applicazione diretta sulla MTG.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Tesi svolta presso l'azienda “Riba composites S.r.l.” con lo scopo di riprogettare una passerella nautica utilizzata in imbarcazioni a vela da competizione, attualmente realizzata mediante formatura in autoclave di tessuti pre-impregnati, per il processo produttivo di Vacuum Assisted Resin Injection (VARI). La formatura in autoclave di tessuti pre-­impregnati è una delle tecnologie più onerose, tra i vari processi produttivi nel settore dei materiali compositi, ma assicura proprietà meccaniche e livelli estetici superlativi. L’obiettivo della Riba Composites è ridurre i costi di produzione per offrire un prodotto dalle proprietà analoghe a un prezzo più competitivo. Nella fase di riprogettazione ci siamo affidati a un software di calcolo agli elementi finiti che simula il processo del VARI, l’applicativo PAM-­RTM, del gruppo ESI. Al fine di ottenere una simulazione quanto più precisa possibile del processo, abbiamo realizzato molteplici prove sperimentali per ricavare i valori di compressibilità e permeabilità dei rinforzi da inserire nel software FEM.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Negli ultimi anni si sente sempre più spesso parlare di cloud computing. L'idea di fondo di questo concetto è quella di pagare per il solo effettivo utilizzo di un servizio, disponibile sulla rete, avendo a disposizione la possibilità di poter variare le proprie risorse utilizzabili a seconda delle necessità, che potrebbero essere, per esempio, applicazioni standard oppure spazi di storage per i dati. Quando cominciò a diffondersi l'utilizzo del Web, la rete Internet veniva raffigurata come una nuvola (cloud) in modo tale che si rendesse l'idea di un'entità esterna rispetto alla nostra casa o al nostro posto di lavoro, un qualcosa cioè al di fuori dei luoghi abituali in cui vengono utilizzati i PC. Tale rappresentazione diventa ora utile per poter spiegare il concetto di cloud computing. Infatti, grazie a questa nuova tecnologia, dati e programmi normalmente presenti nei nostri computer potranno ora trovarsi sul cloud. Molti reparti IT sono costretti a dedicare una parte significativa del loro tempo a progetti di implementazione, manutenzione e upgrade che spesso non danno un vero valore per l'azienda. I team di sviluppo hanno cominciato quindi a rivolgersi a questa nuova tecnologia emergente per poter minimizzare il tempo dedicato ad attività a basso valore aggiunto per potersi concentrare su quelle attività strategiche che possono fare la differenza per un'azienda. Infatti un'infrastruttura come quella cloud computing promette risparmi nei costi amministrativi che raggiungono addirittura il 50% rispetto ad un software standard di tipo client/server. Questa nuova tecnologia sta dando inizio ad un cambiamento epocale nel mondo dello sviluppo delle applicazioni. Il passaggio che si sta effettuando verso le nuove soluzioni cloud computing consente infatti di creare applicazioni solide in tempi decisamente più brevi e con costi assai inferiori, evitando inoltre tutte le seccature associate a server, soluzioni software singole, aggiornamenti, senza contare il personale necessario a gestire tutto questo. L'obiettivo di questa tesi è quello di mostrare una panoramica della progettazione e dello sviluppo di applicazioni Web nel cloud computing, analizzandone pregi e difetti in relazione alle soluzioni software attuali. Nel primo capitolo viene mostrato un quadro generale in riferimento al cloud, mettendo in luce le sue caratteristiche fondamentali, esaminando la sua architettura e valutando vantaggi e svantaggi di tale piattaforma. Nel secondo capitolo viene presentata la nuova metodologia di progettazione nel cloud, operando prima di tutto un confronto con lo sviluppo dei software standard e analizzando poi l'impatto che il cloud computing opera sulla progettazione. Nel terzo capitolo si entra nel merito della progettazione e sviluppo di applicazioni SaaS, specificandone le caratteristiche comuni ed elencando le piattaforme di rilievo allo stato dell'arte. Si entrerà inoltre nel merito della piattaforma Windows Azure. Nel quarto capitolo viene analizzato nel particolare lo sviluppo di applicazioni SaaS Multi-Tenant, specificando livelli e caratteristiche, fino a spiegare le architetture metadata-driven. Nel quinto capitolo viene operato un confronto tra due possibili approcci di sviluppo di un software cloud, analizzando nello specifico le loro differenze a livello di requisiti non funzionali. Nel sesto capitolo, infine, viene effettuata una panoramica dei costi di progettazione di un'applicazione cloud.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

La vera identità di un individuo è un'informazione molto preziosa. In generale le persone non hanno particolari remore a rivelare la propria identità e il riconoscimento non rappresenta un problema; l'unica motivazione che può portare un individuo a nascondere la propria identità è l'elusione dei rilevamenti delle forze dell'ordine per un certo tipo di attività criminale. In questi casi, risulta difficile procedere al riconoscimento attraverso caratteristiche biometriche come iride o impronte digitali, in quanto la loro acquisizione presuppone un certo grado di collaborazione da parte del soggetto. Il volto, invece, può essere ottenuto in modo segreto, non solo attraverso le ben note telecamere di videosorveglianza ma anche attraverso la ricostruzione fornita da un eventuale testimone oculare che assiste all'evento criminoso. Quest'ultimo, attraverso la descrizione verbale del sospettato e con l'ausilio delle capacità di un disegnatore, fornisce un contributo per la costruzione di un identikit o sketch del soggetto, favorendo quindi il processo di individuazione dell'identità del malvivente. Solitamente, una volta prodotto lo sketch, si effettua un confronto visivo con le fotografie segnaletiche già in possesso degli inquirenti e memorizzate all'interno di un'ipotetica banca dati. Tale confronto viene eseguito 'manualmente' da persone incaricate, comportando un inevitabile spreco di tempo; dotarsi di un sistema automatico in grado di ricercare la foto del sospettato più somigliante allo sketch a partire da quelle presenti all'interno di un database potrebbe aiutare le forze di polizia in una più celere individuazione del colpevole. Purtroppo, i metodi presenti allo stato dell'arte sul riconoscimento facciale non consentono un confronto diretto: fotografia e disegno sono due rappresentazioni del volto molto differenti in termini di ricchezza di dettagli e tessitura e pertanto non direttamente confrontabili. L'obiettivo del progetto di tesi è quello di esplorare una nuova strategia di valutazione automatica della similarità tra uno sketch e una fotografia consistente principalmente in un'analisi della conformazione dei volti, mediante estrazione dei contorni e calcolo di apposite feature.