1000 resultados para Aderenza Modelli Pseudoslittamenti Translohr Metropolitane Monorotaie
Resumo:
The laser driven ion acceleration is a burgeoning field of resarch and is attracting a growing number of scientists since the first results reported in 2000 obtained irradiating thin solid foils by high power laser pulses. The growing interest is driven by the peculiar characteristics of the produced bunches, the compactness of the whole accelerating system and the very short accelerating length of this all-optical accelerators. A fervent theoretical and experimental work has been done since then. An important part of the theoretical study is done by means of numerical simulations and the most widely used technique exploits PIC codes (“Particle In Cell'”). In this thesis the PIC code AlaDyn, developed by our research group considering innovative algorithms, is described. My work has been devoted to the developement of the code and the investigation of the laser driven ion acceleration for different target configurations. Two target configurations for the proton acceleration are presented together with the results of the 2D and 3D numerical investigation. One target configuration consists of a solid foil with a low density layer attached on the irradiated side. The nearly critical plasma of the foam layer allows a very high energy absorption by the target and an increase of the proton energy up to a factor 3, when compared to the ``pure'' TNSA configuration. The differences of the regime with respect to the standard TNSA are described The case of nearly critical density targets has been investigated with 3D simulations. In this case the laser travels throughout the plasma and exits on the rear side. During the propagation, the laser drills a channel and induce a magnetic vortex that expanding on the rear side of the targer is source of a very intense electric field. The protons of the plasma are strongly accelerated up to energies of 100 MeV using a 200PW laser.
Resumo:
Il patrimonio edilizio italiano è costituito in gran parte da costruzioni che utilizzano la muratura come struttura portante. Le conoscenze acquisite negli ultimi anni nel campo dell’ingegneria hanno reso evidente come le costruzioni in muratura siano state concepite, nel corso dei secoli, senza quegli accorgimenti che l’evoluzione delle tecniche moderne di analisi ha dimostrato essere necessari. Progettare un intervento edilizio su un edificio esistente, correlato anche alla valutazione di rischio sismico, e cercare di migliorare le prestazioni dello stesso edificio, richiede partire sempre dalla conoscenza delle caratteristiche statiche intrinseche che il materiale della muratura possiede. La conoscenza della patologia comporta l'indubbio vantaggio di mettere al corrente di cosa ci si può attendere nel futuro dal punto di vista strutturale, come ad esempio che il fenomeno non sarà eliminabile all'origine e che la fessura o lesione magari si riformerà sempre, a meno d’interventi statici rilevanti e di costi ingenti. Diventa quindi di fondamentale importanza eseguire uno studio approfondito dei fenomeni strutturali anomali di deterioramento, quali lesioni, fessurazioni e simili, legati spesso a fattori ambientali, attraverso specifiche indagini diagnostiche e di monitoraggio dello stato interno delle strutture, per definire le cause responsabili e il metodo più adeguato alla tutela dei beni storici [Mastrodicasa, 1993]. Il monitoraggio dei possibili parametri che influenzano tali processi può essere continuo nel tempo o per mezzo di metodologia discontinua che prevede l’utilizzo e la ripetizione di prove non distruttive. L’elevato costo di un eventuale processo continuo ha limitato significativamente la sua applicazione, riducendo lo studio all’analisi di pochi parametri derivanti dalle prove diagnostiche e spesso non del tutto adatti alla completa analisi della struttura. Il seguente lavoro di tesi è sviluppato all’interno del progetto SmooHS (Smart Monitoring of Historic Structures) nell’ambito del 7° Programma Quadro della Commissione Europea che si pone come obiettivo lo sviluppo di strumenti di monitoraggio innovativi ‘intelligenti’ e poco invasivi e modelli di degrado e la loro sperimentazione sul campo per verificarne l’effettiva efficacia attraverso il confronto con risultati di prove non distruttive. La normativa correlata a questo studio, “Norme Tecniche per le Costruzioni’ (D.M. 14/01/2008), evidenzia come ‘La conoscenza della costruzione storica in muratura è un presupposto fondamentale sia ai fini di un’attendibile valutazione della sicurezza sismica attuale sia per la scelta di un efficace intervento di miglioramento…. Si ha pertanto la necessità di affinare tecniche di analisi e interpretazione dei manufatti storici mediante fasi conoscitive dal diverso grado di attendibilità, anche in relazione al loro impatto. La conoscenza può, infatti, essere conseguita con diversi livelli di approfondimento, in funzione dell’accuratezza delle operazioni di rilievo, delle ricerche storiche, e delle indagini sperimentali. Tali operazioni saranno funzione degli obiettivi preposti e andranno a interessare tutto o in parte l’edificio, secondo la tipologia dell’intervento previsto’. L’utilizzo di ‘Tecniche diagnostiche non distruttive di tipo indiretto, quali prove soniche e ultrasoniche’ è preferibile poiché molto promettenti e hanno il pregio di poter essere utilizzate in modo diffuso con un relativo impatto sulla costruzione e costi relativamente contenuti. La non identificazione di una procedura univoca di prove non distruttive per ciascuna tipologia edilizia rende necessario uno studio di fattibilità di diverse tecniche per valutarne l’effettiva efficacia in base al risultato atteso. L’obiettivo di questo lavoro di tesi è stato lo studio sperimentale di valutazione dell’efficacia di alcune tecniche soniche in trasmissione, tomografia e prove soniche dirette, nel monitoraggio di provini precedentemente realizzati ad hoc nei laboratori LISG (Laboratorio di Ingegneria Strutturale e Geotecnica) del DICAM dell’Università di Bologna caratterizzati da presenze di discontinuità (vacui o inclusioni di polistirolo) o materiali differenti in determinate posizioni di geometria e localizzazione nota e diverse tessiture murarie (muratura di laterizio tradizionale, muratura a sacco, inclusioni lapidee). Il capitolo 1 presenta una descrizione generale delle murature, le cause principali di deterioramento e conseguenti dissesti. Presenta inoltre una finestra sulle prove diagnostiche. Nel capitolo 2 sono riportati alcuni esempi di applicazioni di tomografia e prove soniche e sviluppi di ricerca su strutture storiche lignee e murarie eseguite recentemente. Nel capitolo 3 sono presentati i provini oggetto di studio, la loro geometria, i difetti, le sezioni. Il capitolo 4 descrive i principi fisici delle prove soniche e grandezze caratteristiche e presenta la procedura di acquisizione e relative strumentazioni. I capitoli 5 e 6 riguardano lo studio sperimentale vero e proprio ottenuto attraverso l’utilizzo di tomografia sonica e prove dirette, con descrizione delle stazioni di prova, visualizzazione dei dati in tabelle per una semplice interpretazione, loro elaborazione e susseguente analisi approfondita, con valutazione dei risultati ottenuti e debite conclusioni. Il capitolo 7 presenta un confronto delle analisi comuni a entrambe le tipologie di prove soniche, visualizzazioni di istogrammi di paragone e considerazioni deducibili.
Resumo:
L’evoluzione dei sensori multispettrali e la prospettiva di sviluppo dei sensori iperspettrali nel campo del telerilevamento ottico offrono nuovi strumenti per l’indagine del territorio e rinnovano la necessità di ridefinire potenzialità, limiti e accuratezza delle metodologie tradizionali. Nel caso delle immagini iperspettrali, in particolare, l’elevatissima risoluzione spettrale apre nuove possibilità di sviluppo di modelli fisicamente basati per correlare grandezze radiometriche con indicatori fisico-chimici caratteristici delle superfici osservate, a prezzo però di maggiori oneri nella gestione del dato. Il presente lavoro mira appunto ad esaminare, per alcune applicazioni di carattere ambientale e attraverso casi di studio specifici, le criticità del problema del rilevamento da remoto nel suo complesso: dai problemi di correzione radiometrica delle immagini, all'acquisizione di dati di calibrazione sul campo, infine all'estrazione delle informazioni di interesse dal dato telerilevato. A tal fine sono stati sperimentati diversi modelli di trasferimento radiativo ed è stata sviluppata un’interfaccia per la gestione del modello 6SV. Per quest’ultimo sono state inoltre sviluppate routine specifiche per il supporto dei sensori Hyperion e World View 2. La ricerca svolta intende quindi offrire un contributo alla definizione di procedure operative ripetibili, per alcune applicazioni intimamente connesse all’indagine conoscitiva ed al monitoraggio dei processi in atto sul territorio. Nello specifico, si è scelto il caso di studio dell’oasi del Fayyum, in Egitto, per valutare il contenuto informativo delle immagini satellitari sotto tre diversi profili, soltanto in apparenza distinti: la classificazione della litologia superficiale, la valutazione dello stato di qualità delle acque ed il monitoraggio delle opere di bonifica. Trattandosi di un’oasi, le aree coltivate del Fayyum sono circondate dai suoli aridi del deserto libico. La mancanza di copertura vegetale rappresenta una condizione privilegiata per l’osservazione della litologia superficiale da remoto, auspicabile anche per la scarsa accessibilità di alcune aree. Il fabbisogno idrico dell’oasi è garantito dall’apporto di acque del fiume Nilo attraverso una rete di irrigazione che ha, come recettore finale, il lago Qarun, situato nella porzione più depressa dell’oasi. Questo lago, privo di emissari, soffre enormi problemi di salinizzazione, visto il clima iper-arido in cui si trova, e di inquinamento da fertilizzanti agricoli. Il problema della sostenibilità ambientale dello sfruttamento agricolo intensivo dell’oasi è un problema di deterioramento della qualità dell’acqua e della qualità dei suoli. È un problema che richiede una adeguata conoscenza del contesto geologico in cui questi terreni sono inseriti ed una capacità di monitoraggio degli interventi di bonifica ed estensione delle coltivazioni in atto; entrambe conoscenze necessarie alla definizione di un piano di sviluppo economico sostenibile. Con l’intento di contribuire ad una valutazione delle effettive potenzialità del telerilevamento come strumento di informazione territoriale, sono state sperimentate tecniche di classificazione di immagini multispettrali ASTER ed iperspettrali Hyperion di archivio per discriminare la litologia superficiale sulle aree adiacenti al lago Qarun nell’oasi del Fayyum. Le stesse immagini Hyperion di archivio più altre appositamente acquisite sono state utilizzate, assieme ad immagini multispettrali ALI, per la valutazione qualitativa e quantitativa di parametri di qualità delle acque, attraverso l’applicazione di modelli empirici di correlazione. Infine, per valutare l’ipotesi che il deterioramento della qualità delle acque possa essere correlato ai processi di bonifica ed estensione delle coltivazioni in atto negli ultimi decenni, le immagini dell’archivio Landsat sono state utilizzate per analisi di change detection. Per quanto riguarda il problema della validazione dei risultati, si è fatto uso di alcuni dati di verità a terra acquisiti nel corso di un survey preliminare effettuato nell’Ottobre 2010. I campioni di roccia prelevati e le misure di conducibilità elettrica delle acque del lago, benché in numero estremamente limitato per la brevità della missione e le ovvie difficoltà logistiche, consentono alcune valutazioni preliminari sui prodotti ottenuti dalle elaborazioni. Sui campioni di roccia e sabbie sciolte, in particolare, sono state effettuate misure di riflettività in laboratorio ed analisi mineralogiche dettagliate. Per la valutazione della qualità delle acque, più precisamente delle concentrazioni di clorofilla, la metodologia utilizzata per il caso di studio egiziano è stata applicata anche sul tratto costiero adriatico antistante le foci dei fiumi Tronto e Salinello. In questo sito sono state effettuate misure in situ di conducibilità elettrica ed il prelievo di campioni di acqua per la determinazione in laboratorio delle concentrazioni di clorofilla. I risultati ottenuti hanno evidenziato le potenzialità offerte dall’informazione spettrale contenuta nelle immagini satellitari e consentono l’individuazione di alcune pratiche operative. D’altro canto hanno anche messo in luce le carenze dei modelli attualmente esistenti, nonché le criticità legate alla correzione atmosferica delle grandezze radiometriche rilevate.
Resumo:
La mia attività di tesi è stata svolta presso CEFLA Dental Group di Imola (BO). Essa ha trattato lo studio e il re-engineering del sistema attuale di imballaggio dei riuniti odontoiatrici ( vedi CAP 2 ),ponendo particolare attenzione all’utilizzo di materiali ecosostenibili e alla riduzione di tempi e costi. Il mio lavoro è stato suddiviso in quattro fasi ben distinte: la prima, all’interno dell’area produttiva, è servita per analizzare in dettaglio le varie fasi di montaggio dei gruppi e sottogruppi di alcuni modelli di riuniti dentali scelti come riferimento. A seguire, affiancato a operatori specializzati, ho assistito alle operazioni di imballaggio, stoccaggio in magazzino e carico. Nella seconda fase, ho raccolto anche una serie di informazioni utili all’analisi, tra cui i costi dei vari elementi dell’imballo, i tempi necessari all’operatore e infine lo storico dei reclami degli ultimi anni. Ho poi selezionato gli aspetti critici più ricorrenti. Durante la terza fase, ho eseguito la vera e propria analisi, proponendo alcune soluzioni di miglioramento. Infine nell’ultima fase ho valutato economicamente le varie soluzioni ipotizzate, focalizzandomi inoltre sui tempi di manodopera.
Resumo:
Introduzione Una delle maggiori difficoltà durante la produzione dei prodotti surgelati riguarda la loro stabilizzazione e il mantenimento della catena del freddo durante tutte le fasi del processo produttivo. Tramite il seguente lavoro si propone di determinare a che temperatura e dopo quanto tempo, diverse tipologie di confezioni di surgelati (pisellini, melanzane e spinaci), raggiungono la temperatura ipotetica di inizio di scongelamento. Con lo scopo di analizzare, in maniera rapida ed economica, molte diverse combinazioni di tempo - temperatura dell’ambiente di produzione di diverse tipologie di prodotti surgelati (pisellini, melanzane e spinaci), sono stati sviluppati dei modelli numerici capaci di descrivere i fenomeni termici che intervengono durante il confezionamento dei prodotti. Materiali e Metodi Il modello sviluppatotiene conto sia dei fenomeni di convezione naturale che avvengono tra la superficie della confezione e il flusso esterno di aria, sia dei fenomeni di conduzione che interessano l'interno della confezione, la confezione (busta) ed il piano di appoggio. In figura vengono schematizzati i fenomeni termici presi in esame. La geometria del modelli rispecchia le reali dimensioni delle confezioni dei prodotti presi in esame. La mesh dei modelli 3D è costituita da elementi triangolari, posizionati sulle boundaries, tetraedrici e prismatici, posizionati in tutto il restante dominio. Trattandosi di trasferimenti di calore per superfici, nelle zone di interfaccia è stata adottata una mesh particolarmente fine. In figura viene riportata la mesh dell'intera geometria ed un particolare della mesh interna dove, i diversi colori indicano elementi tetraedrici o prismatici di diverse dimensioni. Per ottenere un accurato modello numerico è necessario descrivere nel modo più realistico possibile i materiali coinvolti, quindi è stato necessario descrivere i prodotti surgelati tramite le loro reali proprietà termiche in funzione della temperatura (conducibilità termica, calore specifico, diffusività termica). I valori delle proprietà termiche utilizzati nel modello tengono conto del fatto che il materiale interno alla busta è poroso, infatti è costituito da una "miscela" di aria e prodotto Successivamente sono state impostate le equazioni del modello e le condizioni al contorno. All'interno del volume della confezione, il trasfermiento del calore avviene per conduzione, mentre sulla superficie avviene per convezione, nelle zone esposte all'aria e per contatto nelle zone di contatto tra confezione e piano di appoggio. La validazione è stata effettuata riproducendo numericamente le medesime condizioni utilizzate durante la sperimentazione. I parametri tenuti in considerazione sono i seguenti: tipologia di confezione (definita numericamente dai parametri dimensionali), tipologia di prodotto (contraddistinto da specifiche proprietà termo-fisiche), temperatura della cella di conservazione, tempo di conservazione, temperatura iniziale all'interno della confezione pari. Risultati In figura viene riportato un esempio di configurazione dell’andamento della temperatura all’interno della confezione di pisellini dopo 20 minuti di condizionamento a 5°C. E’ possibile osservare che la temperatura della parte di confezione a diretto contatto con il piano di acciaio, raggiunge zero gradi (zona rossa), mentre la parte centrale della confezione si mantiene sui -22°C (zona blu). Con lo scopo di simulare la conservazione della confezione posizionata verticalmente, è stata eliminata la condizione di contatto tra piano d'acciaio e confezione. E’ possibile osservare che, in questo caso, la variazione della temperatura nei diversi punti della confezione è meno elevata, infatti la temperatura massima registrata è pari a circa -8°C (zona rossa), mentre la parte centrale della confezione si mantiene sui -22°C (zona blu). La confezione di melanzane è risultata essere la meno adatta al mantenimento della temperatura in quanto è caratterizzata da un ampia area di contatto con il piano e da uno spessore abbastanza limitato; la confezione che mantiene la temperatura più a lungo è quella costituita dagli spinaci, anche se le temperature medie delle confezioni di spinaci e pisellini sono pressoché simili. A fronte dei risultati ottenuti confrontando gli andamenti della temperatura delle tre differenti confezione, è stato valutato l'effetto del volume della confezione sull'andamento della temperatura media e al centro della confezione. Le prove sono state effettuate dimezzando e aumentando del doppio il volume della confezione di pisellini. Differenze significative sono state riscontrate solo tra la confezione standard e quella con volume raddoppiato. Dalla validazione sperimentale è risultato che il modello che meglio si adatta ai dati sperimentali è quello relativo ai pisellini, probabilmente perché il prodotto all'interno della confezione è distribuito in maniera piuttosto uniforme. Nelle confezioni degli spinaci e delle melanzane, risulta molto più difficile definire un valore di porosità che può variare anche da busta a busta. Tuttavia, a fronte di questa variabilità, i modelli risultano essere adatti ad un uso industriale. Conclusioni -I modelli numerici sviluppati permettono di analizzare un numero arbitrario di combinazioni delle variabili durata del confezionamento, temperatura ambiente, temperatura iniziale del prodotto, forma e dimensioni della confezione. - Il modello permette di osservare il campo di temperatura con un grado di dettaglio irraggiungibile dalle tecniche sperimentali. -I risultati, in forma integrale, si trovano in ottimo accordo con quelli osservati sperimentalmente.
Resumo:
La ricerca oggetto della tesi dottorale ha riguardato l’analisi della problematica relativa ai cambiamenti provocati dalla diversificazione delle attività aziendali bancarie nell'ottica tributaria. Si è individuato nella composizione del reddito imponibile il fulcro centrale del lavoro. Data la grande importanza del mercato finanziario la presente ricerca si è proposta una valutazione dell’attività bancaria tradizionale, facendo un’analisi della relativa fiscalità. In particolare si è cercato di evidenziare il momento in cui la banca è diventata un’azienda molto più complessa e moderna di quella che era originariamente. Tale cambiamento ha così richiesto un corrispondente sviluppo della tecnica giuridica tributaria di riferimento. Si sono altresì analizzate le fasi della implementazione e dello sviluppo nell’ordinamento tributario italiano ed europeo (analizzando così le difficoltà di adattamento per i modelli di Civil Law e Common Law) dell'armonizzazione giuridico/contabile europea e dell’adozione dei principi IAS/IFRS. A tal fine si sono ripercorse le fasi anteriori all’adozione dei menzionati principi e la loro evoluzione e, nel farlo, si sono fissati i punti ove sembra sia necessario un ripensamento da parte del legislatore comunitario. Il tutto è stato sviluppato senza trascurare la giurisprudenza nazionale e della Corte di Giustizia europea, in modo tale da tentare di individuare le soluzioni alle nuove sfide che il diritto tributario comunitario si trova a fronteggiare.
Resumo:
Lo scopo di questa tesi di dottorato di ricerca consiste nel fornire la giusta collocazione della manutenzione fra le discipline dell'ingegneria, raccogliendo e formalizzando le metodologie di analisi di affidabilità e di pianificazione degli interventi all'interno di un unico processo di progettazione e di controllo. In linea di principio, un processo di analisi dei guasti e di programmazione della manutenzione deve essere in grado di fornire chiare e sicure risposte ai seguenti interrogativi: Quali sono le funzioni richieste e con quali criteri di prestazioni il sistema è chiamato ad assolverle? Qual'è l'andamento della disponibilità del sistema in funzione del tempo? Quanti guasti e di quale tipo si possono verificare durante la vita del sistema? Quali possono essere le conseguenze che ledono la sicurezza e la protezione ambientale? Quanti pezzi di ricambio sono necessari? Che tipo di interventi di manutenzione preventiva risultano tecnicamente fattibili? A quali scadenze devono essere programmati? A quanto ammonta la previsione del costo di esercizio del sistema? Quante squadre di manutenzione devono essere assegnate al sistema? Come deve essere organizzata la logistica di manutenzione? Con quali tecniche si prevede di riconoscere i guasti e quali procedure devono essere attivate per farvi fronte? E' possibile implementare tecniche di `condition monitoring' delle macchine? Su quali tempi di preavviso sui guasti si può contare? In tal senso, la manutenzione necessita delle tecniche e degli opportuni strumenti che siano in grado di misurarne l'efficacia e l'efficienza. L'efficacia in primo luogo, in quanto l'obiettivo principe consiste nel garantire che il sistema oggetto di studio continui a svolgere le proprie funzioni nei limiti di prestazioni accettabili, secondo le specifiche richieste degli utilizzatori. L'efficienza in secondo luogo, ma non per questo di minore importanza, in quanto perseguendo l'obiettivo di cui sopra, occorre impegnare il minimo di risorse possibili, organizzando con razionalità il supporto logistico del sistema al fine di raggiungere i massimi livelli di rendimento di gestione. La migliore strategia di manutenzione può essere pianificata, a priori, solo se si è in grado di prevedere con la necessaria precisione l'evoluzione del sistema nel suo contesto operativo futuro. E' allora possibile formulare un modello matematico del sistema, studiarne la dinamica ed osservare le reazioni alla simulazione di eventuali stimoli esterni. I metodi ed i modelli noti dell'ingegneria dei sistemi possono essere molto utili per la risoluzione di casi semplici, ma sovente richiedono la formulazione di ipotesi troppo restrittive che aumentano in modo inaccettabile la distanza del modello dalla realtà. Una strada alternativa ed affascinante, che ho percorso con entusiasmo durante questi tre anni di studi e ricerca, consiste nella simulazione numerica della vita del sistema, utilizzando il metodo Monte Carlo per la gestione dei processi stocastici di guasto e per l'esecuzione degli interventi di manutenzione. Ho quindi messo a punto il codice di simulazione RAMSES, perseguendo l'idea di costruire uno strumento di misura dell'efficacia e dell'efficienza di una politica di manutenzione simulata al calcolatore. Nella tesi si presentano i concetti di base dell'ingegneria dei sistemi applicata al caso della manutenzione e si introduce il formalismo della Reliability Centred Maintenance come miglior guida nella pianificazione delle schede di manutenzione. Si introducono le nozioni di base per fornire una struttura solida e corretta alla simulazione numerica dei sistemi riparabili e si presenta il codice RAMSES corredando le informazioni tecniche con i dovuti esempi ed applicazioni pratiche. Si conclude il lavoro, infine, con la presentazione di un modello di massima verosimiglianza particolarmente utile per le analisi dei dati sperimentali di guasto dei componenti.
Resumo:
Three published papers are resumed in this thesis. Different aspects of the semiclassical theory of gravity are discussed. In chapter 1 we find a new perturbative (yet analytical) solution to the unsolved problem of the metric junction between two Friedmann-Robertson-Walker using Israel's formalism. The case of an expanding radiation core inside an expanding or collapsing dust exterior is treated. This model can be useful in the "landscape" cosmology in string theory or for treating new gravastar configurations. In chapter 2 we investigate the possible use of the Kodama vector field as a substitute for the Killing vector field. In particular we find the response function of an Unruh detector following an (accelerated) Kodama trajectory. The detector has finite extension and backreaction is considered. In chapter 3 we study the possible creation of microscopic black holes at LHC in the brane world model. It is found that the black hole tidal charge has a fundamental role in preventing the formation of the horizon.
Resumo:
Il lavoro presentato ha come oggetto la ricostruzione tridimensionale della città di Bologna nella sua fase rinascimentale. Tale lavoro vuole fornire un modello 3D delle architetture e degli spazi urbani utilizzabile sia per scopi di ricerca nell’ambito della storia delle città sia per un uso didattico-divulgativo nel settore del turismo culturale. La base del lavoro è una fonte iconografica di grande importanza: l’affresco raffigurante Bologna risalente al 1575 e situato in Vaticano; questa è una veduta a volo d’uccello di grandi dimensioni dell’intero tessuto urbano bolognese all’interno della terza cerchia di mura. In esso sono rappresentate in maniera particolareggiata le architetture civili e ecclesiastiche, gli spazi ortivi e cortilivi interni agli isolati e alcune importanti strutture urbane presenti in città alla fine del Cinquecento, come l’area portuale e i canali interni alla città, oggi non più visibili. La ricostruzione tridimensionale è stata realizzata tramite Blender, software per la modellazione 3D opensource, attraverso le fasi di modellazione, texturing e creazione materiali (mediante campionamento delle principali cromie presenti nell’affresco), illuminazione e animazione. Una parte della modellazione è stata poi testata all’interno di un GIS per verificare l’utilizzo delle geometrie 3D come elementi collegabili ad altre fonti storiche relative allo sviluppo urbano e quindi sfruttabili per la ricerca storica. Grande attenzione infine è stata data all’uso dei modelli virtuali a scopo didattico-divulgativo e per il turismo culturale. La modellazione è stata utilizzata all’interno di un motore grafico 3D per costruire un ambiente virtuale interattivo nel quale un utente anche non esperto possa muoversi per esplorare gli spazi urbani della Bologna del Cinquecento. In ultimo è stato impostato lo sviluppo di un’applicazione per sistemi mobile (Iphone e Ipad) al fine di fornire uno strumento per la conoscenza della città storica in mobilità, attraverso la comparazione dello stato attuale con quello ricostruito virtualmente.
Resumo:
Il medulloblastoma (MB) è il tumore più comune del sistema nervoso centrale. Attualmente si riesce a curare solo il 50-60% dei pazienti che tuttavia presentano gravi effetti collaterali dovuti alle cure molto aggressive. Una recente classificazione molecolare ha ridistribuito le varianti più comuni di MB in quattro distinti gruppi. In particolare, il gruppo SHH e D sono caratterizzati da un’ alta espressione di MYCN ed associati a prognosi sfavorevole. MYCN è coinvolto nella regolazione della proliferazione cellulare, differenziazione, apoptosi, angiogenesi e metastasi. L’obiettivo di questo lavoro è la valutazione dell’attività antitumorale di oligonucleotidi diretti contro MYCN, sia in vitro su diverse linee cellulari di MB che in vivo in modelli murini xenograft ortotopici di MB. I risultati hanno dimostrato un’ottima inibizione della crescita in linee cellulari di MB, accompagnata da una riduzione della trascrizione genica e dei livelli proteici di MYCN. Inoltre, sono stati confermati tramite RT-PCR alcuni dei geni trovati significativamente variati nell’esperimento di microarray , dopo il trattamento. Molto interessanti sono stati geni quali BIRC5, che risulta down regolato mentre il gene p21 risulta up regolato in tutte le linee cellulari di MB utilizzate. Inoltre, sono stati generati modelli murini di MB utilizzando cellule precedentemente trasfettate per esprimere il gene della luciferasi e valutarne così la crescita tumorale tramite imaging bioluminescente in vivo (BLI), al fine di poter testare l’attività antitumorale data dagli oligonucleotidi. I risultati hanno dimostrato una buona risposta al trattamento come rilevato dalla tecnica di BLI. I dati preliminari prodotti, dimostrano che MYCN potrebbe esser un buon target per la terapia del MB nei casi in cui è overespresso. In particolare, una sua inibizione potrebbe presentare effetti indesiderati moderati in quanto è poco espresso dopo la nascita.
Resumo:
Il termine cloud ha origine dal mondo delle telecomunicazioni quando i provider iniziarono ad utilizzare servizi basati su reti virtuali private (VPN) per la comunicazione dei dati. Il cloud computing ha a che fare con la computazione, il software, l’accesso ai dati e servizi di memorizzazione in modo tale che l’utente finale non abbia idea della posizione fisica dei dati e la configurazione del sistema in cui risiedono. Il cloud computing è un recente trend nel mondo IT che muove la computazione e i dati lontano dai desktop e dai pc portatili portandoli in larghi data centers. La definizione di cloud computing data dal NIST dice che il cloud computing è un modello che permette accesso di rete on-demand a un pool condiviso di risorse computazionali che può essere rapidamente utilizzato e rilasciato con sforzo di gestione ed interazione con il provider del servizio minimi. Con la proliferazione a larga scala di Internet nel mondo le applicazioni ora possono essere distribuite come servizi tramite Internet; come risultato, i costi complessivi di questi servizi vengono abbattuti. L’obbiettivo principale del cloud computing è utilizzare meglio risorse distribuite, combinarle assieme per raggiungere un throughput più elevato e risolvere problemi di computazione su larga scala. Le aziende che si appoggiano ai servizi cloud risparmiano su costi di infrastruttura e mantenimento di risorse computazionali poichè trasferiscono questo aspetto al provider; in questo modo le aziende si possono occupare esclusivamente del business di loro interesse. Mano a mano che il cloud computing diventa più popolare, vengono esposte preoccupazioni riguardo i problemi di sicurezza introdotti con l’utilizzo di questo nuovo modello. Le caratteristiche di questo nuovo modello di deployment differiscono ampiamente da quelle delle architetture tradizionali, e i meccanismi di sicurezza tradizionali risultano inefficienti o inutili. Il cloud computing offre molti benefici ma è anche più vulnerabile a minacce. Ci sono molte sfide e rischi nel cloud computing che aumentano la minaccia della compromissione dei dati. Queste preoccupazioni rendono le aziende restie dall’adoperare soluzioni di cloud computing, rallentandone la diffusione. Negli anni recenti molti sforzi sono andati nella ricerca sulla sicurezza degli ambienti cloud, sulla classificazione delle minacce e sull’analisi di rischio; purtroppo i problemi del cloud sono di vario livello e non esiste una soluzione univoca. Dopo aver presentato una breve introduzione sul cloud computing in generale, l’obiettivo di questo elaborato è quello di fornire una panoramica sulle vulnerabilità principali del modello cloud in base alle sue caratteristiche, per poi effettuare una analisi di rischio dal punto di vista del cliente riguardo l’utilizzo del cloud. In questo modo valutando i rischi e le opportunità un cliente deve decidere se adottare una soluzione di tipo cloud. Alla fine verrà presentato un framework che mira a risolvere un particolare problema, quello del traffico malevolo sulla rete cloud. L’elaborato è strutturato nel modo seguente: nel primo capitolo verrà data una panoramica del cloud computing, evidenziandone caratteristiche, architettura, modelli di servizio, modelli di deployment ed eventuali problemi riguardo il cloud. Nel secondo capitolo verrà data una introduzione alla sicurezza in ambito informatico per poi passare nello specifico alla sicurezza nel modello di cloud computing. Verranno considerate le vulnerabilità derivanti dalle tecnologie e dalle caratteristiche che enucleano il cloud, per poi passare ad una analisi dei rischi. I rischi sono di diversa natura, da quelli prettamente tecnologici a quelli derivanti da questioni legali o amministrative, fino a quelli non specifici al cloud ma che lo riguardano comunque. Per ogni rischio verranno elencati i beni afflitti in caso di attacco e verrà espresso un livello di rischio che va dal basso fino al molto alto. Ogni rischio dovrà essere messo in conto con le opportunità che l’aspetto da cui quel rischio nasce offre. Nell’ultimo capitolo verrà illustrato un framework per la protezione della rete interna del cloud, installando un Intrusion Detection System con pattern recognition e anomaly detection.
Resumo:
I sistemi di drenaggio urbano meritano particolare attenzione per l’importante compito che devono garantire all’interno della società. L’allontanamento delle acque reflue dalle zone urbanizzate infatti è indispensabile per non creare problemi ed interferenze con attività sociali ed economiche che in esse si svolgono; inoltre un corretto funzionamento del sistema di drenaggio assicura anche un basso impatto ambientale in termini di qualità e quantità. La disponibilità di nuove tecnologie costruttive e materiali in continua evoluzione devono fare fronte alla crescente complessità idraulica, geotecnica e urbanistica delle strutture componenti i sistemi di drenaggio; in tale elaborato si vuole porre l’accento sul problema dello smaltimento delle acque meteoriche nelle zone densamente urbanizzate, la cui soluzione è costituita dall'adozione delle cosiddette BMP (Best Management Practices). Le BMP sono definite come strategie, pratiche o metodi per la rimozione, la riduzione, il ritardo o la prevenzione della quantità di costituenti inquinanti e contaminanti delle acque di pioggia, prima che giungano nei corpi idrici ricettori. Tra esse ricordiamo le cisterne o rain barrels, i pozzi asciutti, i sistemi drywell, le vasche verdi filtranti, i tetti verdi, i canali infiltranti, i fossi di infiltrazione, i pozzi perdenti, i planting container, i canali inerbiti, i bacini di infiltrazione, le gross pullutant traps (gpts), gli stagni, i sistemi di fitodepurazione estensiva (sfe), le pavimentazioni drenanti. In Italia esse risultano ancora scarsamente studiate ed applicate, mentre trovano più ampio sviluppo in realtà estere come in Inghilterra ed in Australia. Per comprendere la efficacia di tali tecniche BMP è necessario analizzarle e, soprattutto, analizzare il loro effetto sul territorio in cui esse vengono inserite e sul regime idrogeologico dell’ambiente. Questa analisi può essere svolta con prove sperimentali su aree di controllo (soluzione economicamente gravosa) o attraverso modelli matematici tramite l’utilizzo di software di calcolo che simulino il comportamento delle portate, dei tiranti idrici e degli inquinanti nei canali e nelle strutture accessorie costituenti la rete fognaria, in conseguenza ad eventi di pioggia dei quali sia nota la distribuzione spaziale e temporale. In questo elaborato si modellizza attraverso il programma Matlab un unico elemento BMP e si osservano i suoi effetti; si procede cioè alla analisi del funzionamento di un ipotetico brown roof installato nella zona di Rimini e si osservano i benefici effetti che ne derivano in termini di volumi di pioggia trattenuti dal sistema considerando diverse tipologie di pioggia e diversi parametri progettuali per il tetto (i fori dello strato inferiore del tetto, la altezza dello strato di terreno, la sua permeabilità e la sua porosità). Si procede poi con la analisi di una ipotetica zona commerciale che sorge sulle sponde di un fiume. Tali analisi vengono svolte con il software HEC-RAS per quanto riguarda la analisi dei livelli del fiume e delle zone a rischio di inondazione. I risultati forniti da questo studio preliminare vengono poi utilizzati come condizioni al contorno per una successiva analisi effettuata con il software InfoWorks in cui si valutano i benefici che derivano dalla installazione di diverse BMP nella zona commerciale oggetto di studio. Tale modello esamina un verosimile scenario inglese, la cittadina infatti si ipotizza situata in Inghilterra e anche gli eventi pluviometrici a cui ci si riferisce sono tipici eventi di pioggia inglesi. Tutti i dati di input elaborati nelle simulazioni sono stati forniti all’interno di un progetto universitario svolto presso l’università di Bradford con la supervisione dei professori Simon Tait ed Alma Schellart. Infine la parte conclusiva dell’elaborato è stata sviluppata in collaborazione con Hera S.p.a. di Rimini all’interno di un percorso di tirocinio curriculare che ha previsto la analisi delle tecnologie BMP adatte per l’ambiente cittadino di Rimini e la osservazione delle performance garantite da tecnologie esistenti sul territorio: i parcheggi permeabili. La realtà riminese infatti deve far fronte a diversi problemi che si innescano durante i periodi di pioggia ed una mitigazione dei volumi di acqua in arrivo alla fognatura grazie a questo tipo di tecnologie, senza quindi ricorrere agli usuali sistemi puntuali, porterebbe sicuramente a notevoli vantaggi. Tali tecnologie però non devono solo essere progettate e costruite in modo corretto, ma devono essere sottoposte a periodici controlli ed adeguate operazioni di manutenzione per non perdere la loro efficacia. Per studiare tale aspetto si procede quindi alla misura della permeabilità di parcheggi drenanti presenti all’interno dei comuni di Cattolica e Rimini ricercando i fattori che influenzano tale caratteristica fondamentale dei parcheggi.