959 resultados para Impatto ambientale, Certificazione LEED, Risparmio energetico, Piastrelle ceramiche
Resumo:
Il patrimonio edilizio italiano è costituito in gran parte da costruzioni che utilizzano la muratura come struttura portante. Le conoscenze acquisite negli ultimi anni nel campo dell’ingegneria hanno reso evidente come le costruzioni in muratura siano state concepite, nel corso dei secoli, senza quegli accorgimenti che l’evoluzione delle tecniche moderne di analisi ha dimostrato essere necessari. Progettare un intervento edilizio su un edificio esistente, correlato anche alla valutazione di rischio sismico, e cercare di migliorare le prestazioni dello stesso edificio, richiede partire sempre dalla conoscenza delle caratteristiche statiche intrinseche che il materiale della muratura possiede. La conoscenza della patologia comporta l'indubbio vantaggio di mettere al corrente di cosa ci si può attendere nel futuro dal punto di vista strutturale, come ad esempio che il fenomeno non sarà eliminabile all'origine e che la fessura o lesione magari si riformerà sempre, a meno d’interventi statici rilevanti e di costi ingenti. Diventa quindi di fondamentale importanza eseguire uno studio approfondito dei fenomeni strutturali anomali di deterioramento, quali lesioni, fessurazioni e simili, legati spesso a fattori ambientali, attraverso specifiche indagini diagnostiche e di monitoraggio dello stato interno delle strutture, per definire le cause responsabili e il metodo più adeguato alla tutela dei beni storici [Mastrodicasa, 1993]. Il monitoraggio dei possibili parametri che influenzano tali processi può essere continuo nel tempo o per mezzo di metodologia discontinua che prevede l’utilizzo e la ripetizione di prove non distruttive. L’elevato costo di un eventuale processo continuo ha limitato significativamente la sua applicazione, riducendo lo studio all’analisi di pochi parametri derivanti dalle prove diagnostiche e spesso non del tutto adatti alla completa analisi della struttura. Il seguente lavoro di tesi è sviluppato all’interno del progetto SmooHS (Smart Monitoring of Historic Structures) nell’ambito del 7° Programma Quadro della Commissione Europea che si pone come obiettivo lo sviluppo di strumenti di monitoraggio innovativi ‘intelligenti’ e poco invasivi e modelli di degrado e la loro sperimentazione sul campo per verificarne l’effettiva efficacia attraverso il confronto con risultati di prove non distruttive. La normativa correlata a questo studio, “Norme Tecniche per le Costruzioni’ (D.M. 14/01/2008), evidenzia come ‘La conoscenza della costruzione storica in muratura è un presupposto fondamentale sia ai fini di un’attendibile valutazione della sicurezza sismica attuale sia per la scelta di un efficace intervento di miglioramento…. Si ha pertanto la necessità di affinare tecniche di analisi e interpretazione dei manufatti storici mediante fasi conoscitive dal diverso grado di attendibilità, anche in relazione al loro impatto. La conoscenza può, infatti, essere conseguita con diversi livelli di approfondimento, in funzione dell’accuratezza delle operazioni di rilievo, delle ricerche storiche, e delle indagini sperimentali. Tali operazioni saranno funzione degli obiettivi preposti e andranno a interessare tutto o in parte l’edificio, secondo la tipologia dell’intervento previsto’. L’utilizzo di ‘Tecniche diagnostiche non distruttive di tipo indiretto, quali prove soniche e ultrasoniche’ è preferibile poiché molto promettenti e hanno il pregio di poter essere utilizzate in modo diffuso con un relativo impatto sulla costruzione e costi relativamente contenuti. La non identificazione di una procedura univoca di prove non distruttive per ciascuna tipologia edilizia rende necessario uno studio di fattibilità di diverse tecniche per valutarne l’effettiva efficacia in base al risultato atteso. L’obiettivo di questo lavoro di tesi è stato lo studio sperimentale di valutazione dell’efficacia di alcune tecniche soniche in trasmissione, tomografia e prove soniche dirette, nel monitoraggio di provini precedentemente realizzati ad hoc nei laboratori LISG (Laboratorio di Ingegneria Strutturale e Geotecnica) del DICAM dell’Università di Bologna caratterizzati da presenze di discontinuità (vacui o inclusioni di polistirolo) o materiali differenti in determinate posizioni di geometria e localizzazione nota e diverse tessiture murarie (muratura di laterizio tradizionale, muratura a sacco, inclusioni lapidee). Il capitolo 1 presenta una descrizione generale delle murature, le cause principali di deterioramento e conseguenti dissesti. Presenta inoltre una finestra sulle prove diagnostiche. Nel capitolo 2 sono riportati alcuni esempi di applicazioni di tomografia e prove soniche e sviluppi di ricerca su strutture storiche lignee e murarie eseguite recentemente. Nel capitolo 3 sono presentati i provini oggetto di studio, la loro geometria, i difetti, le sezioni. Il capitolo 4 descrive i principi fisici delle prove soniche e grandezze caratteristiche e presenta la procedura di acquisizione e relative strumentazioni. I capitoli 5 e 6 riguardano lo studio sperimentale vero e proprio ottenuto attraverso l’utilizzo di tomografia sonica e prove dirette, con descrizione delle stazioni di prova, visualizzazione dei dati in tabelle per una semplice interpretazione, loro elaborazione e susseguente analisi approfondita, con valutazione dei risultati ottenuti e debite conclusioni. Il capitolo 7 presenta un confronto delle analisi comuni a entrambe le tipologie di prove soniche, visualizzazioni di istogrammi di paragone e considerazioni deducibili.
Resumo:
La necessità di raggiungere la sostenibilità ambientale delle produzioni industriali rappresenta un motore di sviluppo per innovative tecnologie impiantistiche e nuove filosofie produttive. Ad esempio, la necessità di promuovere lo smaltimento dei clorofluorocarburi, causa i loro dimostrati effetti dannosi sullo strato di ozono stratosferico, ha promosso lo sviluppo di nuovi processi industriali. In questo ambito ha acquisito sempre maggior importanza la reazione di idrodeclorurazione di clorofluorocarburi (CFC), in particolare rivolta alla produzione di idrocarburi fluorurati insaturi che mostrano caratteristiche interessanti per la produzione di polimeri con specifiche proprietà di resistenza meccanica, termica e chimica. In questo lavoro di tesi, svolto in collaborazione con SOLVAY SPECIALTY POLYMERS ITALY, sono stati studiati catalizzatori innovativi per la reazione di idrodeclorurazione del 1,2-dicloro-1,2,2-trifluoro-1-(triflurometossi)etano (AM) a 1,2,2-trifluoro-1-(trifluorometossi)etene (MVE).
Resumo:
During this internship, the α-alkylation of branched aldehydes was taken into consideration. An enantiopure Betti’s base derivative was used as catalyst, applying a new concept in catalysis: organocatalysis. The Betti’s base may be of particular interest for organic chemists working in the field of “reactions catalysed by enantiopure small organic molecules”, in particular for the ones interested in enantiopure primary amines. The potential of secondary amines as catalysts has certainly been known for years. It is indeed more innovative to conduct reactions using primary amine derivatives as catalyst. In this work, the efficacy of the primary amine was checked first. Then, the focus was set on finding optimal reaction conditions. Finally, to have a more complete picture of the structure of the compounds used in the project, experimental and computational IR spectra were compared, after the method was validated. Durante il periodo di tirocinio è stata presa in esame la reazione di α-alchilazione di aldeidi branched, utilizzando un derivato dell’ammina di Betti come catalizzatore enantiopuro ed applicando un nuovo tipo di catalisi: l’organocatalisi. Questi composti possono essere di particolare interesse per lavori in chimica organica, nel campo delle reazioni catalizzate da “piccole” molecole organiche, in particolare da ammine primarie a chiralità definita; la potenzialità delle ammine secondarie chirali come catalizzatori è certamente nota da anni, ma innovativo è condurre il tutto con l’impiego di un derivato amminico primario. Altri aspetti significativi sono gli apparenti e innumerevoli vantaggi, dal punto di vista economico ed ambientale, oltre che operativo e sintetico, derivanti dal nuovo tipo di catalisi. In un primo momento è stata verificata l’efficacia dell’ammina primaria sintetizzata nella reazione in progetto, quindi sono state individuate le condizioni di reazione ottimali. Infine, per un’analisi più completa di alcune molecole organiche e dopo un’opportuna validazione del metodo utilizzato, sono stati ottenuti a livello computazionale gli spettri IR delle molecole di sintesi prodotto e catalizzatore.
Resumo:
Lo scopo del lavoro è di seguire, attraverso la disamina di fonti edite e inedite, le particolarità che, in età moderna, caratterizzarono la “via veneziana” al riscatto dei sudditi veneti che fossero detenuti a vario titolo dai “turchi”, e soprattutto dagli stati «barbareschi» della costa settentrionale africana. In particolare, lo studio si propone di concentrarsi sull'azione dei Provveditori sopra ospedali e luoghi pii. Tale magistratura, formata da tre patrizi ed esistente fin dal 1561 per tutelare gli ospedali maggiori veneziani e le molte altre istituzioni di ricovero esistenti in città, e nel contempo vigilare sulla loro corretta gestione amministrativa ed economica, dal 1588 e fino alla caduta della Repubblica nel 1797 fu incaricata anche del riscatto, aggiungendo quindi alla propria precedente denominazione la formula e al riscatto degli schiavi. A un organo dello Stato veniva dunque assegnata una funzione di controllo e superiore organizzazione, volta ad evitare il disperdersi delle sollecitate donazioni private ed un’eventuale scorretta gestione delle stesse. Il lavoro si focalizza poi sulle modalità con cui avveniva materialmente il riscatto dei sudditi veneti, o “esteri” ma al servizio veneto, che versassero in una condizione di bisogno, seguendo l'azione degli intermediari (spesso mercanti, cristiani o ebrei, o consoli di varie nazioni) che vivevano o si recavano nel territorio delle Reggenze nordafricane e contrattavano il prezzo necessario. Infine la ricerca, concentrandosi sul XVIII secolo, mira a valutare il quadro dei rapporti tra il governo veneziano, la Scuola veneziana della Trinità, dedita al riscatto, e i padri Trinitari, stabilitisi nel 1723 negli Stati veneti. Solo abbastanza tardi, infatti, e per un limitato arco di anni (fino al 1735), anche Venezia, sulla scorta di quanto da tempo praticato da altre potenze europee, decise – per ragioni principalmente di risparmio – di affidarsi per la gestione delle operazioni di riscatto ai religiosi.
Resumo:
Il progetto descritto in questo documento consiste fondamentalmente nell'integrazione di applicazioni context-aware su dispositivi mobili con reti di sensori e nello studio delle problematiche derivanti, vantaggi e potenziali utilizzi. La rete è stata costruita sfruttando l'insieme di protocolli per comunicazioni via radio Zigbee, particolarmente adatti per interazione tra dispositivi a basso consumo energetico e che necessitano di uno scarso tasso di trasferimento di dati. Le informazioni ottenute da sensori di varia natura sono processate da microcontrollori Arduino, scelti per la loro versatilità di utilizzo e design open source. Uno o più dispositivi sono designati per aggregare i dati rilevati dai singoli nodi in un unico pacchetto di informazioni, semanticamente correlate tra loro, quindi emetterle in broadcast su una diversa interfaccia di rete, in modo che diverse applicazioni esterne in ascolto possano riceverle e manipolarle. Viene utilizzato un protocollo specifico per la comunicazione tra i microcontrollori e le applicazioni che si interfacciano con la rete, costruito su misura per dispositivi con risorse limitate. L'applicazione context-aware che interagisce con la rete è stata sviluppata su piattaforma Android, la cui particolare flessibilità favorisce una migliore capacità di gestire i dati ottenuti. Questa applicazione è in grado di comunicare con la rete, manipolare i dati ricevuti ed eventualmente intraprendere azioni specifiche in totale indipendenza dal suo utilizzatore. Obiettivo del progetto è quello di costruire un meccanismo di interazione tra le tecnologie più adattivo e funzionale possibile.
Resumo:
Numerose evidenze dimostrano che le proprietà dei materiali compositi sono strettamente legate ai processi produttivi, alle tipologie di fibra e resina impiegate nel materiale stesso. Proprietà caratterizzate anche dai difetti contenuti nel materiale stesso. Nella tesi si presta particolare attenzione al processo produttivo con prepreg e autoclave trattando anche il tema della stesura di un ply-book. Si valutano in modo teorico e critico alcuni tra i metodi N.D.T. più avanzati tra cui: P.T.(Penetrant Test), Rx(Radiography Test), UT (Ultrasound Test in Phased Array) e IRT (InfraRed Termography - Pulsata). Molteplici sono i componenti testati che variano tra loro per: tipologia di resina e fibra impiegata, processo produttivo e geometria. Tutti questi componenti permettono di capire come i singoli parametri influenzino la visualizzazione e l'applicabilità delle tecniche N.D.T. sopra citate. Su alcuni provini è stata eseguita la prova meccanica Drop Weight Test secondo ASTM D7136 per correlare le aree di delaminazione indotte e la sensibilità di ogni singolo metodo, visualizzando così la criticità indotta dagli urti con bassa energia di impatto (BVID Barely Invisible Impact)di cui i materiali compositi soffrono durante la "service life". A conclusione del lavoro si potrà comprendere come solo l'analisi con più metodi in parallelo permetta di ottenere una adeguata Probability Of Detection.
Resumo:
Lo scopo di questa tesi di dottorato di ricerca consiste nel fornire la giusta collocazione della manutenzione fra le discipline dell'ingegneria, raccogliendo e formalizzando le metodologie di analisi di affidabilità e di pianificazione degli interventi all'interno di un unico processo di progettazione e di controllo. In linea di principio, un processo di analisi dei guasti e di programmazione della manutenzione deve essere in grado di fornire chiare e sicure risposte ai seguenti interrogativi: Quali sono le funzioni richieste e con quali criteri di prestazioni il sistema è chiamato ad assolverle? Qual'è l'andamento della disponibilità del sistema in funzione del tempo? Quanti guasti e di quale tipo si possono verificare durante la vita del sistema? Quali possono essere le conseguenze che ledono la sicurezza e la protezione ambientale? Quanti pezzi di ricambio sono necessari? Che tipo di interventi di manutenzione preventiva risultano tecnicamente fattibili? A quali scadenze devono essere programmati? A quanto ammonta la previsione del costo di esercizio del sistema? Quante squadre di manutenzione devono essere assegnate al sistema? Come deve essere organizzata la logistica di manutenzione? Con quali tecniche si prevede di riconoscere i guasti e quali procedure devono essere attivate per farvi fronte? E' possibile implementare tecniche di `condition monitoring' delle macchine? Su quali tempi di preavviso sui guasti si può contare? In tal senso, la manutenzione necessita delle tecniche e degli opportuni strumenti che siano in grado di misurarne l'efficacia e l'efficienza. L'efficacia in primo luogo, in quanto l'obiettivo principe consiste nel garantire che il sistema oggetto di studio continui a svolgere le proprie funzioni nei limiti di prestazioni accettabili, secondo le specifiche richieste degli utilizzatori. L'efficienza in secondo luogo, ma non per questo di minore importanza, in quanto perseguendo l'obiettivo di cui sopra, occorre impegnare il minimo di risorse possibili, organizzando con razionalità il supporto logistico del sistema al fine di raggiungere i massimi livelli di rendimento di gestione. La migliore strategia di manutenzione può essere pianificata, a priori, solo se si è in grado di prevedere con la necessaria precisione l'evoluzione del sistema nel suo contesto operativo futuro. E' allora possibile formulare un modello matematico del sistema, studiarne la dinamica ed osservare le reazioni alla simulazione di eventuali stimoli esterni. I metodi ed i modelli noti dell'ingegneria dei sistemi possono essere molto utili per la risoluzione di casi semplici, ma sovente richiedono la formulazione di ipotesi troppo restrittive che aumentano in modo inaccettabile la distanza del modello dalla realtà. Una strada alternativa ed affascinante, che ho percorso con entusiasmo durante questi tre anni di studi e ricerca, consiste nella simulazione numerica della vita del sistema, utilizzando il metodo Monte Carlo per la gestione dei processi stocastici di guasto e per l'esecuzione degli interventi di manutenzione. Ho quindi messo a punto il codice di simulazione RAMSES, perseguendo l'idea di costruire uno strumento di misura dell'efficacia e dell'efficienza di una politica di manutenzione simulata al calcolatore. Nella tesi si presentano i concetti di base dell'ingegneria dei sistemi applicata al caso della manutenzione e si introduce il formalismo della Reliability Centred Maintenance come miglior guida nella pianificazione delle schede di manutenzione. Si introducono le nozioni di base per fornire una struttura solida e corretta alla simulazione numerica dei sistemi riparabili e si presenta il codice RAMSES corredando le informazioni tecniche con i dovuti esempi ed applicazioni pratiche. Si conclude il lavoro, infine, con la presentazione di un modello di massima verosimiglianza particolarmente utile per le analisi dei dati sperimentali di guasto dei componenti.
Resumo:
L’obiettivo di questo studio è di fornire indicazioni ai partner del progetto ITALICI, il cui scopo comune è quello di realizzare tamponamenti con certificazione “strutturale”. Questi ultimi, fornendo sufficiente resistenza e dissipazione attraverso il corretto impasto di malta e dei blocchi unitamente alla giusta forma, permetterebbero una progettazione delle strutture più efficace e meno dispendiosa.
Resumo:
Traditional morphological examinations are not anymore sufficient for a complete evaluation of tumoral tissue and the use of neoplastic markers is of utmost importance. Neoplastic markers can be classified in: diagnostic, prognostic and predictive markers. Three markers were analyzed. 1) Insulin-like growth factor binding protein 2 (IGFBP2) was immunohistochemically examined in prostatic tissues: 40 radical prostatectomies from hormonally untreated patients with their preoperative biopsies, 10 radical prostatectomies from patients under complete androgen ablation before surgery and 10 simple prostatectomies from patients with bladder outlet obstruction. Results were compared with α-methylacyl-CoA racemase (AMACR). IGFBP2 was expressed in the cytoplasm of untreated adenocarcinomas and, to a lesser extent, in HG-PIN; the expression was markedly lower in patients after complete androgen ablation. AMACR was similarly expressed in both adenocarcinoma and HG-PIN, the level being similar in both lesions; the expression was slightly lower in patients after complete androgen ablation. IGFBP2 may be used a diagnostic marker of prostatic adenocarcinomas. 2) Heparan surface proteoglycan immunohistochemical expression was examined in 150 oral squamous cell carcinomas. Follow up information was available in 93 patients (range: 6-34 months, mean: 19±7). After surgery, chemotherapy was performed in 8 patients and radiotherapy in 61 patients. Multivariate and univariate overall survival analyses showed that high expression of syndecan-1 (SYN-1) was associated with a poor prognosis. In patients treated with radiotherapy, such association was higher. SYN-1 is a prognostic marker in oral squamous cell carcinomas; it may also represent a predictive factor for responsiveness to radiotherapy. 3) EGFR was studied in 33 pulmonary adenocarcinomas with traditional DNA sequencing methods and with two mutation-specific antibodies. Overall, the two antibodies had 61.1% sensitivity and 100% specificity in detecting EGFR mutations. EGFR mutation-specific antibodies may represent a predictive marker to identify patients candidate to tyrosine kinase inhibitors therapy.
Resumo:
La tesi di Dottorato studia il flusso sanguigno tramite un codice agli elementi finiti (COMSOL Multiphysics). Nell’arteria è presente un catetere Doppler (in posizione concentrica o decentrata rispetto all’asse di simmetria) o di stenosi di varia forma ed estensione. Le arterie sono solidi cilindrici rigidi, elastici o iperelastici. Le arterie hanno diametri di 6 mm, 5 mm, 4 mm e 2 mm. Il flusso ematico è in regime laminare stazionario e transitorio, ed il sangue è un fluido non-Newtoniano di Casson, modificato secondo la formulazione di Gonzales & Moraga. Le analisi numeriche sono realizzate in domini tridimensionali e bidimensionali, in quest’ultimo caso analizzando l’interazione fluido-strutturale. Nei casi tridimensionali, le arterie (simulazioni fluidodinamiche) sono infinitamente rigide: ricavato il campo di pressione si procede quindi all’analisi strutturale, per determinare le variazioni di sezione e la permanenza del disturbo sul flusso. La portata sanguigna è determinata nei casi tridimensionali con catetere individuando tre valori (massimo, minimo e medio); mentre per i casi 2D e tridimensionali con arterie stenotiche la legge di pressione riproduce l’impulso ematico. La mesh è triangolare (2D) o tetraedrica (3D), infittita alla parete ed a valle dell’ostacolo, per catturare le ricircolazioni. Alla tesi sono allegate due appendici, che studiano con codici CFD la trasmissione del calore in microcanali e l’ evaporazione di gocce d’acqua in sistemi non confinati. La fluidodinamica nei microcanali è analoga all’emodinamica nei capillari. Il metodo Euleriano-Lagrangiano (simulazioni dell’evaporazione) schematizza la natura mista del sangue. La parte inerente ai microcanali analizza il transitorio a seguito dell’applicazione di un flusso termico variabile nel tempo, variando velocità in ingresso e dimensioni del microcanale. L’indagine sull’evaporazione di gocce è un’analisi parametrica in 3D, che esamina il peso del singolo parametro (temperatura esterna, diametro iniziale, umidità relativa, velocità iniziale, coefficiente di diffusione) per individuare quello che influenza maggiormente il fenomeno.
Resumo:
Uno dei temi più discussi ed interessanti nel mondo dell’informatica al giorno d’oggi è sicuramente il Cloud Computing. Nuove organizzazioni che offrono servizi di questo tipo stanno nascendo ovunque e molte aziende oggi desiderano imparare ad utilizzarli, migrando i loro centri di dati e le loro applicazioni nel Cloud. Ciò sta avvenendo anche grazie alla spinta sempre più forte che stanno imprimendo le grandi compagnie nella comunità informatica: Google, Amazon, Microsoft, Apple e tante altre ancora parlano sempre più frequentemente di Cloud Computing e si stanno a loro volta ristrutturando profondamente per poter offrire servizi Cloud adeguandosi così a questo grande cambiamento che sta avvenendo nel settore dell’informatica. Tuttavia il grande movimento di energie, capitali, investimenti ed interesse che l’avvento del Cloud Computing sta causando non aiuta a comprendere in realtà che cosa esso sia, al punto tale che oggi non ne esiste ancora una definizione univoca e condivisa. La grande pressione inoltre che esso subisce da parte del mondo del mercato fa sì che molte delle sue più peculiari caratteristiche, dal punto di vista dell’ingegneria del software, vengano nascoste e soverchiate da altre sue proprietà, architetturalmente meno importanti, ma con un più grande impatto sul pubblico di potenziali clienti. L’obbiettivo che ci poniamo con questa tesi è quindi quello di esplorare il nascente mondo del Cloud Computing, cercando di comprenderne a fondo le principali caratteristiche architetturali e focalizzando l’attenzione in particolare sullo sviluppo di applicazioni in ambiente Cloud, processo che sotto alcuni aspetti si differenzia molto dallo sviluppo orientato ad ambienti più classici. La tesi è così strutturata: nel primo capitolo verrà fornita una panoramica sul Cloud Computing nella quale saranno date anche le prime definizioni e verranno esposti tutti i temi fondamentali sviluppati nei capitoli successivi. Il secondo capitolo costituisce un approfondimento su un argomento specifico, quello dei Cloud Operating System, componenti fondamentali che permettono di trasformare una qualunque infrastruttura informatica in un’infrastruttura Cloud. Essi verranno presentati anche per mezzo di molte analogie con i classici sistemi operativi desktop. Con il terzo capitolo ci si addentra più a fondo nel cuore del Cloud Computing, studiandone il livello chiamato Infrastructure as a Service tramite un esempio concreto di Cloud provider: Amazon, che fornisce i suoi servizi nel progetto Amazon Web Services. A questo punto, più volte nel corso della trattazione di vari temi saremo stati costretti ad affrontare le problematiche relative alla gestione di enormi moli di dati, che spesso sono il punto centrale di molte applicazioni Cloud. Ci è parso quindi importante approfondire questo argomento in un capitolo appositamente dedicato, il quarto, supportando anche in questo caso la trattazione teorica con un esempio concreto: BigTable, il sistema di Google per la gestione della memorizzazione di grandi quantità di dati. Dopo questo intermezzo, la trattazione procede risalendo lungo i livelli dell’architettura Cloud, ricalcando anche quella che è stata l’evoluzione temporale del Cloud Computing: nel quinto capitolo, dal livello Infrastructure as a Service si passa quindi a quello Platform as a Service, tramite lo studio dei servizi offerti da Google Cloud Platform. Il sesto capitolo costituisce invece il punto centrale della tesi, quello che ne soddisfa l’obbiettivo principale: esso contiene infatti uno studio approfondito sullo sviluppo di applicazioni orientate all’ambiente Cloud. Infine, il settimo capitolo si pone come un ponte verso possibili sviluppi futuri, analizzando quali sono i limiti principali delle tecnologie, dei modelli e dei linguaggi che oggi supportano il Cloud Computing. In esso viene proposto come possibile soluzione il modello ad attori; inoltre viene anche presentato il framework Orleans, che Microsoft sta sviluppando negli ultimi anni con lo scopo appunto di supportare lo sviluppo di applicazioni in ambiente Cloud.
Resumo:
The objective of this thesis was to improve the commercial CFD software Ansys Fluent to obtain a tool able to perform accurate simulations of flow boiling in the slug flow regime. The achievement of a reliable numerical framework allows a better understanding of the bubble and flow dynamics induced by the evaporation and makes possible the prediction of the wall heat transfer trends. In order to save computational time, the flow is modeled with an axisymmetrical formulation. Vapor and liquid phases are treated as incompressible and in laminar flow. By means of a single fluid approach, the flow equations are written as for a single phase flow, but discontinuities at the interface and interfacial effects need to be accounted for and discretized properly. Ansys Fluent provides a Volume Of Fluid technique to advect the interface and to map the discontinuous fluid properties throughout the flow domain. The interfacial effects are dominant in the boiling slug flow and the accuracy of their estimation is fundamental for the reliability of the solver. Self-implemented functions, developed ad-hoc, are introduced within the numerical code to compute the surface tension force and the rates of mass and energy exchange at the interface related to the evaporation. Several validation benchmarks assess the better performances of the improved software. Various adiabatic configurations are simulated in order to test the capability of the numerical framework in modeling actual flows and the comparison with experimental results is very positive. The simulation of a single evaporating bubble underlines the dominant effect on the global heat transfer rate of the local transient heat convection in the liquid after the bubble transit. The simulation of multiple evaporating bubbles flowing in sequence shows that their mutual influence can strongly enhance the heat transfer coefficient, up to twice the single phase flow value.
Resumo:
Nei processi di progettazione e produzione tramite tecnologie di colata di componenti in alluminio ad elevate prestazioni, risulta fondamentale poter prevedere la presenza e la quantità di difetti correlabili a design non corretti e a determinate condizioni di processo. Fra le difettologie più comuni di un getto in alluminio, le porosità con dimensioni di decine o centinaia di m, note come microporosità, hanno un impatto estremamente negativo sulle caratteristiche meccaniche, sia statiche che a fatica. In questo lavoro, dopo un’adeguata analisi bibliografica, sono state progettate e messe a punto attrezzature e procedure sperimentali che permettessero la produzione di materiale a difettologia e microstruttura differenziata, a partire da condizioni di processo note ed accuratamente misurabili, che riproducessero la variabilità delle stesse nell’ambito della reale produzione di componenti fusi. Tutte le attività di progettazione delle sperimentazioni, sono state coadiuvate dall’ausilio di software di simulazione del processo fusorio che hanno a loro volta beneficiato di tarature e validazioni sperimentali ad hoc. L’apparato sperimentale ha dimostrato la propria efficacia nella produzione di materiale a microstruttura e difettologia differenziata, in maniera robusta e ripetibile. Utilizzando i risultati sperimentali ottenuti, si è svolta la validazione di un modello numerico di previsione delle porosità da ritiro e gas, ritenuto ad oggi allo stato dell’arte e già implementato in alcuni codici commerciali di simulazione del processo fusorio. I risultati numerici e sperimentali, una volta comparati, hanno evidenziato una buona accuratezza del modello numerico nella previsione delle difettologie sia in termini di ordini di grandezza che di gradienti della porosità nei getti realizzati.
Resumo:
In this thesis the impact of R&D expenditures on firm market value and stock returns is examined. This is performed in a sample of European listed firms for the period 2000-2009. I apply different linear and GMM econometric estimations for testing the impact of R&D on market prices and construct country portfolios based on firms’ R&D expenditure to market capitalization ratio for studying the effect of R&D on stock returns. The results confirm that more innovative firms have a better market valuation,investors consider R&D as an asset that produces long-term benefits for corporations. The impact of R&D on firm value differs across countries. It is significantly modulated by the financial and legal environment where firms operate. Other firm and industry characteristics seem to play a determinant role when investors value R&D. First, only larger firms with lower financial leverage that operate in highly innovative sectors decide to disclose their R&D investment. Second, the markets assign a premium to small firms, which operate in hi-tech sectors compared to larger enterprises for low-tech industries. On the other hand, I provide empirical evidence indicating that generally highly R&D-intensive firms may enhance mispricing problems related to firm valuation. As R&D contributes to the estimation of future stock returns, portfolios that comprise high R&D-intensive stocks may earn significant excess returns compared to the less innovative after controlling for size and book-to-market risk. Further, the most innovative firms are generally more risky in terms of stock volatility but not systematically more risky than low-tech firms. Firms that operate in Continental Europe suffer more mispricing compared to Anglo-Saxon peers but the former are less volatile, other things being equal. The sectors where firms operate are determinant even for the impact of R&D on stock returns; this effect is much stronger in hi-tech industries.
Resumo:
Heavy pig breeding in Italy is mainly oriented for the production of high quality processed products. Of particular importance is the dry cured ham production, which is strictly regulated and requires specific carcass characteristics correlated with green leg characteristics. Furthermore, as pigs are slaughtered at about 160 kg live weight, the Italian pig breeding sector faces severe problems of production efficiency that are related to all biological aspects linked to growth, feed conversion, fat deposition and so on. It is well known that production and carcass traits are in part genetically determined. Therefore, as a first step to understand genetic basis of traits that could have a direct or indirect impact on dry cured ham production, a candidate gene approach can be used to identify DNA markers associated with parameters of economic importance. In this thesis, we investigated three candidate genes for carcass and production traits (TRIB3, PCSK1, MUC4) in pig breeds used for dry cured ham production, using different experimental approaches in order to find molecular markers associated with these parameters.