918 resultados para Tecnopolimeri radiopachi, test di radiopacità, prove accelerate


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo lavoro di tesi nasce da un progetto di ricerca promosso nel 2001 dal Prof. Leonardo Seccia (Seconda Facoltà di Ingegneria, sede di Forlì, e C.I.R.A.M., Università di Bologna), dal Prof. Nicola Santopuoli (Facoltà di Architettura Valle Giulia, Sapienza Università di Roma), dal Prof. Ingo Muller e dal Dott. André Musolff (Technical University Berlin, Facultat III, Thermodynamics). Tale progetto ha avuto come obiettivo lo studio, la progettazione e la realizzazione di un dispositivo di ancoraggio in lega a memoria di forma per il restauro di affreschi e mosaici parietali, che presentino distacchi più o meno evidenti fra gli strati di intonaco di supporto, proponendosi come mezzo efficace per la salvaguardia strutturale di tali zone variamente ammalorate. In particolare, è stata programmata una serie di prove di laboratorio per caratterizzare in modo preciso il comportamento del materiale prescelto, al fine di realizzare un prototipo rispondente alle caratteristiche di progetto ed anche per implementare un modello numerico sufficientemente realistico. A questo proposito, è stato anche approfondito il problema della scelta del modello costitutivo più adeguato. Successivamente, i risultati ottenuti sono stati impiegati nella progettazione e realizzazione di nuovi dispositivi in lega a memoria di forma da impiegare nel campo dei beni culturali, fra cui sistemi reversibili per il ricongiungimento di parti fratturate e sistemi di movimentazione intelligenti sia per lastre di protezione di superfici affrescate, sia per finestre da inserire in contesti museali per il controllo del microclima.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The effect of process parameters on the creep-fatigue behavior of a hot-work tool steel for aluminum extrusion die was investigated through a technological test in which the specimen geometry resembled the mandrel of a hollow extrusion die. Tests were performed on a Gleeble thermomechanical simulator by heating the specimen using joule’s effect and by applying cyclic loading up to 6.30 h or till specimen failure. Displacements during the tests at 380, 490, 540 and 580°C and under the average stresses of 400, 600 and 800 MPa were determined. In the first set of test a dwell time of 3 min was introduced during each of the tests to understand the creep behavior. The results showed that the test could indeed physically simulate the cyclic loading on the hollow die during extrusion and reveal all the mechanisms of creep-fatigue interaction. In the second set a pure fatigue laod were induced and in the third set a static creep load were induced in the specimens. Furher type of tests, finite element and microstructural analysis were presented.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Background: Several lines of evidence showed that inflammation is associated with changes in the expression of tachykinins both in human and animal models. Tachykinins, including substance P (SP), are small peptides expressed in the extrinsic primary afferent nerve fibres and enteric neurons of the gut: they exert their action through three distinct receptors, termed NK1, NK2 and NK3. SP modulates intestinal motility and enteric secretion, acting preferentially through the NK1 receptor. SP neural network and NK1 receptor expression are increased in patients with inflammatory bowel disease, and similar changes were observed in experimental models of inflammation. The 2,4 Dinitrobenzene Sulphonic Acid (DNBS) model of colitis is useful to study innate immunity, non-specific inflammation and wound healing; it has been suggested that the transmural inflammation seen in this model resembles that found in Crohn’s disease and can therefore be used to study what cells and mediators are involved in this type of inflammation. Aim: To test the possible protective effect of the NK1 receptor antagonist SSR140333 on: 1) acute model of intestinal inflammation; 2) reactivation of DNBS-induced colitis in rats. Methods: Acute colitis was induced in male SD rats by intrarectal administration of DNBS (15 mg/rat in 50% ethanol). Reactivation of colitis was induced by intrarectal injections of DNBS on day 28 (7.5 mg/rat in 35% ethanol). Animals were sacrificed on day 6 (acute colitis) and 29 (reactivation of colitis). SSR140333 (10 mg/kg) was administered orally starting from the day before the induction of colitis for 7 days (acute colitis) or seven days before the reactivation of colitis. Colonic damage was assessed by means of macroscopic and microscopic scores, myeloperoxidase activity (MPO) and TNF-α tissue levels. Enzyme immunoassay was used to measure colonic substance P levels. Statistical analysis was performed using analysis of variance (one-way or two-way, as appropriate) with the Bonferroni’s correction for multiple comparisons. Results: DNBS administration impaired body weight gain and markedly increased all inflammatory parameters (p<0.01). Treatment with SSR140333 10 mg/kg significantly counteracted the impairment in body weight gain, decreased macroscopic and histological scores and reduced colonic myeloperoxidase activity (p<0.01). Drug treatment counteracted TNF-α tissue levels and colonic SP concentrations (acute model). Similar results were obtained administering the NK1 receptor antagonist SSR140333 (3 and 10 mg/kg) for 5 days, starting the day after the induction of colitis. Intrarectal administration of DNBS four weeks after the first DNBS administration resulted in reactivation of colitis, with increases in macroscopic and histological damage scores and increase in MPO activity. Preventive treatment with SSR140333 10 mg/kg decreased macroscopic damage score, significantly reduced microscopic damage score but did not affect MPO activity. Conclusions: Treatment with SSR140333 significantly reduced intestinal damage in acute model of intestinal inflammation in rats. The NK1 receptor antagonist SSR140333 was also able to prevent relapse in experimental colitis. These results support the hypothesis of SP involvement in intestinal inflammation and indicate that NK receptor antagonists may have a therapeutic potential in inflammatory bowel disease.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’uso frequente dei modelli predittivi per l’analisi di sistemi complessi, naturali o artificiali, sta cambiando il tradizionale approccio alle problematiche ambientali e di rischio. Il continuo miglioramento delle capacità di elaborazione dei computer facilita l’utilizzo e la risoluzione di metodi numerici basati su una discretizzazione spazio-temporale che permette una modellizzazione predittiva di sistemi reali complessi, riproducendo l’evoluzione dei loro patterns spaziali ed calcolando il grado di precisione della simulazione. In questa tesi presentiamo una applicazione di differenti metodi predittivi (Geomatico, Reti Neurali, Land Cover Modeler e Dinamica EGO) in un’area test del Petén, Guatemala. Durante gli ultimi decenni questa regione, inclusa nella Riserva di Biosfera Maya, ha conosciuto una rapida crescita demografica ed un’incontrollata pressione sulle sue risorse naturali. L’area test puó essere suddivisa in sotto-regioni caratterizzate da differenti dinamiche di uso del suolo. Comprendere e quantificare queste differenze permette una migliore approssimazione del sistema reale; é inoltre necessario integrare tutti i parametri fisici e socio-economici, per una rappresentazione più completa della complessità dell’impatto antropico. Data l’assenza di informazioni dettagliate sull’area di studio, quasi tutti i dati sono stati ricavati dall’elaborazione di 11 immagini ETM+, TM e SPOT; abbiamo poi realizzato un’analisi multitemporale dei cambi uso del suolo passati e costruito l’input per alimentare i modelli predittivi. I dati del 1998 e 2000 sono stati usati per la fase di calibrazione per simulare i cambiamenti nella copertura terrestre del 2003, scelta come data di riferimento per la validazione dei risultati. Quest’ultima permette di evidenziare le qualità ed i limiti per ogni modello nelle differenti sub-regioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo studio del processo produttivo del riciclo di materiali provenienti da attività di C&D in un impianto di nuova realizzazione, presentato in questa tesi di laurea,è così articolato: nel primo capitolo si analizza la complicata evoluzione della normativa in materia di rifiuti (non solo da C&D) su scala europea e nazionale accennando i provvedimenti legislativi su scala regionale, con particolare riferimento alla Regione Veneto. Si esamineranno, pertanto, le direttive e le decisioni della Comunità Europea che hanno ispirato, a partire dal 1975, i provvedimenti legislativi nazionali, tra cui vale la pena di ricordare il “Decreto Ronchi”, emanato nel febbraio del 1997, l’attuale D.Lgs. 3/4/2006 n.152, e i Decreti Ministeriali di riferimento per la materia di studio, ovvero il D.M. 5/2/1998, riguardante l’individuazione dei rifiuti per cui è possibile procedere al loro trattamento in regime semplificato e l’ancora poco attuato D.M.8/5/2003 n.203, riferito all’utilizzo di materiale riciclato nelle Pubbliche Amministrazioni. Il secondo capitolo definisce, invece, le caratteristiche principali dei rifiuti da C&D, appartenenti alla categoria dei rifiuti inerti, e delinea le odierne problematiche inerenti a tali materiali. A conferma di queste, nella seconda parte del capitolo, sono presentati alcuni dati che fotografano oggettivamente gli scenari attuali in Europa e in Italia in riferimento alla produzione, al recupero e allo smaltimento di questa categoria di rifiuti. In seguito, il terzo capitolo inizia a definire gli aspetti relativi alla realizzazione di un impianto di studio per il riciclo di rifiuti da C&D. In esso si evidenziano le procedure amministrative, gli adempimenti burocratici e in generale tutti gli aspetti inerenti alla gestione dei rifiuti da C&D per l’esecuzione delle attività di recupero e smaltimento previste dal D.Lgs. n.152/2006, così come modificato dal recentissimo D.Lgs. n.4/2008. Il quarto capitolo definisce i termini per poter considerare i rifiuti da C&D trattati in impianto come MPS. L’attenzione è riposta sulla Direttiva 89/106/CEE, che impone obbligatoriamente, dal 01/06/2004, la marcatura CE per tutti i prodotti da costruzione e, quindi, anche per gli aggregati riciclati. Pertanto, in questo capitolo, vengono definite le prove richieste obbligatoriamente dal D.M 11/4/2007 in accordo con la norma europea UNI EN 13242 recante “Aggregati per materiali non legati e legati con leganti idraulici per l'impiego in opere di ingegneria civile e nella costruzione di strade" ed, in conclusione, viene studiata la Circolare n.5205/2005 che dovrebbe dare attuazione nel settore edile, stradale e ambientale al D.M. n.203/2003. Successivamente, il quinto capitolo delinea le caratteristiche principali degli impianti di trattamento per il recupero dei rifiuti da C&D, delineando le principali differenze tra gli impianti fissi e i mobili ed esaminando le diverse fasi del ciclo produttivo, anche in relazione ad un impianto di studio situato nella provincia di Verona. Infine, il sesto capitolo riassume i risultati delle prove di marcatura CE per gli aggregati riciclati prodotti nell’impianto descritto. Tali prove sono state eseguite presso il Laboratorio di Strade della Facoltà di Ingegneria dell’Università degli Studi di Bologna.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il modello afflussi-deflussi e di erosione Kineros2, fisicamente basato, distribuito e a scala di evento, è stato applicato a due bacini idrografici montani della provincia di Bologna (Italia) al fine di testare e valutare il suo funzionamento in ambiente appenninico. Dopo la parametrizzazione dei due bacini, Kineros2 è stato calibrato e validato utilizzando dati sperimentali di portata e di concentrazione dei solidi sospesi, collezionati alla chiusura dei bacini grazie alla presenza di due stazioni di monitoraggio idrotorbidimetrico. La modellazione ha consentito di valutare la capacità del modello di riprodurre correttamente le dinamiche idrologiche osservate, nonchè di trarre conclusioni sulle sue potenzialità e limitazioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Con il presente lavoro di tesi si è studiata la possibilità di estrarre informazioni sugli andamenti dei processi biologici dall’osservazione dei segnali di pH, potenziale di ossido riduzione (ORP) e ossigeno disciolto (DO) nelle vasche di processo di un impianto a fanghi attivi a flusso continuo (predenitro/nitro) per verificare la possibilità di utilizzare questo tipo di sonde per lo sviluppo di sistemi per il controllo automatico e la gestione intelligente, eventualmente remota, degli impianti di depurazione. Il lavoro di sperimentazione è stato svolto su un impianto pilota a flusso continuo con schema predenitro – nitro, costruito ed installato presso i laboratori della sede Enea di Bologna (Sezione ACS PROT IDR - Gestione Risorse Idriche). L’obiettivo primario della sperimentazione è stato quello di portare il sistema in uno stato stazionario di equilibrio, così da poter stabilire delle condizioni di funzionamento note e costanti, riscontrabili anche nei segnali di riferimento. Tali condizioni sono state definite prendendo come riferimento un impianto reale noto, funzionante in condizioni di processo costanti e medie, definendo contestualmente test sperimentali che riproducessero condizioni riscontrabili sullo stesso impianto reale. Le condizioni del sistema sono state monitorate costantemente, attraverso il monitoraggio giornaliero dei processi, effettuato con attività di campionamento e di analisi, osservando costantemente i segnali indiretti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Providing support for multimedia applications on low-power mobile devices remains a significant research challenge. This is primarily due to two reasons: • Portable mobile devices have modest sizes and weights, and therefore inadequate resources, low CPU processing power, reduced display capabilities, limited memory and battery lifetimes as compared to desktop and laptop systems. • On the other hand, multimedia applications tend to have distinctive QoS and processing requirementswhichmake themextremely resource-demanding. This innate conflict introduces key research challenges in the design of multimedia applications and device-level power optimization. Energy efficiency in this kind of platforms can be achieved only via a synergistic hardware and software approach. In fact, while System-on-Chips are more and more programmable thus providing functional flexibility, hardwareonly power reduction techniques cannot maintain consumption under acceptable bounds. It is well understood both in research and industry that system configuration andmanagement cannot be controlled efficiently only relying on low-level firmware and hardware drivers. In fact, at this level there is lack of information about user application activity and consequently about the impact of power management decision on QoS. Even though operating system support and integration is a requirement for effective performance and energy management, more effective and QoSsensitive power management is possible if power awareness and hardware configuration control strategies are tightly integratedwith domain-specificmiddleware services. The main objective of this PhD research has been the exploration and the integration of amiddleware-centric energymanagement with applications and operating-system. We choose to focus on the CPU-memory and the video subsystems, since they are the most power-hungry components of an embedded system. A second main objective has been the definition and implementation of software facilities (like toolkits, API, and run-time engines) in order to improve programmability and performance efficiency of such platforms. Enhancing energy efficiency and programmability ofmodernMulti-Processor System-on-Chips (MPSoCs) Consumer applications are characterized by tight time-to-market constraints and extreme cost sensitivity. The software that runs on modern embedded systems must be high performance, real time, and even more important low power. Although much progress has been made on these problems, much remains to be done. Multi-processor System-on-Chip (MPSoC) are increasingly popular platforms for high performance embedded applications. This leads to interesting challenges in software development since efficient software development is a major issue for MPSoc designers. An important step in deploying applications on multiprocessors is to allocate and schedule concurrent tasks to the processing and communication resources of the platform. The problem of allocating and scheduling precedenceconstrained tasks on processors in a distributed real-time system is NP-hard. There is a clear need for deployment technology that addresses thesemulti processing issues. This problem can be tackled by means of specific middleware which takes care of allocating and scheduling tasks on the different processing elements and which tries also to optimize the power consumption of the entire multiprocessor platform. This dissertation is an attempt to develop insight into efficient, flexible and optimalmethods for allocating and scheduling concurrent applications tomultiprocessor architectures. It is a well-known problem in literature: this kind of optimization problems are very complex even in much simplified variants, therefore most authors propose simplified models and heuristic approaches to solve it in reasonable time. Model simplification is often achieved by abstracting away platform implementation ”details”. As a result, optimization problems become more tractable, even reaching polynomial time complexity. Unfortunately, this approach creates an abstraction gap between the optimization model and the real HW-SW platform. The main issue with heuristic or, more in general, with incomplete search is that they introduce an optimality gap of unknown size. They provide very limited or no information on the distance between the best computed solution and the optimal one. The goal of this work is to address both abstraction and optimality gaps, formulating accurate models which accounts for a number of ”non-idealities” in real-life hardware platforms, developing novel mapping algorithms that deterministically find optimal solutions, and implementing software infrastructures required by developers to deploy applications for the targetMPSoC platforms. Energy Efficient LCDBacklightAutoregulation on Real-LifeMultimediaAp- plication Processor Despite the ever increasing advances in Liquid Crystal Display’s (LCD) technology, their power consumption is still one of the major limitations to the battery life of mobile appliances such as smart phones, portable media players, gaming and navigation devices. There is a clear trend towards the increase of LCD size to exploit the multimedia capabilities of portable devices that can receive and render high definition video and pictures. Multimedia applications running on these devices require LCD screen sizes of 2.2 to 3.5 inches andmore to display video sequences and pictures with the required quality. LCD power consumption is dependent on the backlight and pixel matrix driving circuits and is typically proportional to the panel area. As a result, the contribution is also likely to be considerable in future mobile appliances. To address this issue, companies are proposing low power technologies suitable for mobile applications supporting low power states and image control techniques. On the research side, several power saving schemes and algorithms can be found in literature. Some of them exploit software-only techniques to change the image content to reduce the power associated with the crystal polarization, some others are aimed at decreasing the backlight level while compensating the luminance reduction by compensating the user perceived quality degradation using pixel-by-pixel image processing algorithms. The major limitation of these techniques is that they rely on the CPU to perform pixel-based manipulations and their impact on CPU utilization and power consumption has not been assessed. This PhDdissertation shows an alternative approach that exploits in a smart and efficient way the hardware image processing unit almost integrated in every current multimedia application processors to implement a hardware assisted image compensation that allows dynamic scaling of the backlight with a negligible impact on QoS. The proposed approach overcomes CPU-intensive techniques by saving system power without requiring either a dedicated display technology or hardware modification. Thesis Overview The remainder of the thesis is organized as follows. The first part is focused on enhancing energy efficiency and programmability of modern Multi-Processor System-on-Chips (MPSoCs). Chapter 2 gives an overview about architectural trends in embedded systems, illustrating the principal features of new technologies and the key challenges still open. Chapter 3 presents a QoS-driven methodology for optimal allocation and frequency selection for MPSoCs. The methodology is based on functional simulation and full system power estimation. Chapter 4 targets allocation and scheduling of pipelined stream-oriented applications on top of distributed memory architectures with messaging support. We tackled the complexity of the problem by means of decomposition and no-good generation, and prove the increased computational efficiency of this approach with respect to traditional ones. Chapter 5 presents a cooperative framework to solve the allocation, scheduling and voltage/frequency selection problem to optimality for energyefficient MPSoCs, while in Chapter 6 applications with conditional task graph are taken into account. Finally Chapter 7 proposes a complete framework, called Cellflow, to help programmers in efficient software implementation on a real architecture, the Cell Broadband Engine processor. The second part is focused on energy efficient software techniques for LCD displays. Chapter 8 gives an overview about portable device display technologies, illustrating the principal features of LCD video systems and the key challenges still open. Chapter 9 shows several energy efficient software techniques present in literature, while Chapter 10 illustrates in details our method for saving significant power in an LCD panel. Finally, conclusions are drawn, reporting the main research contributions that have been discussed throughout this dissertation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel presente lavoro sono stati illustrati i risultati preliminari di uno studio mirato alla modellazione del processo di vagliatura di RSU. Il modello, sviluppato sulla base di ipotesi sia cinematiche che probabilistiche, è stato implementato ed applicato per la verifica dell’influenza delle condizioni operative sull’efficienza del processo di separazione. La modellazione è stata sviluppata studiando la cinematica di una particella all’interno di un vaglio rotante, prima studiando il comportamento della singola particella e poi studiando il comportamento di più particelle. Lo sviluppo di tale modello, consente di determinare l’efficienza di rimozione per le diverse frazioni merceologiche di un rifiuto, ciascuna caratterizzata da una propria distribuzione dimensionale,. La validazione è stata svolta effettuando una campagna di misurazioni utilizzando un vaglio in scala (1:10) e un vaglio di dimensioni reali . Da queste misurazioni è emerso che il modello è ben rappresentativo della realtà, in alcuni casi, si sono evidenziate delle discrepanze dal comportamento reale del rifiuto, ciò è senz’altro da attribuite alla forte eterogeneità dei materiali costituenti il rifiuto solido urbano e dall’interferenza che le une causano sulle altre. Si è appurato che, variando i parametri quali: l’angolo di inclinazione longitudinale del vaglio, la velocità di rotazione si ha un diverso comportamento del rifiuto all’interno del vaglio e quindi una variazione dell’efficienza di separazione di quest’ultimo. In particolare è stata mostrata una possibile applicazione del modello legata alla valutazione delle caratteristiche del sopravaglio nel caso questo sia destinato alla produzione di CDR. Attraverso la formula di Dulong si è calcolato il potere calorifico superiore, (sia allo stato umido che allo stato secco), ottenuto effettuando delle variazioni dei parametri citati precedentemente, calcolato sulla massa uscente dal sopravaglio e quindi quella utilizzata come combustibile per gli impianti di termovalorizzazione.( C.D.R.) Si è osservato il legame esistente tra le condizioni operative inclinazione e velocità di rotazione del tamburo ed il potere calorifico del flusso selezionato con l’obiettivo di massimizzare quest’ultimo. Dalle è prove è emerso come il fattore umidità giochi un ruolo fondamentale per l’ottimizzazione del CDR, l’umidità infatti incide negativamente sul potere calorifico del rifiuto invertendo il rapporto normalmente direttamente proporzionale tra percentuale di sopravaglio e potere calorifico, dunque a causa dell’umidità all’aumentare del flusso di sopravaglio si ha una diminuzione del potere calorifico. Lo sviluppo e la validazione di un modello teorico, ci permette di affrontare il problema della selezione e separazione dei RSU,non più solo tramite un procedimento induttivo basato unicamente sulle osservazioni, ma tramite un procedimento deduttivo grazie al quale "conoscendo l’input si prevede quale sarà l’output". Allo stato attuale la scelta e il dimensionamento delle unità di separazione dimensionale nei processi di selezione è basata unicamente su conoscenze di natura empirica L’obiettivo principale è stato dunque quello di costruire uno strumento in grado di determinare le caratteristiche dei flussi uscenti dall’unità di vagliatura, note che siano le caratteristiche del flusso in ingresso ed i parametri operativi Questo approccio permette di eseguire valutazioni oggettive circa la reale rispondenza delle caratteristiche dei flussi in uscita a standard prefissati,peraltro consente di eseguire valutazioni sulle uscite di processo rispetto alla variabilità delle caratteristiche dei rifiuti in ingresso .

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il lavoro svolto, in collaborazione con “Ducati Motor Holding”, si propone l’analisi, mediante l’applicazione di un software FEM (HyperWorks 9.0), delle strutture rappresentate dall’assieme paracoppa-parasassi e dal silenziatore. Il primo obiettivo consiste nell’ottenimento di un modello agli elementi finiti della struttura. Le simulazioni di calcolo consistono in analisi di tipo dinamico per determinare i modi di vibrare delle strutture. Sulla base di ulteriori simulazioni sulla risposta al transitorio del sistema si è studiato il loro comportamento nelle condizioni di funzionamento. La finalità del lavoro risiede dunque nella determinazione delle criticità strutturali che i componenti hanno manifestato durante prove sperimentali verificandole attraverso calcolo numerico e applicazione delle potenzialità del software applicato, per l’analisi degli aspetti sopra esposti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il lavoro persegue l’obiettivo generale di indagare sulle scelte di investimento dei fondi pensione italiani. Per giungere al suddetto obiettivo il lavoro si articola in quattro capitoli principali corredati da premessa e conclusioni. Il primo capitolo si preoccupa di analizzare in quale modo le scelte operate dal legislatore italiano abbiano influenzato e influenzino le politiche di investimento dei fondi pensione. E’ indubbio, infatti, che l’intervento del legislatore abbia un forte ascendente sull’operatività dei fondi e possa limitarne o, viceversa, agevolarne l’attività. Alla luce di queste considerazioni, il secondo capitolo mira ad analizzare nel concreto l’influenza delle scelte operate dal legislatore sullo sviluppo del mercato dei fondi pensione italiani. In sostanza, l’obiettivo è quello di fornire informazioni circa il mercato italiano dei fondi pensione sviluppatosi in conseguenza alla normativa testé presentata. Il successivo capitolo, il terzo, propone un’analisi della letteratura che, nel contesto nazionale ed internazionale, ha analizzato la tematica dei fondi pensione. Più nel dettaglio, si propone una disamina dei riferimenti letterari che, affrontando il problema della gestione finanziaria dei fondi pensione, trattano delle politiche e delle scelte di investimento operate da questi. Il quarto capitolo riguarda un’analisi empirica mirata ad analizzare le politiche di investimento dei fondi pensione, in particolare quelle relative agli investimenti alternativi e soprattutto, tra questi, quelli immobiliari. L’obiettivo generale perseguito è quello di analizzare la composizione del patrimonio dei fondi appartenenti al campione considerato e ricavarne indicazioni circa le scelte manageriali operate dai fondi, nonché trarre indicazioni circa lo spazio riservato e/o riservabile alle asset class alternative, soprattutto a quelle di tipo immobiliare. Si evidenzia, infatti, che la verifica presentata riguarda prevalentemente gli investimenti immobiliari che rappresentano nella realtà italiana l’alternative class maggiormente diffusa. L’analisi si concentra, anche se in modo inferiore e con un approccio quasi esclusivamente qualitativo, su altre asset class alternative (hedge fund e private equity). Si precisa, inoltre, che la volontà di focalizzare la verifica sugli alternative investment limita l’analisi ai soli fondi pensione preesistenti che, ad oggi, rappresentano l’unica categoria alla quale è consentito effettuare investimenti di tipo alternativo. A differenza dei fondi di nuova generazione, tali fondi, infatti, non sono sottoposti a limitazioni nell’attività di investimento e, almeno in linea teorica, essi possono optare senza alcuna restrizione per l’asset allocation ritenuta più appropriata Tre sono le domande di ricerca a cui l’analisi proposta mira a dare risposta: Quale è la dimensione e la composizione del portafoglio dei fondi pensione preesistenti? Quale è la dimensione e la tipologia di investimento immobiliare all’interno del portafoglio dei fondi pensione preesistenti? Esiste uno “spazio” ulteriore per gli investimenti immobiliari e/o per altri alternative investment nel portafoglio dei fondi pensione preesistenti? L’analisi è condotta su un campione di dieci fondi preesistenti, che rappresenta il 60% dell’universo di riferimento (dei 29 fondi pensione preesistenti che investono in immobiliare) e la metodologia utilizzata è quella della case study. Le dieci case study, una per ogni fondo preesistente analizzato, sono condotte e presentate secondo uno schema quanto più standard e si basano su varie tipologie di informazioni reperite da tre differenti fonti. 2 La prima fonte informativa utilizzata è rappresentata dai bilanci o rendiconti annuali dei fondi analizzati. A questi si aggiungono i risultati di un’intervista svolta nei mesi di gennaio e febbraio 2008, ai direttori generali o ai direttori dell’area investimento dei fondi. Le interviste aggiungono informazioni prevalentemente di tipo qualitativo, in grado di descrivere le scelte manageriali operate dai fondi in tema di politica di investimento. Infine, laddove presente, sono state reperite informazioni anche dai siti internet che in taluni casi i fondi possiedono. Dalle case study condotte è possibile estrapolare una serie di risultati, che consentono di dare risposta alle tre domande di ricerca poste in precedenza. Relativamente alla prima domanda, è stato possibile stabilire che il portafoglio dei fondi pensione preesistenti analizzati cresce nel tempo. Esso si compone per almeno un terzo di titoli di debito, prevalentemente titoli di stato, e per un altro terzo di investimenti immobiliari di vario tipo. Il restante terzo è composto da altre asset class, prevalentemente investimenti in quote di OICR. Per quanto riguarda la politica d’investimento, si rileva che mediamente essa è caratterizzata da un’alta avversione al rischio e pochissimi sono i casi in cui i fondi prevedono linee di investimento aggressive. Relativamente alla seconda domanda, si osserva che la dimensione dell’asset class immobiliare all’interno del portafoglio raggiunge una quota decrescente nell’arco di tempo considerato, seppur rilevante. Al suo interno prevalgono nettamente gli investimenti diretti in immobili. Seguono le partecipazioni in società immobiliari. L’analisi ha permesso, poi, di approfondire il tema degli investimenti immobiliari consentendo di trarre indicazioni circa le loro caratteristiche. Infine, relativamente all’ultima domanda di ricerca, i dati ottenuti, soprattutto per mezzo delle interviste, permettono di stabilire che, almeno con riferimento al campione analizzato, l’investimento immobiliare perde quota e in parte interesse. Questo risulta vero soprattutto relativamente agli investimenti immobiliari di tipo diretto. I fondi con patrimoni immobiliari rilevanti, infatti, sono per la totalità nel mezzo di processi di dismissione degli asset, mirati, non tanto all’eliminazione dell’asset class, ma piuttosto ad una riduzione della stessa, conformemente anche a quanto richiesto dalle recenti normative. Le interviste hanno messo in luce, tuttavia, che a fronte di un’esigenza generale di contentere la quota investita, l’asset immobiliare è considerato positivamente soprattutto in termini di opportunità di diversificazione di portafoglio e buoni rendimenti nel lungo periodo. I fondi appaiono interessati in modo particolare a diversificare il portafoglio immobiliare, dismettendo parte degli asset detenuti direttamente e aumentando al contrario le altre tipologie di investimento immobiliare, soprattutto quote di OICR immobiliari. Altrettanto positivi i giudizi relativi alle altre asset class alternative. Pur restando ancora limitato il totale delle risorse destinate, tali investimenti sono percepiti come una buona opportunità di diversificazione del portafoglio. In generale, si è rilevato che, anche laddove l’investimento non è presente o è molto ridotto, nel breve periodo è intenzione del management aumentare la quota impiegata.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questo studio vengono riportati i risultati di prove di fatica oligociclica eseguiti su provini dello stesso materiale ottenuti con uguali processi tecnologici ma provenienti da differenti colate di metallo. Il materiale in questione è un acciaio di elevata qualità frequentemente utilizzato per la realizzazione di cappe per turboalternatori. Obiettivo dello studio è stato ricavare i coefficienti necessari per tracciare le curve di fatica del materiale, non ancora presenti in letteratura, ed infine indagare la bontà del risultato ottenuto con un’analisi statistica delle curve e dei risultati ottenuti. Nella prima parte è descritto l’attuale stato dell’arte e la situazione in cui si colloca il presente studio. Nella seconda parte viene fornita una descrizione dettagliata del materiale studiato, delle condizioni nelle quali sono state eseguite le prove e delle attrezzature utilizzate a tale scopo. Si conclude esponendo i risultati ottenuti, comprensivi dei confronti e delle considerazioni derivate dalle analisi statistiche eseguite.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Se il lavoro dello storico è capire il passato come è stato compreso dalla gente che lo ha vissuto, allora forse non è azzardato pensare che sia anche necessario comunicare i risultati delle ricerche con strumenti propri che appartengono a un'epoca e che influenzano la mentalità di chi in quell'epoca vive. Emergenti tecnologie, specialmente nell’area della multimedialità come la realtà virtuale, permettono agli storici di comunicare l’esperienza del passato in più sensi. In che modo la storia collabora con le tecnologie informatiche soffermandosi sulla possibilità di fare ricostruzioni storiche virtuali, con relativi esempi e recensioni? Quello che maggiormente preoccupa gli storici è se una ricostruzione di un fatto passato vissuto attraverso la sua ricreazione in pixels sia un metodo di conoscenza della storia che possa essere considerato valido. Ovvero l'emozione che la navigazione in una realtà 3D può suscitare, è un mezzo in grado di trasmettere conoscenza? O forse l'idea che abbiamo del passato e del suo studio viene sottilmente cambiato nel momento in cui lo si divulga attraverso la grafica 3D? Da tempo però la disciplina ha cominciato a fare i conti con questa situazione, costretta soprattutto dall'invasività di questo tipo di media, dalla spettacolarizzazione del passato e da una divulgazione del passato parziale e antiscientifica. In un mondo post letterario bisogna cominciare a pensare che la cultura visuale nella quale siamo immersi sta cambiando il nostro rapporto con il passato: non per questo le conoscenze maturate fino ad oggi sono false, ma è necessario riconoscere che esiste più di una verità storica, a volte scritta a volte visuale. Il computer è diventato una piattaforma onnipresente per la rappresentazione e diffusione dell’informazione. I metodi di interazione e rappresentazione stanno evolvendo di continuo. Ed è su questi due binari che è si muove l’offerta delle tecnologie informatiche al servizio della storia. Lo scopo di questa tesi è proprio quello di esplorare, attraverso l’utilizzo e la sperimentazione di diversi strumenti e tecnologie informatiche, come si può raccontare efficacemente il passato attraverso oggetti tridimensionali e gli ambienti virtuali, e come, nel loro essere elementi caratterizzanti di comunicazione, in che modo possono collaborare, in questo caso particolare, con la disciplina storica. La presente ricerca ricostruisce alcune linee di storia delle principali fabbriche attive a Torino durante la seconda guerra mondiale, ricordando stretta relazione che esiste tra strutture ed individui e in questa città in particolare tra fabbrica e movimento operaio, è inevitabile addentrarsi nelle vicende del movimento operaio torinese che nel periodo della lotta di Liberazione in città fu un soggetto politico e sociale di primo rilievo. Nella città, intesa come entità biologica coinvolta nella guerra, la fabbrica (o le fabbriche) diventa il nucleo concettuale attraverso il quale leggere la città: sono le fabbriche gli obiettivi principali dei bombardamenti ed è nelle fabbriche che si combatte una guerra di liberazione tra classe operaia e autorità, di fabbrica e cittadine. La fabbrica diventa il luogo di "usurpazione del potere" di cui parla Weber, il palcoscenico in cui si tengono i diversi episodi della guerra: scioperi, deportazioni, occupazioni .... Il modello della città qui rappresentata non è una semplice visualizzazione ma un sistema informativo dove la realtà modellata è rappresentata da oggetti, che fanno da teatro allo svolgimento di avvenimenti con una precisa collocazione cronologica, al cui interno è possibile effettuare operazioni di selezione di render statici (immagini), di filmati precalcolati (animazioni) e di scenari navigabili interattivamente oltre ad attività di ricerca di fonti bibliografiche e commenti di studiosi segnatamente legati all'evento in oggetto. Obiettivo di questo lavoro è far interagire, attraverso diversi progetti, le discipline storiche e l’informatica, nelle diverse opportunità tecnologiche che questa presenta. Le possibilità di ricostruzione offerte dal 3D vengono così messe a servizio della ricerca, offrendo una visione integrale in grado di avvicinarci alla realtà dell’epoca presa in considerazione e convogliando in un’unica piattaforma espositiva tutti i risultati. Divulgazione Progetto Mappa Informativa Multimediale Torino 1945 Sul piano pratico il progetto prevede una interfaccia navigabile (tecnologia Flash) che rappresenti la pianta della città dell’epoca, attraverso la quale sia possibile avere una visione dei luoghi e dei tempi in cui la Liberazione prese forma, sia a livello concettuale, sia a livello pratico. Questo intreccio di coordinate nello spazio e nel tempo non solo migliora la comprensione dei fenomeni, ma crea un maggiore interesse sull’argomento attraverso l’utilizzo di strumenti divulgativi di grande efficacia (e appeal) senza perdere di vista la necessità di valicare le tesi storiche proponendosi come piattaforma didattica. Un tale contesto richiede uno studio approfondito degli eventi storici al fine di ricostruire con chiarezza una mappa della città che sia precisa sia topograficamente sia a livello di navigazione multimediale. La preparazione della cartina deve seguire gli standard del momento, perciò le soluzioni informatiche utilizzate sono quelle fornite da Adobe Illustrator per la realizzazione della topografia, e da Macromedia Flash per la creazione di un’interfaccia di navigazione. La base dei dati descrittivi è ovviamente consultabile essendo contenuta nel supporto media e totalmente annotata nella bibliografia. È il continuo evolvere delle tecnologie d'informazione e la massiccia diffusione dell’uso dei computer che ci porta a un cambiamento sostanziale nello studio e nell’apprendimento storico; le strutture accademiche e gli operatori economici hanno fatto propria la richiesta che giunge dall'utenza (insegnanti, studenti, operatori dei Beni Culturali) di una maggiore diffusione della conoscenza storica attraverso la sua rappresentazione informatizzata. Sul fronte didattico la ricostruzione di una realtà storica attraverso strumenti informatici consente anche ai non-storici di toccare con mano quelle che sono le problematiche della ricerca quali fonti mancanti, buchi della cronologia e valutazione della veridicità dei fatti attraverso prove. Le tecnologie informatiche permettono una visione completa, unitaria ed esauriente del passato, convogliando tutte le informazioni su un'unica piattaforma, permettendo anche a chi non è specializzato di comprendere immediatamente di cosa si parla. Il miglior libro di storia, per sua natura, non può farlo in quanto divide e organizza le notizie in modo diverso. In questo modo agli studenti viene data l'opportunità di apprendere tramite una rappresentazione diversa rispetto a quelle a cui sono abituati. La premessa centrale del progetto è che i risultati nell'apprendimento degli studenti possono essere migliorati se un concetto o un contenuto viene comunicato attraverso più canali di espressione, nel nostro caso attraverso un testo, immagini e un oggetto multimediale. Didattica La Conceria Fiorio è uno dei luoghi-simbolo della Resistenza torinese. Il progetto è una ricostruzione in realtà virtuale della Conceria Fiorio di Torino. La ricostruzione serve a arricchire la cultura storica sia a chi la produce, attraverso una ricerca accurata delle fonti, sia a chi può poi usufruirne, soprattutto i giovani, che, attratti dall’aspetto ludico della ricostruzione, apprendono con più facilità. La costruzione di un manufatto in 3D fornisce agli studenti le basi per riconoscere ed esprimere la giusta relazione fra il modello e l’oggetto storico. Le fasi di lavoro attraverso cui si è giunti alla ricostruzione in 3D della Conceria: . una ricerca storica approfondita, basata sulle fonti, che possono essere documenti degli archivi o scavi archeologici, fonti iconografiche, cartografiche, ecc.; . La modellazione degli edifici sulla base delle ricerche storiche, per fornire la struttura geometrica poligonale che permetta la navigazione tridimensionale; . La realizzazione, attraverso gli strumenti della computer graphic della navigazione in 3D. Unreal Technology è il nome dato al motore grafico utilizzato in numerosi videogiochi commerciali. Una delle caratteristiche fondamentali di tale prodotto è quella di avere uno strumento chiamato Unreal editor con cui è possibile costruire mondi virtuali, e che è quello utilizzato per questo progetto. UnrealEd (Ued) è il software per creare livelli per Unreal e i giochi basati sul motore di Unreal. E’ stata utilizzata la versione gratuita dell’editor. Il risultato finale del progetto è un ambiente virtuale navigabile raffigurante una ricostruzione accurata della Conceria Fiorio ai tempi della Resistenza. L’utente può visitare l’edificio e visualizzare informazioni specifiche su alcuni punti di interesse. La navigazione viene effettuata in prima persona, un processo di “spettacolarizzazione” degli ambienti visitati attraverso un arredamento consono permette all'utente una maggiore immersività rendendo l’ambiente più credibile e immediatamente codificabile. L’architettura Unreal Technology ha permesso di ottenere un buon risultato in un tempo brevissimo, senza che fossero necessari interventi di programmazione. Questo motore è, quindi, particolarmente adatto alla realizzazione rapida di prototipi di una discreta qualità, La presenza di un certo numero di bug lo rende, però, in parte inaffidabile. Utilizzare un editor da videogame per questa ricostruzione auspica la possibilità di un suo impiego nella didattica, quello che le simulazioni in 3D permettono nel caso specifico è di permettere agli studenti di sperimentare il lavoro della ricostruzione storica, con tutti i problemi che lo storico deve affrontare nel ricreare il passato. Questo lavoro vuole essere per gli storici una esperienza nella direzione della creazione di un repertorio espressivo più ampio, che includa gli ambienti tridimensionali. Il rischio di impiegare del tempo per imparare come funziona questa tecnologia per generare spazi virtuali rende scettici quanti si impegnano nell'insegnamento, ma le esperienze di progetti sviluppati, soprattutto all’estero, servono a capire che sono un buon investimento. Il fatto che una software house, che crea un videogame di grande successo di pubblico, includa nel suo prodotto, una serie di strumenti che consentano all'utente la creazione di mondi propri in cui giocare, è sintomatico che l'alfabetizzazione informatica degli utenti medi sta crescendo sempre più rapidamente e che l'utilizzo di un editor come Unreal Engine sarà in futuro una attività alla portata di un pubblico sempre più vasto. Questo ci mette nelle condizioni di progettare moduli di insegnamento più immersivi, in cui l'esperienza della ricerca e della ricostruzione del passato si intreccino con lo studio più tradizionale degli avvenimenti di una certa epoca. I mondi virtuali interattivi vengono spesso definiti come la forma culturale chiave del XXI secolo, come il cinema lo è stato per il XX. Lo scopo di questo lavoro è stato quello di suggerire che vi sono grosse opportunità per gli storici impiegando gli oggetti e le ambientazioni in 3D, e che essi devono coglierle. Si consideri il fatto che l’estetica abbia un effetto sull’epistemologia. O almeno sulla forma che i risultati delle ricerche storiche assumono nel momento in cui devono essere diffuse. Un’analisi storica fatta in maniera superficiale o con presupposti errati può comunque essere diffusa e avere credito in numerosi ambienti se diffusa con mezzi accattivanti e moderni. Ecco perchè non conviene seppellire un buon lavoro in qualche biblioteca, in attesa che qualcuno lo scopra. Ecco perchè gli storici non devono ignorare il 3D. La nostra capacità, come studiosi e studenti, di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio che il 3D porta con sè, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Una ricostruzione storica può essere molto utile dal punto di vista educativo non sono da chi la visita ma, anche da chi la realizza. La fase di ricerca necessaria per la ricostruzione non può fare altro che aumentare il background culturale dello sviluppatore. Conclusioni La cosa più importante è stata la possibilità di fare esperienze nell’uso di mezzi di comunicazione di questo genere per raccontare e far conoscere il passato. Rovesciando il paradigma conoscitivo che avevo appreso negli studi umanistici, ho cercato di desumere quelle che potremo chiamare “leggi universali” dai dati oggettivi emersi da questi esperimenti. Da punto di vista epistemologico l’informatica, con la sua capacità di gestire masse impressionanti di dati, dà agli studiosi la possibilità di formulare delle ipotesi e poi accertarle o smentirle tramite ricostruzioni e simulazioni. Il mio lavoro è andato in questa direzione, cercando conoscere e usare strumenti attuali che nel futuro avranno sempre maggiore presenza nella comunicazione (anche scientifica) e che sono i mezzi di comunicazione d’eccellenza per determinate fasce d’età (adolescenti). Volendo spingere all’estremo i termini possiamo dire che la sfida che oggi la cultura visuale pone ai metodi tradizionali del fare storia è la stessa che Erodoto e Tucidide contrapposero ai narratori di miti e leggende. Prima di Erodoto esisteva il mito, che era un mezzo perfettamente adeguato per raccontare e dare significato al passato di una tribù o di una città. In un mondo post letterario la nostra conoscenza del passato sta sottilmente mutando nel momento in cui lo vediamo rappresentato da pixel o quando le informazioni scaturiscono non da sole, ma grazie all’interattività con il mezzo. La nostra capacità come studiosi e studenti di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio sottinteso al 3D, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Le esperienze raccolte nelle pagine precedenti ci portano a pensare che in un futuro non troppo lontano uno strumento come il computer sarà l’unico mezzo attraverso cui trasmettere conoscenze, e dal punto di vista didattico la sua interattività consente coinvolgimento negli studenti come nessun altro mezzo di comunicazione moderno.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A wall film model has been implemented in a customized version of KIVA code developed at University of Bologna. Under the hypothesis of `thin laminar ow' the model simulates the dynamics of a liquid wall film generated by impinging sprays. Particular care has been taken in numerical implementation of the model. The major phenomena taken into account in the present model are: wall film formation by impinging spray; body forces, such as gravity or acceleration of the wall; shear stress at the interface with the gas and no slip condition on the wall; momentum contribution and dynamic pressure generated by the tangential and normal component of the impinging drops; film evaporation by heat exchange with wall and surrounding gas. The model doesn't consider the effect of the wavy film motion and suppose that all the impinging droplets adhere to the film. The governing equations have been integrated in space by using a finite volume approach with a first order upwind differencing scheme and they have been integrated in time with a fully explicit method. The model is validated using two different test cases reproducing PFI gasoline and DI Diesel engine wall film conditions.