892 resultados para plagio, software, leggi, università, test, verifiche, analisi, confronto, metodi di individuzazione
Resumo:
Il testo documenta due aspetti importanti della certficazione del software DM come la conoscenza della normativa 93/42 e il processo di gestione del rischio. Entrambi fondamentali per valutare la sicurezza di tali dispositivi.
Resumo:
L’obiettivo di questa tesi è quello di mettere a confronto due mondi: quello dei DBMS relazionali e quello dei DBMS a grafo, con lo scopo di comprendere meglio quest'ultimo. Perciò, sono state scelte le due tecnologie che meglio rappresentano i loro mondi: Oracle per gli RDBMS e Neo4j per i Graph DBMS. I due DBMS sono stati sottoposti ad una serie di interrogazioni atte a testare le performance al variare di determinati fattori, come la selettività, il numero di join che Oracle effettua, etc. I test svolti si collocano nell'ambito business intelligence e in particolare in quello dell’analisi OLAP.
Resumo:
La mobilitazione di polveri radioattive nel caso di un incidente di perdita di vuoto (LOVA) all’interno di ITER (International Thermonuclear Experimental Reactor), è uno dei problemi di sicurezza che si sono posti durante la costruzione di tale reattore. Le polveri vengono generate dalla continua erosione da parte del plasma del materiale di contenimento. Ciò porta ad un accumulo delle stesse all’interno della camera di vuoto. Nel caso di un incidente LOVA il rilascio di tali polveri in atmosfera rappresenta un rischio per la salute di lavoratori e della popolazione circostante. Per raccogliere dati su tale tipo di incidente è stata costruita presso il laboratorio dell’università di Tor Vergata una piccola facility, STARDUST, in cui sono stati eseguiti vari esperimenti con delle condizioni iniziali simili a quelle presenti all’interno di ITER. Uno di questi esperimenti in particolare simula la rottura della camera di vuoto mediante l’ingresso di aria in STARDUST, inizialmente posto a 100 Pa, con un rateo di pressurizzazione di 300 Pa s−1. All’interno del serbatoio sono presenti delle polveri che, in differente percentuale, vengono portate in sospensione dal flusso di fluido entrante. In particolare le polveri sono composte da tungsteno (W), acciaio inossidabile (SS – 316 ) e carbonio ( C ). Scopo del presente lavoro è quello di riprodurre il campo di velocità che si genera all’interno di STARDUST nel caso dell’esperimento appena descritto e valutare il moto delle particelle portate in sospensione e la loro successiva deposizione. Ciò viene fatto mediante l’utilizzo di una geometria bidimensionale creata con Salome. Su tale geometria sono costruite differenti mesh strutturate in base al tipo di simulazione che si vuole implementare. Quest’ultima viene poi esportata nel solutore utilizzato, Code_Saturne. Le simulazioni eseguite possono essere suddivise in tre categorie principali. Nella prima (Mesh A) si è cercato di riprodurre i risultati numerici presentati dagli autori della parte sperimentale, che hanno utilizzato il software commerciale Fluent. Nella seconda si è riprodotto il campo di velocità interno a STARUDST sulla base dei dati sperimentali in possesso. Infine nell’ultima parte delle simulazioni si è riprodotto il moto delle particelle sospese all’interno del fluido in STARDUST, valutandone la deposizione. Il moto del fluido pressurizzante è stato considerato come compressibile. Il regime di moto è stato considerato turbolento viste le elevate velocità che provocavano elevati valori del numero di Reynolds per l’aria. I modelli con cui si è trattata la turbolenza sono stati di tre tipi. Il campo di velocità ottenuto è stato leggermente differente nei tre casi e si è proceduto ad un confronto per valutare le cause che hanno portato a tali differenze. Il moto delle particelle è stato trattato mediante l’utilizzo del modello di tracciamento lagrangiano delle particelle implementato in Code_Saturne. Differenti simulazioni sono state eseguite per tenere in considerazione i vari modelli di turbolenza adottati. Si è dunque proceduto ad analizzare similitudini e differenze dei risultati ottenuti.
Resumo:
Oggetto di questa tesi è lo studio di una rete di teleriscaldamento (TLR) preesistente, la rete di Corticella (Bo) ipotizzando la presenza di sottostazioni di scambio termico attive. Inizialmente sono state presentate le sottostazioni di scambio termico sia tradizionali che attive. Nelle tradizionali ci si è soffermato sul tipo di regolazione che può avvenire. Per quanto riguarda le sottostazioni di scambio termico attive son stati esaminati i 4 layout che permettono uno scambio termico bidirezionale di energia termica. E’ stato presentato il software IHENA (intelligent Heat Energy Network Analysis) creato dal dipartimento di ingegneria industriale, che ha permesso di effettuare le simulazioni sulla rete analizzata. Viene mostrato l’algoritmo di Todini-Pilati generalizzato dall’utilizzo delle equazioni di Darcy-Weisbach su cui si basa il motore di calcolo. Inoltre vengono presentati i vari input che è necessario inserire per ottenere il calcolo della rete. Dopo nozioni di base relative al teleriscaldamento attivo e la presentazione del software utilizzato si è passati alla vera e propria analisi della rete di teleriscaldamento. Sono state effettuate varie simulazioni per vedere l’andamento della rete di Corticella sia considerandola passiva (come nella realtà) che ipotizzandola attiva tramite l’inserimento di sottostazioni di scambio termico ative. Le analisi condotte riguardano i seguenti punti. a) E’ stata presentata la rete di Corticella cosi come è andando a studiare quindi il caso base. b) Sono state svolte delle analisi per vedere come si comportava la rete nel caso in cui venivano variati dei parametri operativi come i carichi termici richiesti dalle utenze. c) Sono stati valutati i percorsi più critici. d) Si è condotta un analisi sulla regolazione al variare delle temperature esterne. Dopo l'analisi del caso base sono state introdotte delle sottostazioni di scambio termico attive, prima solo una, e poi varie lungo determinati percorsi. Le valutazioni effettuate mettevano in primo piano gli andamenti della temperatura nei percorsi, la potenza termica generata dalla sorgente, la temperatura di ritorno in centrale e se si verificano delle problematiche sugli scambiatori di calore. In queste simulazioni sono stati valutati tutti e quattro gli schemi utilizzabili. Infine è stata effettuata un analisi comparativa tra le varie soluzioni studiate per poter mettere a confronto i casi. In particolare anche qui si sono voluti confrontare i valori di potenza spesa per il pompaggio, temperatura di ritorno in centrale e potenza termica offerta dalla sorgente.
Resumo:
Questo studio è mirato ad analizzare ed ottimizzare il consumo dei reagenti solidi impiegati da uno stabilimento di termovalorizzazione di rifiuti solidi urbani e speciali (Silea S.p.A, presso Valmadrera (LC)), per abbattere le correnti acide trattate nelle due linee fumi multistadio. Dopo aver scelto quale delle due linee prendere come riferimento, per poi riportare i risultati ottenuti anche sull’altra con opportune correzioni, il lavoro è stato condotto in diverse fasi, e affiancato da un costante confronto diretto con gli ingegneri e i tecnici dello stabilimento. Una volta preso atto delle normali condizioni di funzionamento dell’impianto, si è proceduto all’esecuzione di test, mirati a quantificare l’efficienza di rimozione dell’acido cloridrico, da parte del bicarbonato di sodio e dell’innovativo sorbente dolomitico, brevettato sotto il nome: Depurcal® MG. I test sono stati suddivisi in giornate differenti in base al tipo di reattivo da analizzare (e quindi lo stadio) e programmati in modo che permettessero di correlare la conversione dell’HCl alla portata di reagente solido introdotto. Una volta raccolti i dati, essi sono stati elaborati e filtrati in base a criteri oggettivi, per poi essere analizzati con senso critico, fornendo un quadro completo sulla reale potenzialità dell’impianto. Attraverso l’utilizzo di un opportuno modello è stato possibile caratterizzarlo e individuare la migliore condizione economico-operativa per ognuno dei possibili scenari individuati.
Resumo:
Questo elaborato si pone l’obiettivo di dimensionare un prototipo di macchina aggraffatrice, utilizzata per creare la giunzione tra il fondo del barattolo, il corpo del barattolo stesso e la testa o cupola. La progettazione, in particolare, ha richiesto anche la verifica dei motori necessari alla movimentazione della macchina, con particolare attenzione alla fase di arresto di emergenza, in cui le inerzie in gioco risultano essere elevate e la durata del transitorio molto breve. Viene descritta la macchina nel dettaglio, focalizzandosi sulle principali caratteristiche che la rendono peculiare, procedendo poi con la costruzione di un modello cinematico complessivo, seguita dall’analisi cinematica del sistema. Si focalizza, in seguito, sul transitorio durante l’arresto di emergenza e, di conseguenza, sulla verifica dei motori, riducendo i modelli di ciascun sottogruppo della macchina all’albero motore. Il transitorio di emergenza viene analizzato anche con un secondo metodo, dove il dimensionamento del motore viene verificato con l’utilizzo di un software appositamente studiato per la scelta di servomotori. Confronto dei risultati ottenuti
Resumo:
La teoria secondo la quale vi sia una forte interconnessione tra cambiamento climatico ed emissioni di gas serra è via via più radicata all’interno della comunità scientifica internazionale. La certezza che la richiesta di energia a livello mondiale non possa che aumentare, unita con le preoccupazioni causate dal cambiamento climatico ha indirizzato parte dei cosiddetti paesi “sviluppati” verso politiche volte all’efficienza energetica e alla produzione di energia attraverso fonti rinnovabili. In seguito a queste decisioni il sistema elettrico nazionale si trova in una fase di rapido cambiamento; in particolare le maggiori problematiche, legate alla rete di distribuzione, sono originate da un fenomeno di diffusione su larga scala della generazione distribuita. In questo contesto, nel presente lavoro di tesi, ci si serve del software openDSS per osservare gli ammodernamenti che la rete ha subito e subirà in futuro. In primo luogo viene trattata una rete, prettamente passiva, in bassa tensione che vuole essere lo specchio di ciò che era la rete prima della diffusione della generazione distribuita. Vengono evidenziati in particolare i profili delle tensioni lungo la rete di distribuzione e le potenze circolanti in rete. Viene successivamente studiata la prima rete con l’aggiunta di generatori, volti a simulare il comportamento di pannelli fotovoltaici, evidenziando alcune le problematiche causate dalla GD su una rete non adatta a sopportarla. Infine viene mostrato come la presenza di alcuni accumulatori (modellizzati per simulare il comportamento di veicoli elettrici) possa migliorare le condizioni della rete. L’obiettivo non è quello di condurre delle simulazioni di reti realmente esistenti e di studiare diversi modelli di sviluppo per esse, bensì quello di creare una rete di prova all’interno del software al fine di analizzare qualitativamente come la rete sia mutata e come possibili scenari potrebbero modificarla in futuro.
Resumo:
The Distributed Software Development (DSD) is a development strategy that meets the globalization needs concerned with the increase productivity and cost reduction. However, the temporal distance, geographical dispersion and the socio-cultural differences, increased some challenges and, especially, added new requirements related with the communication, coordination and control of projects. Among these new demands there is the necessity of a software process that provides adequate support to the distributed software development. This paper presents an integrated approach of software development and test that considers distributed teams peculiarities. The approach purpose is to offer support to DSD, providing a better project visibility, improving the communication between the development and test teams, minimizing the ambiguity and difficulty to understand the artifacts and activities. This integrated approach was conceived based on four pillars: (i) to identify the DSD peculiarities concerned with development and test processes, (ii) to define the necessary elements to compose the integrated approach of development and test to support the distributed teams, (iii) to describe and specify the workflows, artifacts, and roles of the approach, and (iv) to represent appropriately the approach to enable the effective communication and understanding of it.
Resumo:
Il sistema viabile rappresenta una parte fondamentale nella dinamica dei trasporti al servizio della mobilità di trasporti e merci. La mobilità, ha fatto registrare ritmi di crescita sostenuti nel corso degli anni. Le trasformazioni sociali, del mercato del lavoro, lo sviluppo produttivo e commerciale, la posizione baricentrica tra le province jonca salentina e brindisina fanno di Manduria, una realtà dove è necessario prestare attenzione al sistema dei trasporti. Tuttavia la rete statale di vecchio stampo che risulta utilizzata, soprattutto da quote di mobilità interprovinciale per questioni di economicità del percorso e dal momento che manca una rete viaria ordinaria funzionale e scorrevole che colleghi in modo capillare il territorio fanno si che la Strada Statale 7ter risulti congestionata in maniera diffusa. La Superstrada di nuova costruzione sarebbe potuta essere un importante arteria stradale allacciandosi alla SS Taranto Brindisi Lecce collegando il sud della provincia Jonica in modo capillare ai comuni della provincia Taranto e Lecce, la quale non è stata ultimata ed avrebbe rappresentato una valida alternativa alla statale esistenti. Oltre a favorire i collegamenti tra il territorio jonico, brindisino e quello salentino, tale intervento sarebbe stato necessario per ridurre la componente di traffico di attraversamento di una serie di centri urbani, tra cui il Comune di Manduria. In questa tesi, sulla base dei dati raccolti dall’ultimo censimento nell’ambito provinciale e del Comune di Manduria, verrà implementato il funzionamento del Piano del Traffico stradale del Comune di Manduria e verranno condotte delle simulazioni, con l’ausilio del software di pianificazione di sistemi di trasporto stradale Omnitrans, versione demo, scaricabile gratuitamente dal sito www.omnitrans-international.com. Si ricercheranno stime sul funzionamento della rete, valutando la congestione del traffico ed eventualmente in termini di aumento della sicurezza e riduzione dell’inquinamento atmosferico.
Resumo:
In order to protect river water quality, highly affected in urban areas by continuos as intermittent immissions, it is necessary to adopt measures to intercept and treat these polluted flows. In particular during rain events, river water quality is affected by CSOs activation. Built in order to protect the sewer system and the WWTP by increased flows due to heavy rains, CSOs divert excess flows to the receiving water body. On the basis of several scientific papers, and of direct evidences as well, that demonstrate the detrimental effect of CSOs discharges, also the legislative framework moved towards a stream standard point of view. The WFD (EU/69/2000) sets new goals for receiving water quality, and groundwater as well, through an integrated immission/emissions phylosophy, in which emission limits are associated with effluent standards, based on the receiving water characteristics and their specific use. For surface waters the objective is that of a “good” ecological and chemical quality status. A surface water is defined as of good ecological quality if there is only slight departure from the biological community that would be expected in conditions of minimal anthropogenic impact. Each Member State authority is responsible for preparing and implementing a River Basin Management Plan to achieve the good ecological quality, and comply with WFD requirements. In order to cope with WFD targets, and thus to improve urban receiving water quality, a CSOs control strategy need to be implemented. Temporarily storing the overflow (or at least part of it) into tanks and treating it in the WWTP, after the end of the storm, showed good results in reducing total pollutant mass spilled into the receiving river. Italian State Authority, in order to comply with WFD statements, sets general framework, and each Region has to adopt a Water Remediation Plan (PTA, Piano Tutela Acque), setting goals, methods, and terms, to improve river water quality. Emilia Romagna PTA sets 25% reduction up to 2008, and 50% reduction up to 2015 fo total pollutants masses delivered by CSOs spills. In order to plan remediation actions, a deep insight into spills dynamics is thus of great importance. The present thesis tries to understand spills dynamics through a numerical and an experimental approach. A four months monitoring and sampling campaign was set on the Bologna sewer network, and on the Navile Channel, that is the WWTP receiving water , and that receives flows from up to 28 CSOs during rain events. On the other hand, the full model of the sewer network, was build with the commercial software InfoWorks CS. The model was either calibrated with the data from the monitoring and sampling campaign. Through further model simulations interdependencies among masses spilled, rain characteristics and basin characteristics are looked for. The thesis can be seen as a basis for further insighs and for planning remediation actions.
Resumo:
La valutazione progressiva e il monitoraggio di una ferita difficile impongono misurazioni periodiche per valutare in modo qualitativo e quantitativo l'esistenza e l'entita della riepitelizzazione in rapporto alle pratiche terapeutiche effettuate. L'entità della guarigione nei primi 1530 giorni di trattamento, intesa come riduzione di area percentuale, nelle lesioni ulcerative di origine venosa permette secondo alcuni autori della letteratura scientifica, di avere delle informazioni prognostiche di guarigione completa a sei mesi. Altri autori invece mostrano casistiche analoghe indicando come nelle ulcere venose non si possa predire con facilità la guarigione a sei mesi.Le metodiche di misurazione delle ferite possono essere suddivise in bidimensionali e tridimensionali: nel primo gruppo troviamo la misurazione semplice, le metodiche di tracciamento, planimetria, analisi fotografica analogica e digitale. Queste metodiche misurano i diametri, il perimetro e l'area delle ferite. Nel secondo gruppo si collocano l'uso di righello Kundin, le metodiche di riempimento con alginato o con soluzione fisiologica, le metodiche stereofotogrammetriche e l'uso di strumenti laser. Queste metodiche permettono di calcolare con varie approssimazioni anche il volume delle ferite studiate. La tesi ha preso in esame un gruppo di 17 pazienti affetti da ulcere venose croniche effettuando misurazioni con lo strumento più accurato e preciso disponibile (minolta Vivid 900 laser + sensore) e acquisendo i dati con il software Derma. I pazienti sono stati misurati al primo accesso in ambulatorio, dopo 15 giorni e dopo sei mesi. Sono stati acquisiti i dati di area, perimetro, volume, profondità e guarigione a 6 mesi. L'analisi statistica condotta con modalità non parametriche di analisi dei ranghi non ha associato nessuno di questi valori ne' valori derivati ( delta V /delta A; Delta V/ Delta P) alla guarigione a 6 mesi. Secondo le analisi da noi effettuate, sebbene con l'incertezza derivata da un gruppo ridotto di pazienti, la guarigione delle lesioni ulcerative venose non è predicibile a 6 mesi utilizzando sistemi di misurazione di dimensioni, area e volume.
Resumo:
Il progetto prevede l’applicazione dell’analisi del ciclo di vita al sistema integrato di raccolta, riciclaggio e smaltimento dei rifiuti urbani e assimilati. La struttura di una LCA (Life Cycle Assessment) è determinata dalla serie di norme UNI EN ISO 14040 e si può considerare come “un procedimento oggettivo di valutazione dei carichi energetici e ambientali relativi a un processo o un’attività, effettuato attraverso l’identificazione dell’energia e dei materiali usati e dei rifiuti rilasciati nell’ambiente. La valutazione include l’intero ciclo di vita del processo o attività, comprendendo l’estrazione e il trattamento delle materie prime, la fabbricazione, il trasporto, la distribuzione, l’uso, il riuso, il riciclo e lo smaltimento finale”. Questa definizione si riassume nella frase “ from cradle to grave” (dalla culla alla tomba). Lo scopo dello studio è l’applicazione di una LCA alla gestione complessiva dei rifiuti valutata in tre territori diversi individuati presso tre gestori italiani. Due di questi si contraddistinguono per modelli di raccolta con elevati livelli di raccolta differenziata e con preminenza del sistema di raccolta domiciliarizzato, mentre sul territorio del terzo gestore prevale il sistema di raccolta con contenitori stradali e con livelli di raccolta differenziata buoni, ma significativamente inferiori rispetto ai Gestori prima descritti. Nella fase iniziale sono stati individuati sul territorio dei tre Gestori uno o più Comuni con caratteristiche abbastanza simili come urbanizzazione, contesto sociale, numero di utenze domestiche e non domestiche. Nella scelta dei Comuni sono state privilegiate le realtà che hanno maturato il passaggio dal modello di raccolta a contenitori stradali a quello a raccolta porta a porta. Attuata l’identificazione delle aree da sottoporre a studio, è stato realizzato, per ognuna di queste aree, uno studio LCA dell’intero sistema di gestione dei rifiuti, dalla raccolta allo smaltimento e riciclaggio dei rifiuti urbani e assimilati. Lo studio ha posto anche minuziosa attenzione al passaggio dal sistema di raccolta a contenitori al sistema di raccolta porta a porta, evidenziando il confronto fra le due realtà, nelle fasi pre e post passaggio, in particolare sono stati realizzati tre LCA di confronto attraverso i quali è stato possibile individuare il sistema di gestione con minori impatti ambientali.
Resumo:
I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.
Resumo:
Numerose evidenze dimostrano che le proprietà dei materiali compositi sono strettamente legate ai processi produttivi, alle tipologie di fibra e resina impiegate nel materiale stesso. Proprietà caratterizzate anche dai difetti contenuti nel materiale stesso. Nella tesi si presta particolare attenzione al processo produttivo con prepreg e autoclave trattando anche il tema della stesura di un ply-book. Si valutano in modo teorico e critico alcuni tra i metodi N.D.T. più avanzati tra cui: P.T.(Penetrant Test), Rx(Radiography Test), UT (Ultrasound Test in Phased Array) e IRT (InfraRed Termography - Pulsata). Molteplici sono i componenti testati che variano tra loro per: tipologia di resina e fibra impiegata, processo produttivo e geometria. Tutti questi componenti permettono di capire come i singoli parametri influenzino la visualizzazione e l'applicabilità delle tecniche N.D.T. sopra citate. Su alcuni provini è stata eseguita la prova meccanica Drop Weight Test secondo ASTM D7136 per correlare le aree di delaminazione indotte e la sensibilità di ogni singolo metodo, visualizzando così la criticità indotta dagli urti con bassa energia di impatto (BVID Barely Invisible Impact)di cui i materiali compositi soffrono durante la "service life". A conclusione del lavoro si potrà comprendere come solo l'analisi con più metodi in parallelo permetta di ottenere una adeguata Probability Of Detection.
Resumo:
L'obiettivo dell'elaborato è definire gli importi delle voci fondamentali in ingresso al metodo di calcolo tramite un'intensa ricerca bibliografica in materia e realizzare un procedimento pratico di riferimento applicato al campo delle infrastrutture stradali. I risultati ottenuti dal calcolo sono stati verificati e confrontati con test di sensitività sulle variabili critiche (Analisi di Sensitività, Analisi di Switch e Analisi di Rischio).