895 resultados para PCM, accumulo latente, fluidi a cambiamento di fase, acido laurico


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Progettazione delle procedure necessarie alla realizzazione di piattaforme off-shore, grandi e complesse strutture intelaiate di pilastri, diagonali, travi primarie e travi secondarie, progettate per insediarsi in ambiente marino ed idonee ad ospitare impianti per l'estrazione di idrocarburi. Durante la fase di progettazione si procede con l'ideare la struttura della piattaforma fino a definire le caratteristiche di ogni componente: tale fase ha come esito la redazione dei project drawings (disegni di progetto). La fase di realizzazione è quella che interessa propriamente il lavoro svolto: a seguito della progettazione infatti emergono nuove problematiche a livello applicativo e costruttivo che necessitano di essere studiate e risolte preventivamente alla costruzione fisica dell'opera. In particolar modo è necessario definire quali parti della struttura possono essere acquistate e quali invece devono essere realizzate su misura. Definite le modalità costruttive, viene effettuato lo studio riguardante la movimentazione dei vari piani della piattaforma, movement, e successivamente le problematiche relative al sollevamento degli stessi, lifting. Le due procedure necessitano di raffinate valutazioni euristiche ed analitiche per garantire che la struttura non collassi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le problematiche ambientali e socio – economiche legate alla costruzione di nuove infrastrutture viarie, impongono la progettazione e costruzione di strade che combinino ad elevati standard prestazionali, la riduzione dell’impatto ambientale in fase realizzativa e manutentiva. Quanto detto avvalora il crescente utilizzo di materiali bituminosi modificati con polimeri ed additivati con cere. I primi conferiscono alla miscela maggiore elastoplasticità, incrementandone la durabilità e la resistenza a fatica. Nei secondi la presenza del materiale paraffinico contribuisce a ridurre la viscosità del bitume, il che consente il notevole abbassamento della temperatura di produzione e stesa della miscela. Numerosi studi inoltre hanno dimostrato che le caratteristiche meccaniche della pavimentazione sono fortemente influenzate dal grado di ossidazione delle componenti organiche del bitume, ovvero dal fenomeno dell’invecchiamento o aging. Risulta pertanto fondamentale affiancare allo studio reologico del bitume, prove di simulazione dell’ invecchiamento nel breve e lungo termine. Nel corso della seguente ricerca si provvederà pertanto ad analizzare leganti modificati ed additivati secondo la teoria della viscoelasticità, simulando le reali condizioni di carico ed invecchiamento alle quali il bitume è sottoposto. Tutte le prove di caratterizzazione reologica avanzata prevederanno l’utilizzo del DSR (Dynamic Shear Rheometer) in varie configurazioni di prova e si simulerà l’invecchiamento a breve termine mediante RTFOT (Rolling thin film oven test). Si proporrà inoltre una nuova procedura di aging invecchiando il bitume alla temperatura di equiviscosità o Twork , ovvero a quel valore della temperatura tale per cui, in fase di messa in opera, si avrà una distribuzione molecolare omogenea del modificante all’interno del bitume. Verranno quindi effettuate ulteriori prove reologiche sui leganti invecchiati a tale temperatura. Si darà infine supporto ai risultati della ricerca effettuando prove chimiche con la tecnica analitica FTIR (Fourier Transform Infrared Spectroscopy), analizzando i cambiamenti molecolari avvenuti nel bitume a seguito dell’aggiunta del modificante e dell’invecchiamento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il seguente elaborato è il risultato di uno stage di sei mesi, svolto presso l’azienda Bosch Rexroth Oil Control S.p.A.. L’ente presso cui è stato svolto il tirocinio è l’Industrial Engineering. In particolare è stata compiuta un’analisi dei flussi delle cartucce meccaniche, una famiglia di valvole oleodinamiche. Il lavoro si è sviluppato in tre fasi: nella prima è stata fatta un’analisi dei dati di giacenza, tempi e cicli di lavoro delle cartucce; nella seconda fase si è proposta l’introduzione di un nuovo sistema di picking gestito con supermarket a kanban; nell’ultima fase si è valutata la convenienza dai punti di vista tecnico ed economico del progetto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi progettuale nasce per integrare gli sforzi attuali sullo sviluppo del web semantico. La piattaforma di riferimento sulla quale è stato svolto il presente lavoro è SMART-M3. Questa piattaforma mette a disposizione uno spazio condiviso di informazioni, rappresentate e accessibili secondo le tecnologie del web semantico. In questo scenario, nasce la necessità di disporre di un'interfaccia web capace di interagire con la piattaforma - in grado di risolvere la complessità intrinseca dei dati semantici - allo scopo di averne un completo controllo; ricerche precedenti a questo proposito hanno dato come frutto una libreria PHP che mi è stata consegnata come strumento per lo sviluppo dell'interfaccia. La tesi si è articolata in 3 fasi principali: una fase iniziale di documentazione sull'argomento, eseguita principalmente sul libro “A developer's guide to the semantic web” di Liyang Yu e sulla tesi “Ontologie per il web semantico: un'analisi comparativa.” di Indrit Beqiri; una seconda fase, quella principale, di sviluppo del progetto informatico; una terza fase, infine, di sviluppo di questo elaborato di tesi, da considerarsi come la trattazione di tutto il percorso soprascritto, dall'inizio alla fine, secondo l'ordine cronologico in cui si svolto l'intero processo della tesi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La mia attività di tesi è stata svolta presso CEFLA Dental Group di Imola (BO). Essa ha trattato lo studio e il re-engineering del sistema attuale di imballaggio dei riuniti odontoiatrici ( vedi CAP 2 ),ponendo particolare attenzione all’utilizzo di materiali ecosostenibili e alla riduzione di tempi e costi. Il mio lavoro è stato suddiviso in quattro fasi ben distinte: la prima, all’interno dell’area produttiva, è servita per analizzare in dettaglio le varie fasi di montaggio dei gruppi e sottogruppi di alcuni modelli di riuniti dentali scelti come riferimento. A seguire, affiancato a operatori specializzati, ho assistito alle operazioni di imballaggio, stoccaggio in magazzino e carico. Nella seconda fase, ho raccolto anche una serie di informazioni utili all’analisi, tra cui i costi dei vari elementi dell’imballo, i tempi necessari all’operatore e infine lo storico dei reclami degli ultimi anni. Ho poi selezionato gli aspetti critici più ricorrenti. Durante la terza fase, ho eseguito la vera e propria analisi, proponendo alcune soluzioni di miglioramento. Infine nell’ultima fase ho valutato economicamente le varie soluzioni ipotizzate, focalizzandomi inoltre sui tempi di manodopera.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Diversi studi presenti in letteratura hanno messo in evidenza come il sistema di filtrazione di un olio extravergine di oliva rivesta un ruolo importante per una corretta conservazione del prodotto nel tempo; contestualmente, l’applicazione di metodi tradizionali di trattamento comporta la diminuzione di alcuni componenti minori: oltre all’allontanamento dei composti in sospensione, che concorrono a fornire l’aspetto torbido all’olio non trattato, viene allontanata acqua micro dispersa, che ha l’importante compito di solubilizzare molecole dotate di una certa polarità, principalmente fenoliche che, come noto, risultano indispensabili per la stabilità ossidativa e giocano un ruolo chiave nell’impartire all’olio extravergine di oliva alcune note sensoriali peculiari, quali l’amaro ed il piccante, percepibili in fase gustativa. Lo scopo di questo progetto sperimentale è stato di valutare la qualità chimica e sensoriale di tre oli extra vergini di oliva sottoposti ad un sistema brevettato di illimpidimento, basato sul passaggio di un flusso di gas inerte, quale l’argon, nella massa di olio d'oliva. Questo metodo può rappresentare una valida alternativa ai trattamenti tradizionali e per questo è indispensabile valutarne i punti di forza e di debolezza in relazione all’effettiva possibilità di impiego nella produzione industriale. Per questa finalità, il sistema brevettato dall'Università di Bologna e dalla Sapio (una società privata che fornisce il gas per i settori industriali e della ricerca) è stato applicato a un lotto di 50 L di ciascun olio dopo la sua produzione mediante mini-frantoio. I campioni, sia trattati che controllo, sono stati imbottigliati e conservati a temperatura ambiente e mantenuti al buio prima dell'analisi. Dopo quattro mesi di conservazione, sono stati valutati gli indici di qualità di base, tra cui acidità libera, numero di perossidi, assorbimento specifico nella zona dei dieni e trieni coniugati e il profilo sensoriale. Inoltre è stata valutata la stabilità ossidativa in condizioni forzate, il profilo dei composti maggioritari (acidi grassi) e dei composti minori (tocoferoli, fenoli, volatili, acqua). I risultati sono stati utilizzati per la comparazione della qualità complessiva degli oli extravergini di oliva sottoposti a chiarifica con sistema brevettato rispetto a quelli non trattati, permettendo una valutazione dell’effetto del nuovo sistema sulle caratteristiche chimiche e sensoriali del prodotto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo sviluppo negli ultimi decenni di strumentazioni sempre più pratiche, versatili, veloci ed economicamente accessibili, ha notevolmente incrementato la capacità delle aziende, in particolar modo quelle operanti nel settore dell'industria alimentare, nel cogliere le potenzialità di una tecnologia che applica rigore scientifico a una materia a lungo considerata liminale e di secondaria rilevanza, quale quella cromatica. A fronte di ciò, si è ritenuto opportuno introdurre strumenti di misura formalizzati a livello internazionale, atti a individuare e verificare parametri di colore, i quali attestassero la qualità della materia prima utilizzata, nonché riconducibili a una tecnologia di produzione di massa. L’attuale progetto deriva dalla necessità di un’azienda produttrice di concentrati in pasta e semi-lavorati in polvere per la gelateria e la pasticceria, di introdurre un sistema di misurazione oggettiva del colore, che vada a sostituirsi a una valutazione soggettiva, a lungo ritenuta come unico metodo valido di analisi. Il ruolo rivestito all’interno di tale azienda ha consentito, grazie anche al supporto fornito dal Controllo Qualità, la realizzazione di un elaborato finale di sintesi, contenente i risultati delle analisi colorimetriche condotte su alcune paste concentrate. A partire dunque dalla letteratura scientifica elaborata in materia, si è proceduto inizialmente, alla realizzazione di una parte generale riguardante la descrizione del colore, delle sue proprietà e manifestazioni, e dei metodi di misurazione, ripercorrendo le tappe dalla nascita delle prime teorie fino all’adozione di uno spazio di colore universale; una seconda sperimentale, in cui si elaborano- tramite software statistici (Anova , Spectra Magic Nx)- i parametri colorimetrici e il pH dei singoli campioni. In particolare, la determinazione del colore su paste concentrate, ha permesso di valutare in maniera oggettiva le variazioni di colore in termini di coordinate L*, a*, b*, che avvengono durante il periodo di conservazione (24-36 mesi). Partendo dai dati oggettivi di colore, sono state definite semplici equazioni che descrivono l'andamento dei parametri in funzione dei mesi di conservazione e del pH del prodotto. Nell’ottica del miglioramento della gestione della qualità delle aziende specializzate nella produzione di semilavorati-concentrati per le gelaterie, il presente lavoro ha fornito uno spunto per la realizzazione e l’applicazione di un sistema di controllo del colore durante la conservazione del prodotto; ha anche permesso di definire le linee per un sistema di analisi colorimetrica utile alla messa a punto di un database aziendale comprensivo d’indici, stime e annotazioni. Tale database dovrà essere mirato all’ottenimento di un sempre più alto livello di qualità del prodotto, suggerendo allo stesso tempo possibili interventi correttivi (maggior standardizzazione del colore e possibile definizione di un adeguato intervallo di tolleranza), ma anche a un miglioramento nella gestione di problematiche in fase di produzione e quindi, l’incremento della capacità produttiva con conseguente riduzione dei tempi di evasione degli ordini. Tale contributo ha consentito a delineare le future prospettive di sviluppo favorendo l’implementazione (nella realtà aziendale) di un approccio strumentale e quindi oggettivo, in relazione alle più comuni problematiche di tipo colorimetrico, al fine di migliorare il valore qualitativo del prodotto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

UML è ampiamente considerato lo standard de facto nella fase iniziale di modellazione di sistemi software basati sul paradigma Object-Oriented; il suo diagramma delle classi è utilizzato per la rappresentazione statica strutturale di entità e relazioni che concorrono alla definizione delle specifiche del sistema; in questa fase viene utilizzato il linguaggio OCL per esprimere vincoli semantici sugli elementi del diagramma. Il linguaggio OCL però soffre della mancanza di una verifica formale sui vincoli che sono stati definiti. Il linguaggio di modellazione Alloy, inserendosi in questa fase, concettualmente può sopperire a questa mancanza perchè può descrivere con le sue entità e relazioni un diagramma delle classi UML e, tramite propri costrutti molto vicini all'espressività di OCL, può specificare vincoli semantici sul modello che verranno analizzati dal suo ambiente l'Alloy Analyzer per verificarne la consistenza. In questo lavoro di tesi dopo aver dato una panoramica generale sui costrutti principali del linguaggio Alloy, si mostrerà come è possibile creare una corrispondenza tra un diagramma delle classi UML e un modello Alloy equivalente. Si mostreranno in seguito le analogie che vi sono tra i costrutti Alloy e OCL per la definizione di vincoli formali, e le differenze, offrendo nel complesso soluzioni e tecniche che il modellatore può utilizzare per sfruttare al meglio questo nuovo approccio di verifica formale. Verranno mostrati anche i casi di incompatibilità. Infine, come complemento al lavoro svolto verrà mostrata, una tecnica per donare una dinamicità ai modelli statici Alloy.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo studio è stato effettuato nell’ambito del progetto Theseus; il mio lavoro mirava a valutare la risposta dei popolamenti meio e macrobentonici alla presenza di diverse tipologie di strutture di difesa costiera. Sono stati presi in esame a tal fine oltre al sito di campionamento di Cesenatico sud, con presenza di barriere emerse anche il sito di Cesenatico nord, con presenza di barriere semisommerse, per poter effettuare un confronto. Il campionamento è stato fatto nella zona intertidale dove sono stati prese oltre alle variabili biotiche di macro e meiofauna anche quelle abiotiche (granulometria e sostanza organica). Sono stati scelti sei transetti in maniera random, 3 livelli di marea fissi l’alta, la media e la bassa (H, M, L) e due repliche (A e B) per un totale di 36 campioni per ogni variabile presa in esame. Dopo la fase di trattamento dei campioni in laboratorio state fatte in seguito analisi univariate effettuando l’ANOVA sia sui dati biotici di abbondanza numero di taxa e indice di diversità di Shannon di macro e meiobenthos sia sulle singole variabili ambientali di TOM, mediana, classazione, shell mean (capulerio). Sono state fatte anche analisi multivariate; per quanto riguarda i dati biotici sono state effettuate analisi di MDS e PERMANOVA e per quanto riguarda le variabili dei dati abiotici è stata fatta l’analisi della PCA. Infine per effettuare un confronto tra le variabili ambientali e quelle biotiche è stata fatta anche l’analisi BIOENV. Dai risultati sono emerse delle differenze sostanziali tra i due siti con maggiore abbondanza e diversità nel sito di Cesenatico nord rispetto a quello sud. Sono state evidenziate anche differenze nei livelli di marea con una maggiore abbondanza nel livello di bassa marea rispetto alla media e all’alta soprattutto per quanto riguarda il sito di Cesenatico sud. Dal confronto tra i dati ambientali e quelli biotici ne è risultato che la variabile più strettamente correlata è quella del capulerio sia per quanto riguarda il pattern di distribuzione della macrofauna che della meio. Tale lavoro ha messo in evidenza come i popolamenti rispondano in maniera differente alla presenza di differenti barriere di difesa costiera che anche se simili nella loro struttura presentano dei differenti effetti che hanno sull’azione del moto ondoso, circolazione dell’acqua e trasporto di sedimenti portando così a differenti risposte nei patterns di distribuzione dei popolamenti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi approfondisce lo studio della cinta muraria di Rimini, elemento importantissimo per la comprensione della forma urbana e la conoscenza della storia della città. Nella fase iniziale è stata svolta la ricerca bibliografica e archivistica, cercando di capire le motivazioni e le vicende che hanno portato, in più tappe, alla definizione e all’evoluzione del complesso sistema fortificato. Nella seconda fase del lavoro si è studiato il contesto urbano e paesaggistico ed è stato elaborato un masterplan, avente come obiettivo principale la messa a sistema delle risorse storico-culturali e ambientali della città e i suoi spazi collettivi. In seguito si è approfondito lo studio relativo alla sistemazione architettonica e paesaggistica di due specifici ambiti del masterplan: i giardini delle mura di San Giuliano e l’area dell’anfiteatro romano. Procedendo dalla grande scala al dettaglio, sono state studiate le tecniche costruttive e le tipologie ricorrenti dei principali elementi architettonici della cinta muraria, che testimoniano l’evoluzione stessa dell’architettura militare tra XIV e XV secolo. La fase conclusiva dello studio riguarda in primo luogo la conoscenza dello stato di conservazione e dei principali fenomeni di degrado, e in secondo luogo l’elaborazione di un progetto di conservazione relativo ai due tratti del sistema analizzati e di un più generale piano di manutenzione programmata.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Recenti studi hanno evidenziato come il cammino in ambiente acquatico possa portare a notevoli benefici nell’ambito di un processo riabilitativo: il cammino in acqua è infatti oggi considerato una delle principali terapie per pazienti con disturbi nella deambulazione, oltre ad essere impiegato per migliorare il recupero a seguito di interventi ed infortuni. Una caratterizzazione biomeccanica del cammino umano in acqua permetterebbe tuttavia di giungere a una conoscenza più approfondita degli effetti di quest’attività sul processo riabilitativo, e dunque a una sua prescrizione più mirata come parte delle terapie. Nonostante il crescente interesse, uno dei motivi per cui ancora pochi studi sono stati condotti in questo senso risiede nell’inadeguatezza di molti dei tradizionali sistemi di Motion Capture rispetto all’impiego subacqueo. La nuova branca della Markerless Motion Capture potrebbe invece in questo senso rappresentare una soluzione. In particolare, ci si occuperà in questo lavoro di tesi della tecnica markerless basata sulla ricostruzione del visual hull per retroproiezione delle silhouette. Il processo iniziale che permette di ottenere le silhouette dai video delle acquisizioni è detto segmentazione, la quale è anche una fase particolarmente importante per ottenere una buona accuratezza finale nella ricostruzione della cinematica articolare. Si sono pertanto sviluppati e caratterizzati in questo lavoro di tesi sette algoritmi di segmentazione, nati specificamente nell’ottica dell’analisi del cammino in acqua con tecnica markerless. Si mostrerà inoltre come determinate caratteristiche degli algoritmi influenzino la qualità finale della segmentazione, e sarà infine presentato un ulteriore algoritmo di post-processing per il miglioramento della qualità delle immagini segmentate.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il lavoro presentato ha come oggetto la ricostruzione tridimensionale della città di Bologna nella sua fase rinascimentale. Tale lavoro vuole fornire un modello 3D delle architetture e degli spazi urbani utilizzabile sia per scopi di ricerca nell’ambito della storia delle città sia per un uso didattico-divulgativo nel settore del turismo culturale. La base del lavoro è una fonte iconografica di grande importanza: l’affresco raffigurante Bologna risalente al 1575 e situato in Vaticano; questa è una veduta a volo d’uccello di grandi dimensioni dell’intero tessuto urbano bolognese all’interno della terza cerchia di mura. In esso sono rappresentate in maniera particolareggiata le architetture civili e ecclesiastiche, gli spazi ortivi e cortilivi interni agli isolati e alcune importanti strutture urbane presenti in città alla fine del Cinquecento, come l’area portuale e i canali interni alla città, oggi non più visibili. La ricostruzione tridimensionale è stata realizzata tramite Blender, software per la modellazione 3D opensource, attraverso le fasi di modellazione, texturing e creazione materiali (mediante campionamento delle principali cromie presenti nell’affresco), illuminazione e animazione. Una parte della modellazione è stata poi testata all’interno di un GIS per verificare l’utilizzo delle geometrie 3D come elementi collegabili ad altre fonti storiche relative allo sviluppo urbano e quindi sfruttabili per la ricerca storica. Grande attenzione infine è stata data all’uso dei modelli virtuali a scopo didattico-divulgativo e per il turismo culturale. La modellazione è stata utilizzata all’interno di un motore grafico 3D per costruire un ambiente virtuale interattivo nel quale un utente anche non esperto possa muoversi per esplorare gli spazi urbani della Bologna del Cinquecento. In ultimo è stato impostato lo sviluppo di un’applicazione per sistemi mobile (Iphone e Ipad) al fine di fornire uno strumento per la conoscenza della città storica in mobilità, attraverso la comparazione dello stato attuale con quello ricostruito virtualmente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questo lavoro sono state studiate diverse miscele di conglomerato bituminoso riciclato a freddo, nelle quali si è inserito polverino di gomma proveniente da riciclaggio di pneumatici dismessi. Lo scopo è stato quello di valutare l’effetto del polverino di gomma all’interno di miscele, contenenti il 100% di fresato, confezionate a freddo con emulsione di bitume e cemento, analizzandone gli effetti sulla lavorabilità, sulla resistenza a trazione indiretta, sui moduli di rigidezza e sulle resistenze a fatica. Nel capitolo primo è introdotto il concetto di sviluppo sostenibile con particolare attenzione al campo delle pavimentazioni stradali. Sono analizzati i più recenti dati riguardanti la produzione di rifiuti di demolizione e ricostruzione in Europa e in Italia. Segue una descrizione del materiale di risulta da scarifica delle pavimentazioni stradali, dei pneumatici e delle modalità di recupero degli stessi. Nel capitolo secondo sono riportati i principali riferimenti legislativi a livello comunitario, nazionale e locale riguardanti le attività coinvolte nel processo di riciclaggio dei rifiuti per la loro utilizzazione nella costruzione di opere stradali, accompagnati dai principali documenti ausiliari, quali sentenze e disposizioni applicative a completamento del suddetto quadro normativo. Nel capitolo terzo vengono descritte le principali tecniche di riciclaggio del fresato. Particolare attenzione viene posta nella descrizione delle procedure operative e dei macchinari adottati nelle operazioni di riciclaggio in sito. Infine vengono valutati i pregi e i difetti delle tecniche di riciclaggio a freddo analizzando i vantaggi economici ed ambientali rispetto a quelle tradizionali a caldo. Nel capitolo quarto sono analizzate le singole costituenti della miscela: Emulsione Bituminosa, Cemento, Aggregati, Polverino di Gomma e Acqua, definendone per ciascuna il ruolo e le caratteristiche meccaniche e fisiche che le contraddistinguono. Nel capitolo quinto, viene sviluppato il programma sperimentale, sono definiti gli obbiettivi e descritte in modo approfondito le cinque fasi nelle quali si articola. Nella fase uno, vengono introdotte le miscele che dovranno essere studiate. Segue una caratterizzazione dei principali costituenti alla base di tali miscele: fresato , polverino di gomma, cemento, filler,emulsione bituminosa. Nella fase due avviene il confezionamento dei provini mediante compattazione con pressa giratoria. Al termine della realizzazione dei campioni, vengono descritte e analizzate le proprietà volumetriche del materiale quali il grado di addensamento, la densità, la lavorabilità. Nelle fasi tre, quattro e cinque, vengono eseguiti in successione test per la valutazione delle resistenze a trazione indiretta ITS, test per la determinazione dei moduli di rigidezza ITSM ed infine test per la valutazione delle durate dei materiali a fatica ITFT. Per ognuno dei test, sono descritte le procedure operative sulla base delle normative di riferimento vigenti. Segue l’analisi dei risultati di ciascuna prova e la valutazione dell’effetto che i singoli costituenti hanno sulle caratteristiche meccaniche della miscela.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'elaborato si propone di costituire una guida per la verifica e i test di volo su satelliti o lanciatori, prendendo come riferimento la normativa europea ECSS (European Cooperation for Space Standardization). È riportata la procedura di test, in particolare la fase di test in volo, con particolare attenzione alla pianificazione e allo svolgimento, fino a giungere alla fase di verifica dei risultati. I principali sensori utilizzati per effettuare le misurazioni sono descritti soffermandosi anche sulla telemetria, attraverso la quale è possibile ottenere informazioni dettagliate a terra sullo stato del satellite ed inviare comandi attraverso un telecomando. Al termine informazioni sulla modalità di redazione di un test report.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Uno dei temi più discussi ed interessanti nel mondo dell’informatica al giorno d’oggi è sicuramente il Cloud Computing. Nuove organizzazioni che offrono servizi di questo tipo stanno nascendo ovunque e molte aziende oggi desiderano imparare ad utilizzarli, migrando i loro centri di dati e le loro applicazioni nel Cloud. Ciò sta avvenendo anche grazie alla spinta sempre più forte che stanno imprimendo le grandi compagnie nella comunità informatica: Google, Amazon, Microsoft, Apple e tante altre ancora parlano sempre più frequentemente di Cloud Computing e si stanno a loro volta ristrutturando profondamente per poter offrire servizi Cloud adeguandosi così a questo grande cambiamento che sta avvenendo nel settore dell’informatica. Tuttavia il grande movimento di energie, capitali, investimenti ed interesse che l’avvento del Cloud Computing sta causando non aiuta a comprendere in realtà che cosa esso sia, al punto tale che oggi non ne esiste ancora una definizione univoca e condivisa. La grande pressione inoltre che esso subisce da parte del mondo del mercato fa sì che molte delle sue più peculiari caratteristiche, dal punto di vista dell’ingegneria del software, vengano nascoste e soverchiate da altre sue proprietà, architetturalmente meno importanti, ma con un più grande impatto sul pubblico di potenziali clienti. L’obbiettivo che ci poniamo con questa tesi è quindi quello di esplorare il nascente mondo del Cloud Computing, cercando di comprenderne a fondo le principali caratteristiche architetturali e focalizzando l’attenzione in particolare sullo sviluppo di applicazioni in ambiente Cloud, processo che sotto alcuni aspetti si differenzia molto dallo sviluppo orientato ad ambienti più classici. La tesi è così strutturata: nel primo capitolo verrà fornita una panoramica sul Cloud Computing nella quale saranno date anche le prime definizioni e verranno esposti tutti i temi fondamentali sviluppati nei capitoli successivi. Il secondo capitolo costituisce un approfondimento su un argomento specifico, quello dei Cloud Operating System, componenti fondamentali che permettono di trasformare una qualunque infrastruttura informatica in un’infrastruttura Cloud. Essi verranno presentati anche per mezzo di molte analogie con i classici sistemi operativi desktop. Con il terzo capitolo ci si addentra più a fondo nel cuore del Cloud Computing, studiandone il livello chiamato Infrastructure as a Service tramite un esempio concreto di Cloud provider: Amazon, che fornisce i suoi servizi nel progetto Amazon Web Services. A questo punto, più volte nel corso della trattazione di vari temi saremo stati costretti ad affrontare le problematiche relative alla gestione di enormi moli di dati, che spesso sono il punto centrale di molte applicazioni Cloud. Ci è parso quindi importante approfondire questo argomento in un capitolo appositamente dedicato, il quarto, supportando anche in questo caso la trattazione teorica con un esempio concreto: BigTable, il sistema di Google per la gestione della memorizzazione di grandi quantità di dati. Dopo questo intermezzo, la trattazione procede risalendo lungo i livelli dell’architettura Cloud, ricalcando anche quella che è stata l’evoluzione temporale del Cloud Computing: nel quinto capitolo, dal livello Infrastructure as a Service si passa quindi a quello Platform as a Service, tramite lo studio dei servizi offerti da Google Cloud Platform. Il sesto capitolo costituisce invece il punto centrale della tesi, quello che ne soddisfa l’obbiettivo principale: esso contiene infatti uno studio approfondito sullo sviluppo di applicazioni orientate all’ambiente Cloud. Infine, il settimo capitolo si pone come un ponte verso possibili sviluppi futuri, analizzando quali sono i limiti principali delle tecnologie, dei modelli e dei linguaggi che oggi supportano il Cloud Computing. In esso viene proposto come possibile soluzione il modello ad attori; inoltre viene anche presentato il framework Orleans, che Microsoft sta sviluppando negli ultimi anni con lo scopo appunto di supportare lo sviluppo di applicazioni in ambiente Cloud.