992 resultados para DMTCP ULPM Checkpoint Restart Migrazione Processi Linux Sistemi Virtuali


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nella Regione Emilia-Romagna, la zona delle conoidi ha una valenza strategica essendo la principale fonte di approvvigionamento idropotabile per le utenze civili, oltre che sostegno per le attività industriali ed agricole. All’interno di questo contesto ci si è soffermati sulla provincia di Piacenza, scegliendo come aree di studio le Conoidi del Trebbia e dell’Arda, per valutare le dinamiche di ricarica naturale attraverso l’identificazione della relazione che intercorre fra (i) l’entità dei deflussi superficiali riferiti ai corsi idrici che alimentano le conoidi, e (ii) il livello piezometrico nei rispettivi acquiferi. L’analisi è stata condotta applicando il modello Auto-Regressive Distributed Lag (ARDL).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Scopo del presente lavoro è introdurre i principali strumenti fisico-matematici utilizzati per la descrizione del moto (di un numero limitato) di oggetti astronomici, soggetti esclusivamente alle loro vicendevoli interazioni gravitazionali. Tali strumenti sono quelli messi a punto nell'ambito della soluzione del Problema dei Due Corpi e del Problema dei Tre Corpi. Verranno anche esaminate alcune applicazioni pratiche di tali metodologie d'indagine.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La crescente espansione del traffico aereo degli ultimi anni obbliga i progettisti delle infrastrutture aeroportuali ad analizzare nel dettaglio i vari processi presenti negli aeroporti. Tali processi possono essere relativi al terminal, e quindi legati ai passeggeri, e relativi alle operazioni di volo, e pertanto legati agli aeromobili. Una delle aree più critiche dell’infrastruttura aeroportuale è il Terminal, in quanto è l’edificio che permette il trasferimento dei passeggeri dal sistema di trasporto terrestre a quello aeronautico e viceversa. All’interno del Terminal si hanno diversi processi, intesi come procedure, azioni o misure, che il passeggero è tenuto a sostenere prima, durante e dopo la partenza. L’aspetto più critico, per ciò che concerne i rischi di congestione dovuti alla molteplicità di processi, è il viaggio del passeggero in partenza. Il passaggio tra processi successivi deve essere visto con l’obiettivo di rendere il percorso del passeggero il più facile e semplice possibile. Nel presente elaborato si vuole focalizzare l’attenzione sui processi di gestione dei passeggeri presenti nei terminal aeroportuali valutandone le rispettive criticità. Per una buona analisi di questi processi bisognerebbe valutare il sistema reale. Per far fronte a questa necessità si fa uso della simulazione del sistema reale attraverso software specifici. La simulazione è il processo di progettazione e creazione di un modello computerizzato di un sistema reale. In questo lavoro di tesi, si vogliono, quindi, riportare le peculiarità dei processi che caratterizzano il viaggio dei passeggeri in partenza all’interno dei terminal aeroportuali, e valutarne le criticità attraverso l’applicazione ad un caso reale mediante l’utilizzo di uno dei maggiori software di simulazione in commercio, ovvero Arena Simulation Software della casa americana Rockwell. Pertanto nei primi capitoli vengono descritte le caratteristiche dei processi presenti in un terminal aeroportuale e le proprietà della simulazione. Mentre nei successivi capitoli si è riportato la simulazione di un caso reale effettuata con il software Arena.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

XCModel è un sistema CAD, basato su NURBS, realizzato ed utilizzato in ambiente accademico. È composto da quattro pacchetti per la modellazione 2D, 3D e la resa foto-realistica, ognuno dotato di una propria interfaccia grafica. Questi pacchetti sono in costante evoluzione: sia per le continua evoluzioni dell’hardware che ai cambiamenti degli standard software. Il sistema nel complesso raccoglie la conoscenza e l’esperienza nella modellazione geometrica acquisita nel tempo dai progettisti. XCModel, insieme ai suoi sottosistemi, sono stati progettati per diventare un laboratorio di insegnamento e ricerca utile a sperimentare ed imparare metodi ed algoritmi nella modellazione geometrica e nella visualizzazione grafica. La natura principalmente accademica, e la conseguente funzione divulgativa, hanno richiesto continui aggiornamenti del programma affinché potesse continuare a svolgere la propria funzione nel corso degli anni. La necessità di continuare a ad evolversi, come software didattico, anche con il moderno hardware, è forse il principale motivo della scelta di convertire XCModel a 64 bit; una conversione che ho svolto in questa tesi. Come molte altre applicazioni realizzate a 32 bit, la maggior parte del codice viene eseguito correttamente senza problemi. Vi sono però una serie di problematiche, a volte molto subdole, che emergono durante la migrazione delle applicazioni in generale e di XCModel in particolare. Questa tesi illustra i principali problemi di portabilità riscontrati durante il porting a 64 bit di questo pacchetto seguendo il percorso da me intrapreso: mostrerò gli approcci adottati, i tool utilizzati e gli errori riscontrati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’idea di sviluppare il presente lavoro è scaturita da alcune considerazioni sulla metodologia di preparazione dell’interprete. In particolare è nata dalla consapevolezza che la sfida principale di questa professione risiede nel fatto di dover gestire, durante l’intera carriera, un confronto impari con una quantità potenzialmente infinita di concetti e termini nuovi da assimilare. Ciò è dovuto in primis all’intrinseca vastità della lingua, principale strumento di comunicazione, e implica che ogni volta l’interprete si trovi a operare in uno degli innumerevoli contesti estremamente eterogenei in cui può essere richiesto il suo servizio, caratterizzati ciascuno da una propria cultura e da un suo lessico settoriale sul quale è necessario prepararsi, spesso disponendo solo di pochi giorni per farlo. Una delle strategie possibili per fare fronte in modo efficace al costante flusso di informazioni da assimilare è la specializzazione, ovvero lo studio approfondito e a lungo termine di uno o più settori tematici, con l’acquisizione graduale della relativa terminologia settoriale nelle varie lingue di lavoro. Il presente lavoro propone l’utilizzo di sistemi di rappresentazione grafica della conoscenza come strumenti a supporto di questo processo di specializzazione, con l’aiuto dei quali mettere a fuoco e fissare sia la componente concettuale, sia quella terminologica relativa ad un dominio specifico. A mo’ di esempio è stato scelto il settore moda, poiché ritenuto particolarmente adeguato agli scopi proposti. Il software utilizzato è la versione freeware di MindMaple. L’elaborato è suddiviso in due parti: la prima ne descrive l’impianto teorico e comprende la descrizione dei processi di categorizzazione della realtà da un punto di vista psicologico-cognitivo (cap.1), integrata da una panoramica delle diverse tipologie di sistematizzazione della conoscenza, dei loro ambiti di applicazione (cap.2), e soffermandosi infine sull’approfondimento dei vari tipi di schemi: mentali, concettuali, ecc.(cap.3) Nella seconda parte del lavoro viene dapprima fornita una descrizione generale del dominio al quale appartiene l’argomento dello schema, ossia il settore moda, esponendo le ragioni di tale scelta e soffermandosi su alcune particolarità del lessico settoriale (cap. 4). L’ultimo capitolo è infine dedicato alla presentazione dell’elaborato grafico con un’ introduzione sulle funzionalità principali del software utilizzato, la descrizione dello schema nei vari suoi aspetti, come la struttura e le fasi di sviluppo, nonché alcuni esempi concreti relativi a problematiche terminologiche incontrate sia in fase di sistematizzazione del lessico che durante la ricerca di equivalenti interlinguistici.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In any terminological study, candidate term extraction is a very time-consuming task. Corpus analysis tools have automatized some processes allowing the detection of relevant data within the texts, facilitating term candidate selection as well. Nevertheless, these tools are (normally) not specific for terminology research; therefore, the units which are automatically extracted need manual evaluation. Over the last few years some software products have been specifically developed for automatic term extraction. They are based on corpus analysis, but use linguistic and statistical information to filter data more precisely. As a result, the time needed for manual evaluation is reduced. In this framework, we tried to understand if and how these new tools can really be an advantage. In order to develop our project, we simulated a terminology study: we chose a domain (i.e. legal framework for medicinal products for human use) and compiled a corpus from which we extracted terms and phraseologisms using AntConc, a corpus analysis tool. Afterwards, we compared our list with the lists extracted automatically from three different tools (TermoStat Web, TaaS e Sketch Engine) in order to evaluate their performance. In the first chapter we describe some principles relating to terminology and phraseology in language for special purposes and show the advantages offered by corpus linguistics. In the second chapter we illustrate some of the main concepts of the domain selected, as well as some of the main features of legal texts. In the third chapter we describe automatic term extraction and the main criteria to evaluate it; moreover, we introduce the term-extraction tools used for this project. In the fourth chapter we describe our research method and, in the fifth chapter, we show our results and draw some preliminary conclusions on the performance and usefulness of term-extraction tools.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nell’era dell’informazione in cui viviamo, ogni persona viene sdoppiata in due entità: oltre alla parte reale e materiale vi è un alterego fatto di dati ed informazioni che vive nei database e nei server che compongono il web. Il collegamento tra le due parti è dato dagli account e dalle chiavi di autenticazione, che si presumono essere segrete. Al giorno d’oggi ogni persona possiede almeno un account, sia esso una web mail, un profilo su un social network o l’account di online banking. Quasi la totalità di questi sistemi effettua l’autenticazione dell’utente tramite l’immissione di una password, e la sicurezza di quest’ultima è essenziale per la protezione delle informazioni personali, dei dati bancari e della propria identità. Col passare del tempo le informazioni personali che diamo in custodia al web crescono sempre più velocemente e diventano sempre più personali e delicate, ma purtroppo l’importanza che viene data alla sicurezza informatica non cresce di pari passo sia da parte degli utenti, sia da parte dei fornitori dei servizi web. Questa tesi ha come scopo quello di portare il lettore ad avere più coscienza rispetto alle tematiche della sicurezza informatica e di esporre in modo chiaro e semplice alcune delle problematiche che riguardano la sicurezza dei sistemi di autenticazione.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

“Play on your CPU” è un'applicazione mobile per ambienti Android e iOS. Lo scopo di tale progetto è quello di fornire uno strumento per la didattica dei principi di funzionamento dei processori a chiunque sia interessato ad approfondire o conoscere questi concetti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questa tesi affronta la tematica della trustworthiness dal punto di vista dell’utente, a partire dalla sua identità virtuale fino a considerare l’analisi dei parametri che un sito Web dovrebbe adottare perchè sia ritenuto affidabile dagli utilizzatori. Si individueranno quindi le criticità che rendono ancora la trustworthiness una variabile poco considerata nella progettazione di siti Web e gli eventuali accorgimenti e punti di forza che caratterizzano un ambiente di lavoro. La tesi presenta diversi casi esemplificativi di utilizzo, ovvero gli ambienti di commercio elettronico, gli ambienti che condizionano l’acquisto di un utente e i sistemi di knowledge sharing; tutte le analisi di affidabilità sono applicate a siti web che adottano modelli di approvvigionamento dati da parte degli utenti stessi, votazioni e giudizi, recensioni su prodotti e servizi, crowdsourcing di informazioni e di esperienze personali e collettive, basate su progetti di indagine commerciale, analisi e opinione di prodotti o servizi o informazioni condivise per lo sviluppo sociale. La tematica viene analizzata da questi tre punti di vista, ciascuno sotto l’ottica identitaria, di reputazione e di affidabilità. La letteratura, come esaminato in questa tesi, propone alcuni modelli che individuano criteri di valutazione dell’affidabilità dei siti web, su algoritmi già esistenti quindi su siti Web che possiedono sistemi di filtraggio del contenuto o sistemi di valutazione della reputazione o meccanismi di raccomandazione per individuare le intenzioni dell’utente; in altri casi vengono implementati modelli sperimentali e teorie basate su dataset esistenti, per ricercare soluzioni tangibili all’autenticazione di affidabilità di un sistema, compensando la carenza di sistemi di giudizio di trustworthiness su siti Web reali. Vengono proposti alcuni casi d’uso, appartenenti alle categorie prese in oggetto, per esaminare nel dettaglio, le caratteristiche di trustworthiness fornite da ognuno di essi, nel loro campo di applicazione. L’obiettivo è tracciare una mappatura dei principali criteri con cui viene valutata trustworthiness dei dati in qualsiasi ambito d’applicazione della rete, ponendo alcuni criteri fondamentali ed avere così una visione approfondita della problematica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La precisione delle misure dell’accelerazione di gravità effettuate grazie ai gravimetri più moderni fornisce importanti informazioni relative ai processi deformativi, che avvengono nel nostro pianeta. In questa tesi il primo capitolo illustra alcuni fondamenti della teoria dell’elasticità ed in particolare la possibilità di descrivere qualunque sorgente deformativa interna alla Terra tramite una distribuzione di “forze equivalenti” con risultante e momento nulli. Inoltre descriviamo i diversi contributi alle variazioni di gravità prodotte da tali eventi. Il secondo capitolo fornisce alcune tecniche di soluzione dell’equazione di Laplace, utilizzate in alcuni calcoli successivi. Nel terzo capitolo si sviluppano le soluzioni trovate da Mindlin nel 1936, che analizzò spostamenti e deformazioni generate da una forza singola in un semispazio elastico omogeneo con superficie libera. Si sono effettuati i calcoli necessari per passare da una forza singola a un dipolo di forze e una volta trovate queste soluzioni si sono effettuate combinazioni di dipoli al fine di ottenere sorgenti deformative fisicamente plausibili, come una sorgente isotropa o una dislocazione tensile (orizzontale o verticale), che permettano di descrivere fenomeni reali. Nel quarto capitolo si descrivono i diversi tipi di gravimetri, assoluti e relativi, e se ne spiega il funzionamento. Questi strumenti di misura sono infatti utilizzati in due esempi che vengono descritti in seguito. Infine, nel quinto capitolo si sono applicati i risultati ottenuti nel terzo capitolo al fine di descrivere i fenomeni avvenuti ai Campi Flegrei negli anni ‘80, cercando il tipo di processo deformativo più adatto alla descrizione sia della fase di sollevamento del suolo che quella di abbassamento. Confrontando le deformazioni e le variazioni residue di gravità misurate prima e dopo gli eventi deformativi con le previsioni dei modelli si possono estrarre importanti informazioni sui processi in atto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'utilizzo dell'idrogeno come vettore energetico è uno dei temi, riguardanti la sostenibilità energetica, di maggior rilievo degli ultimi anni. Tuttavia ad oggi è ancora in corso la ricerca di un sistema che ne permetta un immagazzinamento efficiente. Il MgH2 costituisce un valido candidato per la produzione di sistemi per lo stoccaggio di idrogeno allo stato solido. In questa tesi, per migliorare le proprietà cinetiche e termodinamiche di cui questo sistema, sono stati sintetizzati dei campioni nanostrutturati composti da Mg-Ti attraverso la tecnica Inert Gas Condensation. I campioni così ottenuti sono stati analizzati dal punto di vista morfologico e composizionale, mediante la microscopia elettronica a scansione, la microanalisi e la diffrazione di raggi X. Tali analisi hanno mostrato che le dimensioni delle nanoparticelle sono comprese tra i 10-30 nm e che la tecnica IGC permette una distribuzione uniforme del titanio all'interno della matrice Mg. Le misure di caratterizzazione per l'assorbimento reversibile di idrogeno sono state effettuate attraverso il metodo volumetrico, Sievert. I campioni sono stati analizzati a varie temperature (473K-573K). Cineticamente la presenza di titanio ha provocato un aumento della velocità delle cinetiche sia per i processi di desorbimento che per quelli di assorbimento ed ha contribuito ad una diminuzione consistente delle energie di attivazione di entrambi i processi rispetto a quelle note in letteratura per il composto MgH2. Dal punto di vista termodinamico, sia le pressioni di equilibrio ottenute dalle analisi PCT a diverse temperature, che l'entalpia e l'entropia di formazione risultano essere in accordo con i valori conosciuti per il sistema MgH2. All'interno di questo lavoro di tesi è inoltre presentata un'analisi preliminare di un campione analizzato con la tecnica Synchrotron Radiation-Powder X Ray Diffraction in situ, presso la facility MAX-lab (Svezia), all’interno dell’azione COST, MP1103 per la ricerca di sistemi per lo stoccaggio di idrogeno allo stato solido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

I sistemi esperti sono programmi che cercano di riprodurre le prestazioni di esperti umani nella risoluzione di problemi specifici. Essi rappresentano il più conosciuto risultato pratico della ricerca in intelligenza artificiale. Ne vengono analizzate la struttura interna, i paragidmi su cui si basano, i componenti che ne fanno parte e i linguaggi di programmazione principali. Viene studiato uno dei primi distemi esperti: il MYCIN. Esso opera nel campo medico ed è stato di notevole importanza e innovazione nei primi anni in cui questi sistemi venivano sviluppati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nella tesi viene presentata una introduzione generale all'Internet of Things, gli utilizzi che ne vengono fatti attualmente e le eventuali modifiche che verranno apportate in futuro, inoltre vengono presentati i problemi che ne derivano e le soluzioni che attualmente risolvono questi problemi. E' presente una introduzione al protocollo presentato da IBM MQTT che attualmente rappresenta uno standard in questo campo. In seguito vengono mostrati i requisiti e le fasi di progettazione di un sistema domotico, quali sono i suoi principali utilizzi quali i vantaggi e i suoi svantaggi. E' presente una introduzione ai dispositivi maggiormente usati per la realizzazione di sistemi del genere, con le loro caratteristiche, in particolare di dispositivi Arduino e Raspberry Pi. Viene mostrato l'uso del protocollo mqtt per la comunicazione tra dispositivi Raspberry Pi e client Android. In fine viene mostrata una realizzazione di un sistema di domotica attraverso l'uso di questo protocollo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Per far fronte alla necessità di sviluppo incrementale ed evolutivo dell'IT, è necessario un continuo rinnovamento del sistema aziendale. Negli ultimi anni, il progresso informatico è stato caratterizzato dall'espansione delle tecnologie Cloud, in grado di semplificare la complessità amministrativa delle aziende, aumentare la scalabilità dei sistemi e ridurre i costi di produzione. Nel corso di questo elaborato analizzerò nel dettaglio come il Cloud sia capace di rivoluzionare, in primis dal punto di vista amministrativo, ma non solo, i sistemi informatici moderni, valutando i molteplici benefici da esso generati e gli inevitabili trade-off che ne derivano.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tesi su un esperimento per la realizzazione di una mappa cognitiva sul processo decisionale e gli aspetti cognitivi di una persona durante lo svolgimento di una partita a un videogioco di genere Moba. La tesi presente anche cenni di teoria sulle mappe cognitive, sulle misure di rete e sugli aspetti cognitivi dei videogiochi in generale.