989 resultados para traduzione assistita CAT ottimizzazione manuali istruzioni revisione semplificazione recupero leveraging


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Un manuale tecnico non veicola solo contenuti, ma definisce anche il rapporto tra emittente e destinatario all’interno di una relazione commerciale. Il testo deve quindi essere di buona qualità, altrimenti si potrebbero verificare danni economici e di immagine per l’emittente. Nonostante ciò, molte aziende dimostrano scarsa sensibilità al problema della qualità redazionale perché ottenerla significa affrontare investimenti di tempo e risorse. Con questa tesi propongo una modalità di revisione del manuale tecnico che tiene in considerazione esigenze di natura diversa: utilizzando gli strumenti CAT per la revisione è possibile, infatti, migliorare la qualità del manuale riducendo i tempi richiesti dal lavoro, e quindi contenerne i costi. Questa proposta, tuttavia, non è una soluzione definitiva perché la revisione migliora un singolo testo: affinché l’azienda comunichi in modo efficace non si può prescindere da un adeguato percorso di formazione dei redattori. In particolare, in un manuale tecnico la qualità corrisponde a un linguaggio chiaro, semplice e non ambiguo, ben lontano dunque dal burocratese che viene considerato da molti un buono stile e dall’antilingua contro cui già Calvino metteva in guardia. Le competenze non solo linguistiche del traduttore gli permettono di rivelarsi una figura determinante anche per la redazione e la revisione di testi monolingue. Così come tradurre non significa trasferire da una lingua all’altra le parole, ma i concetti, allo stesso modo rendere chiaro, semplice e univoco un manuale non vuol dire solo aumentarne la leggibilità, ma soprattutto mettere il destinatario nelle condizioni di capire i contenuti e di eseguire correttamente le istruzioni nel passaggio dal contesto linguistico a quello fattuale. Anche nella revisione, come nella traduzione, gli strumenti automatici non sostituiscono il professionista, ma gli permettono di finalizzare a uno scopo preciso le sue conoscenze sul funzionamento della lingua e della comunicazione.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Nel presente elaborato vengono presentati, a seguito di una breve prefazione, sei capitoli. Nella Prefazione viene descritto l’ambito in cui è stato effettuato lo studio, con un breve riferimento all’argomento trattato. Nel Capitolo 1, introduttivo, viene descritta l’azienda in cui si è svolto il tirocinio, Céline Production s.r.l., ed a cui si è collegata la stesura dell’elaborato, ed il gruppo LVMH a cui l’azienda appartiene. Nel Capitolo 2 viene, in primo luogo, fornita una descrizione della letteratura esistente su Operations e Supply Chain Management, ed in seguito viene parafrasata al contesto in cui è stato svolto il tirocinio. Nella parte conclusiva del capitolo viene descritto l’obiettivo del lavoro. Nel Capitolo 3, primo capitolo centrale dell’elaborato, viene descritto in maniera approfondita il problema alla base del lavoro di tirocinio e vengono elencate le cause individuate. Nel Capitolo 4 vengono proposte e descritte delle azioni di miglioramento per le cause individuate mentre nel Capitolo 5 vengono confrontati i risultati ottenuti. Nel Capitolo 6, infine, vengono descritte le conclusioni e gli sviluppi futuri.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Quando si parla di traduzione, si pensa spesso solo al risultato di un processo, valutato e analizzato come tale. Sembra ci si dimentichi del fatto che, prima di arrivare a quel risultato finale, il traduttore applica più o meno consapevolmente tutta quella serie di strumenti di analisi, critica, correzione, rilettura, riformulazione e modifica che rientrano nell’attività di revisione. A questa prima fase, di cui ogni traduttore fa esperienza nel lavorare alla propria traduzione, segue di norma una fase successiva in cui la traduzione è rivista da un’altra figura professionale della filiera editoriale (di solito, e auspicabilmente, un altro traduttore) e infine altre fasi ancora del processo di lavorazione e pubblicazione del testo tradotto. Oltre a essere un’attività cruciale di ogni attività di traduzione e processo editoriale, la revisione riveste anche un fondamentale ruolo didattico nella formazione dei traduttori. L’idea alla base di questo progetto di ricerca nasce dal bisogno di triangolare riflessioni e dati concreti sulla revisione provenienti dalla ricerca accademica, dalla pratica professionale e dall’esperienza didattico-formativa, in un triplice approccio che informa l’intero progetto, di cui si illustrano i principali obiettivi: • formulare una nuova e chiara definizione sommativa del termine “revisione” da potersi utilizzare nell’ambito della ricerca, della didattica e della prassi professionale; • fornire una panoramica tematica, critica e aggiornata sulla ricerca accademica e non-accademica in materia di revisione; • condurre un’indagine conoscitiva (tramite compilazione di questionari diversificati) sulla pratica professionale della revisione editoriale in Italia, allo scopo di raccogliere dati da traduttori e revisori, fornirne una lettura critica e quindi individuare peculiarità e criticità di questa fase del processo di lavorazione del libro tradotto; • presentare ipotesi di lavoro e suggerimenti su metodi e strumenti da applicare all’insegnamento della revisione in contesti didattici e formativi.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Il presente lavoro di tesi s’inserisce all’interno del progetto Language Toolkit, nato dalla collaborazione tra la Camera di Commercio di Forlì-Cesena e la Scuola di Lingue e Letterature, Traduzione e Interpretazione di Forlì, al fine di avvicinare il mondo dell’università al mondo del lavoro. In particolare, la tesi è frutto della collaborazione tra la laureanda e la Graziani Packaging, azienda italiana leader nel settore del packaging ortofrutticolo e industriale, e consiste nella revisione di una brochure, nella localizzazione del sito web www.graziani.com e nella traduzione di una presentazione PowerPoint, il tutto dall’italiano al tedesco. Il lavoro si compone di tre capitoli. Nel primo, che rappresenta un approfondimento teorico sul tema della localizzazione, si analizza nel dettaglio l’acronimo GILT, si espongono brevemente le tappe principali che hanno caratterizzato la nascita e lo sviluppo del settore della localizzazione e si esaminano le caratteristiche linguistiche, culturali e tecniche della localizzazione di siti web. Il secondo capitolo è dedicato al concetto di qualità in ambito traduttivo e al tema della revisione. In particolare, nella prima parte si analizzano gli standard di qualità professionali, i criteri di qualità proposti da Scarpa (2008) e la classificazione degli errori di traduzione sviluppata da Mossop (2001), mentre l’ultima parte riguarda il processo di revisione in concreto. Nel terzo capitolo, infine, vengono analizzati i tre testi di partenza forniti dall’azienda al traduttore (brochure, sito web e presentazione PowerPoint), e viene esposto e commentato il lavoro di revisione, localizzazione e traduzione degli stessi, ponendo una particolare enfasi sugli aspetti linguistici, culturali e tecnici più interessanti che lo hanno caratterizzato. La tesi si chiude con un glossario terminologico contenente i termini chiave, in italiano e in tedesco, relativi al dominio del packaging ortofrutticolo e industriale, individuati nel corso del lavoro di revisione, localizzazione e traduzione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I moderni sistemi embedded sono equipaggiati con risorse hardware che consentono l’esecuzione di applicazioni molto complesse come il decoding audio e video. La progettazione di simili sistemi deve soddisfare due esigenze opposte. Da un lato è necessario fornire un elevato potenziale computazionale, dall’altro bisogna rispettare dei vincoli stringenti riguardo il consumo di energia. Uno dei trend più diffusi per rispondere a queste esigenze opposte è quello di integrare su uno stesso chip un numero elevato di processori caratterizzati da un design semplificato e da bassi consumi. Tuttavia, per sfruttare effettivamente il potenziale computazionale offerto da una batteria di processoriè necessario rivisitare pesantemente le metodologie di sviluppo delle applicazioni. Con l’avvento dei sistemi multi-processore su singolo chip (MPSoC) il parallel programming si è diffuso largamente anche in ambito embedded. Tuttavia, i progressi nel campo della programmazione parallela non hanno mantenuto il passo con la capacità di integrare hardware parallelo su un singolo chip. Oltre all’introduzione di multipli processori, la necessità di ridurre i consumi degli MPSoC comporta altre soluzioni architetturali che hanno l’effetto diretto di complicare lo sviluppo delle applicazioni. Il design del sottosistema di memoria, in particolare, è un problema critico. Integrare sul chip dei banchi di memoria consente dei tempi d’accesso molto brevi e dei consumi molto contenuti. Sfortunatamente, la quantità di memoria on-chip che può essere integrata in un MPSoC è molto limitata. Per questo motivo è necessario aggiungere dei banchi di memoria off-chip, che hanno una capacità molto maggiore, come maggiori sono i consumi e i tempi d’accesso. La maggior parte degli MPSoC attualmente in commercio destina una parte del budget di area all’implementazione di memorie cache e/o scratchpad. Le scratchpad (SPM) sono spesso preferite alle cache nei sistemi MPSoC embedded, per motivi di maggiore predicibilità, minore occupazione d’area e – soprattutto – minori consumi. Per contro, mentre l’uso delle cache è completamente trasparente al programmatore, le SPM devono essere esplicitamente gestite dall’applicazione. Esporre l’organizzazione della gerarchia di memoria ll’applicazione consente di sfruttarne in maniera efficiente i vantaggi (ridotti tempi d’accesso e consumi). Per contro, per ottenere questi benefici è necessario scrivere le applicazioni in maniera tale che i dati vengano partizionati e allocati sulle varie memorie in maniera opportuna. L’onere di questo compito complesso ricade ovviamente sul programmatore. Questo scenario descrive bene l’esigenza di modelli di programmazione e strumenti di supporto che semplifichino lo sviluppo di applicazioni parallele. In questa tesi viene presentato un framework per lo sviluppo di software per MPSoC embedded basato su OpenMP. OpenMP è uno standard di fatto per la programmazione di multiprocessori con memoria shared, caratterizzato da un semplice approccio alla parallelizzazione tramite annotazioni (direttive per il compilatore). La sua interfaccia di programmazione consente di esprimere in maniera naturale e molto efficiente il parallelismo a livello di loop, molto diffuso tra le applicazioni embedded di tipo signal processing e multimedia. OpenMP costituisce un ottimo punto di partenza per la definizione di un modello di programmazione per MPSoC, soprattutto per la sua semplicità d’uso. D’altra parte, per sfruttare in maniera efficiente il potenziale computazionale di un MPSoC è necessario rivisitare profondamente l’implementazione del supporto OpenMP sia nel compilatore che nell’ambiente di supporto a runtime. Tutti i costrutti per gestire il parallelismo, la suddivisione del lavoro e la sincronizzazione inter-processore comportano un costo in termini di overhead che deve essere minimizzato per non comprometterre i vantaggi della parallelizzazione. Questo può essere ottenuto soltanto tramite una accurata analisi delle caratteristiche hardware e l’individuazione dei potenziali colli di bottiglia nell’architettura. Una implementazione del task management, della sincronizzazione a barriera e della condivisione dei dati che sfrutti efficientemente le risorse hardware consente di ottenere elevate performance e scalabilità. La condivisione dei dati, nel modello OpenMP, merita particolare attenzione. In un modello a memoria condivisa le strutture dati (array, matrici) accedute dal programma sono fisicamente allocate su una unica risorsa di memoria raggiungibile da tutti i processori. Al crescere del numero di processori in un sistema, l’accesso concorrente ad una singola risorsa di memoria costituisce un evidente collo di bottiglia. Per alleviare la pressione sulle memorie e sul sistema di connessione vengono da noi studiate e proposte delle tecniche di partizionamento delle strutture dati. Queste tecniche richiedono che una singola entità di tipo array venga trattata nel programma come l’insieme di tanti sotto-array, ciascuno dei quali può essere fisicamente allocato su una risorsa di memoria differente. Dal punto di vista del programma, indirizzare un array partizionato richiede che ad ogni accesso vengano eseguite delle istruzioni per ri-calcolare l’indirizzo fisico di destinazione. Questo è chiaramente un compito lungo, complesso e soggetto ad errori. Per questo motivo, le nostre tecniche di partizionamento sono state integrate nella l’interfaccia di programmazione di OpenMP, che è stata significativamente estesa. Specificamente, delle nuove direttive e clausole consentono al programmatore di annotare i dati di tipo array che si vuole partizionare e allocare in maniera distribuita sulla gerarchia di memoria. Sono stati inoltre sviluppati degli strumenti di supporto che consentono di raccogliere informazioni di profiling sul pattern di accesso agli array. Queste informazioni vengono sfruttate dal nostro compilatore per allocare le partizioni sulle varie risorse di memoria rispettando una relazione di affinità tra il task e i dati. Più precisamente, i passi di allocazione nel nostro compilatore assegnano una determinata partizione alla memoria scratchpad locale al processore che ospita il task che effettua il numero maggiore di accessi alla stessa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Studio di alcuni dispositivi presenti nelle vetture di formula 1, ma anche in quelle di serie più comuni, per l’ancoraggio e per l’isolamento delle vibrazioni fra componentistiche elettriche e telaio del veicolo. Questi dispositivi, noti come antivibranti (AV), svolgono un ruolo essenziale nel cercare di preservare i dispositivi elettrici: centraline, scatole cablate e connessioni elettriche. Il diffondersi di strumentazione adeguata a costi non più proibitivi ha permesso di studiare più in dettaglio e più scientificamente il comportamento degli AV per sfruttarli al meglio. Obiettivo di questo studio è dare una caratterizzazione scientifica e rigorosa alla maggior parte degli antivibranti presenti in STR7 monoposto Toro Rosso (mondiale di F1 2012), buona parte dei quali verrà utilizzata anche nelle successive vetture. Si volevano, inoltre, sviluppare alcuni modelli che potessero simulare correttamente montaggi di centraline generiche con tutte le diverse tipologie di antivibranti, in modo tale da poter vedere, prima ancora di realizzarli, come si comportavano i sistemi in quelle condizioni e dunque poter apportare modifiche al progetto tali da ottenere la configurazione di montaggio migliore. La continua ricerca di miglioramenti prestazionali che una competizione motoristica ad altissimi livelli richiede, il costante bisogno di alleggerimenti e maggiore affidabilità spingono la ricerca e l'azienda voleva passare da una progettazione basata sulla ripetizione delle configurazioni dimostratesi affidabili nel passato ad una progettazione più tecnica, scientifica e prestazionale. Per una buona caratterizzazione delle proprietà degli antivibranti sono stati progettati specifici test da eseguire al banco vibrante con i quali, lavorando nel dominio delle frequenze, si sono sfruttate le funzioni di risposte in frequenze di ogni antivibrante per ricavare i parametri caratteristici degli stessi nelle varie configurazioni. Con strategie grafiche, numeriche e teoriche si sono ricavati, con buone precisioni, i valori dei coefficienti di smorzamento e di rigidezza che caratterizzano i componenti studiati. Per l’esecuzione di questi test sono stati utilizati tutti gli strumenti messi a disposizione da Scuderia Toro Rosso nel laboratorio per prove vibrazionali recentemente approntato. Per la parte di simulazione numerica invece sono stati sfruttati i risultati ottenuti nella caratterizzazione degli antivibranti per creare programmi in ambiente Matlab che possano simulare il comportamento di generiche centraline montate in generici modi. Risultati di questo studio saranno gli andamenti dei coefficienti di rigidezza e smorzamento dei vari antivibranti nelle diverse configurazioni; inoltre si renderanno disponibili ai progettisti istruzioni e semplici programmi per la valutazione delle scelte fatte al fine di minimizzare le vibrazioni dei dispositivi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The aim of this dissertation is to provide a translation from English into Italian of a highly specialized scientific article published by the online journal ALTEX. In this text, the authors propose a roadmap for how to overcome the acknowledged scientific gaps for the full replacement of systemic toxicity testing using animals. The main reasons behind this particular choice are my personal interest in specialized translation of scientific texts and in the alternatives to animal testing. Moreover, this translation has been directly requested by the Italian molecular biologist and clinical biochemist Candida Nastrucci. It was not possible to translate the whole article in this project, for this reason, I decided to translate only the introduction, the chapter about skin sensitization, and the conclusion. I intend to use the resources that were created for this project to translate the rest of the article in the near future. In this study, I will show how a translator can translate such a specialized text with the help of a field expert using CAT Tools and a specialized corpus. I will also discuss whether machine translation can prove useful to translate this type of document. This work is divided into six chapters. The first one introduces the main topic of the article and explains my reasons for choosing this text; the second one contains an analysis of the text type, focusing on the differences and similarities between Italian and English conventions. The third chapter provides a description of the resources that were used to translate this text, i.e. the corpus and the CAT Tools. The fourth one contains the actual translation, side-by-side with the original text, while the fifth one provides a general comment on the translation difficulties, an analysis of my translation choices and strategies, and a comment about the relationship between the field expert and the translator. Finally, the last chapter shows whether machine translation and post-editing can be an advantageous strategy to translate this type of document. The project also contains two appendixes. The first one includes 54 complex terminological sheets, while the second one includes 188 simple terminological sheets.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Die Idee zu der vorliegenden Masterarbeit entstand nach meinem Praktikum bei dem Bologneser Unternehmen Meccanica Sarti, das im Bereich der metallmechanischen Industrie tätig ist. Ziel meiner Masterarbeit ist die Lokalisierung der Unternehmenswebsite ins Deutsche und die deutsche Übersetzung der Unternehmensbroschüre. Vor beiden Projekten wurde jeweils eine Terminologiearbeit durchgeführt. Die Masterarbeit ist in vier Kapitel untergliedert. Das erste Kapitel ist Meccanica Sarti gewidmet, einem Unternehmen, das sich auf die Fertigung und Bearbeitung feinmechanischer Bauteile für die Industrie spezialisiert hat. Das zweite Kapitel bietet eine theoretische Einführung in die Lokalisierung: Insbesondere werden die wichtigsten mit ihr verknüpften Konzepte (z.B. das Akronym GILT), ihre Geschichte und ihre Entwicklung erläutert. Das Kapitel enthält auch einen Überblick auf die den ÜbersetzerInnen während der Lokalisierung zur Verfügung stehenden elektronischen Hilfsmittel und die Auszeichnungs- bzw. Programmiersprachen, mit denen die Webseiten geschrieben sind. Im dritten Kapitel werden die Fachsprachen und die Terminologiearbeit thematisiert. Die Übersetzung eines Fachtextes ist nur dann möglich, wenn die ÜbersetzerInnen den Wortschatz des betreffenden Fachgebiets, d.h. die Terminologie, kennen. Nach einer Übersicht über die Merkmale der Fachsprachen und der Terminologie wird auf die von Meccanica Sarti benutzte Terminologie eingegangen. Im Rahmen der Masterarbeit wurde zunächst ein Korpus mit den vom Unternehmen zur Verfügung gestellten Dokumenten erstellt und mit dem Programm AntConc wurden die häufigsten keyword und n-gram ermittelt. Im Anschluss daran wurden mit SDL MultiTerm die einschlägigen terminologischen Eintrage erstellt. Das vierte Kapitel beinhaltet die Analyse der Website und der Broschüre und die Auseinandersetzung mit ihren sprachlichen bzw. grafischen Merkmalen. An die Analyse schließt sich eine Überlegung zu SDL Trados, dem benutzen CAT Tool, an. Das Kapitel enthält auch die Lokalisierung der Website und die Übersetzung der Broschüre, die beide ins Deutsche durchgeführt wurden. Abschließend werden die Übersetzungsstrategien, -verfahren, -probleme und -schwierigkeiten anhand der theoretischen Überlegungen am Anfang des Kapitels beschrieben.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro rientra nella cornice dei progetti volti ad agevolare la traduzione e produzione da parte delle Università italiane di contenuti online e documentazione ufficiale anche in ELF, in modo da renderli più facilmente accessibili a livello internazionale. Uno strumento utile a questo scopo, di cui molte università si stanno dotando, è un supporto terminologico relativo al dominio accademico-istituzionale. Questo elaborato si suddivide in sei capitoli. Il primo capitolo, di introduzione, è seguito dal capitolo 2, che presenta la terminologia come disciplina, offre una descrizione dei concetti della terminologia classica rilevanti per il lavoro, seguita da una panoramica degli strumenti di sistematizzazione della conoscenza utilizzati. Il capitolo 3 introduce il processo europeo di riforma dei sistemi di istruzione superiore, che ha motivato la creazione da parte di diverse università europee di strumenti di gestione della terminologia accademico-istituzionale. Vengono anche illustrate alcune Banche Dati terminologiche reperite presso altre università europee. Segue l’analisi dei progetti avviati dall’Università di Bologna, in particolare della Banca Dati di terminologia riferita alla Didattica e all’Organizzazione dell’Ateneo creata dall’Ufficio Relazioni Internazionali. All’interno del capitolo 4 viene descritto il lavoro di analisi delle fonti utilizzate durante la creazione della Banca Dati. Il capitolo 5 introduce le fonti aggiuntive utilizzate nel processo di revisione e compilazione, ovvero i corpora specialistici di dominio accademico-istituzionale, e descrive il processo di analisi metodologica e le modifiche strutturali implementate sulla Banca Dati originale, per poi illustrare le modalità di ricerca e di compilazione dei campi della Banca Dati. L’ultimo capitolo descrive la Banca Dati finale, riassumendo brevemente i risultati del lavoro svolto e presentando la proposta del metodo di assegnazione della tipologia di scheda terminologica a ciascun termine in base alle sue caratteristiche funzionali come punto di riferimento per la successiva compilazione delle restanti sezioni della Banca Dati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Corpus realizzato con i programmi BootCat e AntConc pensato per la mediazione nelle cliniche di fecondazione assistita in Spagna. In queste cliniche numerosi interpreti lavorano al fine di garantire una comunicazione efficace tra medici e pazienti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The aim of this dissertation is to provide an adequate translation from English into Italian of a section of the European Commission's site, concerning an environmental policy tool whose aim is to reduce the EU greenhouse gas emissions, the Emissions Trading System. The main reason behind this choice was the intention to combine a personal interest in the domain of sustainability development with the desire to delve deeper into the knowledge of the different aspects involved in the localisation process. I also had the possibility to combine these two with my interest in the universe of the European Union. I therefore worked on the particular language of this supranational organisation and for this reason I had the opportunity to experience a very stimulating work placement at the Directorate-General for Translation in Brussels. However, the choice of the text was personal and the translation is not intended for publication. The work is divided into six chapters. In the first chapter the text is contextualised within the framework of the EU, and its legislation on multilingualism. This has consequences on the languages that are used by the drafters of the official documents and on the languages used by translators. The text originates from those documents, but it needs to be adapted to different receivers. The second chapter investigates the process of website localisation. The third chapter offers an analysis of the source text and of the prospective target text. In the fourth chapter the resources created and used for the translation of the text are described. A comparison is made between the resources of the translation service of the European Commission and the ones created specifically for this project: a translation memory, exploited through the use of a CAT tool, and two corpora. The fifth chapter contains the actual translation, side-by-side with the source text, while the sixth one provides a comment on the translation strategies.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The little grey cat engine (greyCat) is part of a series of projects which explore software which can enable access to the potentially empowering nature of represented space and game design. GreyCat is the result of research into the culture of the software itself in order to provide participatory environments which enable the telling of ‘small stories’ – stories and experiences which are those of the everyday or those of a cultural perspective other than that prioritised by most world building softwares or game engines. GreyCat offers a simple framework which allows participants to use their own image materials (photographs for the most part) as a basis for spatial exploration of their own places.---------- Truna aka j.turner (2008) The little grey cat engine: telling small stories (Demo), Australasian Computer Human Interaction Conference, OZCHI 2008, December 8th-12th, Cairns, Australia---------- Research Publications: truna aka j.turner & Browning, D. (2009) Designing spatial story telling software, in proceedings OZCHI09, Melbourne---------- Truna aka j.turner, Browning, D. & Champion, E. (2008) Designing for Engaged Experience, In proceedings Australasian Computer Human Interaction Conference, OZCHI 2008, December 8th-12th, Cairns, Australia---------- Truna aka. J.turner & Bidwell, N. (2007) Through the looking glass: game worlds as representations and views from elsewhere, Proceedings of the 4th Australasian conference on Interactive entertainment, Melbourne, Australia---------- Truna aka j.turner, Browning, D & Bidwell, N. (2007) Wanderer beyond game worlds, in proceedings, Hutchinson, A (ed) PerthDAC 2007: The seventh International Digital Arts and Culture Conference: The future of digital media culture, 15-18 September 2007, Perth, Australia, Curtin University of Technology---------- Truna aka j.turner (2006) To explore strange new worlds: experience design in 3 dimensional immersive environments - role and place in a world as object of interaction, In proceedings, Australasian Computer Human Interaction Conference, OZCHI 2006, November 22nd-24th, Sydney, Australia, November 20th – 24th 2006, pp 26- 29---------- Truna aka j.turner (2006) Digital songlines environment (Demonstration), In proceedings 2006 International conference on Game research and development, Perth, Australia---------- Truna aka j.turner (2006) Destination Space: Experiential Spatiality and Stories, Special Session on Experiential Spatiality, In proceedings 2006 International conference on Game research and development, Perth, Australia

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The construction of timelines of computer activity is a part of many digital investigations. These timelines of events are composed of traces of historical activity drawn from system logs and potentially from evidence of events found in the computer file system. A potential problem with the use of such information is that some of it may be inconsistent and contradictory thus compromising its value. This work introduces a software tool (CAT Detect) for the detection of inconsistency within timelines of computer activity. We examine the impact of deliberate tampering through experiments conducted with our prototype software tool. Based on the results of these experiments, we discuss techniques which can be employed to deal with such temporal inconsistencies.