43 resultados para sistemi integrati, CAT tools, machine translation
Resumo:
Il presente elaborato si propone di dimostrare che per la tipologia testuale presa in considerazione, ovvero il contratto, l’uso di un programma di traduzione assistita è da preferire alla traduzione manuale, per produttività e coerenza traduttiva. Primo obiettivo è dunque quello di svolgere un’analisi comparativa tra i due approcci traduttivi, evidenziando i vantaggi della traduzione assistita rispetto a quella manuale, e al tempo stesso analizzando e valutando i suoi possibili limiti. Inoltre, posto che SDL Trados Studio è il sistema CAT per eccellenza, ma che molto spesso non è alla portata dei tanti traduttori alle prime armi, l’elaborato si propone di offrire una valida alternativa ad esso: memoQ, uno dei programmi di traduzione assistita attualmente in più rapida espansione, che si sta inserendo sempre più all’interno del mercato della traduzione come valida alternativa a SDL Trados Studio.
Resumo:
This work focuses on Machine Translation (MT) and Speech-to-Speech Translation, two emerging technologies that allow users to automatically translate written and spoken texts. The first part of this work provides a theoretical framework for the evaluation of Google Translate and Microsoft Translator, which is at the core of this study. Chapter one focuses on Machine Translation, providing a definition of this technology and glimpses of its history. In this chapter we will also learn how MT works, who uses it, for what purpose, what its pros and cons are, and how machine translation quality can be defined and assessed. Chapter two deals with Speech-to-Speech Translation by focusing on its history, characteristics and operation, potential uses and limits deriving from the intrinsic difficulty of translating spoken language. After describing the future prospects for SST, the final part of this chapter focuses on the quality assessment of Speech-to-Speech Translation applications. The last part of this dissertation describes the evaluation test carried out on Google Translate and Microsoft Translator, two mobile translation apps also providing a Speech-to-Speech Translation service. Chapter three illustrates the objectives, the research questions, the participants, the methodology and the elaboration of the questionnaires used to collect data. The collected data and the results of the evaluation of the automatic speech recognition subsystem and the language translation subsystem are presented in chapter four and finally analysed and compared in chapter five, which provides a general description of the performance of the evaluated apps and possible explanations for each set of results. In the final part of this work suggestions are made for future research and reflections on the usability and usefulness of the evaluated translation apps are provided.
Resumo:
L’obiettivo di questo lavoro di tesi è rappresentato dalla definizione di un metodo di ricerca terminologica e documentazione, nonché di traduzione assistita, supportato dalle moderne tecnologie disponibili in questo campo (Antconc, Bootcat, Trados ecc.), valido per la traduzione di questo tipo di documenti, gli standard, ma sfruttabile anche in altri ambiti della traduzione tecnico-scientifica, permettendo al traduttore e, di conseguenza, al committente, di ottenere un documento “accettabile” e qualitativamente idoneo in lingua di arrivo. Il percorso tracciato in questo elaborato parte dalla presentazione del quadro storico generale, per poi passare alla classificazione degli additivi alimentari in base alla tipologia e agli impieghi in campo alimentare. Verranno illustrati in modo generale i metodi di analisi degli additivi e i criteri di validazione dei metodi impiegati, in funzione degli standard internazionali relativi alla materia, rivolgendo particolare attenzione al quadro normativo e alle agli organi coinvolti nella regolamentazione e nel controllo di queste sostanze, sia in Italia che in Russia e nel resto del mondo. Tutto ciò in funzione degli avvenimenti sul piano geopolitico e su quello culturale: da un lato le sanzioni economiche tra UE e Russia, dall’altro EXPO 2015, opportunità per numerosi traduttori e terminologi di approfondire e arricchire le proprie conoscenze in un ambito tanto importante: alimentazione e sicurezza alimentare, in relazione al progetto di gestione terminologica VOCA9. La parte finale della tesi è dedicata alla presentazione degli standard russi GOST R e alla loro traduzione in italiano, in funzione della documentazione e alla ricerca terminologica necessarie per la traduzione tramite CAT tools ed indispensabili per la creazione di glossari.
Resumo:
Lo scopo del presente elaborato è ottenere dati grezzi dai maggiori offerwalls affinché si renda possibile elaborarli ed analizzarli per metterli a disposizione delle figure che si occupano di account management di un potenziale Ad Network quale è MyAppFree. Il primo Ad Network competitor a venire integrato nel presente tool di Business Intelligence è OfferToro, seguito da AdGem, il quale è attualmente in fase di integrazione. Prima di presentare i risultati del tool, a cui è stato dedicato l’ultimo capitolo dell’elaborato, sono stati approfonditi ed analizzati ampiamente i concetti fondamentali per la comprensione del progetto insieme agli strumenti utilizzati per la costituzione dell’architettura software. Successivamente, viene presentata l'architettura dei singoli microservizi oltre a quella sistemistica generale, la quale tratta come le parti che compongono iBiT, interagiscono tra loro. Infine, l’ultima parte della trattazione è dedicata al funzionamento del Front End Side per la figura account manager, che rappresenta l’utente finale del progetto. Unita alle analisi dei risultati ottenuti tramite una fase di benchmark testing, metrica che misura un insieme ripetibile di risultati quantificabili che serve come punto di riferimento perché prodotti e servizi possano essere confrontati. Lo scopo dei risultati dei test di benchmark è quello di confrontare le versioni presenti e future del software tramite i rispettivi benchmark.
Resumo:
Sin dal suo ingresso nel mercato della traduzione, la machine translation (MT) è stata impiegata in numerosi settori professionali e ha suscitato l’interesse del grande pubblico. Con l’avvento della traduzione automatica neurale, la MT ha avuto un ulteriore impulso e ci si è iniziati a interrogare sulla possibilità di estenderne il raggio d’azione all’ambito letterario, che sembra tuttora non toccato dagli automatismi delle macchine in virtù della funzione espressiva e del contenuto creativo dei testi. Il presente elaborato nasce quindi con l’obiettivo di valutare l’effettiva applicabilità della traduzione automatica in ambito letterario attraverso un’attenta analisi dell’output prodotto dalla MT supportata da un confronto con la traduzione svolta da un professionista. Questa analisi si baserà sulla traduzione di un estratto del romanzo Hunger Games di Suzanne Collins e le traduzioni verranno effettuate da due dei migliori software di traduzione automatica neurale attualmente sul mercato: ModernMT e DeepL. Una volta terminata la valutazione dei singoli output verranno mostrati i risultati e determinati i limiti e i vantaggi della machine translation.
Resumo:
Natural Language Processing (NLP) has seen tremendous improvements over the last few years. Transformer architectures achieved impressive results in almost any NLP task, such as Text Classification, Machine Translation, and Language Generation. As time went by, transformers continued to improve thanks to larger corpora and bigger networks, reaching hundreds of billions of parameters. Training and deploying such large models has become prohibitively expensive, such that only big high tech companies can afford to train those models. Therefore, a lot of research has been dedicated to reducing a model’s size. In this thesis, we investigate the effects of Vocabulary Transfer and Knowledge Distillation for compressing large Language Models. The goal is to combine these two methodologies to further compress models without significant loss of performance. In particular, we designed different combination strategies and conducted a series of experiments on different vertical domains (medical, legal, news) and downstream tasks (Text Classification and Named Entity Recognition). Four different methods involving Vocabulary Transfer (VIPI) with and without a Masked Language Modelling (MLM) step and with and without Knowledge Distillation are compared against a baseline that assigns random vectors to new elements of the vocabulary. Results indicate that VIPI effectively transfers information of the original vocabulary and that MLM is beneficial. It is also noted that both vocabulary transfer and knowledge distillation are orthogonal to one another and may be applied jointly. The application of knowledge distillation first before subsequently applying vocabulary transfer is recommended. Finally, model performance due to vocabulary transfer does not always show a consistent trend as the vocabulary size is reduced. Hence, the choice of vocabulary size should be empirically selected by evaluation on the downstream task similar to hyperparameter tuning.
Resumo:
Throughout the years, technology has had an undeniable impact on the AVT field. It has revolutionized the way audiovisual content is consumed by allowing audiences to easily access it at any time and on any device. Especially after the introduction of OTT streaming platforms such as Netflix, Amazon Prime Video, Disney+, Apple TV+, and HBO Max, which offer a vast catalog of national and international products, the consumption of audiovisual products has been on a constant rise and, consequently, the demand for localized content too. In turn, the AVT industry resorts to new technologies and practices to handle the ever-growing workload and the faster turnaround times. Due to the numerous implications that it has on the industry, technological advancement can be considered an area of research of particular interest for the AVT studies. However, in the case of dubbing, research and discussion regarding the topic is lagging behind because of the more limited impact that technology has had on the very conservative dubbing industry. Therefore, the aim of the dissertation is to offer an overview of some of the latest technological innovations and practices that have already been implemented (i.e. cloud dubbing and DeepDub technology) or that are still under development and research (i.e. automatic speech recognition and respeaking, machine translation and post-editing, audio-based and visual-based dubbing techniques, text-based editing of talking-head videos, and automatic dubbing), and respectively discuss their reception by the industry professionals, and make assumptions about their future implementation in the dubbing field.
Resumo:
Lo scopo della presente tesi è quello di illustrare alcuni dei principali strumenti messi a disposizione dai controlli automatici a servizio dell’ingegneria, in particolare analizzando la struttura generale di una fabbrica automatica e descrivendone i principali sistemi di controllo. L’elaborato è suddiviso in tre macro parti: la prima ha l’obiettivo di inquadrare quella che è la fabbrica automatica, partendo dal precedente concetto di fabbrica tradizionale fino ad arrivare alla fabbrica moderna, caratterizzata da una spinta flessibilità produttiva determinata da una politica di produzione per lotti con elevati livelli di caratterizzazione. Della fabbrica automatica viene poi approfondita l’integrazione con i calcolatori attraverso il sistema concettuale del CIM, Computer Integrated Manufacturing, e l’impiego di celle di fabbricazione flessibili, ovvero le FMS, Flexible Manufacturing System. La seconda parte è incentrata sull’analisi delle logiche di controllo impiegate all’interno di tutto il processo di progettazione e di produzione, suddivise in tre gruppi: il primo focalizzato sui sistemi per la produzione automatica, NC e DNC; il secondo sui sistemi di simulazione e testing del prodotto, CAD, CAM e CAT; il terzo sui sistemi di controllo e sviluppo dati, SCADA, MES e DCS. La terza ed ultima parte è circoscritta all’approfondimento di un particolare sistema di controllo per la gestione dei processi, ovvero sull’uso del PLC, il Controllore Logico Programmabile. Vengono analizzate le componenti fisiche che lo costituiscono, il funzionamento base, i tempi di esecuzione delle istruzioni, i criteri di scelta e di dimensionamento ed altri aspetti rilevanti. Infine è presente un esempio applicativo di alcuni aspetti sovra citati con il caso dell’azienda bolognese G.D, leader del settore delle macchine automatiche a controllo numerico per la fabbricazione e l’impacchettamento delle sigarette.
Resumo:
Esperimenti sulla virtualizzazione del laboratorio informatico della facoltà, che attraverso migrazioni di virtual machine, consentirebbe il risparmio energetico grazie allo spegnimento di alcune macchine fisiche.
Resumo:
Questo testo si pone come obbiettivo l'analisi di fattibilità tecnica e l'introduzione all'implementazione di sistemi che permettano il riutilizzo di codice sorgente di applicazioni con necessità simili su dispositivi Smartphone. In particolare su sistemi Google Android. Questo è il concetto di personalizzazione di applicazioni, in pratica la costruzione di sistemi che permettano di generare applicazioni mobile attraverso interfacce user-friendly e mediante l'uso di codice modulare. L'obbiettivo è fornire una visione globale delle soluzioni e delle problematiche di questo campo, poste come linee guida per chi intendesse studiare questo contesto o dovesse sviluppare un progetto, anche complesso, inerente alla personalizzazione di applicazioni. Sarà implementato come esempio, un web service per la personalizzazione di applicazioni Android, in particolare webview, soffermandosi in particolare sulle problematiche legate alla paternità del software e delle firme digitali necessarie per la pubblicazione sul market Android. Saranno definite alcune scelte da prendere se si sviluppano applicazioni per terzi che in seguito saranno rilasciate sul market. Nella ultima parte sarà analizzata una strategia di customizzazione attraverso alcune buone pratiche, che permette attraverso l'uso di progetti libreria e direttamente nell'ambiente di sviluppo, di realizzare codice modulare e pronto per il market Android in diverse versioni.
Resumo:
Testing e Analisi di problemi di usabilità che potrebbero sorgere se due sistemi venissero integrati in un unico nuovo sistema.
Resumo:
La tesi di laurea presentata si inserisce nell’ampio contesto della Sicurezza Informatica, in particolare tratta il problema del testing dei sistemi di sicurezza concepiti per contrapporsi alle odierne minacce: gli attacchi mirati (Targeted Attacks) ed in generale le minacce avanzate persistenti (Advanced Persistent Threats). Il principale obiettivo del lavoro svolto è lo sviluppo e la discussione di una metodologia di test per sistemi di sicurezza focalizzati su questo genere di problemi. Le linee guida proposte hanno lo scopo di aiutare a colmare il divario tra quello che viene testato e quello che in realt`a deve essere affrontato realmente. Le attività svolte durante la preparazione della tesi sono state sia di tipo teorico, per quanto concerne lo sviluppo di una metodologia per affrontare al meglio il testing di sistemi di sicurezza a fronte di attacchi mirati, che ne di tipo sperimentale in quanto si sono utilizzati tali concetti per lo svolgimento di test su più strumenti di difesa in uno scenario d’interesse reale.
Resumo:
In any terminological study, candidate term extraction is a very time-consuming task. Corpus analysis tools have automatized some processes allowing the detection of relevant data within the texts, facilitating term candidate selection as well. Nevertheless, these tools are (normally) not specific for terminology research; therefore, the units which are automatically extracted need manual evaluation. Over the last few years some software products have been specifically developed for automatic term extraction. They are based on corpus analysis, but use linguistic and statistical information to filter data more precisely. As a result, the time needed for manual evaluation is reduced. In this framework, we tried to understand if and how these new tools can really be an advantage. In order to develop our project, we simulated a terminology study: we chose a domain (i.e. legal framework for medicinal products for human use) and compiled a corpus from which we extracted terms and phraseologisms using AntConc, a corpus analysis tool. Afterwards, we compared our list with the lists extracted automatically from three different tools (TermoStat Web, TaaS e Sketch Engine) in order to evaluate their performance. In the first chapter we describe some principles relating to terminology and phraseology in language for special purposes and show the advantages offered by corpus linguistics. In the second chapter we illustrate some of the main concepts of the domain selected, as well as some of the main features of legal texts. In the third chapter we describe automatic term extraction and the main criteria to evaluate it; moreover, we introduce the term-extraction tools used for this project. In the fourth chapter we describe our research method and, in the fifth chapter, we show our results and draw some preliminary conclusions on the performance and usefulness of term-extraction tools.
Resumo:
La tesi da me svolta durante questi ultimi sei mesi è stata sviluppata presso i laboratori di ricerca di IMA S.p.a.. IMA (Industria Macchine Automatiche) è una azienda italiana che naque nel 1961 a Bologna ed oggi riveste il ruolo di leader mondiale nella produzione di macchine automatiche per il packaging di medicinali. Vorrei subito mettere in luce che in tale contesto applicativo l’utilizzo di algoritmi di data-mining risulta essere ostico a causa dei due ambienti in cui mi trovo. Il primo è quello delle macchine automatiche che operano con sistemi in tempo reale dato che non presentano a pieno le risorse di cui necessitano tali algoritmi. Il secondo è relativo alla produzione di farmaci in quanto vige una normativa internazionale molto restrittiva che impone il tracciamento di tutti gli eventi trascorsi durante l’impacchettamento ma che non permette la visione al mondo esterno di questi dati sensibili. Emerge immediatamente l’interesse nell’utilizzo di tali informazioni che potrebbero far affiorare degli eventi riconducibili a un problema della macchina o a un qualche tipo di errore al fine di migliorare l’efficacia e l’efficienza dei prodotti IMA. Lo sforzo maggiore per riuscire ad ideare una strategia applicativa è stata nella comprensione ed interpretazione dei messaggi relativi agli aspetti software. Essendo i dati molti, chiusi, e le macchine con scarse risorse per poter applicare a dovere gli algoritmi di data mining ho provveduto ad adottare diversi approcci in diversi contesti applicativi: • Sistema di identificazione automatica di errore al fine di aumentare di diminuire i tempi di correzione di essi. • Modifica di un algoritmo di letteratura per la caratterizzazione della macchina. La trattazione è così strutturata: • Capitolo 1: descrive la macchina automatica IMA Adapta della quale ci sono stati forniti i vari file di log. Essendo lei l’oggetto di analisi per questo lavoro verranno anche riportati quali sono i flussi di informazioni che essa genera. • Capitolo 2: verranno riportati degli screenshoot dei dati in mio possesso al fine di, tramite un’analisi esplorativa, interpretarli e produrre una formulazione di idee/proposte applicabili agli algoritmi di Machine Learning noti in letteratura. • Capitolo 3 (identificazione di errore): in questo capitolo vengono riportati i contesti applicativi da me progettati al fine di implementare una infrastruttura che possa soddisfare il requisito, titolo di questo capitolo. • Capitolo 4 (caratterizzazione della macchina): definirò l’algoritmo utilizzato, FP-Growth, e mostrerò le modifiche effettuate al fine di poterlo impiegare all’interno di macchine automatiche rispettando i limiti stringenti di: tempo di cpu, memoria, operazioni di I/O e soprattutto la non possibilità di aver a disposizione l’intero dataset ma solamente delle sottoporzioni. Inoltre verranno generati dei DataSet per il testing di dell’algoritmo FP-Growth modificato.