998 resultados para polinomio radice stima localizzazione Newton


Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’elaborato consiste in una proposta di traduzione di un trailer di un videogioco, Genshin Impact, creato dall’azienda cinese Hoyoverse. La scelta è stata dettata da un profondo interesse verso la localizzazione, ovvero il processo di traduzione e adattamento dei videogiochi. La tesi si sviluppa in due capitoli: nel primo si analizza brevemente la storia della localizzazione dei videogiochi, soffermandosi poi su alcuni suoi aspetti come la localizzazione in sim-ship o in post-gold. Successivamente si guarda al videogioco come prodotto culturale e alle problematiche che un localizzatore deve affrontare, come la diversa tolleranza verso i contenuti e la censura. Il secondo capitolo, invece, vede la proposta di traduzione affiancata dai testi ufficiali cinesi e inglesi. A seguire, una breve analisi delle scelte traduttive e di alcune problematiche di traduzione attualmente presenti nel videogioco.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Per funzioni di matrice intendiamo generalizzazioni di funzioni scalari che permettono di valutare tali funzioni anche per matrici. Esistono numerosi esempi notevoli di funzioni di matrice: tra queste la funzione esponenziale, la radice quadrata e il segno. Quest'ultima è particolarmente utile per la risoluzione di particolari equazioni matriciali come ad esempio le equazioni di Sylvester e le equazioni di Riccati. In questo elaborato introdurremo il concetto di funzione di matrice per poi soffermarci proprio sulla funzione segno. Oltre che a fornire tutte le definizioni necessarie e analizzare le proprietà che ci aiuteranno a comprendere meglio questa funzione, ci interesseremo all'implementazione di algoritmi che possano calcolare o approssimare la funzione segno di matrice. Un primo metodo sfrutterà la decomposizione di Schur: supponendo di conoscere la decomposizione della matrice, e di trovarci in algebra esatta, questo metodo non fornirà un'approssimazione del segno della suddetta matrice ma l'esatto segno della stessa. Il secondo metodo che studieremo si può definire più come una famiglia di metodi. Vedremo infatti tre algoritmi diversi che però sfruttano tutti l'iterazione di Newton, opportunamente adattata al caso matriciale: il metodo di base, convergente globalmente, in cui applicheremo semplicemente questa iterazione, ed altri due che mireranno a risolvere problemi distinti del metodo di base, ovvero il numero di iterazioni necessarie per giungere alla convergenza (introducendo il concetto di riscaling) e l'alto costo computazionale (sacrificando però la convergenza globale). Grazie all'aiuto di Matlab analizzeremo più nello specifico l'efficienza dei vari algoritmi descritti, ed infine vedremo più nello specifico come utilizzare la funzione segno di matrice per risolvere le equazioni algebriche di Sylvester e di Riccati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il Ground Penetrating Radar (GPR) è una tecnica di indagine non distruttiva che si basa sulla teoria della propagazione delle onde elettromagnetiche. Questa tecnologia venne inizialmente utilizzata per indagini geologiche, ma più recentemente è stata introdotta anche per lo studio di altri materiali quali calcestruzzo, legno e asfalto. Questa tecnologia investigativa può essere utilizzata per varie problematiche : • Localizzazione di oggetti all’interno del materiale inglobante • Determinazione dello spessore dello strato del materiale oggetto di studio (calcestruzzo, asfalto, terreno, legno) • Proprietà del materiale, inclusa umidità ed eventuale presenza di vuoti Nella fase iniziale di questo lavoro di tesi sono stati studiati i principi fisici di funzionamento, la metodologia di elaborazione dei dati restituiti dallo strumento e di interpretazione dei risultati. Successivamente, è stato posto l’obbiettivo di verificare l’applicabilità del georadar nel rintracciare i ferri di armatura nelle travi da ponte. Quest’ultime sono spesso realizzate tramite l’impiego della precompressione con cavi post-tesi che implica la presenza di guaine con all’interno i relativi trefoli di tensionamento. Per simulare tali condizioni sono state realizzate in laboratorio delle “travi campione” con guaine in differente materiale, con differente posizionamento e con differente tecnologia di posa, in modo tale da permettere di studiare diversi scenari. Di seguito le differenti tipologie di travi : - Trave con guaine metalliche ; - Trave con guaine plastiche ; - Trave con interruzioni in polistirolo lungo le guaine (per simulare la corrosione delle stesse); - Travi con trefoli inseriti all’interno delle guaine (per studiarne l’influenza sul segnale).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Negli ultimi anni si è sviluppato un crescente interesse per lo studio e il monitoraggio di fenomeni meteorologici estremi. In particolare, stanno aumentando osservazioni e testimonianze relative a manifestazioni temporalesche molto violente, spesso caratterizzate da grandine di notevole dimensione che rappresenta la causa principale di pericolo per le persone e di danni anche ingenti al comparto agricolo, infrastrutturale e alle automobili. Per questi motivi, in questo lavoro di tesi è stata presentata una nuova tecnica meteorologica denominata “Multi-sensor Approach for Satellite Hail Advection” (MASHA) che si basa sulla combinazione delle misure fornite dai satelliti geostazionari per trasportare l’informazione e da quelli in orbita polare per riconoscere le nubi grandinigene. I risultati della tecnica MASHA forniscono ogni cinque minuti su tutto il bacino del Mediterraneo la probabilità che la nube osservata abbia formato della grandine in un intervallo compreso tra 0 e 1. Le potenzialità del metodo MASHA riguardano soprattutto l’elevata risoluzione spaziale e temporale con la quale vengono riprodotti i sistemi grandinigeni, la capacità del modello di ricostruire i campi di grandine e l’evoluzione di questi sistemi anche in assenza di passaggi recenti dei satelliti polari. Per migliorare le performance della tecnica, è stato sviluppato un nuovo indice di severità chiamato Hail Severity Index (HSI) in grado di migliorare la localizzazione e la stima dell’intensità dei sistemi grandinigeni attraverso l’integrazione di nuove variabili: l’overshooting index, i fulmini e i dati radar. Le performance della tecnica MASHA e le potenzialità dell’indice HSI mostrate in questo lavoro di tesi, suggeriscono implementazioni operative a supporto di sistemi per il nowcasting di eventi temporaleschi particolarmente severi. Questo approccio, potrebbe essere molto efficace per fornire informazioni in tempo reale ai servizi meteorologici e nel contesto della protezione civile.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A partire dal 1992, nell’industria elettronica giapponese, ha iniziato a diffondersi il sistema produttivo Seru Seisan: “Seru” in giapponese significa “organismo cellulare” e difatti questa modalità di produzione si basa sulla lavorazione di prodotti all’interno di celle. Esse sono formate da brevi tratti di nastro trasportatore, a seguito dello smantellamento di lunghe linee di assemblaggio, in cui lavorano un numero limitato di operatori multi-skilled. All’interno di un Seru possono essere lavorate più tipologie di prodotto ed ogni prodotto lavorato viene completato all’interno della cella stessa. Questo sistema produttivo a bassa automazione si rivela particolarmente adatto per operazioni di assemblaggio e consente di fronteggiare la dinamicità del mercato caratterizzata da elevata varietà e bassi volumi: il layout di un Seru, infatti, può essere riconfigurato rapidamente e richiede bassi investimenti in attrezzatura. In questo elaborato vengono presentati i Seru Seisan, descrivendone le principali caratteristiche e configurazioni unitamente alla loro origine. Dal momento che molti tentativi di applicazione di tale sistema produttivo risultano infruttuosi, soprattutto al di fuori del Giappone, viene proposto un quadro generale per l’implementazione e un algoritmo euristico per risolvere il problema di formazione e assegnazione degli operatori alle celle, minimizzando il costo totale di cross-training e bilanciando il carico di lavoro. Infine, viene presentato il lavoro di ricerca del presente elaborato che ha l’obiettivo di dimostrare il modello analitico che sta alla base del funzionamento di un Seru Divisionale, arrivando a stimare la produttività di una produzione multiprodotto. La formula a cui si giunge viene testata in due casi numerici reali, mostrando come alla progressiva diminuzione del numero di operatori all’interno di una cella, si ottenga un aumento della produttività della cella stessa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A partire dal problema di orbit determination per una sonda in deep-space, la tesi si concentra su sviluppo e confronto di algoritmi di stima della frequenza di segnali analitici per la verifica delle loro performance di accuratezza nella generazione di osservabili doppler. Le tecniche poste a confronto appartengono a due categorie: due tempo-discrete ed una spettrale; in particolare si vuole valutare come la modellazione ARMA dei segnali possa beneficiare le prime al punto da poterle considerare alternative all'altezza degli standard del settore aerospaziale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’obesità ad oggi è considerata un’epidemia globale ed è tutt’ora in rapido aumento insieme a tutte le comorbidità ad essa associate. Il gold standard per il trattamento di questa patologia è la terapia dietetico-comportamentale. Tuttavia, essa frequentemente si rivela non sufficiente nei quadri di obesità severa; in questo caso è possibile valutare la farmacoterapia, seppur sempre accostata alle indicazioni alimentari. Un’altra opzione è la chirurgia bariatrica, ritenuta una delle più efficaci forme di terapia per la cura dell’obesità severa. Molto importante per l’inquadramento clinico del paziente è la rilevazione delle abitudini alimentari, eseguita tramite diversi strumenti, quali l’Indagine Alimentare, il Recall delle 24 ore e il Diario Alimentare. Recentemente sono stati formulati diversi Food Frequency Questionnaires, ovvero questionari compilati direttamente del paziente con l’obiettivo di indagare sul consumo abituale dei principali prodotti alimentari suddivisi in categorie. Obiettivo: l’obiettivo di questo studio è stato quello di valutare l’appropriatezza di un Food Frequency Questionnaire composto da un totale di 7 categorie e 31 prodotti alimentari nella rilevazione delle abitudini di una popolazione di pazienti con diagnosi di obesità. Metodo: sono stati contattati telefonicamente 70 pazienti, suddivisi in due sottogruppi, ai quali sono state fornite istruzioni per la compilazione di un Diario Alimentare di tre giorni e del Food Frequency Questionnaire. Risultati: è stata considerata accettabile una differenza inferiore al 10% tra i valori derivanti dai due strumenti: su un campione totale di 52 pazienti, tale differenza è stata rilevata in 35 soggetti per quanto riguarda l’intake energetico, in 17 pazienti per i glucidi, in 7 partecipanti per l’apporto di proteine e in 13 casi per i lipidi. Conclusioni: i risultati confermano l’ipotesi che il Food Frequency Questionnaire fornisca valutazioni sovrapponibili a quelle derivanti dal Diario Alimentare.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi è stato svolto il calcolo di alcune proprietà dei materiali usando un approccio ab initio, in particolare i gap energetici e le DOS (densità di stati) di silicio e ossido di nichel. Per fare ciò, sono state usate tre diverse teorie: DFT (Density Functional Theory), DFT+U e GW. Nei primi tre capitoli sono state spiegate le tre approssimazioni fatte e le basi teoriche. Nel quarto capitolo si presentano i risultati. In particolare il gap del silicio usando la DFT è di 0.6617 eV che risulta più basso di quello sperimentale di 1.12 eV a causa dei limiti della DFT. Per la DFT+U è stato svolto il calcolo sull’ossido di nichel perché presenta orbitali d, interessati maggiormente nella correzione apportata. L’energia di gap calcolata è di 3.3986 eV . Per quel che riguarda l’approssimazione GW, è stata svolta anch’essa sul silicio e restituisce un gap di 1.301 eV , che risulta più vicino alla misura sperimentale rispetto alla DFT.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro di tesi si inserisce nell’ambito degli studi finalizzati al miglioramento delle condizioni di stabilità degli esoscheletri attivi per gli arti inferiori. L’obiettivo principale di questa tesi è la stima in tempo reale dell’orientamento degli arti superiori a partire dalle grandezze in uscita dall’esoscheletro e da un sistema di sensori inerziali indossabili. Il primo capitolo descrive lo stato dell’arte degli esoscheletri per gli arti inferiori seguita da una breve analisi degli studi compiuti dalla ricerca per il controllo dell’equilibrio del sistema uomo-macchina con l’impiego di metodi diversi. Nel secondo capitolo viene presentato il modello biomeccanico uomo-esoscheletro-stampelle, le strategie utilizzate per il controllo dell’equilibrio del sistema, ed i metodi impiegati per la stima dell’orientamento delle braccia del soggetto. Nel terzo capitolo vengono riportati e discussi i risultati dell’applicazione dei metodi di stima della cinematica degli arti superiori che vengono ripresi nelle conclusioni nel quarto capitolo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Negli ultimi anni, la rete elettrica ha subito importanti cambiamenti dovuti principalmente al fatto che vi è stato un sensibile sviluppo di impianti di produzione da fonti rinnovabili. Questo aspetto ha però influenzato in modo considerevole il funzionamento della rete ed in particolare la risposta inerziale che essa ha a fronte di uno squilibrio della potenza attiva. In particolare, nella rete si è registrata una importante riduzione dell’inerzia disponibile in quanto molte delle fonti rinnovabili attualmente installate sono connesse tramite inverter, macchine statiche, che non sono in grado di fornire alcuna risposta inerziale in modo intrinseco. Si sta perciò rendendo sempre più necessario possedere degli strumenti volti a fornire una stima dell’inerzia a disposizione della rete, in modo tale da facilitare e migliorare la gestione del Sistema Elettrico. In tale contesto, in questa tesi ci si è concentrati sulla realizzazione di un modello EMTP della rete di distribuzione benchmark europea Cigrè, che permettesse di includere tutte le caratteristiche dinamiche della rete, dei generatori di produzione e in particolare, ci si è soffermati sulla modellizzazione dei carichi, eseguendo un’analisi e un confronto sulle possibili modalità di modellizzazione dei carichi in forma aggregata. Nella seconda parte, sono stati poi sviluppati degli algoritmi che permettessero dai dati raccolti attraverso le simulazioni di ricavare il valore della costante d’inerzia nei differenti scenari.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis has been written as a result of the Language Toolkit project, organised by the Department of Interpreting and Translation of Forlì in collaboration with the Chamber of Commerce of Romagna. The aim of the project is to facilitate the internationalisation of small and medium enterprises in Romagna by making available to them the skills acquired by the students of the Faculty of Specialized Translation, who in turn are given the opportunity to approach an authentic professional context. Specifically, this thesis is the outcome of the 300-hour internship envisaged by the project, 75 of which were carried out at Jopla S.r.l. SB. The task assigned to the student was the translation into French of the Jopla For You web app and the Jopla PRO mobile app. This thesis consists of five chapters. The first chapter provides a general description of the Language Toolkit project and it focuses on the concept of translation into a non-native language. The second chapter outlines the theoretical context in which translation is set. Subsequently, the focus shifts to the topics of text, discourse, genre and textual typology, alongside a reflection on the applicability of these notions to web texts, and an analysis of the source text following Nord's model. The fourth chapter is dedicated to a description of the resources used in the preparation and translation phases. The fifth chapter describes the macro and micro strategies employed to carry out the translation. Furthermore, a comparative analysis between the human translation and the one provided by Google Translator is delivered. This analysis involves two methods: the first one follows the linguistic norms of the target language, while the second one relies on the error categorisation of the MQM model. Finally, the performance of Google Translate is investigated through the comparison of the results obtained from the MQM evaluation conducted in this thesis with the results obtained by Martellini (2021) in her analysis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’influenza e lo sviluppo delle nuove tecnologie hanno generato svariati cambiamenti in tutti i settori della società e, di conseguenza, anche la traduzione è stata inevitabilmente coinvolta. Internet permette l'interazione quotidiana di lingue e culture distanti centinaia di chilometri, rendendo necessaria la mediazione linguistica e culturale e dando vita a un nuovo ramo della traduzione: la localizzazione. L’elaborato presenta il progetto di localizzazione del sito web Tryber, dell’azienda informatica italiana Unguess. Nell’ottica dell’internazionalizzazione, l’azienda ha richiesto che la propria piattaforma web di crowdtesting venisse sottoposta a un processo di localizzazione dall’italiano verso lo spagnolo. Il progetto di tesi è suddiviso in due sezioni principali, ciascuna composta da due capitoli: la prima parte fornisce un quadro teorico, mentre la seconda presenta il lavoro pratico. Il primo capitolo fornisce una panoramica teorica sulla localizzazione e ne presenta le peculiarità, prestando particolare attenzione alla traduzione per il web. Il secondo capitolo si concentra sulla presentazione dell’azienda Unguess per cui è stato svolto il lavoro e sulla sua comunità di crowdtesting, Tryber. Il terzo capitolo illustra la metodologia di lavoro e gli strumenti di traduzione assistita e automatica utilizzati. Il quarto e ultimo capitolo è dedicato all'analisi testuale e al commento traduttologico delle sezioni localizzate, che mira a illustrare le problematiche riscontrate e a spiegare le ragioni delle principali scelte traduttive.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The participation in the Language Toolkit program—a joint initiative of the Department of Interpretation and Translation of Forlì (University of Bologna) and the Chamber of Commerce of Romagna—led to the creation of this dissertation. This program aims to support the internationalization of SMEs while also introducing near-graduates to a real professional context. The author collaborated on this project with Leonori, a company that produces and sells high jewelry products online and through retailers. The purpose of this collaboration is to translate and localize a part of the company website from Italian into Chinese, so as to facilitate their internationalization process to Chinese-speaking countries. This dissertation is organized according to the usual stages a translator goes through when carrying out a translation task. First and foremost, however, it was necessary to provide a theoretical background pertaining to the topics of the project. Specifically, the first chapter introduces the Language Toolkit program, the concept of internationalization and the company itself. The second chapter is dedicated to the topic of inverse translation, including the advantages and disadvantages of this practice. The third chapter highlights the main features of localization, with a particular emphasis on web localization. The fourth chapter deals with the analysis of the source text, according to the looping model developed by Nord (1991). The fifth chapter describes in detail the methods implemented for the creation of the language resources i.e., two comparable monolingual corpora and a termbase, which were built ad hoc for this specific project. In the sixth chapter all the translation strategies that were implemented are outlined, providing some examples from the source text. The final chapter describes the revision process, which occurred both during and after the translation phase.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'obiettivo del presente elaborato, che si concentra sul tema della localizzazione dei videogiochi, è quello di esaminare ed evidenziare le caratteristiche chiave, le peculiarità e le principali sfide di questa pratica. L'industria dei videogiochi è estremamente vasta e in continua crescita. La localizzazione in questo campo assume una grande importanza, in quanto ha il ruolo di preservare al meglio l'esperienza di gioco e di permettere alle aziende di posizionare un videogioco in nuovi mercati. È quindi facile intuire quanto il processo di localizzazione di un prodotto possa essere un fattore determinante per il suo successo. Al fine di indagare gli aspetti più rilevanti di questa pratica, ho condotto alcune interviste ad alcuni localizzatori professionisti, per ottenere una prospettiva autentica e significativa in merito a questo tema. Dopo una breve introduzione all'industria videoludica e alla localizzazione dei videogiochi, ho presentato e commentato le risposte di tre professionisti selezionati ad alcune domande che ho formulato e che riguardano questo campo. Gli argomenti che sono stati affrontati erano di varia natura e riguardavano tematiche differenti, così da coprire quanti più aspetti possibili di questo settore. Nello specifico, ho voluto indagare temi quali la formazione dei localizzatori, gli strumenti e le strategie adottate per questo tipo di lavoro, soprattutto nell'affrontare sfide o difficoltà specifiche, nonché i molteplici aspetti di questo settore e le aspettative sul suo futuro, sulla base delle opinioni e delle esperienze degli intervistati. Lo scopo era quello di individuare aspetti interessanti e di fornire una visione pratica di questa disciplina, nonché di fare luce su un campo ancora poco considerato, soprattutto a livello accademico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La ricerca di un'ottima qualità costruttiva è diventata, per ogni fornitore o produttore legato all’ambito automotive/motoristico, l’aspetto principale nella produzione di un veicolo, soprattutto nel caso specifico di un motore: per garantire, dunque, una buona qualità generale lungo tutta la gamma di produzione, è necessario avere una buona “ripetibilità” di costruzione, ossia, è fondamentale poter assemblare un alto numero di motori che siano il più possibile identici tra loro; considerando tutte le variabili che intervengono lungo la catena di produzione, a partire dalla banale lavorazione meccanica delle parti, fino all’assemblaggio stesso del motore. E' facilmente intuibile, pertanto, come non sia così raro avere delle leggere imperfezioni tra motore e motore che possono poi andare ad impattare sulla vita e sulle performance stesse del mezzo. Questo discorso è ancora più valido se si parla dell’ambito racing, in cui la qualità costruttiva, e, quindi, le performance, giocano un ruolo fondamentale nella progettazione di un motore, nonostante il volume produttivo sia tutto sommato piccolo. L’obiettivo dell'elaborato è quello di creare un metodo di controllo e di confronto della qualità/precisione costruttiva, intesa sia come qualità di produzione delle parti che di assemblaggio del motore finito. A partire da una scansione laser tridimensionale, sotto forma di una nuvola di punti, si è creato un software di elaborazione dati che permettesse di arrivare a calcolare il rapporto di compressione reale del motore in analisi e la mappa di squish tramite la sovrapposizione virtuale delle due scansioni relative ai cilindri/pistoni del blocco motore e la testa del motore stesso.