1000 resultados para Traduzione automatica,traduzione umana,ambito letterario,analisi,post-editing


Relevância:

30.00% 30.00%

Publicador:

Resumo:

I dati delle indagini sugli apprendimenti degli studenti in Italia rivelano l’esistenza di fragilità nell’acquisizione di competenze essenziali e di differenze tra i risultati conseguiti. Per innovare la didattica al fine di adeguarla ai bisogni degli studenti, gli esperti di Docimologia caldeggiano l’uso di pratiche di valutazione formativa, o formative assessment (FA). In ambito internazionale diversi studi hanno mostrato l'efficacia di tali prassi, mentre in Italia non esistono ricerche sperimentali finalizzate a studiarne l’impatto sugli apprendimenti. Il progetto è entrato all’interno di quest’ambito di studi per controllare l’efficacia di un insieme di pratiche di FA sull'incremento delle abilità di comprensione dei testi degli studenti. Lo scopo è stato perseguito realizzando una sperimentazione in una scuola secondaria di primo grado che ha coinvolto gli studenti di due classi prime, i quali sono stati suddivisi a metà attraverso tecniche di randomizzazione per formare i due gruppi, sperimentale e di controllo. Dopo aver effettuato una rilevazione iniziale delle abilità di comprensione dei testi degli studenti (pre-test), è stato realizzato con quelli del gruppo sperimentale un intervento composto da 15 incontri di FA della durata di due ore ciascuno. Alla fine, sono state effettuate due rilevazioni finali (post-test) utilizzando sia la stessa prova utilizzata come pre-test sia una prova parallela. È stata calcolata la differenza post-test-pre-test per ogni gruppo ed è stato verificato quanto avesse influito la partecipazione all’intervento sperimentale su tale differenza tramite test non parametrici. I risultati hanno mostrato un incremento di abilità lievemente maggiore nel gruppo sperimentale, se confrontato con quello del gruppo di controllo, anche se questa differenza tra i due gruppi non è statisticamente significativa. Sebbene le analisi non abbiano consentito di rifiutare l’ipotesi nulla, la rilevanza di tale progetto risiede nel tentativo di aprire il dibattito sull’efficacia di prassi di FA sugli apprendimenti degli studenti in Italia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente tesi di dottorato propone uno studio sulla casa editrice “Dalla parte delle bambine” di Adela Turin. Attiva dal 1975 al 1982 a Milano, si tratta della prima impresa editoriale femminista per l’infanzia in Italia. Nonostante l’originalità e il successo internazionale dei suoi libri, è stata riscontrata una sorprendente scarsità di studi sull’argomento. Questa ricerca interdisciplinare si propone quindi di colmare questa lacuna, inserendosi nel vivace ambito dello studio della letteratura per l’infanzia in prospettiva di genere. La dissertazione è divisa in cinque capitoli, a cui si aggiunge un’appendice iconografica che raccoglie le copertine dell’intero catalogo di DPDB. Nel primo capitolo viene introdotto il quadro teorico della ricerca, dalla complessità della letteratura per il giovane pubblico all’indagine in ottica di genere. Il secondo capitolo si concentra sulle pubblicazioni per bambine e bambini negli anni Settanta, passando in rassegna innovative esperienze editoriali nonché l’opera di scrittori e scrittrici sensibili alle questioni di genere. La terza sezione si occupa di ricostruire il profilo biografico di Turin e il suo decennale impegno contro il sessismo veicolato dai libri per l’infanzia, per poi concentrarsi sulla storia, il catalogo, la diffusione e la ricezione di DPDB. Il quarto capitolo propone un’analisi qualitativa e quantitativa di un corpus di 20 albi illustrati scritti da Turin, oltre a un confronto fra questi libri e diverse ricerche sulla rappresentazione di genere, allo scopo di evidenziare la peculiarità delle proposte di DPDB. La quinta sezione, infine, si occupa del rapporto con la contemporaneità. Dopo aver tracciato un quadro della complessa situazione dell’educazione di genere in Italia e aver proposto una panoramica di esperienze editoriali per il giovane pubblico attente alle questioni di genere, quest’ultima parte indagherà i contesti in cui gli albi di Turin vengono oggi letti e consigliati, offrendosi come narrazione alternativa e tutt’ora attuale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente tesi si concentra sulla tendenza, riscontrata nel panorama editoriale italiano, al repêchage e ritraduzione di letteratura fantastica angloamericana femminile. Il corpus di case studies individuati a tale scopo è costituito da una selezione di testi delle autrici Daphne du Maurier, Shirley Jackson e Angela Carter. Di ogni autrice si sono analizzati il romanzo e il racconto con più pubblicazioni editoriali fra lingua inglese e italiana. Di questi testi si sono esaminate le ritraduzioni italiane, che vanno dal 1958 al 2017, con particolare attenzione alle ritraduzioni degli anni Novanta e Duemila pubblicate dagli editori di cultura. Lo studio prende avvio da un apparato teorico sul problema della ritraduzione e sulle teorie formulate in merito alla letteratura fantastica femminile, coadiuvato da una ricerca all’interno dei cataloghi delle case editrici di cultura che hanno pubblicato le ritraduzioni in esame, confrontati con quelli di tre case editrici di riferimento per quanto riguarda il settore fantastico-gotico. Una seconda parte della ricerca è inoltre dedicata agli studi sulla ricezione e sul paratesto, come ulteriore strumento d’analisi del processo di repêchage editoriale quando coadiuvato dalla pratica ritraduttiva. L’apparato teorico è supportato da una ricerca qualitativa in merito all’evoluzione paratestuale dei testi selezionati e della ricezione degli stessi nel loro contesto originario e d’arrivo. La terza e ultima sezione della ricerca è dedicata all’analisi letteraria dei testi in esame. In questo contesto ha infine un suo spazio lo studio traduttologico contrastivo di una casistica di esempi linguistici tratti dai testi. A partire dall’osservazione delle parabole editoriali delle tre autrici, la presente ricerca si propone dunque di fornire uno sguardo d’insieme sul recente fenomeno del repêchage letterario di opere fantastiche femminili nel panorama editoriale italiano, e di investigare il ruolo e la portata socioculturale che la ritraduzione occupa all’interno di questo processo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Frame. Assessing the difficulty of source texts and parts thereof is important in CTIS, whether for research comparability, for didactic purposes or setting price differences in the market. In order to empirically measure it, Campbell & Hale (1999) and Campbell (2000) developed the Choice Network Analysis (CNA) framework. Basically, the CNA’s main hypothesis is that the more translation options (a group of) translators have to render a given source text stretch, the higher the difficulty of that text stretch will be. We will call this the CNA hypothesis. In a nutshell, this research project puts the CNA hypothesis to the test and studies whether it does actually measure difficulty. Data collection. Two groups of participants (n=29) of different profiles and from two universities in different countries had three translation tasks keylogged with Inputlog, and filled pre- and post-translation questionnaires. Participants translated from English (L2) into their L1s (Spanish or Italian), and worked—first in class and then at home—using their own computers, on texts ca. 800–1000 words long. Each text was translated in approximately equal halves in two 1-hour sessions, in three consecutive weeks. Only the parts translated at home were considered in the study. Results. A very different picture emerged from data than that which the CNA hypothesis might predict: there was no prevalence of disfluent task segments when there were many translation options, nor was a prevalence of fluent task segments associated to fewer translation options. Indeed, there was no correlation between the number of translation options (many and few) and behavioral fluency. Additionally, there was no correlation between pauses and both behavioral fluency and typing speed. The discussed theoretical flaws and the empirical evidence lead to the conclusion that the CNA framework does not and cannot measure text and translation difficulty.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'obiettivo di ciascuna azienda privata, piccola o grande che sia, è quello di ottenere utili attraverso la commercializzazione di beni o servizi. Per raggiungere ciò, la base da cui si parte è sempre una corretta organizzazione della struttura e dei processi aziendali. Questi ultimi, per poter raggiungere i risultati attesi, hanno bisogno costantemente di informazioni. All'interno di un'impresa la parte che si occupa della gestione di informazioni e processi viene chiamata Sistema Informativo (SI). Questo progetto di tesi nasce dall'esigenza di un'azienda privata in ambito utility di analizzare il proprio Sistema Informativo con il duplice scopo di effettuare una diagnosi dell'attuale e progettare una possibile soluzione ottimale. Andando nello specifico, il progetto è stato suddiviso in due parti: la prima comprende tutta la fase di analisi del SI con la relativa diagnosi, mentre la seconda, ben più verticale, tratta la progettazione e prototipazione di un Data Mart per la gestione delle informazioni all'interno dell'azienda.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente elaborato si prefigge il raggiungimento di un duplice obiettivo: da un lato, l’analisi dettagliata delle difficoltà riscontrabili dall’interprete di intercettazioni durante l’esercizio della professione, e dall’altro, l’elaborazione di suggerimenti e buone pratiche per coloro che si apprestano a svolgere un incarico di interpretazione di intercettazioni. In primo luogo, vengono descritte le peculiarità dell’interpretazione per i servizi pubblici e dell’interpretazione giuridico-giudiziaria, macro ambito dell’interpretazione di intercettazioni. In seguito, si accenna brevemente all’interpretazione dialogica. In secondo luogo, si indaga l’interpretazione giudiziaria; vengono esposte le competenze che un interprete giudiziario deve possedere, la metodologia di lavoro, gli interlocutori e i contesti lavorativi. Successivamente, vengono analizzate le intercettazioni di conversazioni, esaminandone la duplice valenza di strumento e fonte di prova e inquadrandole all’interno del sistema giuridico italiano. La parte conclusiva affronta il tema centrale dell’intero elaborato, ossia l’interpretazione di intercettazioni di conversazioni. Innanzitutto, vengono definite dal punto di vista teorico le caratteristiche specifiche della suddetta modalità interpretativa, la sequenzialità del lavoro dell’interprete e le sfide che questa modalità sottende. Alla parte teorica fa seguito un’analisi delle difficoltà riscontrabili dall’interprete di intercettazioni; queste sono state suddivise in tre macrocategorie, quali qualità dell’audio, elementi linguistici e socioculturali ed elementi impliciti. Per poter comprendere appieno l’analisi, vengono presentati i materiali e la metodologia utilizzati e la classificazione delle principali difficoltà. Il presente elaborato si conclude fornendo una serie di suggerimenti e buone pratiche da seguire al fine di affrontare al meglio la preparazione e lo svolgimento di un incarico di interpretazione di intercettazioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

la gestione ottimale del rischio alluvionale è un ambito di ricerca di grande rilevanza a livello nazionale e internazionale. Con riferimento alle alluvioni, infatti, sono state proposte in letteratura diverse tecniche innovative per la previsione e la mitigazione del rischio alluvionale. Tra di esse spiccano le tecniche speditive di mappatura della pericolosità idraulica ottenute attraverso l'utilizzo di descrittori geomorfici. Detti approcci derivano descrittori morfologici analizzando modelli digitali delle quote del terreno (DEM) ed in base ad essi forniscono una mappatura di pericolosità idraulica da alluvione. Che gioco svolge la risoluzione del DEM di partenza sull'accuratezza dei prodotti finali? La combinazione di DEM a diversa risoluzione migliora le prestazioni dei singoli dataset? Il lavoro di Tesi analizza l'importanza della risoluzione del DEM di partenza sull'accuratezza delle mappature conseguibili, utilizzando come riferimento l'area del bacino del Samoggia con chiusura a Calcara. I risultati ottenuti mostrano come: (a) le caratteristiche dei descrittori geomorfici considerati sembrano essere influenzate significativamente da quelle del DEM utilizzato come dato in ingresso e (b) DEM ad elevata risoluzione portino ad un aumento nell'accuratezza della mappatura di pericolosità.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il vantaggio bilingue interessa da decenni la ricerca sociale, psicologica e neurocognitiva. Diversi studi evidenziano una correlazione fra bilinguismo e potenziamento di alcune abilità cognitive quali: risoluzione del conflitto fra input contrastanti, attenzione selettiva, multitasking e le attività del controllo esecutivo. Questo deriverebbe dal fatto che un bilingue si ritrova a gestire le interferenze fra le due lingue di sua competenza. Nello studio si cercheranno di evidenziare alcune implicazioni fra vantaggio bilingue e interpretazione. Nel primo capitolo si spiegherà cos'è l'interpretazione e i suoi principali modelli teorici, oltre a dare una prospettiva sulle aree cerebrali deputate al linguaggio e alla memoria. Nel secondo, si descriverà il bilinguismo e il processo di acquisizione di una lingua oltre ad accennare le basi della teorizzazione del vantaggio bilingue. Nel terzo si descriverà l'evoluzione storica della ricerca di questo ambito e il design degli studi citati. Si cercherà inoltre di stabilire se ci sia una correlazione fra vantaggio bilingue e interpretazione. Nel quarto, si passerà a descrivere dettagliatamente otto esperimenti divisi fra quelli che confermano, quelli che smentiscono e quelli che danno risultati parziali sul vantaggio. Si forniranno inoltre alcune chiavi di lettura sulle metodologie utilizzate.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

TARO (Tons of Articles Ready to Outline) è un progetto che ha come scopo quello di realizzare un sistema per la raccolta, l'analisi e il confronto di articoli di giornali online. Sono state scelte come fonti testate giornalistiche internazionali e i loro canali di pubblicazione, come ad esempio i Feed RSS e le Homepage. Gli articoli vengono quindi analizzati attraverso NER e Sentiment Analysis per poi individuare quali argomenti siano trattati da più testate e quali invece risultino esclusivi di una sola, sfruttando algoritmi di similarità. Il progetto è sviluppato in Python e sono utilizzate diverse librerie, tra cui Scrapy, per la raccolta di articoli, Argos, per la traduzione delle notizie al fine di allinearle linguisticamente, SpaCy, per le analisi semantiche, e Pandas per la visualizzazione dei risultati ottenuti. Uno degli obiettivi è sfruttare questa pipeline al fine di effettuare analisi socio-culturali interessanti utilizzando le informazioni date dagli articoli giornalistici stessi, oltre che osservare le potenzialità delle analisi semantiche fatte su notiziari.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il Machine Learning si sta rivelando una tecnologia dalle incredibili potenzialità nei settori più disparati. Le diverse tecniche e gli algoritmi che vi fanno capo abilitano analisi dei dati molto più efficaci rispetto al passato. Anche l’industria assicurativa sta sperimentando l’adozione di soluzioni di Machine Learning e diverse sono le direzioni di innovamento che ne stanno conseguendo, dall’efficientamento dei processi interni all’offerta di prodotti rispondenti in maniera adattiva alle esigenze del cliente. Questo lavoro di tesi è stato realizzato durante un tirocinio presso Unisalute S.p.A., la prima assicurazione in ambito sanitario in Italia. La criticità intercettata è stata la sovrastima del capitale da destinare a riserva a fronte dell’impegno nei confronti dell’assicurato: questo capitale immobilizzato va a sottrarre risorse ad investimenti più proficui nel medio e lungo termine, per cui è di valore stimarlo appropriatamente. All'interno del settore IT di Unisalute, ho lavorato alla progettazione e implementazione di un modello di Machine Learning che riesca a prevedere se un sinistro appena preso in gestione sarà liquidato o meno. Dotare gli uffici impegnati nella determinazione del riservato di questa stima aggiuntiva basata sui dati, sarebbe di notevole supporto. La progettazione del modello di Machine Learning si è articolata in una Data Pipeline contenente le metodologie più efficienti con riferimento al preprocessamento e alla modellazione dei dati. L’implementazione ha visto Python come linguaggio di programmazione; il dataset, ottenuto a seguito di estrazioni e integrazioni a partire da diversi database Oracle, presenta una cardinalità di oltre 4 milioni di istanze caratterizzate da 32 variabili. A valle del tuning degli iperparamentri e dei vari addestramenti, si è raggiunta un’accuratezza dell’86% che, nel dominio di specie, è ritenuta più che soddisfacente e sono emersi contributi non noti alla liquidabilità dei sinistri.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente elaborato prende in analisi due diverse traduzioni italiane, la traduzione di Gabriele Baldini pubblicata per la prima volta nel 1950 e quella di Tommaso Pincio uscita nel 2021, del romanzo distopico "1984" di George Orwell, con particolare attenzione alla traduzione del Newspeak. Lo scopo finale è quello di individuare le differenti scelte traduttive adottate dai due traduttori presi in esame. A supporto di questa analisi, nel primo capitolo verrà effettuata una panoramica generale delle lingue inventate, mentre nel secondo capitolo verrà presentato l’autore, l’opera stessa e la sua storia editoriale. Nel terzo capitolo l’attenzione verrà poi rivolta alla teoria linguistica di Orwell e alle caratteristiche principali del Newspeak. Infine, nel quarto capitolo, verrà effettuata la vera e propria analisi delle scelte traduttive relative al Newspeak adottate dai due traduttori italiani.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questo elaborato, diviso in quattro parti, verranno analizzati e paragonati alcuni degli adattamenti dell’opera Neon Genesis Evangelion, al fine di discuterne in maniera oggettiva dopo le controversie del 2019. Nella prima parte verrà presentata la serie originale Neon Genesis Evangelion e i suoi numerosi media derivati, per poi parlare della storia della serie in Italia e dei suoi adattamenti. Verrà inoltre fornito un breve riassunto della trama generale della serie originale. La seconda parte discuterà la metodologia affrontata per raccogliere i dati e per la loro successiva analisi. La terza parte discuterà dei risultati dell’analisi dividendoli in ampie sottocategorie e affrontandone le problematiche e le possibili risoluzioni. L’elaborato conclude con alcune considerazioni personali sull’analisi svolta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il Ground Penetrating Radar (GPR) è una tecnica di indagine non distruttiva che si basa sulla teoria della propagazione delle onde elettromagnetiche. Questa tecnologia venne inizialmente utilizzata per indagini geologiche, ma più recentemente è stata introdotta anche per lo studio di altri materiali quali calcestruzzo, legno e asfalto. Questa tecnologia investigativa può essere utilizzata per varie problematiche : • Localizzazione di oggetti all’interno del materiale inglobante • Determinazione dello spessore dello strato del materiale oggetto di studio (calcestruzzo, asfalto, terreno, legno) • Proprietà del materiale, inclusa umidità ed eventuale presenza di vuoti Nella fase iniziale di questo lavoro di tesi sono stati studiati i principi fisici di funzionamento, la metodologia di elaborazione dei dati restituiti dallo strumento e di interpretazione dei risultati. Successivamente, è stato posto l’obbiettivo di verificare l’applicabilità del georadar nel rintracciare i ferri di armatura nelle travi da ponte. Quest’ultime sono spesso realizzate tramite l’impiego della precompressione con cavi post-tesi che implica la presenza di guaine con all’interno i relativi trefoli di tensionamento. Per simulare tali condizioni sono state realizzate in laboratorio delle “travi campione” con guaine in differente materiale, con differente posizionamento e con differente tecnologia di posa, in modo tale da permettere di studiare diversi scenari. Di seguito le differenti tipologie di travi : - Trave con guaine metalliche ; - Trave con guaine plastiche ; - Trave con interruzioni in polistirolo lungo le guaine (per simulare la corrosione delle stesse); - Travi con trefoli inseriti all’interno delle guaine (per studiarne l’influenza sul segnale).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nella gestione dello scompenso cardiaco, uno dei trattamenti più efficaci è rappresentato dalla terapia di resincronizzazione cardiaca. Tuttavia, circa un terzo dei pazienti non risponde alla terapia. Al fine di raggiungere esiti migliori, l’identificazione precoce dei potenziali soggetti che rispondono o meno alla terapia, potrebbe giocare un ruolo importante. In questa panoramica si inserisce il progetto TRAJECTORIES, che cerca di predire la risposta alla terapia sulla base delle variazioni della geometria della traiettoria 3D percorsa dall'elettrodo stimolato pre- e post-attivazione del dispositivo. Attraverso risultati preliminari, è stata verificata l'ipotesi che il pacing modifichi in acuto la traiettoria del punto di stimolazione sull’elettrodo in seno coronarico, e secondariamente che le variazioni temporali quantitative della traiettoria siano correlate al processo di rimodellamento inverso del ventricolo sinistro nel medio termine. E’ stato osservato che, nei pazienti responders, la geometria spaziale della traiettoria 3D cambiava significativamente all’inizio del pacing, acquisendo uniforma più circolare e regolare. Nel presente lavoro di tesi, è stata analizzata la veridicità delle previsioni, mediante il confronto tra gli esiti predetti e i risultati volumetrici della CRT, al follow-up di sei mesi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La memoria semantica, e la sua correlazione con il linguaggio, sono alla base di molti studi di neuroscienze cognitive e della formulazione di diverse teorie volte a comprendere la loro organizzazione, le unità neurali coinvolte e i meccanismi di apprendimento. In passato si cercava di rispondere a queste domande attraverso lo studio anatomico di lesioni della corteccia cerebrale in relazione al danno mnemonico che ne derivava per andare ad ipotizzare in quale area del cervello una determinata informazione veniva immagazzinata. Ricerche sempre più recenti hanno introdotto nel metodo di studio strumenti ed apparecchiature volte ad aiutare l’indagine e la ricerca, in modo da poter osservare e visualizzare quale area della corteccia viene attivata o disattivata in funzione ad uno specifico stimolo esterno. Infatti, l’attenzione dei ricercatori sui sintomi dei disturbi e sui disturbi stessi della memoria semantica, ha dato luce a molti aspetti importanti riguardo i meccanismi cerebrali fondamentali per la funzione corretta di tale memoria. Nel corso degli anni quindi attraverso questi studi sono stati sviluppati diversi modelli teorici con lo scopo di analizzare e studiare i meccanismi alla base delle diverse memorie, in questo caso della memoria semantica. È grazie a questi modelli che si può cercare di comprendere come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Pertanto, si esaminano i modelli computazionali tradizionali nell'ambito dei modelli di rete (basati su associazioni libere), dei modelli di caratteristiche (basati su norme di generazione di proprietà) e dei modelli distributivi, discutendo il loro contributo a importanti dibattiti in letteratura sulla rappresentazione della conoscenza e apprendimento. Inoltre, si valuta come i moderni modelli computazionali, ad esempio modelli basati sul recupero, stanno rivisitando il tradizionale concetto di memoria "statica".