363 resultados para Linguaggio inclusivo,Accessibilità,Disabilità
Resumo:
Il presente lavoro si pone come obiettivo principale la traduzione del testo teatrale "La Trilogie des flous" del drammaturgo quebecchese Daniel Danis. I primi tre capitoli sono dedicati a un lavoro di ricerca e documentazione sulle specificità della traduzione teatrale e sulle caratteristiche del teatro contemporaneo in cui si inserisce l’autore dell’opera in esame. La traduzione dell’opera è, infatti, preceduta dallo studio delle caratteristiche strutturali del testo teatrale, generalmente composto da un titolo, didascalie e dialoghi, e del linguaggio utilizzato sulla scena. La traduzione teatrale esige una riflessione sull’obiettivo del testo, che può essere pensato per la messinscena o per la lettura. È da questa distinzione che derivano le scelte del traduttore. "La Trilogie des flous" è un poema drammatico, messo in scena per la prima volta nel 2008. Il testo si inserisce nel panorama teatrale contemporaneo con le sue caratteristiche tipiche: l’assenza di una favola ben strutturata, il ricorso a strumenti tecnologici e i personaggi fuori dagli schemi tradizionali che confluiscono nella voce di un autore “rapsodo”. Il linguaggio frammentato, le parole interrotte da puntini di sospensione e le rime pongono diverse difficoltà alla traduzione. Nel testo di arrivo si è cercato soprattutto di conservare la musicalità e le sensazioni suscitate dal testo di partenza. Le scelte traduttive più significative sono illustrate nel commento alla traduzione.
Resumo:
In questo elaborato ci siamo occupati della legge di Zipf sia da un punto di vista applicativo che teorico. Tale legge empirica afferma che il rango in frequenza (RF) delle parole di un testo seguono una legge a potenza con esponente -1. Per quanto riguarda l'approccio teorico abbiamo trattato due classi di modelli in grado di ricreare leggi a potenza nella loro distribuzione di probabilità. In particolare, abbiamo considerato delle generalizzazioni delle urne di Polya e i processi SSR (Sample Space Reducing). Di questi ultimi abbiamo dato una formalizzazione in termini di catene di Markov. Infine abbiamo proposto un modello di dinamica delle popolazioni capace di unificare e riprodurre i risultati dei tre SSR presenti in letteratura. Successivamente siamo passati all'analisi quantitativa dell'andamento del RF sulle parole di un corpus di testi. Infatti in questo caso si osserva che la RF non segue una pura legge a potenza ma ha un duplice andamento che può essere rappresentato da una legge a potenza che cambia esponente. Abbiamo cercato di capire se fosse possibile legare l'analisi dell'andamento del RF con le proprietà topologiche di un grafo. In particolare, a partire da un corpus di testi abbiamo costruito una rete di adiacenza dove ogni parola era collegata tramite un link alla parola successiva. Svolgendo un'analisi topologica della struttura del grafo abbiamo trovato alcuni risultati che sembrano confermare l'ipotesi che la sua struttura sia legata al cambiamento di pendenza della RF. Questo risultato può portare ad alcuni sviluppi nell'ambito dello studio del linguaggio e della mente umana. Inoltre, siccome la struttura del grafo presenterebbe alcune componenti che raggruppano parole in base al loro significato, un approfondimento di questo studio potrebbe condurre ad alcuni sviluppi nell'ambito della comprensione automatica del testo (text mining).
Resumo:
La tesi si pone l’obiettivo di indagare il ruolo del portico nella città, non come singolo episodio architettonico, bensì come bene culturale diffuso in maniera capillare. Si vuole sottolineare l’importanza del binomio portici e tessuto urbano, poiché spesso ci si limita a studiarne solo l’evoluzione dei metodi costruttivi e del linguaggio. Il susseguirsi di episodi porticati, indistintamente dalla propria ricchezza architettonica, definisce la forma della città ed eleva il tessuto edilizio a monumento, pertanto una distinzione tra emergenze architettoniche ed edilizia minore, in termini di valore, non risulta soltanto superflua, ma bensì fuorviante. Il valore del portico è intrinseco alla sua presenza e si incorrerebbe in una serie di disguidi ad affermare che sono gli edifici monumentali a dare valore alla città: Portici monumentali e seriali dialogano nel continuum dando vita ad un unicum che assume valore in quanto intero, non totale, come più volte affermato da Cesare Brandi. La ricerca in parallelo sull’evoluzione urbanistica della città e sull’origine e lo sviluppo dei portici, intrecciata con i dati relativi ai rilievi diretti delle sezioni stradali e dei casi studio, ha permesso la ricostruzione dello sviluppo del portico in relazione all’evoluzione del tessuto urbano nel corso dei secoli, individuando tre momenti ritenuti fondamentali: la diffusione dell’elemento porticato nelle città medievali, la risposta politica di bologna e il portico come elemento determinante l’evoluzione del linguaggio della città. Si è così dimostrato come la città, in ogni epoca storica, abbia identificato nei portici un mezzo tramite il quale rinascere senza perdere la propria storicità e continuità architettonica. In conclusione, si è elaborata una “carta del restauro dei portici”, che possa indirizzare l’intervento di restauro verso un approccio culturale, al fine di garantire la salvaguardia dell’intero sistema porticato, a prescindere dal linguaggio del singolo manufatto.
Resumo:
Lo studio ha indagato l’impatto delle reti di distribuzione idrica sulla qualità dell’acqua ed il supporto che in questo ambito possono fornire i modelli numerici nella redazione dei Piani di Sicurezza delle Acque (PSA) o Water Safety Plan (WSP). In una prima fase, esso è stato analizzato prendendo atto del percorso normativo europeo e nazionale e delle linee guida fornite dall’Organizzazione Mondiale di Sanità (OMS) e dall’Istituto Superiore di Sanità (ISS) che hanno portato i Piani di Sicurezza delle Acque nell’ambito del controllo delle acque potabili, tenendo conto, anche, dei vari soggetti coinvolti e delle problematiche generate dai cambiamenti climatici. In una seconda fase, si è analizzato il caso studio della rete di distribuzione idrica della città di Cesena, fornito dal gestore HERA S.p.A., modellando la qualità dell’acqua attraverso il programma EPANET 2.2. Questa analisi è stata sviluppata successivamente alla calibrazione del modello idraulico. Per gli aspetti che richiedono una georeferenziazione è stato utilizzato il programma open source QGIS, mentre per le analisi dei dati e le elaborazioni statistiche relative al campionamento del cloro residuo e delle portate immesse dalle fonti idriche è stato utilizzato il linguaggio R. E' stato quindi possibile creare mappe georeferenziate per diversi momenti della giornata del tempo di permanenza dell'acqua nella rete di distribuzione, delle concentrazioni di cloro residuo dell'acqua prelevata dagli utenti e analizzare il ruolo dei serbatoi di compenso.
Resumo:
Le malattie rare pongono diversi scogli ai pazienti, ai loro familiari e ai sanitari. Uno fra questi è la mancanza di informazione che deriva dall'assenza di fonti sicure e semplici da consultare su aspetti dell'esperienza del paziente. Il lavoro presentato ha lo scopo di generare da set termini correlati semanticamente, delle frasi che abbiamo la capacità di spiegare il legame fra di essi e aggiungere informazioni utili e veritiere in un linguaggio semplice e comprensibile. Il problema affrontato oggigiorno non è ben documentato in letteratura e rappresenta una sfida interessante si per complessità che per mancanza di dataset per l'addestramento. Questo tipo di task, come altri di NLP, è affrontabile solo con modelli sempre più potenti ma che richiedono risorse sempre più elevate. Per questo motivo, è stato utilizzato il meccanismo di recente pubblicazione del Performer, dimostrando di riuscire a mantenere uno stesso grado di accuratezza e di qualità delle frasi prodotte, con una parallela riduzione delle risorse utilizzate. Ciò apre la strada all'utilizzo delle reti neurali più recenti anche senza avere i centri di calcolo delle multinazionali. Il modello proposto dunque è in grado di generare frasi che illustrano le relazioni semantiche di termini estratti da un mole di documenti testuali, permettendo di generare dei riassunti dell'informazione e della conoscenza estratta da essi e renderla facilmente accessibile e comprensibile al pazienti o a persone non esperte.
Resumo:
Negli ultimi anni ha riscosso particolare interesse l’utilizzo di nanoparticelle metalliche nella catalisi per via delle loro eccellenti proprietà. Le limitazioni al loro utilizzo sono connesse alla complessità della loro sintesi a causa dei molteplici parametri che possono influenzare le proprietà e la morfologia del sistema finale. Recenti studi hanno permesso di individuare la possibilità che polimeri con opportune caratteristiche possano influenzare sia la morfologia che l’attività catalitica dei catalizzatori nanostruturati. Queste ricerche hanno aperto alla possibilità di controllare le proprietà delle nanoparticelle attraverso la sintesi di macromolecole con specifiche caratteristiche. Nel corso dell’attività di tirocinio si è studiato come il peso molecolare e la natura dello stabilizzante polimerico influenzino le dimensioni e l’attività delle nanoparticelle d’oro in termini di conversione ed accessibilità dei siti attivi del catalizzatore attraverso la reazione di riduzione del 4-nitrofenolo. Si sono confrontati risultati ottenuti da nanoparticelle sintetizzate utilizzando come stabilizzante campioni a differente peso molecolare di poli-etilenglilcole, poli-vinilammina e poli-vinilalcol.
Resumo:
In questo elaborato di tesi si affronta lo sviluppo di un framework per l'analisi di URL di phishing estratte da documenti malevoli. Tramite il linguaggio python3 e browsers automatizzati si è sviluppata una pipeline per analizzare queste campagne malevole. La pipeline ha lo scopo di arrivare alla pagina finale, evitando di essere bloccata da tecniche anti-bot di cloaking, per catturare una schermata e salvare la pagina in locale. Durante l'analisi tutto il traffico è salvato per analisi future. Ad ogni URL visitato vengono salvate informazioni quali entry DNS, codice di Autonomous System e lo stato nella blocklist di Google. Un'analisi iniziale delle due campagne più estese è stata effettuata, rivelando il business model dietro ad esse e le tecniche usate per proteggere l'infrastruttura stessa.
Resumo:
Poiché la nostra conoscenza collettiva continua ad essere digitalizzata e memorizzata, diventa più difficile trovare e scoprire ciò che stiamo cercando. Abbiamo bisogno di nuovi strumenti computazionali per aiutare a organizzare, rintracciare e comprendere queste vaste quantità di informazioni. I modelli di linguaggio sono potenti strumenti che possono essere impiegati per estrarre conoscenza statisticamente significativa ed interpretabile tramite apprendimento non supervisionato, testuali o nel codice sorgente. L’obiettivo di questa tesi è impiegare una metodologia di descriptive text mining, denominata POIROT, per analizzare i rapporti medici del dataset Adverse Drug Reaction (ADE). Si vogliono stabilire delle correlazioni significative che permettano di comprendere le ragioni per cui un determinato rapporto medico fornisca o meno informazioni relative a effetti collaterali dovuti all’assunzione di determinati farmaci.
Resumo:
A differenza di quanto avviene nel commercio tradizionale, in quello online il cliente non ha la possibilità di toccare con mano o provare il prodotto. La decisione di acquisto viene maturata in base ai dati messi a disposizione dal venditore attraverso titolo, descrizioni, immagini e alle recensioni di clienti precedenti. É quindi possibile prevedere quanto un prodotto venderà sulla base di queste informazioni. La maggior parte delle soluzioni attualmente presenti in letteratura effettua previsioni basandosi sulle recensioni, oppure analizzando il linguaggio usato nelle descrizioni per capire come questo influenzi le vendite. Le recensioni, tuttavia, non sono informazioni note ai venditori prima della commercializzazione del prodotto; usando solo dati testuali, inoltre, si tralascia l’influenza delle immagini. L'obiettivo di questa tesi è usare modelli di machine learning per prevedere il successo di vendita di un prodotto a partire dalle informazioni disponibili al venditore prima della commercializzazione. Si fa questo introducendo un modello cross-modale basato su Vision-Language Transformer in grado di effettuare classificazione. Un modello di questo tipo può aiutare i venditori a massimizzare il successo di vendita dei prodotti. A causa della mancanza, in letteratura, di dataset contenenti informazioni relative a prodotti venduti online che includono l’indicazione del successo di vendita, il lavoro svolto comprende la realizzazione di un dataset adatto a testare la soluzione sviluppata. Il dataset contiene un elenco di 78300 prodotti di Moda venduti su Amazon, per ognuno dei quali vengono riportate le principali informazioni messe a disposizione dal venditore e una misura di successo sul mercato. Questa viene ricavata a partire dal gradimento espresso dagli acquirenti e dal posizionamento del prodotto in una graduatoria basata sul numero di esemplari venduti.
Resumo:
Nonostante lo scetticismo di molti studiosi circa la possibilità di prevedere l'andamento della borsa valori, esistono svariate teorie ipotizzanti la possibilità di utilizzare le informazioni conosciute per predirne i movimenti futuri. L’avvento dell’intelligenza artificiale nella seconda parte dello scorso secolo ha permesso di ottenere risultati rivoluzionari in svariati ambiti, tanto che oggi tale disciplina trova ampio impiego nella nostra vita quotidiana in molteplici forme. In particolare, grazie al machine learning, è stato possibile sviluppare sistemi intelligenti che apprendono grazie ai dati, riuscendo a modellare problemi complessi. Visto il successo di questi sistemi, essi sono stati applicati anche all’arduo compito di predire la borsa valori, dapprima utilizzando i dati storici finanziari della borsa come fonte di conoscenza, e poi, con la messa a punto di tecniche di elaborazione del linguaggio naturale umano (NLP), anche utilizzando dati in linguaggio naturale, come il testo di notizie finanziarie o l’opinione degli investitori. Questo elaborato ha l’obiettivo di fornire una panoramica sull’utilizzo delle tecniche di machine learning nel campo della predizione del mercato azionario, partendo dalle tecniche più elementari per arrivare ai complessi modelli neurali che oggi rappresentano lo stato dell’arte. Vengono inoltre formalizzati il funzionamento e le tecniche che si utilizzano per addestrare e valutare i modelli di machine learning, per poi effettuare un esperimento in cui a partire da dati finanziari e soprattutto testuali si tenterà di predire correttamente la variazione del valore dell’indice di borsa S&P 500 utilizzando un language model basato su una rete neurale.
Resumo:
Il vantaggio bilingue interessa da decenni la ricerca sociale, psicologica e neurocognitiva. Diversi studi evidenziano una correlazione fra bilinguismo e potenziamento di alcune abilità cognitive quali: risoluzione del conflitto fra input contrastanti, attenzione selettiva, multitasking e le attività del controllo esecutivo. Questo deriverebbe dal fatto che un bilingue si ritrova a gestire le interferenze fra le due lingue di sua competenza. Nello studio si cercheranno di evidenziare alcune implicazioni fra vantaggio bilingue e interpretazione. Nel primo capitolo si spiegherà cos'è l'interpretazione e i suoi principali modelli teorici, oltre a dare una prospettiva sulle aree cerebrali deputate al linguaggio e alla memoria. Nel secondo, si descriverà il bilinguismo e il processo di acquisizione di una lingua oltre ad accennare le basi della teorizzazione del vantaggio bilingue. Nel terzo si descriverà l'evoluzione storica della ricerca di questo ambito e il design degli studi citati. Si cercherà inoltre di stabilire se ci sia una correlazione fra vantaggio bilingue e interpretazione. Nel quarto, si passerà a descrivere dettagliatamente otto esperimenti divisi fra quelli che confermano, quelli che smentiscono e quelli che danno risultati parziali sul vantaggio. Si forniranno inoltre alcune chiavi di lettura sulle metodologie utilizzate.
Resumo:
Nel panorama videoludico, Final Fantasy IX occupa un posto d’onore. Nonostante conti più di vent’anni alle spalle, rimane in vetta alle classifiche dei titoli Final Fantasy più amati, soprattutto grazie al suo cast di personaggi. Il suo successo, tuttavia, non gli è valso una rivisitazione della sua localizzazione, la stessa dalla prima pubblicazione del gioco che continua a presentare imprecisioni, interpretazioni errate e scelte riguardanti la caratterizzazione dei personaggi che meriterebbero un aggiornamento secondo le linee guida e gli standard odierni. Questo elaborato ha come obiettivo una proposta di ritraduzione di Final Fantasy IX, per modernizzare la lingua non solo dal punto di vista dei dialetti, utilizzati nella versione originale e qui sostituiti da altre strategie, ma anche dell’aderenza al testo originale, restituendo ad alcuni personaggi la caratterizzazione che hanno nella versione giapponese del gioco. Si analizza il giapponese seguendo lo yakuwarigo (Kinsui, 2017), un particolare concetto della lingua giapponese secondo il quale a ogni personaggio viene assegnato un linguaggio mettendone in luce alcuni tratti del loro modo di essere. Si procede all’elaborazione di strategie di traduzione che colmino l’assenza di un concetto simile nella lingua italiana, giocando sui registri linguistici e scelte sintattiche e lessicali pensate appositamente per ogni personaggio. Si analizzano inoltre altri aspetti riguardanti nello specifico la lingua giapponese, come i diversi gradi di formalità e quale effetto abbiano sul testo. Un’analisi di questo tipo risulta funzionale alla resa in italiano di particolarità così legate alla lingua giapponese. Pur perdendo alcune sfumature nel passaggio tra una lingua e l’altra, si tratta pur sempre di un tentativo di aderenza al testo di partenza che permette ai giocatori di fruire di un’esperienza quanto più simile a quella del testo originale.
Resumo:
Negli ultimi anni, a causa della crescente tendenza verso i Big Data, l’apprendimento automatico è diventato un approccio di previsione fondamentale perché può prevedere i prezzi delle case in modo accurato in base agli attributi delle abitazioni. In questo elaborato, verranno messe in pratica alcune tecniche di machine learning con l’obiettivo di effettuare previsioni sui prezzi delle abitazioni. Ad esempio, si può pensare all’acquisto di una nuova casa, saranno tanti i fattori di cui si dovrà preoccuparsi, la posizione, i metri quadrati, l’inquinamento dell’aria, il numero di stanze, il numero dei bagni e così via. Tutti questi fattori possono influire in modo più o meno pesante sul prezzo di quell’abitazione. E’ proprio in casi come questi che può essere applicata l’intelligenza artificiale, nello specifico il machine learning, per riuscire a trovare un modello che approssimi nel miglior modo un prezzo, data una serie di caratteristiche. In questa tesi verrà dimostrato come è possibile utilizzare l’apprendimento automatico per effettuare delle stime il più preciso possibile dei prezzi delle case. La tesi è divisa in 5 capitoli, nel primo capitolo verranno introdotti i concetti di base su cui si basa l’elaborato e alcune spiegazioni dei singoli modelli. Nel secondo capitolo, invece, viene trattato l’ambiente di lavoro utilizzato, il linguaggio e le relative librerie utilizzate. Il terzo capitolo contiene un’analisi esplorativa sul dataset utilizzato e vengono effettuate delle operazioni per preparare i dati agli algoritmi che verranno applicati in seguito. Nel capitolo 4 vengono creati i diversi modelli ed effettuate le previsioni sui prezzi mentre nel capitolo 5 vengono analizzati i risultati ottenuti e riportate le conclusioni.
Resumo:
L’obiettivo di questa tesi è quello di analizzare uno dei generi principali del mondo della serialità: il teen drama. In particolare, la produzione Netflix del genere, soffermandomi sulla trattazione di due serie: Tredici e Sex Education. Partendo dalla considerazione che gli odierni teenager sono inseriti in una realtà digitale senza filtri, l’indagine è volta a dimostrare come Netflix, a mio avviso, sia in grado di utilizzare un linguaggio privo di retoriche per comunicare al meglio con i destinatari del genere, gli adolescenti e di impiegare tale linguaggio nella trattazione di tematiche sociali come il suicidio (Tredici) e il sesso (Sex Education), dandogli uno spessore all’interno della narrazione come mai era stato fatto nei teen drama precedenti. Prima di arrivare alla trattazione della tesi appena esposta, oggetto del terzo capitolo, il primo capitolo si sofferma sulla nascita del genere, facendo un riassunto dei principali titoli che hanno portato allo sviluppo e affermazione del genere dagli anni Novanta fino agli anni Dieci del Duemila. Nel secondo capitolo invece, analizzo le caratteristiche principali dei teen drama targati Netflix e di alcuni titoli del passato che sono riapparsi sulla piattaforma.
Resumo:
Il Machine Learning si sta rivelando una tecnologia dalle incredibili potenzialità nei settori più disparati. Le diverse tecniche e gli algoritmi che vi fanno capo abilitano analisi dei dati molto più efficaci rispetto al passato. Anche l’industria assicurativa sta sperimentando l’adozione di soluzioni di Machine Learning e diverse sono le direzioni di innovamento che ne stanno conseguendo, dall’efficientamento dei processi interni all’offerta di prodotti rispondenti in maniera adattiva alle esigenze del cliente. Questo lavoro di tesi è stato realizzato durante un tirocinio presso Unisalute S.p.A., la prima assicurazione in ambito sanitario in Italia. La criticità intercettata è stata la sovrastima del capitale da destinare a riserva a fronte dell’impegno nei confronti dell’assicurato: questo capitale immobilizzato va a sottrarre risorse ad investimenti più proficui nel medio e lungo termine, per cui è di valore stimarlo appropriatamente. All'interno del settore IT di Unisalute, ho lavorato alla progettazione e implementazione di un modello di Machine Learning che riesca a prevedere se un sinistro appena preso in gestione sarà liquidato o meno. Dotare gli uffici impegnati nella determinazione del riservato di questa stima aggiuntiva basata sui dati, sarebbe di notevole supporto. La progettazione del modello di Machine Learning si è articolata in una Data Pipeline contenente le metodologie più efficienti con riferimento al preprocessamento e alla modellazione dei dati. L’implementazione ha visto Python come linguaggio di programmazione; il dataset, ottenuto a seguito di estrazioni e integrazioni a partire da diversi database Oracle, presenta una cardinalità di oltre 4 milioni di istanze caratterizzate da 32 variabili. A valle del tuning degli iperparamentri e dei vari addestramenti, si è raggiunta un’accuratezza dell’86% che, nel dominio di specie, è ritenuta più che soddisfacente e sono emersi contributi non noti alla liquidabilità dei sinistri.