363 resultados para Linguaggio inclusivo,Accessibilità,Disabilità
Resumo:
L'elaborato si pone l'obbiettivo di trattare in parallelo ibridazioni, linguaggi, forme della videoarte e il suo rapporto il con sistema sociopolitico, approfondendo artisti che operano nel campo della critica sociale con diversi utilizzi del medium e dei linguaggi.
Gestione della disponibilità nella catena di distribuzione del sangue con Smart Contract in Ethereum
Resumo:
All’inizio di questa tesi viene discusso il funzionamento delle tecnologie visionate, Bitcoin ed Ethereum, cercando di identificarne i punti principali e salienti: la gestione delle transazioni, le tipologie di Blockchain adottate oggi e l’introduzione degli Smart Contract per sviluppare applicazioni decentralizzate. Successivamente viene considerato il caso di studio, il quale sottolinea la distribuzione delle sacche di sangue tra un centro trasfusionale e un’azienda sanitaria, con lo scopo di mettere in evidenza le interazioni tra queste, concentrandosi sulla disponibilità. Infine, dopo un’analisi del linguaggio Solidity e dopo la descrizione della modalità di sviluppo adottata accompagnata da una fase di testing, viene esposta l’implementazione realizzata concentrandosi sui dettagli delle funzionalità proposte.
Resumo:
Questo elaborato si propone di presentare il progetto Il Teatro Fa Bene realizzato da Jacopo Fo in collaborazione con Eni Foundation e i Medici con l’Africa CUAMM, con l’obiettivo di dimostrare che l’arte del teatro può essere uno strumento di sensibilizzazione e cambiamento attraverso la propria forza emotiva e tramite il suo linguaggio universale, quello del corpo. Lo spettacolo è stato ideato allo scopo di portare informazione e prevenzione sanitaria nella regione di Cabo Delgado, a nord del Mozambico, al fine di promuovere la salute materno-infantile e la partecipazione delle donne nei Centri di Salute che il CUAMM gestisce nel paese. Il primo capitolo offre una rapida panoramica della storia mozambicana focalizzandosi sugli eventi sociali più rilevanti per contestualizzare il progetto che viene esposto; nel secondo capitolo, invece, si trattano più da vicino i fattori che determinano la scarsa affluenza nei centri di salute come conseguenza del forte legame con la tradizione medica dei “curandeiros”. Il terzo capitolo presenta il progetto e ne descrive le fasi di sviluppo, includendo la trama dello spettacolo ed esponendo i cambiamenti rilevati in seguito all’iniziativa; infine, il quarto comprende una piccola intervista che Jacopo Fo ha gentilmente concesso telefonicamente.
Resumo:
Il segreto di Pietramala (La nave di Teseo, 2018) è il primo romanzo di Andrea Moro e si caratterizza per la discussione di teorie linguistiche all’interno di una veste narrativa. A partire dai contenuti del romanzo, i cinque capitoli in cui si articola l’elaborato propongono una riflessione sul ruolo che la linguistica riveste e sul modo in cui emerge nella narrazione, sui principi di analogia e anomalia e sul rapporto tra sintassi e cervello, sull’acquisizione del linguaggio e sull’ipotesi di una lingua primigenia, sulla linguistica come scienza empirica e sulla natura della sintassi, sull’impossibilità di stilare graduatorie di valore delle lingue.
Resumo:
L’elaborato è incentrato sulla manipolazione del linguaggio del partito di estrema destra spagnolo, Vox. Dopo una breve introduzione sulla sua nascita, quindi sulla successiva affermazione e l'ideologia portante dello stesso, si sviluppa una descrizione delle strategie discorsive volte alla manipolazione, messe in atto nei dibattiti elettorali e social media nei seguenti campi: politiche interne, politiche migratorie e politiche sociali. A tal fine è stato creato un corpus formato da citazioni di discorsi, tweet e post su Instagram dei principali esponenti del partito.
Resumo:
Il ruolo dell’informatica è diventato chiave del funzionamento del mondo moderno, ormai sempre più in progressiva digitalizzazione di ogni singolo aspetto della vita dell’individuo. Con l’aumentare della complessità e delle dimensioni dei programmi, il rilevamento di errori diventa sempre di più un’attività difficile e che necessita l’impiego di tempo e risorse. Meccanismi di analisi del codice sorgente tradizionali sono esistiti fin dalla nascita dell’informatica stessa e il loro ruolo all’interno della catena produttiva di un team di programmatori non è mai stato cosi fondamentale come lo è tuttora. Questi meccanismi di analisi, però, non sono esenti da problematiche: il tempo di esecuzione su progetti di grandi dimensioni e la percentuale di falsi positivi possono, infatti, diventare un importante problema. Per questi motivi, meccanismi fondati su Machine Learning, e più in particolare Deep Learning, sono stati sviluppati negli ultimi anni. Questo lavoro di tesi si pone l’obbiettivo di esplorare e sviluppare un modello di Deep Learning per il riconoscimento di errori in un qualsiasi file sorgente scritto in linguaggio C e C++.
Analisi dello humour nella serie RuPaul’s Drag Race e della sua traduzione dall’inglese in italiano.
Resumo:
L'elaborato analizza come humour e language-play siano presenti nella serie RuPaul's Drag Race e soprattutto in che modo vengano tradotti. I passaggi di testo che contengono questi elementi richiedono infatti particolare attenzione da parte del traduttore per essere trasposti al meglio nella lingua di arrivo. L'elaborato si struttura in tre capitoli: il primo è dedicato alla storia dei ball e del linguaggio sviluppatosi insieme a questa sottocultura, il secondo tratta dello humour in traduzione, in particolare dei giochi di parole e dei realia, e delle strategie studiate per tradurre questi elementi. Nel terzo e ultimo capitolo vengono analizzate alcune traduzioni dei nomi delle categorie che definiscono il tema della sfilata in ogni episodio. Negli anni sono diventati sempre più creativi e costituiscono un buon punto di analisi per descrivere l'impiego dello humour nella serie. Il titolo originale inglese viene qui comparato con i sottotitoli italiani proposti dalle piattaforme streaming Netflix Italia e WowPresents Plus.
Resumo:
Il seguente elaborato di tesi prevede la simulazione del comportamento di quattro diversi layout di magazzino contenenti lo stesso numero di vani, ipotizzando uno stoccaggio della merce secondo il criterio delle classi. Inoltre è stata analizzata l’influenza della variabile altezza sul tempo di ciclo dei singoli magazzini. I quattro layout analizzati sono stati: il layout tradizionale, il layout diagonal cross aisle, il layout fishbone e il layout leaf. Il primo è un magazzino “convenzionale”, nel quale l’intersezione dei corridoi genera sempre angoli retti, i restanti tre sono magazzini “non convenzionali”, ovvero l’intersezione dei corridoi genera angoli particolari. Per ciascun magazzino è stato realizzato un modello matematico discreto in grado di determinare la posizione di ogni singolo vano, la sua distanza dal punto I/O e la sua altezza da terra. Il modello matematico e la tipologia di gestione del magazzino sono stati successivamente implementati in un programma scritto su Microsoft Excel, mediante il linguaggio integrato VBA (Visual Basic for Application). Questo ha permesso di determinare i tempi di ciclo medi per ciascun magazzino, facendo il rapporto tra le distanze precedentemente calcolate e le velocità di traslazione e sollevamento del carrello elevatore. Per ottenere dalla simulazioni dei valori il più possibile prossimi alla realtà è stata adottata la metodologia di Simulazione Monte Carlo e un numero di estrazioni pari a 1000. Dai risultati ottenuti è emerso che il magazzino fishbone è in grado di garantire i miglior tempo di ciclo e che i tempi di ciclo più bassi si ottengono, a parità di vani presenti in un magazzino, aumentando le dimensioni in pianta piuttosto che aumentando l’altezza del magazzino.
Resumo:
L’obiettivo della tesi è quello di realizzare un progetto basato sull’interazione tra Raspberry Pi e NanoVNA, allo scopo di rendere automatico il processo di acquisizione dei dati di questo strumento di misura. A tal fine è stato sviluppato un programma in linguaggio Python, eseguibile dal terminale del Raspberry Pi, che permette all’utente di inserire agevolmente i parametri essenziali, come l’orario di inizio e termine delle misurazioni e l'intervallo di tempo tra una rilevazione e l’altra.
Resumo:
Il fatto che il pensiero sia più rapido della comunicazione verbale o scritta è un concetto ormai consolidato. Ricerche recenti, però, si stanno occupando di sviluppare nuove tecnologie in grado di tradurre l’attività neurale in parole o testi in tempo reale. È proprio questo il campo delle Real-time Silent Speech Brain-Computer Interfaces, ovvero sistemi di comunicazione alternativi, basati sulla registrazione e sull’interpretazione di segnali neurali, generati durante il tentativo di parlare o di scrivere. Queste innovazioni tecnologiche costituiscono un traguardo fondamentale per la vita delle persone con paralisi o con patologie neurologiche che determinano l’inabilità a comunicare. L’obiettivo di questo elaborato è quello di descrivere due applicazioni innovative nell’ambito delle Real-time Silent Speech-BCIs. I metodi di BCI confrontati nel presente elaborato sintetizzano il parlato attraverso la rilevazione invasiva o parzialmente invasiva dell’attività cerebrale. L’utilizzo di metodi invasivi per la registrazione dell’attività cerebrale è giustificato dal fatto che le performance di acquisizione del segnale ottenute sono tali da controbilanciare i rischi associati all’operazione chirurgica necessaria per l’impianto. Le tecniche descritte sfruttano delle Reti Neurali Ricorrenti (RNNs), che si sono dimostrate le più efficaci nel prevedere dati sequenziali. Gli studi presentati in questa tesi costituiscono un passaggio fondamentale nel progresso tecnologico per il ripristino della comunicazione in tempo reale e sono i primi a riportare prestazioni di sintesi paragonabili a quelle del linguaggio naturale.
Resumo:
Lo scopo di questa tesi è introdurre alla analisi delle componenti principali, una metodologia statistico computazionale utilizzata per l'interpretazione di grandi insiemi di dati. L'obiettivo principale di questa tecnica è quello di ridurre le dimensioni del problema ricercando delle combinazioni lineari delle variabili di partenza che mantengano le principali informazioni sulla variabilità dei dati. In particolare, all’interno di questo elaborato verrà trattata una variante della PCA: l’analisi delle componenti principali “sparsa”. Dopo alcuni richiami iniziali verrà presentato un approccio standard all'analisi delle componenti principali, legato alle proprietà della matrice di covarianza (o correlazione) dei dati iniziali. Successivamente ne verrà mostrato un secondo approccio basato sulla decomposizione in valori singolari della matrice dei dati. Questo metodo permetterà di ottenere gli stessi risultati dell'approccio standard senza calcolare in modo esplicito la matrice di covarianza (o correlazione) dei dati e consentirà di sfruttare alcune proprietà importanti della decomposizione in valori singolari. Per introdurre la variante “sparsa” dell’analisi delle componenti principali verranno riportate alcune nozioni di base sulla regressione lineare. Infatti, questa tecnica ci permetterà di ottenere delle nuove combinazioni lineari delle variabili originarie che abbiano un numero alto di coefficienti uguali a zero, questo favorirà l’analisi delle componenti principali. La tesi si concluderà con la presentazione di alcuni risultati rielaborati in linguaggio Matlab, insieme alla valutazione dei risultati ottenuti.
Resumo:
La memoria semantica, e la sua correlazione con il linguaggio, sono alla base di molti studi di neuroscienze cognitive e della formulazione di diverse teorie volte a comprendere la loro organizzazione, le unità neurali coinvolte e i meccanismi di apprendimento. In passato si cercava di rispondere a queste domande attraverso lo studio anatomico di lesioni della corteccia cerebrale in relazione al danno mnemonico che ne derivava per andare ad ipotizzare in quale area del cervello una determinata informazione veniva immagazzinata. Ricerche sempre più recenti hanno introdotto nel metodo di studio strumenti ed apparecchiature volte ad aiutare l’indagine e la ricerca, in modo da poter osservare e visualizzare quale area della corteccia viene attivata o disattivata in funzione ad uno specifico stimolo esterno. Infatti, l’attenzione dei ricercatori sui sintomi dei disturbi e sui disturbi stessi della memoria semantica, ha dato luce a molti aspetti importanti riguardo i meccanismi cerebrali fondamentali per la funzione corretta di tale memoria. Nel corso degli anni quindi attraverso questi studi sono stati sviluppati diversi modelli teorici con lo scopo di analizzare e studiare i meccanismi alla base delle diverse memorie, in questo caso della memoria semantica. È grazie a questi modelli che si può cercare di comprendere come la conoscenza del significato di parole e concetti sia immagazzinata nel sistema nervoso e successivamente utilizzata. Pertanto, si esaminano i modelli computazionali tradizionali nell'ambito dei modelli di rete (basati su associazioni libere), dei modelli di caratteristiche (basati su norme di generazione di proprietà) e dei modelli distributivi, discutendo il loro contributo a importanti dibattiti in letteratura sulla rappresentazione della conoscenza e apprendimento. Inoltre, si valuta come i moderni modelli computazionali, ad esempio modelli basati sul recupero, stanno rivisitando il tradizionale concetto di memoria "statica".
Resumo:
Con le crescenti esigenze di personalizzazione, la capacità di prevedere con precisione la domanda di un numero sempre maggiore di prodotti è diventata una delle caratteristiche fondamentali che l’azienda manufatturiera moderna deve possedere. L’esigenza dunque di fornire una gamma di prodotti sempre più vasta, contenendo i costi associati alla realizzazione e alla giacenza dei prodotti finiti e contemporaneamente riducendo al minimo i tempi di risposta alla domanda, non viene pienamente soddisfatta da nessuna delle due politiche produttive che rappresentano i due approcci più classici, ossia le due strategie Make-To-Stock (MTS) e Make-To-Order (MTO). Per rispondere a questa esigenza di personalizzazione è stata proposta un’ulteriore politica produttiva nota come Delayed Product Differentiation (DPD) basata sul concetto delle piattaforme di prodotto, ossia delle strutture comuni a più prodotti diversi che, tramite l’aggiunta dei componenti, permettono di ottenere la gamma di prodotti finali richiesti. Il seguente lavoro di tesi si pone lo scopo di studiare, tramite un algoritmo ideato e sviluppato con l’ausilio del linguaggio di programmazione di Matlab, il caso di un sistema che già adotta l’approccio DPD per riuscire a trovare una soluzione al problema di estendere il catalogo iniziale degli articoli presenti, avendo una lista di prodotti nuovi da analizzare e dovendo scegliere quali aggiungere e quali invece eliminare, stabilendo come modificare le piattaforme per l’aggiunta di essi.
Resumo:
Negli ultimi anni si sta notando sempre di più il cambiamento apportato dalla tecnologia ai vari settori industriali, il quale costringe ogni azienda ad adattare i propri processi per mantenere la propria posizione sul mercato. Un'innovazione è costituita dalla blockchain, che viene presentata come un insieme di tecnologie distribuite volte a mantenere un registro condiviso immutabile. Le sue applicazioni si possono trovare nell'ambito economico attraverso le criptovalute fino ad arrivare alla certificazione in supply chain di società o enti. Come tutte le innovazioni porta con sè vantaggi e peculiarità che ne contraddistinguono il funzionamento. In questa tesi si tratteranno blockchain Ethereum e Smart Contracts ossia componenti definiti in Solidity, un linguaggio dalla caratteristica di Touring Completeness. Con lo sviluppo degli Smart Contract si è arrivati alla creazione di applicazioni decentralizzate, organizzazioni autonome e certificazioni fino alla creazione di standard per token fungibili. Infine un aspetto da non sottovalutare quando si parla di sistemi distribuiti ed in particolare di blockchain è la sicurezza. Verranno introdotti i principali attacchi all'infrastruttura e all'utente, ponendo attenzione a come questo aspetto possa essere tralasciato per favorire interoperabilità tra blockchain.
Resumo:
La tesi tratta della traduzione economico-finanziaria. Saranno analizzati il linguaggio di questo settore e le principali sfide e difficoltà che il traduttore deve affrontare in questo ambito. Inoltre, sarà presentata la proposta di traduzione dall'italiano in francese del Quaderno "Educazione Finanziaria #quello che conta sapere".