972 resultados para Linguaggio inclusivo,Accessibilità,Disabilità
Resumo:
La ricerca pone al centro dell’indagine lo studio dell’importanza del cibo nelle cerimonie nuziali dell’Europa occidentale nei secoli V-XI. Il corpus di fonti utilizzate comprende testi di genere diverso: cronache, annali, agiografie, testi legislativi, a cui si è aggiunta un’approfondita analisi delle antiche saghe islandesi. Dopo un'introduzione dedicata in particolare alla questione della pubblicità della celebrazione, la ricerca si muove verso lo studio del matrimonio come “processo” sulla base della ritualità alimentare: i brindisi e i banchetti con cui si sigla l’accordo di fidanzamento e i ripetuti convivi allestiti per celebrare le nozze. Si pone attenzione anche ad alcuni aspetti trasversali, come lo studio del caso della “letteratura del fidanzamento bevuto”, ossia una tradizione di testi letterari in cui il fidanzamento tra i protagonisti viene sempre ratificato con un brindisi; a questo si aggiunge un’analisi di stampo antropologico della "cultura dell’eccesso", tipica dei rituali alimentari nuziali nel Medioevo, in contrasto con la contemporanea "cultura del risparmio". L'analisi si concentra anche sulle reiterate proibizioni al clero, da parte della Chiesa, di partecipare a banchetti e feste nuziali, tratto comune di tutta l’epoca altomedievale. Infine, la parte conclusiva della ricerca è incentrata sulla ricezione altomedievale di due figure bibliche che pongono al centro della narrazione un banchetto nuziale: la parabola delle nozze e il banchetto di Cana. L’insistente presenza di questi due brani nelle parole dei commentatori biblici mostra la straordinaria efficacia del “linguaggio alimentare”, ossia di un codice linguistico basato sul cibo (e su contesti quali l’agricoltura, la pesca, ecc.) come strumento di comunicazione sociale di massa con una valenza antropologica essenzialmente universale.
Resumo:
Modern embedded systems embrace many-core shared-memory designs. Due to constrained power and area budgets, most of them feature software-managed scratchpad memories instead of data caches to increase the data locality. It is therefore programmers’ responsibility to explicitly manage the memory transfers, and this make programming these platform cumbersome. Moreover, complex modern applications must be adequately parallelized before they can the parallel potential of the platform into actual performance. To support this, programming languages were proposed, which work at a high level of abstraction, and rely on a runtime whose cost hinders performance, especially in embedded systems, where resources and power budget are constrained. This dissertation explores the applicability of the shared-memory paradigm on modern many-core systems, focusing on the ease-of-programming. It focuses on OpenMP, the de-facto standard for shared memory programming. In a first part, the cost of algorithms for synchronization and data partitioning are analyzed, and they are adapted to modern embedded many-cores. Then, the original design of an OpenMP runtime library is presented, which supports complex forms of parallelism such as multi-level and irregular parallelism. In the second part of the thesis, the focus is on heterogeneous systems, where hardware accelerators are coupled to (many-)cores to implement key functional kernels with orders-of-magnitude of speedup and energy efficiency compared to the “pure software” version. However, three main issues rise, namely i) platform design complexity, ii) architectural scalability and iii) programmability. To tackle them, a template for a generic hardware processing unit (HWPU) is proposed, which share the memory banks with cores, and the template for a scalable architecture is shown, which integrates them through the shared-memory system. Then, a full software stack and toolchain are developed to support platform design and to let programmers exploiting the accelerators of the platform. The OpenMP frontend is extended to interact with it.
Resumo:
Comprensione delle formulazioni analitiche e dei metodi tradizionali per il calcolo puntuale dello Sky View Factor (SVF), un parametro adimensionale in grado di esprimere con un singolo valore l’influenza dei fattori morfologici sulla porzione di volta celeste visibile da un punto. Valutazione delle performance dei software di mappatura dello SVF in area urbana al variare di tipologia e qualità del dato di input e dei parametri utilizzati. Al fine di studiare degli aspetti algoritmici dei modelli esistenti, è stato sviluppato uno script in linguaggio MATLAB per apportare miglioramenti alle tecniche esaminate.
Resumo:
L’ictus è un importante problema di salute pubblica, è causa di morte e disabilità nella popolazione anziana. La necessità di strategie di prevenzione secondaria e terziaria per migliorare il funzionamento post-ictus e prevenire o ritardare altre condizioni disabilitanti, ha portato l’Italia a sviluppare un intervento di Attività Fisica Adattata (AFA) per l’ictus, che permettesse di migliorare gli esiti della riabilitazione. Obiettivo dello studio è di valutare se l’AFA unita all’Educazione Terapeutica (ET), rispetto al trattamento riabilitativo standard, migliora il funzionamento e la qualità di vita in pazienti con ictus. Studio clinico non randomizzato, in cui sono stati valutati 229 pazienti in riabilitazione post-ictus, 126 nel gruppo sperimentale (AFA+ET) e 103 nel gruppo di controllo. I pazienti sono stati valutati al baseline, a 4 e a 12 mesi di follow-up. Le misure di esito sono il cambiamento a 4 mesi di follow-up (che corrisponde a 2 mesi post-intervento nel gruppo sperimentale) di: distanza percorsa, Berg Balance Scale, Short Physical Performance Battery, e Motricity Index. Le variabili misurate a 4 e a 12 mesi di follow-up sono: Barthel Index, Geriatric Depression Scale, SF-12 e Caregiver Strain Index. La distanza percorsa, la performance fisica, l’equilibrio e il punteggio della componente fisica della qualità di vita sono migliorate a 4 mesi nel gruppo AFA+ET e rimasti stabili nel gruppo di controllo. A 12 mesi di follow-up, il gruppo AFA+ET ottiene un cambiamento maggiore, rispetto al gruppo di controllo, nell’abilità di svolgimento delle attività giornaliere e nella qualità di vita. Infine il gruppo AFA+ET riporta, nell’ultimo anno, un minor numero di fratture e minor ricorso a visite riabilitative rispetto al gruppo di controllo. I risultati confermano che l’AFA+ET è efficace nel migliorare le condizioni cliniche di pazienti con ictus e che gli effetti, soprattutto sulla riabilitazione fisica, sono mantenuti anche a lungo termine.
Resumo:
In questo lavoro di tesi si è sviluppato un sistema di supporto al fisioterapista per la definizione degli esercizi da far eseguire al paziente che consenta di automatizzare il controllo della corretta esecuzione degli esercizi stessi da parte del paziente. Si è realizzato un linguaggio per codificare gli esercizi ed un editor per poterli esprimere, attraverso il linguaggio, da parte dello specialista. E' stato realizzato un motore che riesca a valutare in modo automatico se il paziente sta eseguendo correttamente gli esercizi proposti, confrontando le pose riconosciute utilizzando il sensore Microsoft Kinect con le pose degli esercizi definiti attraverso l'editor. Il filo conduttore per la realizzazione del linguaggio e del motore è stata la teoria del Calcolo degli Eventi, estesa con il concetto di aspettativa.
Resumo:
Con l'avanzare della tecnologia, i Big Data hanno assunto un ruolo importante. In questo lavoro è stato implementato, in linguaggio Java, un software volto alla analisi dei Big Data mediante R e Hadoop/MapReduce. Il software è stato utilizzato per analizzare le tracce rilasciate da Google, riguardanti il funzionamento dei suoi data center.
Resumo:
Il web ha cambiato radicalmente le nostre vite. Grazie ad esso, oggi si possono fare cose che solo qualche decennio fa erano pura fantascienza, come ad esempio la telepresenza o gli interventi chirurgici da remoto, ma anche cose più “semplici” come seguire corsi di formazione (anche universitaria), effettuare la spesa, operare con il proprio conto corrente, tutto restando comodamente a casa propria, semplificando così la vita di tutti. Allo stesso tempo il web è stato utilizzato per fini tutt’altro che nobili, ad esempio per commettere crimini informatici, recare danni alla concorrenza, compiere varie forme di truffe ecc. Ogni persona dovrebbe comportarsi in modo corretto e nel pieno rispetto del prossimo, sia sul mondo reale che sul web, ma purtroppo non è sempre così. Per quanto riguarda il mondo del web, sta agli sviluppatori soddisfare le necessità dei propri utenti, assicurandosi però che la propria applicazione non verrà usata per recare qualche tipo di danno a terzi o alla propria infrastruttura. Questa tesi nasce da un idea dei docenti del corso di Programmazione riguardo alla realizzazione di un modulo del sito web del corso che si occupa della correzione automatica di esercizi scritti in linguaggio C dagli studenti del corso, dove per correzione automatica si intende la verifica della correttezza degli esercizi.
Resumo:
In questo lavoro di tesi abbiamo ideato e implementato un nuovo social network combinando in una sola applicazione per dispositivi mobili alcune nuove idee con altre già esistenti, ma ancora poco sviluppate. Dopo aver analizzato le app attualmente esistenti, si sono definite le caratteristiche dell'applicazione che si vuole creare, traendo ispirazione da Snapchat, Foursquare e Whisper. L'obiettivo è un'applicazione che permette agli utenti di inviare messaggi con testo e immagini geotaggati sulla loro posizione. Essi saranno anonimi, dato che gli utenti avranno la possibilità di creare e utilizzare facilmente più identità. I messaggi potranno essere votati e commentati e avranno una durata definita dall'autore, dopo di che si autodistruggeranno. Tutti i messaggi saranno visibili su una mappa che li mostrerà nel punto in cui l'autore si trovava quando li ha inviati. Gli utenti riceveranno una notifica per i nuovi messaggi inviati nelle loro vicinanze. I primi mesi di lavoro sul progetto sono stati dedicati al perfezionamento dell'idea originale e alla realizzazione della parte server. In questa fase è stato acquisito e configurato un Virtual Private Server, è stato progettato e creato il database MySql, ed è stata implementata la logica applicativa lato server in PHP. Successivamente, ci si è concentrati sulla progettazione e realizzazione dell'applicazione stessa, scegliendo la piattaforma Android e programmando in linguaggio Java. In questa fase si è definita e implementata l'interfaccia utente e la logica applicativa lato client. Giunti ad un buon livello di sviluppo, si è cominciato a distribuire limitatamente una versione alpha dell'applicazione per ottenere feedback dagli utenti, soprattutto riguardanti l'usabilità. La seguente tesi descrive in dettaglio l'idea di partenza, l'architettura del progetto e le funzionalità realizzate, per concludersi con una previsione degli sviluppi futuri. Vi è inoltre in allegato il codice sorgente dell'applicazione Android realizzata.
Resumo:
Nell'ultimo decennio il trend topic nell'ambito dell'insegnamento dell'informatica è il pensiero computazionale. Concetto già presente, è stato risaltato nel 2006 da Jeannette Wing, che ha mostrato come l'informatica abbia portato alla scienza non solo strumenti (computer e linguaggi di programmazione) ma anche innovazioni nel modo di pensare (es. algoritmo shotgun per sequenziamento del DNA umano). Il pensiero computazionale è il processo mentale coinvolto nel formulare problemi e loro soluzioni, rappresentate in una forma che sia effettivamente eseguibile da un agente che processa informazioni. Si tratta di “pensare come un informatico” quando si affronta un problema. Dopo aver passato in rassegna la letteratura sul pensiero computazionale, viene proposta una definizione del concetto. Si prende atto che la ricerca in questi anni sia rimasta molto legata ai linguaggi di programmazione, concetto centrale dell’Informatica. Vengono allora proposte due strade. La prima strada consiste nella riesumazione di tutta una serie di studi di Psicologia della Programmazione, in particolare: studi sulle misconcezioni, che si occupano di individuare i concetti che sono compresi male dai programmatori novizi, e studi sul commonsense computing, che cercano di capire come persone che non hanno mai ricevuto nozioni di programmazione - o più in generale di informatica – esprimano (in linguaggio naturale) concetti e processi computazionali. A partire da queste scoperte, si forniscono una serie di consigli per insegnare al meglio la programmazione (con i linguaggi attuali, con nuovi linguaggi appositamente progettati, con l'aiuto di strumenti ed ambienti ad-hoc) al più ampio pubblico possibile. La seconda strada invece porta più lontano: riconoscere il pensiero computazionale come quarta abilità di base oltre a leggere, scrivere e calcolare, dandogli dunque grande importanza nell’istruzione. Si vuole renderlo “autonomo” rispetto alla programmazione, fornendo consigli su come insegnarlo senza - ma anche con - l'ausilio di un formalismo.
Resumo:
La tesi affronta il concetto di esposizione al rischio occupazionale e il suo scopo è quello di indagare l’ambiente di lavoro e il comportamento dei lavoratori, con l'obiettivo di ridurre il tasso di incidenza degli infortuni sul lavoro ed eseguire la riduzione dei rischi. In primo luogo, è proposta una nuova metodologia denominata MIMOSA (Methodology for the Implementation and Monitoring of Occupational SAfety), che quantifica il livello di "salute e sicurezza" di una qualsiasi impresa. Al fine di raggiungere l’obiettivo si è reso necessario un approccio multidisciplinare in cui concetti d’ingegneria e di psicologia sono stati combinati per sviluppare una metodologia di previsione degli incidenti e di miglioramento della sicurezza sul lavoro. I risultati della sperimentazione di MIMOSA hanno spinto all'uso della Logica Fuzzy nel settore della sicurezza occupazionale per migliorare la metodologia stessa e per superare i problemi riscontrati nell’incertezza della raccolta dei dati. La letteratura mostra che i fattori umani, la percezione del rischio e il comportamento dei lavoratori in relazione al rischio percepito, hanno un ruolo molto importante nella comparsa degli incidenti. Questa considerazione ha portato ad un nuovo approccio e ad una seconda metodologia che consiste nella prevenzione di incidenti, non solo sulla base dell'analisi delle loro dinamiche passate. Infatti la metodologia considera la valutazione di un indice basato sui comportamenti proattivi dei lavoratori e sui danni potenziali degli eventi incidentali evitati. L'innovazione consiste nell'applicazione della Logica Fuzzy per tener conto dell’"indeterminatezza" del comportamento umano e del suo linguaggio naturale. In particolare l’applicazione è incentrata sulla proattività dei lavoratori e si prefigge di impedire l'evento "infortunio", grazie alla generazione di una sorta d’indicatore di anticipo. Questa procedura è stata testata su un’azienda petrolchimica italiana.
Resumo:
In questa tesi si indaga come è possibile strutturare in modo modulare programmi e prove in linguaggi con tipi dipendenti. Il lavoro è sviluppato nel linguaggio di programmazione con tipi dipendenti Agda. Il fine è quello di tradurre l'approccio Datatypes à la carte, originariamente formulato per Haskell, in Type Theory: puntiamo ad ottenere un simile embedding di una nozione di sottotipaggio per tipi ricorsivi, che permetta sia la definizione di programmi con side-effect dove i diversi effetti sono definiti modularmente, che la modularizzazione di sintassi, semantica e ragionamento relativi a descrizioni di linguaggi.
Resumo:
L’intelligenza artificiale, ovvero lo studio e la progettazione di sistemi intelligenti, mira a riprodurre alcuni aspetti dell’intelligenza umana, come il linguaggio e il ragionamento deduttivo, nei computer. La robotica, invece, cerca spesso di ricreare nei robot comportamenti adattativi, come l’abilità di manipolare oggetti o camminare, mediante l’utilizzo di algoritmi in grado di generare comportamenti desiderati. Una volta realizzato uno di questi algoritmi specificamente per una certa abilità, si auspica che tale algoritmo possa essere riutilizzato per generare comportamenti più complessi fino a che il comportamento adattativo del robot non si mostri ad un osservatore esterno come intelligente; purtroppo questo non risulta sempre possibile e talvolta per generare comportamenti di maggiore complessità è necessario riscrivere totalmente gli algoritmi. Appare quindi evidente come nel campo della robotica l’attenzione sia incentrata sul comportamento, perché le azioni di un robot generano nuove stimolazioni sensoriali, che a loro volta influiscono sulle sue azioni future. Questo tipo di intelligenza artificiale (chiamata propriamente embodied cognition) differisce da quella propriamente detta per il fatto che l’intelligenza non emerge dall’introspezione ma dalle interazioni via via più complesse che la macchina ha con l’ambiente circostante. Gli esseri viventi presenti in natura mostrano, infatti, alcuni fenomeni che non sono programmati a priori nei geni, bensì frutto dell’interazione che l’organismo ha con l’ambiente durante le varie fasi del suo sviluppo. Volendo creare una macchina che sia al contempo autonoma e adattativa, si devono affrontare due problemi: il primo è relativo alla difficoltà della progettazione di macchine autonome, il secondo agli ingenti costi di sviluppo dei robot. Alla fine degli anni ’80 nasce la robotica evolutiva che, traendo ispirazione dall’evoluzione biologica, si basa sull’utilizzo di software in grado di rappresentare popolazioni di robot virtuali e la capacità di farli evolvere all’interno di un simulatore, in grado di rappresentare le interazioni tra mente e corpo del robot e l’ambiente, per poi realizzare fisicamente solo i migliori. Si utilizzano algoritmi evolutivi per generare robot che si adattano, anche dal punto di vista della forma fisica, all’ambiente in cui sono immersi. Nel primo capitolo si tratterà di vita ed evoluzione artificiali, concetti che verranno ripresi nel secondo capitolo, dedicato alle motivazioni che hanno portato alla nascita della robotica evolutiva, agli strumenti dei quali si avvale e al rapporto che ha con la robotica tradizionale e le sue declinazioni. Nel terzo capitolo si presenteranno i tre formalismi mediante i quali si sta cercando di fornire un fondamento teorico a questa disciplina. Infine, nel quarto capitolo saranno mostrati i problemi che ancora oggi non hanno trovato soluzione e le sfide che si devono affrontare trattando di robotica evolutiva.
Resumo:
Lo scopo della tesi è studiare la logica dell'identità e delle descrizioni attraverso l'introduzione di metodi sempre più sofisticati che ci permettano di intraprendere attivamente questo studio, senza limitarci a recepire passivamente dei contenuti. L'approccio scelto è quello della deduzione naturale, in particolare il metodo delle derivazioni introdotto da Frederick Fitch.
Resumo:
Nell'elaborato si introduce il calcolo delle equazioni, un particolare linguaggio predicativo contenente come unico simbolo predicativo quello di uguaglianza. Vengono analizzate le funzioni derivabili in questo linguaggio: le funzioni ricorsive parziali e le funzioni ricorsive primitive. Si accenna al lambda-calcolo che è un particolare linguaggio con cui è possibile, per la sua semplicità, esprimere molte teorie, come quella del calcolo delle equazioni. Infine, si studiano i problemi legati alla ricorsività: il problema della fermata e il problema dell'indecidibilità della logica dei predicati.
Resumo:
L’obiettivo della presente dissertazione è quello di creare un nuovo linguaggio controllato, denominato Español Técnico Simplificado (ETS). Basato sulla specifica tecnica del Simplified Technical English (STE), ufficialmente conosciuta come ASD-STE100, lo spagnolo controllato ETS si presenta come un documento metalinguistico in grado di fornire ad un redattore o traduttore tecnico alcune regole specifiche per produrre un documento tecnico. La strategia di implementazione conduce allo studio preliminare di alcuni linguaggi controllati simili all’inglese STE, quali il Français Rationalisé e il Simplified Technical Spanish. Attraverso un approccio caratteristico della linguistica dei corpora, la soluzione proposta fornisce il nuovo linguaggio controllato mediante l’estrazione di informazioni specifiche da un corpus ad-hoc di lingua spagnola appositamente creato ed interrogato. I risultati evidenziano un metodo linguistico (controllato) utile a produrre documentazione tecnica priva di ogni eventuale ambiguità. Il sistema ETS, infatti, si fonda sul concetto della intelligibilità in quanto condizione necessaria da soddisfare nell’ambito della produzione di un testo controllato. E, attraverso la sua macrostruttura, il documento ETS fornisce gli strumenti necessari per rendere il testo controllato univoco. Infatti, tale struttura bipartita suddivide in maniera logica i dettami: una prima parte riguarda e contiene regole sintattiche e stilistiche; una seconda parte riguarda e contiene un dizionario di un numero limitato di lemmi opportunamente selezionati. Il tutto a favore del principio della biunivocità dei segni, in questo caso, della lingua spagnola. Il progetto, nel suo insieme, apre le porte ad un linguaggio nuovo in alternativa a quelli presenti, totalmente creato in accademia, che vale come prototipo a cui far seguire altri progetti di ricerca.