412 resultados para linguaggio, genere, sessismo linguistico, identità di genere


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La diffusione del Semantic Web e di dati semantici in formato RDF, ha creato la necessità di un meccanismo di trasformazione di tali informazioni, semplici da interpretare per una macchina, in un linguaggio naturale, di facile comprensione per l'uomo. Nella dissertazione si discuterà delle soluzioni trovate in letteratura e, nel dettaglio, di RSLT, una libreria JavaScript che cerca di risolvere questo problema, consentendo la creazione di applicazioni web in grado di eseguire queste trasformazioni tramite template dichiarativi. Verranno illustrati, inoltre, tutti i cambiamenti e tutte le modi�che introdotte nella versione 1.1 della libreria, la cui nuova funzionalit�à principale �è il supporto a SPARQL 1.0.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni si è assistito ad una radicale rivoluzione nell’ambito dei dispositivi di interazione uomo-macchina. Da dispositivi tradizionali come il mouse o la tastiera si è passati allo sviluppo di nuovi sistemi capaci di riconoscere i movimenti compiuti dall’utente (interfacce basate sulla visione o sull’uso di accelerometri) o rilevare il contatto (interfacce di tipo touch). Questi sistemi sono nati con lo scopo di fornire maggiore naturalezza alla comunicazione uomo-macchina. Le nuove interfacce sono molto più espressive di quelle tradizionali poiché sfruttano le capacità di comunicazione naturali degli utenti, su tutte il linguaggio gestuale. Essere in grado di riconoscere gli esseri umani, in termini delle azioni che stanno svolgendo o delle posture che stanno assumendo, apre le porte a una serie vastissima di interessanti applicazioni. Ad oggi sistemi di riconoscimento delle parti del corpo umano e dei gesti sono ampiamente utilizzati in diversi ambiti, come l’interpretazione del linguaggio dei segni, in robotica per l’assistenza sociale, per indica- re direzioni attraverso il puntamento, nel riconoscimento di gesti facciali [1], interfacce naturali per computer (valida alternativa a mouse e tastiera), ampliare e rendere unica l’esperienza dei videogiochi (ad esempio Microsoft 1 Introduzione Kinect© e Nintendo Wii©), nell’affective computing1 . Mostre pubbliche e musei non fanno eccezione, assumendo un ruolo cen- trale nel coadiuvare una tecnologia prettamente volta all’intrattenimento con la cultura (e l’istruzione). In questo scenario, un sistema HCI deve cercare di coinvolgere un pubblico molto eterogeneo, composto, anche, da chi non ha a che fare ogni giorno con interfacce di questo tipo (o semplicemente con un computer), ma curioso e desideroso di beneficiare del sistema. Inoltre, si deve tenere conto che un ambiente museale presenta dei requisiti e alcune caratteristiche distintive che non possono essere ignorati. La tecnologia immersa in un contesto tale deve rispettare determinati vincoli, come: - non può essere invasiva; - deve essere coinvolgente, senza mettere in secondo piano gli artefatti; - deve essere flessibile; - richiedere il minor uso (o meglio, la totale assenza) di dispositivi hardware. In questa tesi, considerando le premesse sopracitate, si presenta una sistema che può essere utilizzato efficacemente in un contesto museale, o in un ambiente che richieda soluzioni non invasive. Il metodo proposto, utilizzando solo una webcam e nessun altro dispositivo personalizzato o specifico, permette di implementare i servizi di: (a) rilevamento e (b) monitoraggio dei visitatori, (c) riconoscimento delle azioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La vera identità di un individuo è un'informazione molto preziosa. In generale le persone non hanno particolari remore a rivelare la propria identità e il riconoscimento non rappresenta un problema; l'unica motivazione che può portare un individuo a nascondere la propria identità è l'elusione dei rilevamenti delle forze dell'ordine per un certo tipo di attività criminale. In questi casi, risulta difficile procedere al riconoscimento attraverso caratteristiche biometriche come iride o impronte digitali, in quanto la loro acquisizione presuppone un certo grado di collaborazione da parte del soggetto. Il volto, invece, può essere ottenuto in modo segreto, non solo attraverso le ben note telecamere di videosorveglianza ma anche attraverso la ricostruzione fornita da un eventuale testimone oculare che assiste all'evento criminoso. Quest'ultimo, attraverso la descrizione verbale del sospettato e con l'ausilio delle capacità di un disegnatore, fornisce un contributo per la costruzione di un identikit o sketch del soggetto, favorendo quindi il processo di individuazione dell'identità del malvivente. Solitamente, una volta prodotto lo sketch, si effettua un confronto visivo con le fotografie segnaletiche già in possesso degli inquirenti e memorizzate all'interno di un'ipotetica banca dati. Tale confronto viene eseguito 'manualmente' da persone incaricate, comportando un inevitabile spreco di tempo; dotarsi di un sistema automatico in grado di ricercare la foto del sospettato più somigliante allo sketch a partire da quelle presenti all'interno di un database potrebbe aiutare le forze di polizia in una più celere individuazione del colpevole. Purtroppo, i metodi presenti allo stato dell'arte sul riconoscimento facciale non consentono un confronto diretto: fotografia e disegno sono due rappresentazioni del volto molto differenti in termini di ricchezza di dettagli e tessitura e pertanto non direttamente confrontabili. L'obiettivo del progetto di tesi è quello di esplorare una nuova strategia di valutazione automatica della similarità tra uno sketch e una fotografia consistente principalmente in un'analisi della conformazione dei volti, mediante estrazione dei contorni e calcolo di apposite feature.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Web nel corso della sua esistenza ha subito un mutamento dovuto in parte dalle richieste del mercato, ma soprattutto dall’evoluzione e la nascita costante delle numerose tecnologie coinvolte in esso. Si è passati da un’iniziale semplice diffusione di contenuti statici, ad una successiva collezione di siti web, dapprima con limitate presenze di dinamicità e interattività (a causa dei limiti tecnologici), ma successivamente poi evoluti alle attuali applicazioni web moderne che hanno colmato il gap con le applicazioni desktop, sia a livello tecnologico, che a livello di diffusione effettiva sul mercato. Tali applicazioni web moderne possono presentare un grado di complessità paragonabile in tutto e per tutto ai sistemi software desktop tradizionali; le tecnologie web hanno subito nel tempo un evoluzione legata ai cambiamenti del web stesso e tra le tecnologie più diffuse troviamo JavaScript, un linguaggio di scripting nato per dare dinamicità ai siti web che si ritrova tutt’ora ad essere utilizzato come linguaggio di programmazione di applicazioni altamente strutturate. Nel corso degli anni la comunità di sviluppo che ruota intorno a JavaScript ha prodotto numerose librerie al supporto del linguaggio dotando così gli sviluppatori di un linguaggio completo in grado di far realizzare applicazioni web avanzate. Le recenti evoluzioni dei motori javascript presenti nei browser hanno inoltre incrementato le prestazioni del linguaggio consacrandone la sua leadership nei confronti dei linguaggi concorrenti. Negli ultimi anni a causa della crescita della complessità delle applicazioni web, javascript è stato messo molto in discussione in quanto come linguaggio non offre le classiche astrazioni consolidate nel tempo per la programmazione altamente strutturata; per questo motivo sono nati linguaggi orientati alla programmazione ad oggetti per il web che si pongono come obiettivo la risoluzione di questo problema: tra questi si trovano linguaggi che hanno l’ambizione di soppiantare JavaScript come ad esempio Dart creato da Google, oppure altri che invece sfruttano JavaScript come linguaggio base al quale aggiungono le caratteristiche mancanti e, mediante il processo di compilazione, producono codice JavaScript puro compatibile con i motori JavaScript presenti nei browser. JavaScript storicamente fu introdotto come linguaggio sia per la programmazione client-side, che per la controparte server-side, ma per vari motivi (la forte concorrenza, basse performance, etc.) ebbe successo solo come linguaggio per la programmazione client; le recenti evoluzioni del linguaggio lo hanno però riportato in auge anche per la programmazione server-side, soprattutto per i miglioramenti delle performance, ma anche per la sua naturale predisposizione per la programmazione event-driven, paradigma alternativo al multi-threading per la programmazione concorrente. Un’applicazione web di elevata complessità al giorno d’oggi può quindi essere interamente sviluppata utilizzando il linguaggio JavaScript, acquisendone sia i suoi vantaggi che gli svantaggi; le nuove tecnologie introdotte ambiscono quindi a diventare la soluzione per i problemi presenti in JavaScript e di conseguenza si propongono come potenziali nuovi linguaggi completi per la programmazione web del futuro, anticipando anche le prossime evoluzioni delle tecnologie già esistenti preannunciate dagli enti standard della programmazione web, il W3C ed ECMAScript. In questa tesi saranno affrontate le tematiche appena introdotte confrontando tra loro le tecnologie in gioco con lo scopo di ottenere un’ampia panoramica delle soluzioni che uno sviluppatore web dovrà prendere in considerazione per realizzare un sistema di importanti dimensioni; in particolare sarà approfondito il linguaggio TypeScript proposto da Microsoft, il quale è nato in successione a Dart apparentemente con lo stesso scopo, ma grazie alla compatibilità con JavaScript e soprattutto con il vasto mondo di librerie legate ad esso nate in questi ultimi anni, si presenta nel mercato come tecnologia facile da apprendere per tutti gli sviluppatori che già da tempo hanno sviluppato abilità nella programmazione JavaScript.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

All'interno della tesi si tratta il modello del calore, di cui si trova una rappresentazione integrale della soluzione fondamentale e da questa, attraverso la seconda identità di Green, vengono ricavate le formule di media superficiali e di volume sugli insiemi di livello su cui è definita la soluzione fondamentale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nella tesi vengono descritte le caratteristiche principali del linguaggio di programmazione service-oriented Jolie, analizzandone ampiamente la sintassi e proponendo esempi di utilizzo degli operatori e dei costrutti. Viene fatta una panoramica di SOC, SOA, Web Services, Cloud Computing, Orchestrazione, Coreografia, Deployment e Behaviour, gli ultimi due analizzati in diversi capitoli. La tesi si conclude con un esempio di conversione di servizi WSDL in Jolie, producendo un esempio di utilizzo del Web Service convertito. Nel documento vengono accennati i progressi storici del linguaggio ed i loro sviluppatori, nonché le API fornite dal linguaggio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Risolvere il problema isoperimetrico in R^2 significa determinare la figura piana avente area maggiore tra tutte le figure aventi ugual perimetro. In questo lavoro trattiamo la risoluzione del problema isoperimetrico in R^2 proposta da Hurwitz, il quale, basandosi esclusivamente sulle proprietà analitiche delle serie di Fourier, è riuscito a dimostrare che la circonferenza è l'unica curva piana, semplice, chiusa e rettificabile con l'area massima avendo fissato il perimetro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La terminologia informatica e di Internet in spagnolo è caratterizzata da una forte instabilità lessicale e semantica. La grande presenza di anglicismi che si creano con enorme rapidità, impedisce il corretto processo di incorporazione di tali termini nello spagnolo, favorendo così la convivenza di lessico inglese e termini solo parzialmente adattati alla lingua spagnola, dei quali spesso non si conosce l'esatto significato. I traduttori che operano in queste aree linguistiche, così come gli informatici e tutti gli interessati al corretto utilizzo di questa terminologia, per risolvere le problematiche che incontrano, fanno uso oggi soprattutto di risorse online più facilmente aggiornabili ed accessibili rispetto ai classici dizionari cartacei. Tra queste, sono molto importanti gli spazi che permettono la collaborazione diretta tra professionisti del settore, che favoriscono un approccio dinamico e contestuale nella risoluzione di tali dubbi. Il Foro Tic del Centro Virtual Cervantes, dedicato alla discussione su tale linguaggio, raccoglie interessanti dibattiti sull'argomento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La maggior parte dei moderni dispositivi e macchinari, sia ad uso civile che industriale, utilizzano sistemi elettronici che ne supervisionano e ne controllano il funzionamento. All’ interno di questi apparati è quasi certamente impiegato un sistema di controllo digitale che svolge, anche grazie alle potenzialità oggi raggiunte, compiti che fino a non troppi anni or sono erano dominio dell’ elettronica analogica, si pensi ad esempio ai DSP (Digital Signal Processor) oggi impiegati nei sistemi di telecomunicazione. Nonostante l'elevata potenza di calcolo raggiunta dagli odierni microprocessori/microcontrollori/DSP dedicati alle applicazioni embedded, quando è necessario eseguire elaborazioni complesse, time-critical, dovendo razionalizzare e ottimizzare le risorse a disposizione, come ad esempio spazio consumo e costi, la scelta ricade inevitabilmente sui dispositivi FPGA. I dispositivi FPGA, acronimo di Field Programmable Gate Array, sono circuiti integrati a larga scala d’integrazione (VLSI, Very Large Scale of Integration) che possono essere configurati via software dopo la produzione. Si differenziano dai microprocessori poiché essi non eseguono un software, scritto ad esempio in linguaggio assembly oppure in linguaggio C. Sono invece dotati di risorse hardware generiche e configurabili (denominate Configurable Logic Block oppure Logic Array Block, a seconda del produttore del dispositivo) che per mezzo di un opportuno linguaggio, detto di descrizione hardware (HDL, Hardware Description Language) vengono interconnesse in modo da costituire circuiti logici digitali. In questo modo, è possibile far assumere a questi dispositivi funzionalità logiche qualsiasi, non previste in origine dal progettista del circuito integrato ma realizzabili grazie alle strutture programmabili in esso presenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro studiamo le funzioni armoniche e le loro proprietà: le formule di media, il principio del massimo e del minimo (forte e debole), la disuguaglianza di Harnack e il teorema di Louiville. Successivamente scriviamo la prima e la seconda identità di Green, che permettono di ottenere esplicitamente la soluzione fondamentale dell’equazione di Laplace, tramite il calcolo delle soluzioni radiali del Laplaciano. Introduciamo poi la funzione di Green, da cui si ottiene una formula di rappresentazione per le funzioni armoniche. Se il dominio di riferimento è una palla, la funzione di Green può essere determinata esplicitamente, e ciò conduce alla rappresentazione integrale di Poisson per le funzioni armoniche in una palla.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il punto centrale della tesi è stato dimostrare il Teorema di Koebe per le funzioni armoniche. È stato necessario partire da alcuni risultati di integrazione in Rn per ricavare identità e formule di rappresentazione per funzioni di classe C2, introdurre le funzioni armoniche e farne quindi una analisi accurata. Tali funzioni sono state caratterizzate tramite le formule di media e messe in relazione con le funzioni olomorfe, per le quali vale una formula simile di rappresentazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’elaborato descrive il lavoro svolto nella realizzazione di un software in linguaggio Labview, la cui funzione è di controllare, mediante una scheda, l’alimentatore di un fornetto facente parte di un apparato per spettroscopia di desorbimento termico (TDS), in modo che esso generi una “rampa” di temperatura. La spettroscopia di desorbimento termico è una tecnica che consente di rivelare i gas precedentemente adsorbiti su una superficie. Nella prima fase dell’attività ho implementato un codice dedicato al mantenimento di una temperatura costante (“generazione di un’isoterma”) al fine di acquisire dimestichezza col linguaggio Labview e le problematiche relative al controllo PID. A seguito di questo studio ho proceduto alla realizzazione del software richiesto, partendo da un controllo puramente proporzionale, aggiungendo successivamente le parti integrativa e derivativa opportunamente pesate in base alla risposta del sistema. L’algoritmo utilizzato, tuttavia, non è di tipo PID in senso stretto, poiché sono state apportate alcune modifiche al fine di raggiungere il migliore risultato possibile nella generazione della rampa. Nell’elaborato sono esposti i grafici che mostrano i risultati ottenuti. Nel primo capitolo è presente la descrizione del fenomeno oggetto di studio, a cui segue la descrizione dell’apparato. Gli altri due capitoli sono dedicati alla descrizione dell’algoritmo utilizzato e del lavoro svolto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’elaborato prevede lo studio delle catene anaforiche con l’obiettivo di indagare le meccaniche che guidano la scelta della ripresa, in rapporto alle caratteristiche dell’antecedente. Nel primo capitolo sarà presentato il fenomeno dell’anafora e della catena anaforica. Quindi prima di tutto sarà illustrato che cos’è un referente testuale e quando viene attivato e in seguito il focus si sposterà sulla ripresa anaforica, distinguendo anafora coreferenziale, non coreferenziale e anafore particolari. La parte finale poi sarà dedicata a un confronto tra anafora, deissi testuale e deissi situazionale. Il secondo capitolo verterà sull’anafora con identità di referente, e presenterà due importanti studi che si propongono di indagare i meccanismi che guidano la selezione della ripresa: quelli di Givòn e di Berretta. Quindi si partirà dal concetto di topicalità per arrivare al principio innovativo introdotto da Givòn, la continuità tematica (topic continuity). Successivamente sarà presentato il modello di analisi di Berretta, che si basa sullo studio di catene anaforiche “difficili”, ovvero costituite da antecedenti di rango topicale basso, opponendosi al metodo di Givòn basato su catene “facili”, con antecedenti umani, singolari e nel ruolo di soggetto. Nel terzo capitolo, invece, verrà introdotta la parte sperimentale dell’elaborato: l’annotazione di un testo per lo studio delle catene anaforiche. In questo capitolo sarà presentato nel dettaglio il modello di analisi adottato, ovvero un modello integrato che comprende le variabili considerate sia da Givòn sia da Berretta. Il procedimento di marcatura prevede l’annotazione manuale di tutti gli antecedenti (soggetti e non soggetti, umani e non umani, in ruolo sintattico topicale e non topicale) e le rispettive riprese, oltre alle unità testuali quali capitolo, paragrafo e frase. Il quarto e ultimo capitolo, invece, rappresenta l’analisi empirica dei dati estratti dal testo annotato. In questa sezione, sotto forma di tabelle e grafici, saranno presentati i dati considerando diverse variabili e correlazioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente elaborato, partendo dalla curiosità e gli stimoli ricevuti durante il percorso di laurea triennale, vuole prendere in analisi i tratti caratteristici dell’Intercultura e delle due facce che la compongono: l’interpretariato e la mediazione linguistica. Nel primo capitolo si delineano i contorni dell’interculturalità, partendo dalla definizione stessa di cultura, passando poi per l’approccio alla comunicazione interculturale e giungendo alla descrizione dei protagonisti dello scambio comunicazionale. Nel secondo capitolo dell’elaborato ci si concentra invece sulle figure professionali quali l’interprete di conferenza e il mediatore linguistico, cercando di far emergere i punti di contatto ma soprattutto le discrepanze inerenti alla pratica linguistica. Nel terzo ed ultimo capitolo, grazie alla collaborazione degli operatori del centro di accoglienza per extracomunitari richiedenti asilo della città di Caltanissetta, si traggono le conclusioni basandosi su un’intervista sottoposta ad un’operatrice in attività nel centro in qualità di interprete.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Con il presente lavoro si è svolta una ricerca sugli italianismi nella lingua albanese, più precisamente nel linguaggio politico. Una volta individuati gli italianismi all'interno di interviste, si è proceduto alla redazione di un glossario.