998 resultados para Ballerina,Cloud Native,API,Linguaggio di Programmazione
Resumo:
Si tratta di un'analisi della piattaforma di sviluppo per BPMN Activiti. Viene prima spiegata la notazione del Business Process Modeling e poi viene descritto il funzionamento e la struttura di Activiti. Infine viene spiegato come usare le API fornite insieme al motore.
Resumo:
Il mondo degli smartphone, in particolare grazie all’avvento delle app, costituisce un settore che ha avuto negli ultimi anni una crescita tale, da richiedere l’introduzione di un nuovo termine in ambito finanziario: app economy. La crescente richiesta da parte del mercato di nuove opportunitá derivanti dal mondo delle applicazioni, ha aumentato sensibilmente il carico di lavoro richiesto alle software house specializzate,che hanno pertanto avuto la necessitá di adeguarsi a tale cambiamento. Per ovviare alle suddette problematiche, sono iniziati ad emergere due tool che consentono lo sviluppo di applicazioni multipiattaforma utilizzando un linguaggio ed un ambiente di sviluppo comuni. Tali sistemi consentono un risparmio in termini di tempi e costi, ma non sono in grado di competere con i tool nativi in termini di qualità del prodotto realizzato, in particolare per quanto concerne l'interfaccia grafica. Si propone pertanto un approccio che tenta di combinare i vantaggi di entrambe le soluzioni, al fine di ottimizzare la fluidità della UI, consentendo allo stesso tempo il riuso della logica applicativa.
Resumo:
Ogni giorno vengono generati grandi moli di dati attraverso sorgenti diverse. Questi dati, chiamati Big Data, sono attualmente oggetto di forte interesse nel settore IT (Information Technology). I processi digitalizzati, le interazioni sui social media, i sensori ed i sistemi mobili, che utilizziamo quotidianamente, sono solo un piccolo sottoinsieme di tutte le fonti che contribuiscono alla produzione di questi dati. Per poter analizzare ed estrarre informazioni da questi grandi volumi di dati, tante sono le tecnologie che sono state sviluppate. Molte di queste sfruttano approcci distribuiti e paralleli. Una delle tecnologie che ha avuto maggior successo nel processamento dei Big Data, e Apache Hadoop. Il Cloud Computing, in particolare le soluzioni che seguono il modello IaaS (Infrastructure as a Service), forniscono un valido strumento all'approvvigionamento di risorse in maniera semplice e veloce. Per questo motivo, in questa proposta, viene utilizzato OpenStack come piattaforma IaaS. Grazie all'integrazione delle tecnologie OpenStack e Hadoop, attraverso Sahara, si riesce a sfruttare le potenzialita offerte da un ambiente cloud per migliorare le prestazioni dell'elaborazione distribuita e parallela. Lo scopo di questo lavoro e ottenere una miglior distribuzione delle risorse utilizzate nel sistema cloud con obiettivi di load balancing. Per raggiungere questi obiettivi, si sono rese necessarie modifiche sia al framework Hadoop che al progetto Sahara.
Resumo:
La Sentiment analysis, nata nell'ambito dell’informatica, è una delle aree di ricerca più attive nel campo dell’analisi del linguaggio naturale e si è diffusa ampiamente anche in altri rami scientifici come ad esempio le scienze sociali, l’economia e il marketing. L’enorme diffusione della sentiment analysis coincide con la crescita dei cosiddetti social media: siti di commercio e recensioni di prodotti, forum di discussione, blog, micro-blog e di vari social network. L'obiettivo del presente lavoro di tesi è stato quello di progettare un sistema di sentiment analysis in grado di rilevare e classificare le opinioni e i sentimenti espressi tramite chat dagli utenti della piattaforma di video streaming Twitch.tv. Per impostare ed organizzare il lavoro, giungendo quindi alla definizione del sistema che ci si è proposti di realizzare, sono stati utilizzati vari modelli di analisi in particolare le recurrent neural networks (RNNLM) e sistemi di word embedding (word2vec),nello specifico i Paragraph Vectors, applicandoli, dapprima, su dati etichettati in maniera automatica attraverso l'uso di emoticon e, successivamente, su dati etichettati a mano.
Resumo:
Sviluppare e manutenere applicativi destinati a differenti piattaforme è un’opzione esclusiva di quelle entità capaci di sostenere costi molto alti per la realizzazione di queste applicazioni. Questo esclude gli sviluppatori indipendenti, che spesso realizzano prodotti in totale autonomia; le start-up, che hanno l’esigenza di sviluppare un’idea di business avendo a disposizione budget estremamente ridotti; le piccole aziende, alle quali viene così preclusa la possibilità di competere con player più importanti. Questo tipo di emergenze rende lo sviluppo cross-platform una soluzione interessante per la realizzazione delle applicazioni mobili, abbattendo i costi di sviluppo e permettendo di raggiungere più velocemente un pubblico più ampio. C'è quindi sempre maggiore interesse, da parte degli sviluppatori, per gli strumenti di sviluppo cross-platform. Per catturare l’attenzione degli sviluppatori è necessario che lo strumento sia dotato di buona stabilità, che offra un ambiente di sviluppo confortevole, una buona user experience, facilità di aggiornamento, tempi di sviluppo contenuti e possibilità di immissione delle applicazioni su diversi ecosistemi software. L’idea alla base di questa Tesi di laurea è valutare i pro e i contro di uno di questi framework cross-platform e compararlo con le tecnologie native. Il framework scelto è Ionic per via della sua popolarità tra gli sviluppatori e della ridotta bibliografia scientifica a riguardo. Molte ricerche scientifiche valutano le prestazioni di uno o più framework cross-platform rispetto ad una soluzione nativa, tuttavia è raro un confronto tra un framework e più soluzioni native. Per questo, oltre a valutare i pro e i contro del framework, verrà anche effettuata una comparazione tra gli applicativi nativi per Android e iOS e le controparti sviluppate attraverso Ionic, permettendo di identificare eventuali differenze di performance e aiutare gli sviluppatori nelle scelte tecnologiche.
Assessing success of forest restoration efforts in degraded montane cloud forests in southern Mexico
Resumo:
Montane cloud forests are home to great biodiversity. However, non-sustainable anthropogenic activities have led to the loss of forest cover in southern Mexico. Increasing conservation, restoration and sustainable use of forest resources prevents the loss of cloud forests. In this study, success of forest restoration was evaluated in a degraded forest of Highlands Chiapas. The goal of this study was to assess the structure and composition of native tree species. We evaluated vegetation composition at three sites that had undergone enrichment plantings. Floristic composition and structure of the herbaceous, seedling, sapling, and overstory layers were measured. A total of sixty-six native tree species were recorded. Enrichment planting was found to have increased tree diversity. Moreover, 54% of the planted species were found in the understory, indicating that they were successfully recruiting. In conclusion, enrichment planting can aid in the conservation of forest cover in degraded areas.
Resumo:
The emergence of cloud datacenters enhances the capability of online data storage. Since massive data is stored in datacenters, it is necessary to effectively locate and access interest data in such a distributed system. However, traditional search techniques only allow users to search images over exact-match keywords through a centralized index. These techniques cannot satisfy the requirements of content based image retrieval (CBIR). In this paper, we propose a scalable image retrieval framework which can efficiently support content similarity search and semantic search in the distributed environment. Its key idea is to integrate image feature vectors into distributed hash tables (DHTs) by exploiting the property of locality sensitive hashing (LSH). Thus, images with similar content are most likely gathered into the same node without the knowledge of any global information. For searching semantically close images, the relevance feedback is adopted in our system to overcome the gap between low-level features and high-level features. We show that our approach yields high recall rate with good load balance and only requires a few number of hops.
Resumo:
Negli ultimi decenni, le tecnologie e i prodotti informatici sono diventati pervasivi e sono ora una parte essenziale delle nostre vite. Ogni giorno ci influenzano in maniera più o meno esplicita, cambiando il nostro modo di vivere e i nostri comportamenti più o meno intenzionalmente. Tuttavia, i computer non nacquero inizialmente per persuadere: essi furono costruiti per gestire, calcolare, immagazzinare e recuperare dati. Non appena i computer si sono spostati dai laboratori di ricerca alla vita di tutti i giorni, sono però diventati sempre più persuasivi. Questa area di ricerca è chiamata pesuasive technology o captology, anche definita come lo studio dei sistemi informatici interattivi progettati per cambiare le attitudini e le abitudini delle persone. Nonostante il successo crescente delle tecnologie persuasive, sembra esserci una mancanza di framework sia teorici che pratici, che possano aiutare gli sviluppatori di applicazioni mobili a costruire applicazioni in grado di persuadere effettivamente gli utenti finali. Tuttavia, il lavoro condotto dal Professor Helal e dal Professor Lee al Persuasive Laboratory all’interno dell’University of Florida tenta di colmare questa lacuna. Infatti, hanno proposto un modello di persuasione semplice ma efficace, il quale può essere usato in maniera intuitiva da ingegneri o specialisti informatici. Inoltre, il Professor Helal e il Professor Lee hanno anche sviluppato Cicero, un middleware per dispositivi Android basato sul loro precedente modello, il quale può essere usato in modo molto semplice e veloce dagli sviluppatori per creare applicazioni persuasive. Il mio lavoro al centro di questa tesi progettuale si concentra sull’analisi del middleware appena descritto e, successivamente, sui miglioramenti e ampliamenti portati ad esso. I più importanti sono una nuova architettura di sensing, una nuova struttura basata sul cloud e un nuovo protocollo che permette di creare applicazioni specifiche per smartwatch.
Resumo:
Il presente elaborato analizza la figura della fangirl geek e del linguaggio tipico della nerd culture attraverso la traduzione di un estratto del libro "The Fangirl's Guide to the Galaxy" di Sam Maggs. In particolare, l'autrice ha tentato di contestualizzare certi termini nati su Internet per un pubblico italiano e approfondire il fenomeno delle fangirl, spesso vittime di stereotipi. Nei due capitoli che compongono l’elaborato si è voluto dare spazio all'analisi etimologica del termine fangirl, all'approfondimento in ottica femminista dell’evoluzione moderna di questa categoria e all'impatto che la nerd culture ha nel mondo di oggi. Il secondo capitolo analizza la traduzione di una parte del Capitolo 4 dedicato al femminismo geek. L'analisi traduttiva si concentra sulla resa dello humor e di uno slang ormai consolidato e conosciuto in inglese.
Resumo:
Lo scopo di questo l'elaborato è l'analisi,lo studio e il confronto delle tecnologie per l'analisi in tempo reale di Big Data: Apache Spark Streaming, Apache Storm e Apache Flink. Per eseguire un adeguato confronto si è deciso di realizzare un sistema di rilevamento e riconoscimento facciale all’interno di un video, in maniera da poter parallelizzare le elaborazioni necessarie sfruttando le potenzialità di ogni architettura. Dopo aver realizzato dei prototipi realistici, uno per ogni architettura, si è passati alla fase di testing per misurarne le prestazioni. Attraverso l’impiego di cluster appositamente realizzati in ambiente locale e cloud, sono state misurare le caratteristiche che rappresentavano, meglio di altre, le differenze tra le architetture, cercando di dimostrarne quantitativamente l’efficacia degli algoritmi utilizzati e l’efficienza delle stesse. Si è scelto quindi il massimo input rate sostenibile e la latenza misurate al variare del numero di nodi. In questo modo era possibile osservare la scalabilità di architettura, per analizzarne l’andamento e verificare fino a che limite si potesse giungere per mantenere un compromesso accettabile tra il numero di nodi e l’input rate sostenibile. Gli esperimenti effettuati hanno mostrato che, all’aumentare del numero di worker le prestazioni del sistema migliorano, rendendo i sistemi studiati adatti all’utilizzo su larga scala. Inoltre sono state rilevate sostanziali differenze tra i vari framework, riportando pro e contro di ognuno, cercando di evidenziarne i più idonei al caso di studio.
Resumo:
Lo scopo del presente lavoro è analizzare le scelte traduttive adottate nel doppiaggio in italiano della serie televisiva americana “How to get away with murder”, distribuita in Italia con il nome “Le regole del delitto perfetto”. L’analisi verterà sulla resa italiana del lessico giuridico americano. Verranno descritte le caratteristiche principali del sistema di common law americano, con attenzione verso il sistema giudiziario, il sistema precedente giudiziale e il sistema di risoluzione delle controversie. Tale parte del lavoro è volta a dare l’idea, anche solo generale, di come è il sistema giuridico statunitense e dei suoi tratti caratteristici. In seguito si andranno a evidenziare le sostanziali differenze tra i due ordinamenti giuridici, quello statunitense e quello italiano, in modo da definire al meglio ciò che li contraddistingue. Si passerà poi all’analisi della resa italiana del lessico giuridico presente nella serie televisiva. Verrà analizzata, pur nei limiti di un lavoro di tesina triennale, la resa in italiano di alcuni termini giuridici riscontrati in alcuni episodi della serie televisiva, ponendo particolare attenzione al loro significato, al significato del termine usato per tradurli e all’effetto che tale traduzione potrebbe produrre sul pubblico.
Resumo:
Il presente elaborato offre una proposta di traduzione commentata di quattro scene del dramma di Larry Kramer, “The Normal Heart”. La tesi consiste di tre capitoli: il primo di questi si concentra sulla biografia e sulla produzione artistica dell'autore, con un focus particolare su The Normal Heart, di cui analizzo le tematiche, e sul contesto storico-sociale in cui l'opera si inserisce. Questo capitolo offre inoltre un excursus sulla letteratura sull'AIDS e presenta le quattro scene di cui propongo la traduzione nel secondo capitolo. È nel terzo e ultimo capitolo che viene poi esposta un'analisi commentata della traduzione, in cui sono messe in luce le difficoltà relative alla traduzione e le strategie con le quali ho risolto i problemi traduttivi. In particolar modo, vengono presi in considerazione il rispetto del criterio della “recitabilità” e i problemi relativi alla traduzione del linguaggio colloquiale, delle forme verbali che non hanno equivalenti precisi nella lingua d'arrivo e delle espressioni volgari. Seguono infine le conclusioni, in cui espongo alcune riflessioni personali sul lavoro eseguito.
Resumo:
Lo studio si occupa di fluency e analizza alcuni aspetti che la definiscono (pause vuote, pause piene, segnali discorsivi, riformulazioni). Si analizzano frequenza e durata di tali fenomeni, attraverso due corpora di produzioni orali di due gruppi di parlanti della lingua inglese: gli studenti italiani del corso di Mediazione Linguistica Interculturale della Scuola di Lingue, Letterature, Interpretazione e Traduzione di Forlì, Università di Bologna, e partecipanti britannici di un programma radiofonico. Si è ritenuto utile comparare le produzioni orali di studenti della lingua inglese a quelle di oratori pubblici madrelingua. Si è cercato di bilanciare i due corpora in termini di genere. Sono stati utilzzati i software Praat, per identificare la morfologia e la durata delle variabili, e Notetab Light, per l'annotazione dei corpora. I risultati della ricerca mostrano che le differenze maggiori tra i due gruppi risiedono nella durata delle pause vuote e nella frequenza, durata e e varietà di suoni delle pause piene, oltre a sillabe aggiuntive, sillabe allungate e riformulazioni. Le sillabe aggiuntive appaiono tipiche della produzione orale degli studenti italiani, in quanto, per la maggior parte, le parole della lingua italiana terminano con un suono vocalico. E' inoltre emersa una questione di genere. Le parlanti di sesso femminile, in entrambi i corpora, impiegano maggiormente le variabili della fluency prese in esame, rispetto ai parlanti di sesso maschile. Sulla base di questa ricerca e ricerche future si potranno ideare moduli di insegnamento dell'inglese basati sulla fluency come fattore primario di competenza linguistica. Il Capitolo 1 introduce lo studio. Il Capitolo 2 presenta lo stato dell'arte sul tema. Il Capitolo 3 presenta la metodologia dello studio. Il Capitolo 4 è dedicato a illustrare e discutere i risultati della ricerca. Il Capitolo 5 presenta considerazioni conclusive e future prospettive per l'insegnamento dell'inglese e per la ricerca.
Resumo:
La tesi prende in esame Muerte de un escritor, quinto volume della serie El hombre de los 21 dedos, scritto da José Angel Manas e ambientato nella Spagna anni Novanta. La traduzione, limitata ai primi due capitoli del libro, si prefigge di rendere in italiano le diverse e complesse sfaccettature della lingua spagnola parlata utilizzata dall'autore. La traduzione è preceduta da una parte introduttiva, nella quale vengono presentati l'autore e le sue opere ed analizzati il suo stile narrativo e le tematiche trattate. Il linguaggio utilizzato da Manas è quindi oggetto di esame analitico, con il quale si evidenzia la capacità dell'autore di giocare con la lingua e di passare in poche righe da un registro alto a un registro basso, rendendo particolarmente interessante il lavoro del traduttore, che deve cogliere le sfumature del linguaggio e riportarle in italiano senza perdere la forza espressiva del testo originale.