893 resultados para Aleph Analytics
Resumo:
We review recent visualization techniques aimed at supporting tasks that require the analysis of text documents, from approaches targeted at visually summarizing the relevant content of a single document to those aimed at assisting exploratory investigation of whole collections of documents.Techniques are organized considering their target input materialeither single texts or collections of textsand their focus, which may be at displaying content, emphasizing relevant relationships, highlighting the temporal evolution of a document or collection, or helping users to handle results from a query posed to a search engine.We describe the approaches adopted by distinct techniques and briefly review the strategies they employ to obtain meaningful text models, discuss how they extract the information required to produce representative visualizations, the tasks they intend to support and the interaction issues involved, and strengths and limitations. Finally, we show a summary of techniques, highlighting their goals and distinguishing characteristics. We also briefly discuss some open problems and research directions in the fields of visual text mining and text analytics.
Resumo:
In questa tesi viene affrontato il tema del tracciamento video, analizzando le principali tecniche, metodologie e strumenti per la video analytics. L'intero lavoro, è stato svolto interamente presso l'azienda BitBang, dal reperimento di informazioni e materiale utile, fino alla stesura dell'elaborato. Nella stessa azienda ho avuto modo di svolgere il tirocinio, durante il quale ho approfondito gli aspetti pratici della web e video analytics, osservando il lavoro sul campo degli specialisti del settore e acquisendo familiarità con gli strumenti di analisi dati tramite l'utilizzo delle principali piattaforme di web analytics. Per comprendere a pieno questo argomento, è stato necessario innanzitutto conoscere la web analytics di base. Saranno illustrate quindi, le metodologie classiche della web analytics, ovvero come analizzare il comportamento dei visitatori nelle pagine web con le metriche più adatte in base alle diverse tipologie di business, fino ad arrivare alla nuova tecnica di tracciamento eventi. Questa nasce subito dopo la diffusione nelle pagine dei contenuti multimediali, i quali hanno portato a un cambiamento nelle modalità di navigazione degli utenti e, di conseguenza, all'esigenza di tracciare le nuove azioni generate su essi, per avere un quadro completo dell'esperienza dei visitatori sul sito. Non sono più sufficienti i dati ottenuti con i tradizionali metodi della web analytics, ma è necessario integrarla con tecniche nuove, indispensabili se si vuole ottenere una panoramica a 360 gradi di tutto ciò che succede sul sito. Da qui viene introdotto il tracciamento video, chiamato video analytics. Verranno illustrate le principali metriche per l'analisi, e come sfruttarle al meglio in base alla tipologia di sito web e allo scopo di business per cui il video viene utilizzato. Per capire in quali modi sfruttare il video come strumento di marketing e analizzare il comportamento dei visitatori su di esso, è necessario fare prima un passo indietro, facendo una panoramica sui principali aspetti legati ad esso: dalla sua produzione, all'inserimento sulle pagine web, i player per farlo, e la diffusione attraverso i siti di social netwok e su tutti i nuovi dispositivi e le piattaforme connessi nella rete. A questo proposito viene affrontata la panoramica generale di approfondimento sugli aspetti più tecnici, dove vengono mostrate le differenze tra i formati di file e i formati video, le tecniche di trasmissione sul web, come ottimizzare l'inserimento dei contenuti sulle pagine, la descrizione dei più famosi player per l'upload, infine un breve sguardo sulla situazione attuale riguardo alla guerra tra formati video open source e proprietari sul web. La sezione finale è relativa alla parte più pratica e sperimentale del lavoro. Nel capitolo 7 verranno descritte le principali funzionalità di due piattaforme di web analytics tra le più utilizzate, una gratuita, Google Analytics e una a pagamento, Omniture SyteCatalyst, con particolare attenzione alle metriche per il tracciamento video, e le differenze tra i due prodotti. Inoltre, mi è sembrato interessante illustrare le caratteristiche di alcune piattaforme specifiche per la video analytics, analizzando le più interessanti funzionalità offerte, anche se non ho avuto modo di testare il loro funzionamento nella pratica. Nell'ultimo capitolo vengono illustrate alcune applicazioni pratiche della video analytics, che ho avuto modo di osservare durante il periodo di tirocinio e tesi in azienda. Vengono descritte in particolare le problematiche riscontrate con i prodotti utilizzati per il tracciamento, le soluzioni proposte e le questioni che ancora restano irrisolte in questo campo.
Untersuchungen am Drei-Eichbosonen-Vertex der elektroschwachen Wechselwirkung mit dem ALEPH-Detektor
Resumo:
In der vorliegenden Arbeit werden vom ALEPH-Detektor am Speicherring LEP des CERN in Genf genommene Datenmengen aus den Jahren 1997 bis 1999 analysiert und sowohl Kopplungsparameter am Drei-Eichbosonen-Vertex derW-Boson-Paarproduktion, als auch die Anteile longitudinal beziehungsweise transversal polarisierter W-Bosonen, bei Schwerpunktsenergien von 183 GeV bis 202 GeV bestimmt. Betrachtet wird der rein leptonische Zerfallskanal, in dembeide W-Bosonen in ein Elektron-Neutrino- oder ein Myon-Neutrino-Paar zerfallen, der einen geringen Wirkungsquerschnitt aufweist, aber eine klareDetektorsignatur. Die aufgezeichneten Ereignisse werden selektiert und dabei eine Reinheit von durchschnittlich 72% erreicht. Der Hauptuntergrund besteht aus W-Boson-Paaren, bei denen zumindest ein W-Boson in ein Tauon-Neutrino-Paarzerfällt. Dieser Kanal zeigt ein sehr signalähnliches Verhalten. Die selektierten Ereignisse werden kinematisch rekonstruiert, um die Winkelverteilungen der Zerfallsprodukte der W-Bosonen zu extrahieren. Aus den Polarwinkelverteilungen der geladenen Zerfallsprodukte der W-Bosonen werden die Anteile longitudinal beziehungsweise transversal polarisierterW-Bosonen durch Anpassung der theoretischen Vorhersage an die selektierten Daten bestimmt. Dabei wird gefunden, daß f? = (71,6 ? 6,4_{stat.} ? 3,7_{syst.}) % der produzierten W-Bosonen transversal polarisiert sind, in Übereinstimmung mit der Vorhersage des Standardmodells (75,1%). Dieser Wert ist ein erster Hinweis auf die Kopplungsparameter am Drei-Eichbosonen-Vertex. Die CP-erhaltenden allgemeinen Kopplungsparameter $g_{rm Z}^1$, $kappa_gamma$ und $lambda_gamma$ werden bestimmt zu: $g_{rm Z}^1 = {{1,19^{+0,13}_{-0,16}}_{stat.}} {^{+0,09}_{-0,09}}_{syst.}$,$kappa_gamma = {{1,06^{+0,27}_{-0,09}}_{stat.}} {^{+0,08}_{-0,08}}_{syst.}$,$lambda_gamma = {{0,16^{+0,11}_{-0,13}}_{stat.}} {^{+0,08}_{-0,08}}_{syst.}$. Das Standardmodell sagt $g_{rm Z}^1 = 1$, $kappa_gamma = 1$ und $lambda_gamma = 0$ voraus. Mit diesen Kopplungsparametern lassen sich das magnetischeDipolmoment und das elektrische Quadrupolmoment der W-Bosonen bestimmen zu: $mu_{rm W} = frac{e}{2m_{rm W}} cdot (2,22^{+0,31}_{-0,19})$,$q_{rm W} = - frac{e}{m_{rm W}^2} cdot (0,90^{+0,32}_{-0,18})$. Die Messung der Kopplungsparameter stellt einen wichtigen Test des minimalen Standardmodells dar. In einem Jahr wird es möglich sein, diesen Test mit allen Daten aus der Phase II des Betriebs von LEP durchzuführen und die Genauigkeit durch Kombination mit anderen LEP-Experimenten zu erhöhen.
Resumo:
La velocità di cambiamento che caratterizza il mercato ha posto l'attenzione di molte imprese alla Business Analysis. La raccolta, la gestione e l'analisi dei dati sta portando numerosi benefici in termini di efficienza e vantaggio competitivo. Questo è reso possibile dal supporto reale dei dati alla strategia aziendale. In questa tesi si propone un'applicazione della Business Analytics nell'ambito delle risorse umane. La valorizzazione del Capitale Intellettuale è fondamentale per il miglioramento della competitività dell'impresa, favorendo così la crescita e lo sviluppo dell'azienda. Le conoscenze e le competenze possono incidere sulla produttività, sulla capacità innovativa, sulle strategie e sulla propria reattività a comprendere le risorse e le potenzialità a disposizione e portano ad un aumento del vantaggio competitivo. Tramite la Social Network Analysis si possono studiare le relazioni aziendali per conoscere diversi aspetti della comunicazione interna nell'impresa. Uno di questi è il knowledge sharing, ovvero la condivisione della conoscenza e delle informazioni all'interno dell'organizzazione, tema di interesse nella letteratura per via delle potenzialità di crescita che derivano dal buon utilizzo di questa tecnica. L'analisi si è concentrata sulla mappatura e sullo studio del flusso di condivisione di due delle principali componenti della condivisione di conoscenza: sharing best prectices e sharing mistakes, nel caso specifico si è focalizzato lo studio sulla condivisione di miglioramenti di processo e di problematiche o errori. È stata posta una particolare attenzione anche alle relazioni informali all'interno dell'azienda, con l'obiettivo di individuare la correlazione tra i rapporti extra-professionali nel luogo di lavoro e la condivisione di informazioni e opportunità in un'impresa. L'analisi delle dinamiche comunicative e l'individuazione degli attori più centrali del flusso informativo, permettono di comprendere le opportunità di crescita e sviluppo della rete di condivisione. La valutazione delle relazioni e l’individuazione degli attori e delle connessioni chiave fornisce un quadro dettagliato della situazione all'interno dell'azienda.
Resumo:
Il presente elaborato ha come oggetto la progettazione e lo sviluppo di una soluzione Hadoop per il Calcolo di Big Data Analytics. Nell'ambito del progetto di monitoraggio dei bottle cooler, le necessità emerse dall'elaborazione di dati in continua crescita, ha richiesto lo sviluppo di una soluzione in grado di sostituire le tradizionali tecniche di ETL, non pi�ù su�fficienti per l'elaborazione di Big Data. L'obiettivo del presente elaborato consiste nel valutare e confrontare le perfomance di elaborazione ottenute, da un lato, dal flusso di ETL tradizionale, e dall'altro dalla soluzione Hadoop implementata sulla base del framework MapReduce.
Resumo:
This paper provides a brief introduction to the domain of ‘learning analytics’. We first explain the background and idea behind the concept. Then we give a brief overview of current research issues. We briefly list some more controversial issues before concluding.
Resumo:
Teaching is a dynamic activity. It can be very effective, if its impact is constantly monitored and adjusted to the demands of changing social contexts and needs of learners. This implies that teachers need to be aware about teaching and learning processes. Moreover, they should constantly question their didactical methods and the learning resources, which they provide to their students. They should reflect if their actions are suitable, and they should regulate their teaching, e.g., by updating learning materials based on new knowledge about learners, or by motivating learners to engage in further learning activities. In the last years, a rising interest in ‘learning analytics’ is observable. This interest is motivated by the availability of massive amounts of educational data. Also, the continuously increasing processing power, and a strong motivation for discovering new information from these pools of educational data, is pushing further developments within the learning analytics research field. Learning analytics could be a method for reflective teaching practice that enables and guides teachers to investigate and evaluate their work in future learning scenarios. However, this potentially positive impact has not yet been sufficiently verified by learning analytics research. Another method that pursues these goals is ‘action research’. Learning analytics promises to initiate action research processes because it facilitates awareness, reflection and regulation of teaching activities analogous to action research. Therefore, this thesis joins both concepts, in order to improve the design of learning analytics tools. Central research question of this thesis are: What are the dimensions of learning analytics in relation to action research, which need to be considered when designing a learning analytics tool? How does a learning analytics dashboard impact the teachers of technology-enhanced university lectures regarding ‘awareness’, ‘reflection’ and ‘action’? Does it initiate action research? Which are central requirements for a learning analytics tool, which pursues such effects? This project followed design-based research principles, in order to answer these research questions. The main contributions are: a theoretical reference model that connects action research and learning analytics, the conceptualization and implementation of a learning analytics tool, a requirements catalogue for useful and usable learning analytics design based on evaluations, a tested procedure for impact analysis, and guidelines for the introduction of learning analytics into higher education.
Resumo:
In recent years, learning analytics (LA) has attracted a great deal of attention in technology-enhanced learning (TEL) research as practitioners, institutions, and researchers are increasingly seeing the potential that LA has to shape the future TEL landscape. Generally, LA deals with the development of methods that harness educational data sets to support the learning process. This paper provides a foundation for future research in LA. It provides a systematic overview on this emerging field and its key concepts through a reference model for LA based on four dimensions, namely data, environments, context (what?), stakeholders (who?), objectives (why?), and methods (how?). It further identifies various challenges and research opportunities in the area of LA in relation to each dimension.
Resumo:
Various avours of a new research field on (socio-)physical or personal analytics have emerged, with the goal of deriving semantically-rich insights from people's low-level physical sensing combined with their (online) social interactions. In this paper, we argue for more comprehensive data sources, including environmental (e.g. weather, infrastructure) and application-specific data, to better capture the interactions between users and their context, in addition to those among users. To illustrate our proposed concept of synergistic user <-> context analytics, we first provide some example use cases. Then, we present our ongoing work towards a synergistic analytics platform: a testbed, based on mobile crowdsensing and the Internet of Things (IoT), a data model for representing the different sources of data and their connections, and a prediction engine for analyzing the data and producing insights.
Resumo:
Ernst Simon
Resumo:
A demonstration of the installation and use of Google Analytics with CONTENTdm in order to better gather metrics and insight into both general and specific online traffic across such digital repositories. Issues addressed will include collection-level traffic, digital object-level traffic, general site referrals to the repository, specific referrals to the repository, search engine referrals, user keywords, traffic occurring inside and/or outside an institution’s own network, reporting options.