900 resultados para Google Analytics
Resumo:
Objectives: An email information literacy program has been effective for over a decade at Université de Montréal’s Health Library. Students periodically receive messages highlighting the content of guides on the library’s website. We wish to evaluate, using Google Analytics, the effects of the program on specific webpage statistics. Using the data collected, we may pinpoint popular guides as well as others that need improvement. Methods: In the program, first and second-year medical (MD) or dental (DMD) students receive eight bi-monthly email messages. The DMD mailing list also includes graduate students and professors. Enrollment to the program is optional for MDs, but mandatory for DMDs. Google Analytics (GA) profiles have been configured for the libraries websites to collect visitor statistics since June 2009. The GA Links Builder was used to design unique links specifically associated with the originating emails. This approach allowed us to gather information on guide usage, such as the visitor’s program of study, duration of page viewing, number of pages viewed per visit, as well as browsing data. We also followed the evolution of clicks on GA unique links over time, as we believed that users may keep the library's emails and refer to them to access specific information. Results: The proportion of students who actually clicked the email links was, on average, less than 5%. MD and DMD students behaved differently regarding guide views, number of pages visited and length of time on the site. The CINAHL guide was the most visited for DMD students whereas MD students consulted the Pharmaceutical information guide most often. We noted that some students visited referred guides several weeks after receiving messages, thus keeping them for future reference; browsing to additional pages on the library website was also frequent. Conclusion: The mitigated success of the program prompted us to directly survey students on the format, frequency and usefulness of messages. The information gathered from GA links as well as from the survey will allow us to redesign our web content and modify our email information literacy program so that messages are more attractive, timely and useful for students.
Resumo:
A demonstration of the installation and use of Google Analytics with CONTENTdm in order to better gather metrics and insight into both general and specific online traffic across such digital repositories. Issues addressed will include collection-level traffic, digital object-level traffic, general site referrals to the repository, specific referrals to the repository, search engine referrals, user keywords, traffic occurring inside and/or outside an institution’s own network, reporting options.
Resumo:
La web ha evolucionado hacia la participación en la creación de contenido tanto por desarrolladores expertos como por usuarios finales sin un gran conocimiento en esta área. A pesar de que su uso es igual de válido y funcional, las diferencias entre la calidad de los productos desarrollados por ambos puede llegar a ser considerable. Esta característica se observa con mayor claridad cuando se analizan los web components. El trabajo consiste en el desarrollo de un entorno capaz de recoger las métricas de calidad de los componentes, basadas en la interacción con ellos por parte de los usuarios. A partir de las métricas obtenidas, se determinará su calidad para realizar una mejora de la misma, en función de las características valoradas. La selección de las métricas se realiza mediante un estudio de las características que definen a un componente, y permiten ser analizadas. Para poder llevar a cabo la construcción del portal, se ha descrito un prototipo capaz de proporcionar un sistema para permitir que los componentes intercambien información entre ellos. El modelo ha sido integrado en los componentes que se han de evaluar para obtener nuevas métricas sobre esta característica. Se ha desarrollado un dashboard que permite la interacción sin limitaciones de los usuarios con los componentes, facilitándoles un sistema para conectar componentes, utilizando para ello el sistema previamente descrito. Como conclusión del trabajo, se puede observar la necesidad de integrar los componentes web en un entorno real para poder determinar su calidad. Debido a que la calidad está determinada por los usuarios que consumen los componentes, se ha de contar con su opinión en la cuantificación de la misma.---ABSTRACT---Recently, the web has evolved to the collaboration between professional developers and end users with limited knowledge to create web content. Although both solutions are correct and functional, the differences in the quality between them can be appreciable. This feature is shown clearly when the web components are analyzed. The work is composed of the development of a virtual environment which is able to pick the quality measures of the components, based on the interaction between these components and the user. The measures are the starting point to decide the quality, and improve them with the rated measures. The measures selection is done through a study of the main features of a component. This selection can be analyzed. In order to create the website, a prototype has been specified to provide a system in which the components can be trade information between them. The interconnection model has been integrated in the components to evaluate. A dashboard has been developed to allow users interacting with the components without rules, making them possible connecting components through the model. The main conclusion of the work is the necessity of integrating web components in a real environment to decide their quality. Due to the fact that the quality is measured in terms of the rate of the users, it is a must to give them the main roles in the establishment of that quality.
Resumo:
In questa tesi viene affrontato il tema del tracciamento video, analizzando le principali tecniche, metodologie e strumenti per la video analytics. L'intero lavoro, è stato svolto interamente presso l'azienda BitBang, dal reperimento di informazioni e materiale utile, fino alla stesura dell'elaborato. Nella stessa azienda ho avuto modo di svolgere il tirocinio, durante il quale ho approfondito gli aspetti pratici della web e video analytics, osservando il lavoro sul campo degli specialisti del settore e acquisendo familiarità con gli strumenti di analisi dati tramite l'utilizzo delle principali piattaforme di web analytics. Per comprendere a pieno questo argomento, è stato necessario innanzitutto conoscere la web analytics di base. Saranno illustrate quindi, le metodologie classiche della web analytics, ovvero come analizzare il comportamento dei visitatori nelle pagine web con le metriche più adatte in base alle diverse tipologie di business, fino ad arrivare alla nuova tecnica di tracciamento eventi. Questa nasce subito dopo la diffusione nelle pagine dei contenuti multimediali, i quali hanno portato a un cambiamento nelle modalità di navigazione degli utenti e, di conseguenza, all'esigenza di tracciare le nuove azioni generate su essi, per avere un quadro completo dell'esperienza dei visitatori sul sito. Non sono più sufficienti i dati ottenuti con i tradizionali metodi della web analytics, ma è necessario integrarla con tecniche nuove, indispensabili se si vuole ottenere una panoramica a 360 gradi di tutto ciò che succede sul sito. Da qui viene introdotto il tracciamento video, chiamato video analytics. Verranno illustrate le principali metriche per l'analisi, e come sfruttarle al meglio in base alla tipologia di sito web e allo scopo di business per cui il video viene utilizzato. Per capire in quali modi sfruttare il video come strumento di marketing e analizzare il comportamento dei visitatori su di esso, è necessario fare prima un passo indietro, facendo una panoramica sui principali aspetti legati ad esso: dalla sua produzione, all'inserimento sulle pagine web, i player per farlo, e la diffusione attraverso i siti di social netwok e su tutti i nuovi dispositivi e le piattaforme connessi nella rete. A questo proposito viene affrontata la panoramica generale di approfondimento sugli aspetti più tecnici, dove vengono mostrate le differenze tra i formati di file e i formati video, le tecniche di trasmissione sul web, come ottimizzare l'inserimento dei contenuti sulle pagine, la descrizione dei più famosi player per l'upload, infine un breve sguardo sulla situazione attuale riguardo alla guerra tra formati video open source e proprietari sul web. La sezione finale è relativa alla parte più pratica e sperimentale del lavoro. Nel capitolo 7 verranno descritte le principali funzionalità di due piattaforme di web analytics tra le più utilizzate, una gratuita, Google Analytics e una a pagamento, Omniture SyteCatalyst, con particolare attenzione alle metriche per il tracciamento video, e le differenze tra i due prodotti. Inoltre, mi è sembrato interessante illustrare le caratteristiche di alcune piattaforme specifiche per la video analytics, analizzando le più interessanti funzionalità offerte, anche se non ho avuto modo di testare il loro funzionamento nella pratica. Nell'ultimo capitolo vengono illustrate alcune applicazioni pratiche della video analytics, che ho avuto modo di osservare durante il periodo di tirocinio e tesi in azienda. Vengono descritte in particolare le problematiche riscontrate con i prodotti utilizzati per il tracciamento, le soluzioni proposte e le questioni che ancora restano irrisolte in questo campo.
Resumo:
Weebly is a freely-available software for creating Web pages without having to know HTML. It is easy to use, with its drag and drop editor, and offers the ability to add documents, Web links, videos, slideshows, audio, forms, polls, etc. It is hosted by Weebly and has no limits on storage space. Many templates are available for Web page design. One can publish and update almost immediately. Combined with usage of the freely-available Google Analytics, for example, it is possible to gather usage statistics. The site can be password protected, if need be. Weebly for Education is a special version for teachers and schools.
Resumo:
The purpose of this paper is to describe the design and development of a digital library at Cochin University of Science and Technology (CUSAT), India, using DSpace open source software. The study covers the structure, contents and usage of CUSAT digital library. Design/methodology/approach – This paper examines the possibilities of applying open source in libraries. An evaluative approach is carried out to explore the features of the CUSAT digital library. The Google Analytics service is employed to measure the amount of use of digital library by users across the world. Findings – CUSAT has successfully applied DSpace open source software for building a digital library. The digital library has had visits from 78 countries, with the major share from India. The distribution of documents in the digital library is uneven. Past exam question papers share the major part of the collection. The number of research papers, articles and rare documents is less. Originality/value – The study is the first of its type that tries to understand digital library design and development using DSpace open source software in a university environment with a focus on the analysis of distribution of items and measuring the value by usage statistics employing the Google Analytics service. The digital library model can be useful for designing similar systems
Resumo:
A pesquisa trata do acesso a partituras e sua relação com a difusão de repertório da música brasileira de concerto, a partir de um estudo de caso do Sesc Partituras, um site de disponibilização para download gratuito de partituras digitalizadas. O estudo foi realizado a partir de questionário com usuários do site e dados estatísticos de acesso gerados pelo Google Analytcs, no período de 2012 a 2014. Conclui-se que apesar de relativamente recentes os acervos digitais de partituras de música brasileira representam um grande avanço e podem contribuir bastante para a circulação da música brasileira de concerto.
Resumo:
La línea de investigación centrada en el estudio bibliométrico de diferentes publicaciones se extiende igualmente a conocer el alcance y/o la difusión de lo que se investiga. Por esta razón se ha recurrido al contador de visitas Google Analytics para analizar las características de la difusión de la revista Didáctica Geográfica y en concreto los apartados gratuitos disponibles de esta aplicación. La finalidad es saber la difusión de la revista para mejorar su posicionamiento y con ello contribuir a impulsar la innovación en la enseñanza de esta ciencia. El periodo analizado ha sido desde julio de 2014 a 31 de agosto de 2015 y se ha centrado en aspectos como la evolución en el número de usuarios, el idioma preferido, la distribución territorial, la edad y género de los usuarios. El análisis resulta incompleto porque de momento no se dispone información sobre el detalle de las consultas que se realizan de los artículos y no puede conocerse los contenidos que más interesan a los enseñantes de la Geografía. Del análisis de los datos se concluye que el porcentaje de visitantes que accede a la revista aumenta, los jóvenes son los más asiduos y sobre todo en idioma español y desde España sin olvidar el inglés y portugués de Estados Unidos y Brasil.
Resumo:
Las bibliotecas universitarias recopilan, de manera rutinaria estadísticas sobre el uso de sus colecciones impresas y de la actividad in situ. Paralelamente y de manera sostenida, han ido incorporando recursos y servicios electrónicos, lo que ha motivado la elaboración de normas internacionales que definen indicadores que permiten medir su uso, no obstante contar con un software estándar es aún un asunto pendiente. Por otro lado, para medir la actividad de un sitio web existen varios programas gratuitos y de código abierto. Este trabajo tiene como objetivo determinar si los softwares de analítica web gratuitos para sitios web AWStats, Google Analytics y Piwik, pueden utilizarse para evaluar el uso de recursos y servicios electrónicos, conforme a los indicadores propuestos por las normas ANSI/NISO Z39.7-2013, ISO 2789:2003, ISO 20983:2003, BS ISO 11620:2008, EMIS, Counter e ICOLC. Para tales efectos, fueron utilizados para realizar el análisis de esta investigación sitio web y el catálogo en línea de la Biblioteca Florentino Ameghino, Biblioteca Central de la Facultad de Ciencias Naturales y Museo de la Universidad Nacional de la Plata, Argentina. Los resultados reflejan las características de los indicadores, el software y el caso de estudio. Estas características son abordadas en las conclusiones con el fin de darle contexto y perspectiva a la respuesta de la pregunta de si es viable medir el uso de recursos y servicios electrónicos de una biblioteca universitaria por medio de programas estadísticos para sitios web
Resumo:
Las bibliotecas universitarias recopilan, de manera rutinaria estadísticas sobre el uso de sus colecciones impresas y de la actividad in situ. Paralelamente y de manera sostenida, han ido incorporando recursos y servicios electrónicos, lo que ha motivado la elaboración de normas internacionales que definen indicadores que permiten medir su uso, no obstante contar con un software estándar es aún un asunto pendiente. Por otro lado, para medir la actividad de un sitio web existen varios programas gratuitos y de código abierto. Este trabajo tiene como objetivo determinar si los softwares de analítica web gratuitos para sitios web AWStats, Google Analytics y Piwik, pueden utilizarse para evaluar el uso de recursos y servicios electrónicos, conforme a los indicadores propuestos por las normas ANSI/NISO Z39.7-2013, ISO 2789:2003, ISO 20983:2003, BS ISO 11620:2008, EMIS, Counter e ICOLC. Para tales efectos, fueron utilizados para realizar el análisis de esta investigación sitio web y el catálogo en línea de la Biblioteca Florentino Ameghino, Biblioteca Central de la Facultad de Ciencias Naturales y Museo de la Universidad Nacional de la Plata, Argentina. Los resultados reflejan las características de los indicadores, el software y el caso de estudio. Estas características son abordadas en las conclusiones con el fin de darle contexto y perspectiva a la respuesta de la pregunta de si es viable medir el uso de recursos y servicios electrónicos de una biblioteca universitaria por medio de programas estadísticos para sitios web
Resumo:
Negli ultimi vent'anni con lo sviluppo di Internet, il modo di comunicare tra le persone �è totalmente cambiato. Grazie a Internet si sono ridotte le distanze e soprattutto tramite i siti web le aziende hanno una propria vetrina sul mondo sempre accessibile. Tutto ci�ò ha portato a nuovi comportamenti da parte dei consumatori che divengono sempre pi�u esigenti nella vastità di informazioni presenti sul Web. Perciò è necessario che le web companies riescano a produrre website efficienti e usabili per favorire l'interazione con l'utente. Inoltre il web ha avuto una rapida espansione per quanto concerne le metodologie di sviluppo e analisi del comportamento del consumatore. Si cercano sempre nuovi spunti per poter acquisire quello che �è il percorso di un utente affinché porti a termine una determinata azione nel proprio dominio. Per questo motivo, oltre agli strumenti gi�à consolidati come il riempimento di questionari o il tracking per mezzo di piattaforme come Google Analytics, si �è pensato di andare oltre e cercare di analizzare ancora pi�u a fondo il "consumAttore". Grazie ad un eye-tracker �è possibile riconoscere quelli che sono i modelli cognitivi che riguardano il percorso di ricerca, valutazione e acquisto di un prodotto o una call to action, e come i contenuti di una web application influenzano l'attenzione e la user experience. Pertanto l'obiettivo che si pone questo studio �è quello di poter misurare l'engagement della navigazione utente di una web application e, nel caso fosse necessario, ottimizzare i contenuti al suo interno. Per il rilevamento delle informazioni necessarie durante l'esperimento, mi sono servito di uno strumento a supporto delle decisioni, ovvero un eye-tracker e della successiva somministrazione di questionari.
Resumo:
Las bibliotecas universitarias recopilan, de manera rutinaria estadísticas sobre el uso de sus colecciones impresas y de la actividad in situ. Paralelamente y de manera sostenida, han ido incorporando recursos y servicios electrónicos, lo que ha motivado la elaboración de normas internacionales que definen indicadores que permiten medir su uso, no obstante contar con un software estándar es aún un asunto pendiente. Por otro lado, para medir la actividad de un sitio web existen varios programas gratuitos y de código abierto. Este trabajo tiene como objetivo determinar si los softwares de analítica web gratuitos para sitios web AWStats, Google Analytics y Piwik, pueden utilizarse para evaluar el uso de recursos y servicios electrónicos, conforme a los indicadores propuestos por las normas ANSI/NISO Z39.7-2013, ISO 2789:2003, ISO 20983:2003, BS ISO 11620:2008, EMIS, Counter e ICOLC. Para tales efectos, fueron utilizados para realizar el análisis de esta investigación sitio web y el catálogo en línea de la Biblioteca Florentino Ameghino, Biblioteca Central de la Facultad de Ciencias Naturales y Museo de la Universidad Nacional de la Plata, Argentina. Los resultados reflejan las características de los indicadores, el software y el caso de estudio. Estas características son abordadas en las conclusiones con el fin de darle contexto y perspectiva a la respuesta de la pregunta de si es viable medir el uso de recursos y servicios electrónicos de una biblioteca universitaria por medio de programas estadísticos para sitios web
Resumo:
In November 2015-March 2016, I assigned my Graduate Assistant, David Durden, a project to compile usage statistics and trends for digitized collections between 2013-2015 from UMD Digital Collections and our contributions to the Internet Archive between 2008-2015. The original intent of the project was to provide usage metrics to assist the Digitization Initiatives Committee in prioritizing projects or content areas. The project also uncovered trends that should impact how we think about making digital collections discoverable and accessible. For example, if 50-60% of traffic into UMD Digital Collections comes from outside the University or College Park, MD, how will this impact the potential usage of content when access is restricted to campus due to licensing, copyright, or ownership restrictions? With a growing population using mobile browsers, how will a flash-based viewer restrict users’ access to content? How might we develop content or its discoverability for a growing social media user base? In this talk, I will briefly discuss the usage trends for the represented collections, how we may use these in prioritizing future projects, and issues I will discuss with collection managers as we develop project plans and the Manager of Digital Programs and Initiatives as we develop the digital collections repository.
Resumo:
This presentation was one of four during a Mid-Atlantic Regional Archives Conference presentation on April 15, 2016. Digitization of collections can help to improve internal workflows, make materials more accessible, and create new and engaging relationships with users. Laurie Gemmill Arp will discuss the LYRASIS Digitization Collaborative, created to assist institutions with their digitization needs, and how it has worked to help institutions increase connections with users. Robin Pike from the University of Maryland will discuss how they factor requests for access into selection for digitization and how they track the use of digitized materials. Laura Drake Davis of James Madison University will discuss the establishment of a formal digitization program, its impact on users, and the resulting increased use of their collections. Linda Tompkins-Baldwin will discuss Digital Maryland’s partnership with the Digital Public Library of America to provide access to archives held by institutions without a digitization program.