916 resultados para Contacts Sharing, CRM, Cloud Google, API, SugarCRM, Web Service, App Engine


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Background: Biologists often need to assess whether unfamiliar datasets warrant the time investment required for more detailed exploration. Basing such assessments on brief descriptions provided by data publishers is unwieldy for large datasets that contain insights dependent on specific scientific questions. Alternatively, using complex software systems for a preliminary analysis may be deemed as too time consuming in itself, especially for unfamiliar data types and formats. This may lead to wasted analysis time and discarding of potentially useful data. Results: We present an exploration of design opportunities that the Google Maps interface offers to biomedical data visualization. In particular, we focus on synergies between visualization techniques and Google Maps that facilitate the development of biological visualizations which have both low-overhead and sufficient expressivity to support the exploration of data at multiple scales. The methods we explore rely on displaying pre-rendered visualizations of biological data in browsers, with sparse yet powerful interactions, by using the Google Maps API. We structure our discussion around five visualizations: a gene co-regulation visualization, a heatmap viewer, a genome browser, a protein interaction network, and a planar visualization of white matter in the brain. Feedback from collaborative work with domain experts suggests that our Google Maps visualizations offer multiple, scale-dependent perspectives and can be particularly helpful for unfamiliar datasets due to their accessibility. We also find that users, particularly those less experienced with computer use, are attracted by the familiarity of the Google Maps API. Our five implementations introduce design elements that can benefit visualization developers. Conclusions: We describe a low-overhead approach that lets biologists access readily analyzed views of unfamiliar scientific datasets. We rely on pre-computed visualizations prepared by data experts, accompanied by sparse and intuitive interactions, and distributed via the familiar Google Maps framework. Our contributions are an evaluation demonstrating the validity and opportunities of this approach, a set of design guidelines benefiting those wanting to create such visualizations, and five concrete example visualizations.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cloud computing realizes the long-held dream of converting computing capability into a type of utility. It has the potential to fundamentally change the landscape of the IT industry and our way of life. However, as cloud computing expanding substantially in both scale and scope, ensuring its sustainable growth is a critical problem. Service providers have long been suffering from high operational costs. Especially the costs associated with the skyrocketing power consumption of large data centers. In the meantime, while efficient power/energy utilization is indispensable for the sustainable growth of cloud computing, service providers must also satisfy a user's quality of service (QoS) requirements. This problem becomes even more challenging considering the increasingly stringent power/energy and QoS constraints, as well as other factors such as the highly dynamic, heterogeneous, and distributed nature of the computing infrastructures, etc. ^ In this dissertation, we study the problem of delay-sensitive cloud service scheduling for the sustainable development of cloud computing. We first focus our research on the development of scheduling methods for delay-sensitive cloud services on a single server with the goal of maximizing a service provider's profit. We then extend our study to scheduling cloud services in distributed environments. In particular, we develop a queue-based model and derive efficient request dispatching and processing decisions in a multi-electricity-market environment to improve the profits for service providers. We next study a problem of multi-tier service scheduling. By carefully assigning sub deadlines to the service tiers, our approach can significantly improve resource usage efficiencies with statistically guaranteed QoS. Finally, we study the power conscious resource provision problem for service requests with different QoS requirements. By properly sharing computing resources among different requests, our method statistically guarantees all QoS requirements with a minimized number of powered-on servers and thus the power consumptions. The significance of our research is that it is one part of the integrated effort from both industry and academia to ensure the sustainable growth of cloud computing as it continues to evolve and change our society profoundly.^

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Negli ultimi vent'anni con lo sviluppo di Internet, il modo di comunicare tra le persone �è totalmente cambiato. Grazie a Internet si sono ridotte le distanze e soprattutto tramite i siti web le aziende hanno una propria vetrina sul mondo sempre accessibile. Tutto ci�ò ha portato a nuovi comportamenti da parte dei consumatori che divengono sempre pi�u esigenti nella vastità di informazioni presenti sul Web. Perciò è necessario che le web companies riescano a produrre website efficienti e usabili per favorire l'interazione con l'utente. Inoltre il web ha avuto una rapida espansione per quanto concerne le metodologie di sviluppo e analisi del comportamento del consumatore. Si cercano sempre nuovi spunti per poter acquisire quello che �è il percorso di un utente affinché porti a termine una determinata azione nel proprio dominio. Per questo motivo, oltre agli strumenti gi�à consolidati come il riempimento di questionari o il tracking per mezzo di piattaforme come Google Analytics, si �è pensato di andare oltre e cercare di analizzare ancora pi�u a fondo il "consumAttore". Grazie ad un eye-tracker �è possibile riconoscere quelli che sono i modelli cognitivi che riguardano il percorso di ricerca, valutazione e acquisto di un prodotto o una call to action, e come i contenuti di una web application influenzano l'attenzione e la user experience. Pertanto l'obiettivo che si pone questo studio �è quello di poter misurare l'engagement della navigazione utente di una web application e, nel caso fosse necessario, ottimizzare i contenuti al suo interno. Per il rilevamento delle informazioni necessarie durante l'esperimento, mi sono servito di uno strumento a supporto delle decisioni, ovvero un eye-tracker e della successiva somministrazione di questionari.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O uso das tecnologias de informação e comunicação em Portugal na área médica tem tido um grande aumento nas últimas décadas. Tal pode constatar-se a vários níveis, como sejam a implementação crescente e em larga escala de sistemas de informação em hospitais e centros de saúde, o desenvolvimento de aplicações para auxiliar a análise dos principais meios complementares de diagnóstico, a receita eletrónica e o registo de paciente eletrónico, apenas para citar alguns exemplos. A procura crescente de profissionais de saúde de várias especialidades tem tido um aumento considerável nos últimos anos. Por um lado, a população está cada vez mais envelhecida, por via do aumento da esperança média de vida. Por outro lado tem aumentado a preocupação com a saúde e o bem estar próprio dos cidadãos, levando-os a recorrer mais vezes e a mais especialidades do que no passado. O êxodo da população do interior do país para os grandes centros no litoral, complementado pelas políticas orçamentais restritivas na área da saúde, tem acentuado as diferenças de prestação de cuidados de saúde a toda a população do país, de forma equitativa e eficaz. Para tal tem ainda contribuído o emagrecimento dos orçamentos dos hospitais e a pressão para que estes cumpram as metas de produtividade definidas, com custos cada vez mais reduzidos. Um dos contributos das tecnologias de informação para mitigar o afastamento entre o paciente e os profissionais de saúde, consiste na implementação de soluções de consulta "à distância", com a utilização de vídeo e voz, através de aplicações de telemedicina. Ao nível da teleconsulta e da telemedicina têm existido alguns avanços significativos, sendo possível encontrar alguns casos de sucesso na utilização destes meios para facilitar o acesso generalizado de toda a população a cuidados médicos de saúde. Constata-se contudo que as aplicações usadas são geralmente proprietárias, carecem de instalação de software específico, muitas vezes proprietário e por vezes com custos para as entidades que disponibilizam o serviço. Por exemplo, a utilização de uma ligação por Skype para uma teleconsulta obriga a que a aplicação esteja instalada em ambos os computadores (médico e paciente). Nesta dissertação apresenta-se uma solução de telemedicina baseada na Application Programming Interface (API) Web Real-Time Comunication (WebRTC), que permite o envio de voz e imagem entre dois browsers usando os protocolos de comunicação na Web. Além do vídeo e da voz foram integrados na aplicação duas funcionalidades particularmente interessantes numa teleconsulta: envio bidirecional de ficheiros (por exemplo, ficheiro PDF com o resultado das últimas análise que o paciente realizou) e desenho num "quadro branco", permitindo ao paciente ou ao médico ilustrarem de forma livre algum aspeto associado à consulta em causa. A aplicação utiliza exclusivamente componentes de software opensource e apenas necessita que ambos os computadores tenham instalado um browser de acesso à Web que suporte a comunicação por WebRTC, como o Google Chrome ou o Firefox. Pretende-se desta forma facilitar o acesso aos serviços de telemedicina evitando a instalação e configuração de software específico, bem como reduzir os custos através de soluções opensource com licença General Public License (GPL) e isenta de custos. Foram realizados alguns testes de aceitação da solução, em ambiente hospitalar. Genericamente, pretendeu-se validar o funcionamento da API WebRTC, aferir sobre a aceitação das funcionalidades implementadas e identificar obstáculos técnicos à sua implementação na rede de um hospital ou centro de saúde. Embora tenham sido identificados alguns problemas na comunicação, resultantes maioritariamente do tipo de configurações da rede em que os computadores estavam instalados, os resultados globais obtidos são bastante promissores, dando-nos boas perspetivas quanto à sua implementação em ambiente de produção.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cloud computing realizes the long-held dream of converting computing capability into a type of utility. It has the potential to fundamentally change the landscape of the IT industry and our way of life. However, as cloud computing expanding substantially in both scale and scope, ensuring its sustainable growth is a critical problem. Service providers have long been suffering from high operational costs. Especially the costs associated with the skyrocketing power consumption of large data centers. In the meantime, while efficient power/energy utilization is indispensable for the sustainable growth of cloud computing, service providers must also satisfy a user's quality of service (QoS) requirements. This problem becomes even more challenging considering the increasingly stringent power/energy and QoS constraints, as well as other factors such as the highly dynamic, heterogeneous, and distributed nature of the computing infrastructures, etc. In this dissertation, we study the problem of delay-sensitive cloud service scheduling for the sustainable development of cloud computing. We first focus our research on the development of scheduling methods for delay-sensitive cloud services on a single server with the goal of maximizing a service provider's profit. We then extend our study to scheduling cloud services in distributed environments. In particular, we develop a queue-based model and derive efficient request dispatching and processing decisions in a multi-electricity-market environment to improve the profits for service providers. We next study a problem of multi-tier service scheduling. By carefully assigning sub deadlines to the service tiers, our approach can significantly improve resource usage efficiencies with statistically guaranteed QoS. Finally, we study the power conscious resource provision problem for service requests with different QoS requirements. By properly sharing computing resources among different requests, our method statistically guarantees all QoS requirements with a minimized number of powered-on servers and thus the power consumptions. The significance of our research is that it is one part of the integrated effort from both industry and academia to ensure the sustainable growth of cloud computing as it continues to evolve and change our society profoundly.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las bibliotecas universitarias recopilan, de manera rutinaria estadísticas sobre el uso de sus colecciones impresas y de la actividad in situ. Paralelamente y de manera sostenida, han ido incorporando recursos y servicios electrónicos, lo que ha motivado la elaboración de normas internacionales que definen indicadores que permiten medir su uso, no obstante contar con un software estándar es aún un asunto pendiente. Por otro lado, para medir la actividad de un sitio web existen varios programas gratuitos y de código abierto. Este trabajo tiene como objetivo determinar si los softwares de analítica web gratuitos para sitios web AWStats, Google Analytics y Piwik, pueden utilizarse para evaluar el uso de recursos y servicios electrónicos, conforme a los indicadores propuestos por las normas ANSI/NISO Z39.7-2013, ISO 2789:2003, ISO 20983:2003, BS ISO 11620:2008, EMIS, Counter e ICOLC. Para tales efectos, fueron utilizados para realizar el análisis de esta investigación sitio web y el catálogo en línea de la Biblioteca Florentino Ameghino, Biblioteca Central de la Facultad de Ciencias Naturales y Museo de la Universidad Nacional de la Plata, Argentina. Los resultados reflejan las características de los indicadores, el software y el caso de estudio. Estas características son abordadas en las conclusiones con el fin de darle contexto y perspectiva a la respuesta de la pregunta de si es viable medir el uso de recursos y servicios electrónicos de una biblioteca universitaria por medio de programas estadísticos para sitios web

Relevância:

30.00% 30.00%

Publicador:

Resumo:

PURPOSE: Radiation therapy is used to treat cancer using carefully designed plans that maximize the radiation dose delivered to the target and minimize damage to healthy tissue, with the dose administered over multiple occasions. Creating treatment plans is a laborious process and presents an obstacle to more frequent replanning, which remains an unsolved problem. However, in between new plans being created, the patient's anatomy can change due to multiple factors including reduction in tumor size and loss of weight, which results in poorer patient outcomes. Cloud computing is a newer technology that is slowly being used for medical applications with promising results. The objective of this work was to design and build a system that could analyze a database of previously created treatment plans, which are stored with their associated anatomical information in studies, to find the one with the most similar anatomy to a new patient. The analyses would be performed in parallel on the cloud to decrease the computation time of finding this plan. METHODS: The system used SlicerRT, a radiation therapy toolkit for the open-source platform 3D Slicer, for its tools to perform the similarity analysis algorithm. Amazon Web Services was used for the cloud instances on which the analyses were performed, as well as for storage of the radiation therapy studies and messaging between the instances and a master local computer. A module was built in SlicerRT to provide the user with an interface to direct the system on the cloud, as well as to perform other related tasks. RESULTS: The cloud-based system out-performed previous methods of conducting the similarity analyses in terms of time, as it analyzed 100 studies in approximately 13 minutes, and produced the same similarity values as those methods. It also scaled up to larger numbers of studies to analyze in the database with a small increase in computation time of just over 2 minutes. CONCLUSION: This system successfully analyzes a large database of radiation therapy studies and finds the one that is most similar to a new patient, which represents a potential step forward in achieving feasible adaptive radiation therapy replanning.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Las TIC son inseparables de la museografía in situ e imprescindibles en la museografía en red fija y móvil. En demasiados casos se han instalado prótesis tecnológicas para barnizar de modernidad el espacio cultural, olvidando que la tecnología debe estar al servicio de los contenidos de manera que resulte invisible y perfectamente imbricada con la museografía tradicional. Las interfaces móviles pueden fusionar museo in situ y en red y acompañar a las personas más allá del espacio físico. Esa fusión debe partir de una base de datos narrativa y abierta a obras materiales e inmateriales de otros museos de manera que no se trasladen las limitaciones del museo físico al virtual. En el museo in situ tienen sentido las instalaciones hipermedia inmersivas que faciliten experiencias culturales innovadoras. La interactividad (relaciones virtuales) debe convivir con la interacción (relaciones físicas y personales) y estar al servicio de todas las personas, partiendo de que todas, todos tenemos limitaciones. Trabajar interdisciplinarmente ayuda a comprender mejor el museo para ponerlo al servicio de las personas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El artículo analiza la figura del prosumidor desde los estudios visuales a partir de la combinación de la teoría de los actos de habla y los nuevos medios. El objetivo es evaluar si la distinción entre productores y consumidores, estrategias y tácticas de Michel de Certeau continúa siendo operativa en las interfaces gráficas de la cultura global de la información de Scott Lash. Para ello distingue dos tipos de performatividad de los actos de habla: la performatividad top-down del software, y la bottom-up de los juegos del lenguaje y las formas de vida. Estos tipos se aplican al análisis del discurso de los eslóganes que aparecen en los sitios web de las iniciativas “open” y de economía colaborativa, ya que las primeras están dedicadas a la producción de bienes inmateriales y las segundas a la producción de bienes materiales. El desarrollo muestra cómo los dos tipos de performatividad transforman el análisis textual de los estudios literarios y cinematográficos en una metodología capaz de investigar acciones materiales, humanas y no humanas. Las conclusiones describen el surgimiento de nuevas convenciones narrativas de poder y control ajenas a la ficción que apuntan a una “DIY society”.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In Marxist frameworks “distributive justice” depends on extracting value through a centralized state. Many new social movements—peer to peer economy, maker activism, community agriculture, queer ecology, etc.—take the opposite approach, keeping value in its unalienated form and allowing it to freely circulate from the bottom up. Unlike Marxism, there is no general theory for bottom-up, unalienated value circulation. This paper examines the concept of “generative justice” through an historical contrast between Marx’s writings and the indigenous cultures that he drew upon. Marx erroneously concluded that while indigenous cultures had unalienated forms of production, only centralized value extraction could allow the productivity needed for a high quality of life. To the contrary, indigenous cultures now provide a robust model for the “gift economy” that underpins open source technological production, agroecology, and restorative approaches to civil rights. Expanding Marx’s concept of unalienated labor value to include unalienated ecological (nonhuman) value, as well as the domain of freedom in speech, sexual orientation, spirituality and other forms of “expressive” value, we arrive at an historically informed perspective for generative justice. 

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Gracias al crecimiento, expansión y popularización de la World Wide Web, su desarrollo tecnológico tiene una creciente importancia en la sociedad. La simbiosis que protagonizan estos dos entornos ha propiciado una mayor influencia social en las innovaciones de la plataforma y un enfoque mucho más práctico. Nuestro objetivo en este artículo es describir, caracterizar y analizar el surgimiento y difusión del nuevo estándar de hipertexto que rige la Web; HTML5. Al mismo tiempo exploramos este proceso a la luz de varias teorías que aúnan tecnología y sociedad. Dedicamos especial atención a los usuarios de la World Wide Web y al uso genérico que realizan de los Medios Sociales o "Social Media". Sugerimos que el desarrollo de los estándares web está influenciado por el uso cotidiano de este nuevo tipo de tecnologías y aplicaciones. 

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'elaborato presenta Google Fusion Tables, un software che fa parte dei servizi messi a disposizione da Google, funzionale per la gestione di database. Il servizio gratuito e online ha quindi lo scopo di supportare i compiti di gestori di basi di dati e fornisce operazioni di manipolazione dei dati come estrazione, aggregazione, filtraggio e fusione. Il servizio utilizza dati strutturati, i quali sono estratti dalle pagine Web con appositi motori di ricerca come WebTables, trattato nell'elaborato. Google Fusion Tables è impiegato in ambito scientifico ed è nato per esplicitare le informazioni di ricerche scientifiche che spesso sono contenute in database e fogli di calcolo difficilmente condivisi nel Web. Questo servizio è molto pratico per le aziende, le quali possono integrare dati interni ed esterni all’organizzazione per ampliare la propria conoscenza e ottenere un vantaggio competitivo sui concorrenti. Vengono quindi presentate le caratteristiche distintive che potrebbero indurre numerose organizzazioni a scommettere su questo nuovo servizio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En los últimos años el presupuesto de las bibliotecas a nivel general se ha mantenido o inclusive ha tendido a disminuir, por lo que éstas se ven obligadas a operar con esos fondos decrecientes. Por otro lado, los costos de los servicios son cada vez más altos, haciendo que las bibliotecas deban adaptarse al nuevo entorno, tratando de limitar sus gastos. Para mejorar la gestión de la biblioteca adaptándose al presupuesto asignado es necesario conocer el costo real de sus procesos, así se puede tomar decisiones para mejorar o incrementar los servicios prestados. Para solventar este problema existen varias técnicas para la gestión de costos, y uno de los más avanzados al momento descrito en esta tesis es el Costeo Basado en Actividades manejadas por Tiempo (TD-ABC). Este modelo nos proporciona información esencial de las funciones de la biblioteca, nos ayuda a comprender los factores de costo relevantes así como el mejorar la asignación presupuestaria. El presente trabajo de titulación tiene como objetivo el desarrollo de un módulo que aplique la metodología TD-ABC para el manejo de procesos, el mismo que ha sido implementado siguiendo la misma estructura del sistema de Automatización de Bibliotecas y Centros de Documentación (ABCD) que se encuentra funcionando en el Centro de Documentación Regional "Juan Bautista Vázquez" (CDRJBV). El módulo de TD-ABC ha sido desarrollado bajo plataforma de Software Libre, utilizando el lenguaje PHP y base de datos MYSQL, además de herramientas para el desarrollo web HTML, CSS, AJAX, JAVASCRIPT y API GOOGLE.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los maestros deben fortalecer desde el currículo ambientes adecuados para que los estudiantes se apropien del manejo de las TIC (Tecnologías de la Información y Comunicación) y las involucren en el proceso de enseñanza - aprendizaje; favoreciendo con esto el desarrollo de los contenidos en todas las áreas -- Cuando se pretende hacer uso de las TIC para mejorar el aprendizaje significativo de los estudiantes, se evidencia la debilidad que tiene el maestro para realizar un seguimiento a las actividades informales que realiza el estudiante para comprender un tema o adquirir una competencia -- El primer acercamiento para mejorar esta problemática, es realizar una integración de un estándar educativo para llevar un control y registrar las actividades informales que el estudiante realice a través de Internet, empleando un sinnúmero de aplicaciones que la web ofrece -- Para el mejoramiento del proceso evaluativo de los estudiantes de la Institución Educativa San José, se implementará la integración del estándar Tin Can Api dentro de un prototipo para realizar seguimiento a las actividades informales que realicen los estudiantes con el fin de llevar un registro de experiencias de aprendizaje -- Teniendo en cuenta lo anterior el maestro debe estar preparado para utilizar metodologías apoyadas en las herramientas tecnológicas, así el aprendizaje se logra con mayor disfrute y calidad

Relevância:

30.00% 30.00%

Publicador:

Resumo:

SQL Injection Attack (SQLIA) remains a technique used by a computer network intruder to pilfer an organisation’s confidential data. This is done by an intruder re-crafting web form’s input and query strings used in web requests with malicious intent to compromise the security of an organisation’s confidential data stored at the back-end database. The database is the most valuable data source, and thus, intruders are unrelenting in constantly evolving new techniques to bypass the signature’s solutions currently provided in Web Application Firewalls (WAF) to mitigate SQLIA. There is therefore a need for an automated scalable methodology in the pre-processing of SQLIA features fit for a supervised learning model. However, obtaining a ready-made scalable dataset that is feature engineered with numerical attributes dataset items to train Artificial Neural Network (ANN) and Machine Leaning (ML) models is a known issue in applying artificial intelligence to effectively address ever evolving novel SQLIA signatures. This proposed approach applies numerical attributes encoding ontology to encode features (both legitimate web requests and SQLIA) to numerical data items as to extract scalable dataset for input to a supervised learning model in moving towards a ML SQLIA detection and prevention model. In numerical attributes encoding of features, the proposed model explores a hybrid of static and dynamic pattern matching by implementing a Non-Deterministic Finite Automaton (NFA). This combined with proxy and SQL parser Application Programming Interface (API) to intercept and parse web requests in transition to the back-end database. In developing a solution to address SQLIA, this model allows processed web requests at the proxy deemed to contain injected query string to be excluded from reaching the target back-end database. This paper is intended for evaluating the performance metrics of a dataset obtained by numerical encoding of features ontology in Microsoft Azure Machine Learning (MAML) studio using Two-Class Support Vector Machines (TCSVM) binary classifier. This methodology then forms the subject of the empirical evaluation.