820 resultados para sistema distribuito data-grid cloud computing CERN LHC Hazelcast Elasticsearch
Resumo:
TransRed.com es un servicio de bolsa de carga terrestre mediante el cual los usuarios actualizan la oferta y demanda del servicio en tiempo real (vía internet o teléfono), donde se consulta la disponibilidad de carga o de camiones de los afiliados a la asistencia remota. Este servicio se divide en dos: TransRed Empresaral (TRE) y TransRed Independiente (TRI) los usuarios de estos servicios serán empresas de transporte de carga terrestre y transportadores independientes. Este servicio actualmente no es prestado por ninguna empresa en Colombia y existe una necesidad latente del mismo, lo cual es una oportunidad que TransRed.com quiere aprovechar innovando en el sector. El tamaño del mercado potencial es de 1.849 empresas de transporte de carga terrestre y 47.000 transportadores independientes lo cual podría representar una facturación total de más de 55.000 millones a un precio por cuenta con alta aceptación de mercado de 80.000 mensuales para las TRE y 60.000 mensuales para las TRI. El objetivo de ventas planteado en este proyecto es de 504 cuentas TRE y 2.020 TRI para el tercer año, que representa el 27% del mercado TRE y el 4% del mercado TRI. Teniendo en cuenta que el nivel de aceptación del servicio está entre 70% y 80%, se pretende alcanzar el objetivo de ventas con una fuerza comercial distribuida en las cuatro principales zonas de concentración de nuestro mercado objetivo (Bogotá, Antioquia, Valle y Atlantico). Los resultados financieros del proyecto nos demuestran que cumpliendo los objetivos planteados y con la estructura de costos diseñada se obtiene un ROI de 54,33% para el tercer año, un periodo de recuperación de la inversión de 1 año y dos meses y un margen de utilidad neta de 24,47% en el tercer año. Este servicio permitirá a sus usuarios optimizar sus operaciones mediante el uso de tecnología de vanguardia, mejorando la competitividad del sector e integrando los diferentes actores que participan en él.
Resumo:
El trabajo de grado titulado “Propuesta de Computación en la Nube para los Libreros del Sector de San Victorino en Bogotá para el Año 2012. Estudio de Caso”, tiene como objetivo elaborar una propuesta de computación en la nube que sea aplicable a uno de los sectores más dinámicos del centro de Bogotá como es el de los libreros de San Victorino; Este trabajo busca la apropiación de las herramientas que proporcionan las nuevas tecnologías de la información y las comunicaciones en la disciplina de la administración de empresas, como un nuevo escenario de competitividad ajustado a las nuevas condiciones de las organizaciones. La computación en la nube como nueva herramienta tecnológica, permite que diversos usuarios - empresas accedan a la información consolidada, la cual puede ser aportada por ellos mismos, para brindar a los clientes un servicio más eficiente y eficaz, con bajos costos y generando innumerables ventajas que aportan a la competitividad de cada una de las unidades de negocio, las cuales se consolidan como una única organización o clúster. En este sentido se determinó, cómo el sector de San Victorino, en particular el de los libreros, comparten una serie de características y metas similares, que permiten su implantación con los beneficios que se señalan en este trabajo de grado, permitiendo el acceso a información general de productos editoriales e inventarios y la ubicación exacta del librero que lo posee.
Resumo:
Animation on Green IT Container EdShare to be used to assemble resources developed by team for coursework 2. The metadata will be updated by the group, and description modified when the resource set has been completed. The resource has been set up with an instructional readme file. This will be replaced by each group with a new readme file. Each group needs to update this description. Further instructions in readme.txt
Resumo:
These slides give the instructuions for completing the COMP1214 team project on cloud and mobile computing
Resumo:
En la segunda d??cada del siglo XXI se asiste a una completa transformaci??n en el proceso de ense??anza-aprendizaje de las lenguas extranjeras en general, y del espa??ol, en particular. En este nuevo contexto, las nuevas tecnolog??as aplicadas al ??mbito educativo juegan un papel muy importante. Este universo es conocido como la Web 2.0. Se presentan las ventajas e inconvenientes de la utilizaci??n de estas tecnolog??as en la clase de idiomas centr??ndose en cuatro herramientas digitales que ofrecen m??s posibilidades para dinamizar las clases de espa??ol: los blogs, los wikis, el podcasting y Google Docs o el cloud computing.
Resumo:
A full assessment of para-virtualization is important, because without knowledge about the various overheads, users can not understand whether using virtualization is a good idea or not. In this paper we are very interested in assessing the overheads of running various benchmarks on bare-‐metal, as well as on para-‐virtualization. The idea is to see what the overheads of para-‐ virtualization are, as well as looking at the overheads of turning on monitoring and logging. The knowledge from assessing various benchmarks on these different systems will help a range of users understand the use of virtualization systems. In this paper we assess the overheads of using Xen, VMware, KVM and Citrix, see Table 1. These different virtualization systems are used extensively by cloud-‐users. We are using various Netlib1 benchmarks, which have been developed by the University of Tennessee at Knoxville (UTK), and Oak Ridge National Laboratory (ORNL). In order to assess these virtualization systems, we run the benchmarks on bare-‐metal, then on the para-‐virtualization, and finally we turn on monitoring and logging. The later is important as users are interested in Service Level Agreements (SLAs) used by the Cloud providers, and the use of logging is a means of assessing the services bought and used from commercial providers. In this paper we assess the virtualization systems on three different systems. We use the Thamesblue supercomputer, the Hactar cluster and IBM JS20 blade server (see Table 2), which are all servers available at the University of Reading. A functional virtualization system is multi-‐layered and is driven by the privileged components. Virtualization systems can host multiple guest operating systems, which run on its own domain, and the system schedules virtual CPUs and memory within each Virtual Machines (VM) to make the best use of the available resources. The guest-‐operating system schedules each application accordingly. You can deploy virtualization as full virtualization or para-‐virtualization. Full virtualization provides a total abstraction of the underlying physical system and creates a new virtual system, where the guest operating systems can run. No modifications are needed in the guest OS or application, e.g. the guest OS or application is not aware of the virtualized environment and runs normally. Para-‐virualization requires user modification of the guest operating systems, which runs on the virtual machines, e.g. these guest operating systems are aware that they are running on a virtual machine, and provide near-‐native performance. You can deploy both para-‐virtualization and full virtualization across various virtualized systems. Para-‐virtualization is an OS-‐assisted virtualization; where some modifications are made in the guest operating system to enable better performance. In this kind of virtualization, the guest operating system is aware of the fact that it is running on the virtualized hardware and not on the bare hardware. In para-‐virtualization, the device drivers in the guest operating system coordinate the device drivers of host operating system and reduce the performance overheads. The use of para-‐virtualization [0] is intended to avoid the bottleneck associated with slow hardware interrupts that exist when full virtualization is employed. It has revealed [0] that para-‐ virtualization does not impose significant performance overhead in high performance computing, and this in turn this has implications for the use of cloud computing for hosting HPC applications. The “apparent” improvement in virtualization has led us to formulate the hypothesis that certain classes of HPC applications should be able to execute in a cloud environment, with minimal performance degradation. In order to support this hypothesis, first it is necessary to define exactly what is meant by a “class” of application, and secondly it will be necessary to observe application performance, both within a virtual machine and when executing on bare hardware. A further potential complication is associated with the need for Cloud service providers to support Service Level Agreements (SLA), so that system utilisation can be audited.
Resumo:
This paper introduces an architecture for identifying and modelling in real-time at a copper mine using new technologies as M2M and cloud computing with a server in the cloud and an Android client inside the mine. The proposed design brings up pervasive mining, a system with wider coverage, higher communication efficiency, better fault-tolerance, and anytime anywhere availability. This solution was designed for a plant inside the mine which cannot tolerate interruption and for which their identification in situ, in real time, is an essential part of the system to control aspects such as instability by adjusting their corresponding parameters without stopping the process.
Resumo:
Recent developments to the Local-scale Urban Meteorological Parameterization Scheme (LUMPS), a simple model able to simulate the urban energy balance, are presented. The major development is the coupling of LUMPS to the Net All-Wave Radiation Parameterization (NARP). Other enhancements include that the model now accounts for the changing availability of water at the surface, seasonal variations of active vegetation, and the anthropogenic heat flux, while maintaining the need for only commonly available meteorological observations and basic surface characteristics. The incoming component of the longwave radiation (L↓) in NARP is improved through a simple relation derived using cloud cover observations from a ceilometer collected in central London, England. The new L↓ formulation is evaluated with two independent multiyear datasets (Łódź, Poland, and Baltimore, Maryland) and compared with alternatives that include the original NARP and a simpler one using the National Climatic Data Center cloud observation database as input. The performance for the surface energy balance fluxes is assessed using a 2-yr dataset (Łódź). Results have an overall RMSE < 34 W m−2 for all surface energy balance fluxes over the 2-yr period when
Resumo:
We compare measurements of integrated water vapour (IWV) over a subarctic site (Kiruna, Northern Sweden) from five different sensors and retrieval methods: Radiosondes, Global Positioning System (GPS), ground-based Fourier-transform infrared (FTIR) spectrometer, ground-based microwave radiometer, and satellite-based microwave radiometer (AMSU-B). Additionally, we compare also to ERA-Interim model reanalysis data. GPS-based IWV data have the highest temporal coverage and resolution and are chosen as reference data set. All datasets agree reasonably well, but the ground-based microwave instrument only if the data are cloud-filtered. We also address two issues that are general for such intercomparison studies, the impact of different lower altitude limits for the IWV integration, and the impact of representativeness error. We develop methods for correcting for the former, and estimating the random error contribution of the latter. A literature survey reveals that reported systematic differences between different techniques are study-dependent and show no overall consistent pattern. Further improving the absolute accuracy of IWV measurements and providing climate-quality time series therefore remain challenging problems.
Resumo:
Cloud computing innebär att datorkraft och IT-resurser i form av servrar, lagring och lokala nätverk görs tillgängliga via internet, cloud computing har ökat snabbt i användning de senaste åren. Möjligheterna med molntjänster har lett till nya utmaningar avseende tillit till molntjänster genom att öppna för helt nya förhållanden mellan leverantör och kund. I dagsläget så är tillit till molntjänsterna ett stort problem för kunder såsom mikroföretag samt små och medelstora företag. Vårt examensarbete syftar till att beskriva mikroföretags samt små och medelstora företags tillit och misstro till molntjänster, samt identifiera vilka kriterier som bidrar till detta. Resultatet visar att det är svårt att tydligt definiera tillit och misstro hos företag, då deras situationer och verksamheter skiljer sig. Tack vare vår litteraturstudie i kombination med våra intervjuer har vi skapat oss en bra bild av vilka kriterier som bidrar med tillit och misstro till molntjänster. Baserat på vårt arbete har vi sammanställt en konceptuell modell som beskriver tillit och misstro till molntjänster.
Resumo:
Molntjänster har blivit ett intressant fenomen i IT-världen. Molntjänster har skapat möjligheter för företag och individer att effektivisera sin verksamhet för en minimal avgift istället för att driftsätta egna servrar. Detta blir möjligt genom att erbjuda flera olika tjänster på varierande distributionsmodeller. Till följd av detta fenomen förekommer serviceförfrågningar av molntjänster kontinuerligt bland svenska privata företag och myndigheter. De privata företagen har ingen skyldighet att följa lagar som begränsar dem från att använda molntjänster, i motsats till krisberedskapsmyndigheterna och deras utvecklings- och testverksamhet. Detta examensarbete kommer fokusera på att analysera de möjligheter som finns för svenska krisberedskapsmyndigheters och deras utvecklings- och testverksamheter att använda molntjänster Examensarbetet genomfördes som en kvalitativ studie med hjälp av intervjuer och litteraturstudier som datainsamlingsmetoder. Intervjuerna genomfördes på anställda i en krisberedskapsmyndighet för att ge en bild av hur dessa anställda med varierande befattningar tolkar molntjänster samt dess för- och nackdelar. Litteraturstudien användes för att spegla andra nationers synpunkter på molntjänster i myndigheter, samt vilka svenska lagar och regelverk som kan förhindra molntjänster i en krisberedskapsmyndighet. Resultatet av examensarbetet visade att det existerar möjligheter för användning av molntjänster i en krisberedskapsmyndighet. Detta görs möjligt genom att analysera informationen som skall distribueras på en molntjänst.