833 resultados para ordenadores


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La evaluación de las prestaciones de las embarcaciones a vela ha constituido un objetivo para ingenieros navales y marinos desde los principios de la historia de la navegación. El conocimiento acerca de estas prestaciones, ha crecido desde la identificación de los factores clave relacionados con ellas(eslora, estabilidad, desplazamiento y superficie vélica), a una comprensión más completa de las complejas fuerzas y acoplamientos involucrados en el equilibrio. Junto con este conocimiento, la aparición de los ordenadores ha hecho posible llevar a cabo estas tareas de una forma sistemática. Esto incluye el cálculo detallado de fuerzas, pero también, el uso de estas fuerzas junto con la descripción de una embarcación a vela para la predicción de su comportamiento y, finalmente, sus prestaciones. Esta investigación tiene como objetivo proporcionar una definición global y abierta de un conjunto de modelos y reglas para describir y analizar este comportamiento. Esto se lleva a cabo sin aplicar restricciones en cuanto al tipo de barco o cálculo, sino de una forma generalizada, de modo que sea posible resolver cualquier situación, tanto estacionaria como en el dominio del tiempo. Para ello se comienza con una definición básica de los factores que condicionan el comportamiento de una embarcación a vela. A continuación se proporciona una metodología para gestionar el uso de datos de diferentes orígenes para el cálculo de fuerzas, siempre con el la solución del problema como objetivo. Esta última parte se plasma en un programa de ordenador, PASim, cuyo propósito es evaluar las prestaciones de diferentes ti pos de embarcaciones a vela en un amplio rango de condiciones. Varios ejemplos presentan diferentes usos de PASim con el objetivo de ilustrar algunos de los aspectos discutidos a lo largo de la definición del problema y su solución . Finalmente, se presenta una estructura global de cara a proporcionar una representación virtual de la embarcación real, en la cual, no solo e l comportamiento sino también su manejo, son cercanos a la experiencia de los navegantes en el mundo real. Esta estructura global se propone como el núcleo (un motor de software) de un simulador físico para el que se proporciona una especificación básica. ABSTRACT The assessment of the performance of sailing yachts, and ships in general, has been an objective for naval architects and sailors since the beginning of the history of navigation. The knowledge has grown from identifying the key factors that influence performance(length, stability, displacement and sail area), to a much more complete understanding of the complex forces and couplings involved in the equilibrium. Along with this knowledge, the advent of computers has made it possible to perform the associated tasks in a systematic way. This includes the detailed calculation of forces, but also the use of those forces, along with the description of a sailing yacht, to predict its behavior, and ultimately, its performance. The aim of this investigation is to provide a global and open definition of a set of models and rules to describe and analyze the behavior of a sailing yacht. This is done without applying any restriction to the type of yacht or calculation, but rather in a generalized way, capable of solving any possible situation, whether it is in a steady state or in the time domain. First, the basic definition of the factors that condition the behavior of a sailing yacht is given. Then, a methodology is provided to assist with the use of data from different origins for the calculation of forces, always aiming towards the solution of the problem. This last part is implemented as a computational tool, PASim, intended to assess the performance of different types of sailing yachts in a wide range of conditions. Several examples then present different uses of PASim, as a way to illustrate some of the aspects discussed throughout the definition of the problem and its solution. Finally, a global structure is presented to provide a general virtual representation of the real yacht, in which not only the behavior, but also its handling is close to the experience of the sailors in the real world. This global structure is proposed as the core (a software engine) of a physical yacht simulator, for which a basic specification is provided.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente investigación determina los hábitos de consumo de videojuegos en los estudiantes universitarios españoles. Para ello, y siempre a través de la técnica de la encuesta, se comprueba que los universitarios españoles consideran las aplicaciones móviles de juego como videojuegos; se determinan sus patrones en la adquisición de videojuegos y se comparan los dispositivos que prefieren para consumir videojuegos (ordenadores o consolas) con los que más utilizan (smartphones). Finalmente, se especifican cuáles son para ellos las cinco características más importantes en un videojuego. Así, se obtienen conclusiones significativas para este target como, por ejemplo, que utilizan durante más tiempo los dispositivos móviles a pesar de preferir los tradicionales para consumir videojuegos, lo que refuerza un auge de la tendencia play everywhere entre dichos estudiantes universitarios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho foi desenvolvido para compor um modelo de educação ambiental no Jardim Botânico do Estado de São Paulo, localizado no Parque Estadual Fontes do Ipiranga (PEFI). Devido ao seu propósito educacional, o projeto educativo foi desenvolvido com o apoio de dois professores do ensino básico e de pesquisadores do Núcleo de Educação Ambiental do Jardim Botânico do Estado de São Paulo e das Seções de Ecologia e Ficologia do Instituto de Botânica. O modelo considerou quatro sistemas hídricos do PEFI, a Nascente do Riacho do Ipiranga e os Lagos do Jardim Botânico \"Nascentes, Ninféias e Bugios\", como base para a construção de instrumentos ordenadores de visitas monitoradas de professores do ensino básico e seus alunos ao Jardim Botânico. Como base do projeto, abordou-se o tema meio ambiente como transversal às disciplinas clássicas do sistema educacional brasileiro e empreenderam-se as ações do projeto através do conhecimento de diferentes profissionais sobre o meio ambiente que compuseram o grupo de trabalho e, ao mesmo, buscou-se integrar as ações às reais necessidades dos docentes do Ensino Básico. Nesse sentido, foi essencial a participação dos dois professores de escolas do entorno do Jardim Botânico nas etapas organizacionais do projeto. A caracterização da área de estudo baseou-se em seus aspectos históricos e físicos, bem como na qualidade sanitária dos corpos aquáticos considerados. As determinações físicas-químicas e microbiológicas revelaram uma condição sanitária satisfatória das águas, contudo os valores de coliformes fecais e totais encontrados nos lagos sugerem contaminação de origem animal, comum à região. A produtividade primária também foi determinada para cada corpo aquático, encontrando-se baixos valores de clorofila a nos três lagos e na nascente. Os tipos de algas microscópicas observadas foram os gêneros Chrysochromulina, Ankistrodesmus, Scenedesmus, Cosmarium, Navicula, Eunotia, Cryptomonas, Closterium, Gomphonema, Pinnularia, Pleurotaenium, Arthrospira, Oedogonium, Euastrum, Monoraphidium, Staurastrum, Pleurotaenium, Mallomonas e Chlamydomonas. De acordo com a tabela Carlson (Índice de Estado Trófico) a Nascente e o Lago das Nascentes são considerados oligotróficos, enquanto que o Lago dos Bugios e o das Ninféias, mesotróficos. A primeira ação do projeto, um curso teórico-prático, buscou-se integrar os professores do ensino básico em temas relacionados ao meio ambiente, particularmente naqueles de maior relevância aos profissionais atuantes no Jardim Botânico. Posteriormente, os professores participaram de ações para formatação de instrumentos educativos para visitação monitorada ao jardim, que resultaram na elaboração de um manual de visitação do professor, contendo um mapa da área de visitação e explicações de placas sinalizadoras. Para o núcleo de educação ambiental do Jardim Botânico foi disponibilizada a estrutura básica de um curso de capacitação de professores do ensino básico em temas sobre o meio ambiente, bem como a documentação fotográfica da área estudada, os critérios para a admissão de visita monitorada e os procedimentos para adequação do local da Nascente do Riacho do Ipiranga à visitação pública. Finalmente, deve-se ressaltar que o tema escolhido para a realização dessa dissertação de mestrado foi originado da percepção dos pesquisadores do Instituto de Botânica em destacar a importância do Jardim Botânico através de seus sistemas hídricos, e como poderiam ser utilizados como instrumento educativo nas escolas de São Paulo. Nesse sentido, optou-se por enriquecer o clássico foco dado aos jardins botânicos em todo o mundo, no qual a maioria dos visitantes apenas observa a vegetação local e exótica. Assim, pode-se afirmar que o trabalho empreendido se constituirá em uma contribuição ao professor com a missão de inserir a dimensão ambiental nas mais variadas disciplinas do ensino básico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tesis trata de las llamadas relaciones de conformidad que pueden darse entre dos sistemas cualesquiera, especificación e implementación. Como novedad introduce el uso de técnicas coinductivas para la definición de iocos, una relación de conformidad capaz de distinguir el contexto local de ejecución de un proceso. Al constituir iocos la parte central de una nueva teoría de Model Based Testing (MBT), se precisa de una descripción formal de los sistemas en juego; esto se lleva a cabo en primera instancia mediante sistemas de transiciones etiquetadas y posteriormente mediante un enfoque más abstracto, un álgebra de procesos. Las teorías de testing tienen por objeto confirmar las relaciones de conformidad mediante la ejecución de un conjunto de tests sobre un sistema –la implementación– cuya estructura interna se desconoce. Particularmente los beneficios de un enfoque MBT son inmediatos, ya que la generación de los tests puede abordarse de manera sistemática una vez se disponga de un modelo formal de la especificación, lo que contribuye a eliminar el error imputable al factor humano; esto se logra dando un algoritmo generador de tests que toma cono entrada una especificación y produce un conjunto de tests, posiblemente infinito, suficientemente representativo para asegurar la relación de conformidad. Este enfoque inicial, conocido como testing offline o testing estático, es mejorado para ganar en eficiencia evitando un alto consumo en recursos tanto de tiempo como de memoria mediante la técnica de testing online o testing dinámico, donde ambos pasos de generación y ejecución se ejecutan de manera alternada...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El envejecimiento de la poblaci on, el sobrepeso, y el aumento de enfermedades cr onicas, tales como: afecciones cardiacas, diabetes e hipertensi on, plantean nuevos retos al sistema de salud p ublica. En este contexto, las redes de sensores inal ambricas corporales (Wireless Body Area Networks (WBAN)/Wireless Body Sensor Networks (WBSN)) tienen gran potencial para revolucionar el sistema de salud ya que facilitan el seguimiento, la monitorizaci on y el diagn ostico de pacientes en casa, mejorando as su calidad de vida y reduciendo los costes asociados la asistencia sanitaria. Las redes WBAN/WBSN est an constituidas por nodos sensores que miden diferentes variables siol ogicas y cin eticas y disponen de interfaces inal ambricas de bajo coste para transmitir en tiempo real la informaci on a dispositivos en otros niveles de la red. En este tipo de redes, la transmisi on inal ambrica de datos es probablemente la tarea que presenta mayor consumo de energ a, por lo que dicho consumo debe ser reducido para maximizar su vida util. Adicionalmente, en escenarios WBAN/WBSN, el cuerpo humano juega un papel muy importante en la calidad de la comunicaci on. El cuerpo act ua como un canal de comunicaci on para la propagaci on de ondas electromagn eticas, por lo que el comportamiento de este tipo de canal representa un conjunto unico de desaf os para la transferencia able de datos...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Las redes de Petri son un lenguaje formal muy adecuado para la modelizacíon, ańalisis y verificacíon de sistemas concurrentes con infinitos estados. En particular, son muy apropiadas para estudiar las propiedades de seguridad de dichos sistemas, dadas sus buenas propiedades de decidibilidad. Sin embargo, en muchas ocasiones las redes de Petri carecen de la expresividad necesaria para representar algunas caracteŕısticas fundamentales de los sistemas que se manejan hoy en d́ıa, como el manejo de tiempo real, costes reales, o la presencia de varios procesos con un ńumero no acotado de estados ejecut́andose en paralelo. En la literatura se han definido y estudiado algunas extensiones de las redes de Petri para la representaci ́on de las caracteŕısticas anteriores. Por ejemplo, las “Redes de Petri Temporizadas” [83, 10](TPN) incluyen el manejo de tiempo real y las ν-redes de Petri [78](ν-PN) son capaces de representar un ńumero no acotado de procesos con infinitos estados ejecut́andose concurrentemente. En esta tesis definimos varias extensiones que réunen estas dos caracteŕısticas y estudiamos sus propiedades de decidibilidad. En primer lugar definimos las “ν-Redes de Petri Temporizadas”, que réunen las caracteŕısticas expresivas de las TPN y las ν-PN. Este nuevo modelo es capaz de representar sistemas con un ńumero no acotado de procesos o instancias, donde cada proceso es representado por un nombre diferente, y tiene un ńumero no acotado de relojes reales. En este modelo un reloj de una instancia debe satisfacer ciertas condiciones (pertenecer a un intervalo dado) para formar parte en el disparo de una transicíon. Desafortunadamente, demostramos que la verificacíon de propiedades de seguridad es indecidible para este modelo...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ecografía es hoy en día uno de los métodos de visualización más populares para examinar el interior de cuerpos opacos. Su aplicación es especialmente significativa tanto en el campo del diagnóstico médico como en las aplicaciones de evaluación no destructiva en el ámbito industrial, donde se evalúa la integridad de un componente o una estructura. El desarrollo de sistemas ecográficos de alta calidad y con buenas prestaciones se basa en el empleo de sistemas multisensoriales conocidos como arrays que pueden estar compuestos por varias decenas de elementos. El desarrollo de estos dispositivos tiene asociada una elevada complejidad, tanto por el número de sensores y la electrónica necesaria para la adquisición paralela de señales, como por la etapa de procesamiento de los datos adquiridos que debe operar en tiempo real. Esta etapa de procesamiento de señal trabaja con un elevado flujo de datos en paralelo y desarrolla, además de la composición de imagen, otras sofisticadas técnicas de medidas sobre los datos (medida de elasticidad, flujo, etc). En este sentido, el desarrollo de nuevos sistemas de imagen con mayores prestaciones (resolución, rango dinámico, imagen 3D, etc) está fuertemente limitado por el número de canales en la apertura del array. Mientras algunos estudios se han centrado en la reducción activa de sensores (sparse arrays como ejemplo), otros se han centrado en analizar diferentes estrategias de adquisiciónn que, operando con un número reducido de canales electrónicos en paralelo, sean capaz por multiplexación emular el funcionamiento de una apertura plena. A estas últimas técnicas se las agrupa mediante el concepto de Técnicas de Apertura Sintética (SAFT). Su interés radica en que no solo son capaces de reducir los requerimientos hardware del sistema (bajo consumo, portabilidad, coste, etc) sino que además permiten dentro de cierto compromiso la mejora de la calidad de imagen respecto a los sistemas convencionales...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

El anonimato es una dimensi on de la privacidad en la que una persona se reserva su identidad en las relaciones sociales que mantiene. Desde el punto de vista del area de las comunicaciones electr onicas, el anonimato posibilita mantener oculta la informaci on que pueda conducir a la identi caci on de las partes involucradas en una transacci on. Actualmente, conservar el anonimato en las transacciones de informaci on en red representa uno de los aspectos m as importantes. Con este n se han desarrollado diversas tecnolog as, com unmente denominadas tecnolog as para la mejora de la privacidad. Una de las formas m as populares y sencillas de proteger el anonimato en las comunicaciones entre usuarios son los sistemas de comunicaci on an onima de baja latencia basados en redes de mezcladores. Estos sistemas est an expuestos a una serie de ataques basados en an alisis de tr a co que comprometen la privacidad de las relaciones entre los usuarios participantes en la comunicaci on, esto es, que determinan, en mayor o menor medida, las identidades de emisores y receptores. Entre los diferentes tipos de ataques destacan los basados en la inundaci on de la red con informaci on falsa para obtener patrones en la red de mezcladores, los basados en el control del tiempo, los basados en el contenido de los mensajes, y los conocidos como ataques de intersecci on, que pretenden inferir, a trav es de razonamientos probabil sticos o de optimizaci on, patrones de relaciones entre usuarios a partir de la informaci on recabada en lotes o durante un per odo de tiempo por parte del atacante. Este ultimo tipo de ataque es el objeto de la presente tesis...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hoy día vivimos en la sociedad de la tecnología, en la que la mayoría de las cosas cuentan con uno o varios procesadores y es necesario realizar cómputos para hacer más agradable la vida del ser humano. Esta necesidad nos ha brindado la posibilidad de asistir en la historia a un acontecimiento sin precedentes, en el que la cantidad de transistores era duplicada cada dos años, y con ello, mejorada la velocidad de cómputo (Moore, 1965). Tal acontecimiento nos ha llevado a la situación actual, en la que encontramos placas con la capacidad de los computadores de hace años, consumiendo muchísima menos energía y ocupando muchísimo menos espacio, aunque tales prestaciones quedan un poco escasas para lo que se requiere hoy día. De ahí surge la idea de comunicar placas que se complementan en aspectos en las que ambas se ven limitadas. En nuestro proyecto desarrollaremos una interfaz s oftware/hardware para facilitar la comunicación entre dos placas con distintas prestaciones, a saber, una Raspberry Pi modelo A 2012 y una FPGA Spartan XSA3S1000 con placa extendida XStend Board V3.0. Dicha comunicación se basará en el envío y recepción de bits en serie, y será la Raspberry Pi quien marque las fases de la comunicación. El proyecto se divide en dos partes: La primera parte consiste en el desarrollo de un módulo para el kernel de Linux, que se encarga de gestionar las entradas y salidas de datos de la Raspberry Pi cuando se realizan las pertinentes llamadas de write o read. Mediante el control de los GPIO y la gestión de las distintas señales, se realiza la primera fase de la comunicación. La segunda parte consiste en el desarrollo de un diseño en VHDL para la FPGA, mediante el cual se pueda gestionar la recepción, cómputo y posterior envío de bits, de forma que la Raspberry Pi pueda disponer de los datos una vez hayan sido calculados. Ambas partes han sido desarrolladas bajo licencias libres (GPL) para que estén disponibles a cualquier persona interesada en el desarrollo y que deseen su reutilización.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Estamos acostumbrados a pagar en los supermercados y comercios con tarjeta de crédito. Para ello necesitamos una tarjeta bancaria y un documento identificativo. Hemos unido estos dos requisitos en uno de cara a hacer el pago más sencillo, rápido y cómodo. La solución que proponemos es registrar nuestra huella dactilar y asociarla a una cuenta bancaria, de forma que nuestro dedo sea suficiente para pagar. Para ello, hemos desarrollado varios programas, para implementar los distintos puntos del proceso: • Registro • Terminal de punto de venta • Verificación y tratamiento de huellas dactilares • Consultas en la base de datos. También hemos utilizado una base de datos en Dropbox™ para el almacenamiento de las imágenes de las huellas, todas ellas encriptadas, y otra relacional para los datos de los clientes. Para la intercomunicación dentro de la aplicación se han utilizado canales seguros SSH. Con este nuevo método de pago bastará poner tu dedo en el lector de huellas para que el pago se realice automáticamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En el presente trabajo se propone dar solución a uno de los problemas principales surgido en el campo del análisis de imágenes hiperespectrales. En las últimas décadas este campo está siendo muy activo, por lo que es de vital importancia tratar su problema principal: mezcla espectral. Muchos algoritmos han tratado de solucionar este problema, pero que a través de este trabajo se propone una cadena nueva de desmezclado en paralelo, para ser acelerados bajo el paradigma de programación paralela de OpenCl. Este paradigma nos aporta el modelo de programación unificada para acelerar algoritmos en sistemas heterogéneos. Podemos dividir el proceso de desmezclado espectral en tres etapas. La primera tiene la tarea de encontrar el número de píxeles puros, llamaremos endmembers a los píxeles formados por una única firma espectral, utilizaremos el algoritmo conocido como Geometry-based Estimation of number of endmembers, GENE. La segunda etapa se encarga de identificar los píxel endmembers y extraerlos junto con todas sus bandas espectrales, para esta etapa se utilizará el algoritmo conocido por Simplex Growing Algorithm, SGA. En la última etapa se crean los mapas de abundancia para cada uno de los endmembers encontrados, de esta etapa será encargado el algoritmo conocido por, Sum-to-one Constrained Linear Spectral Unmixing, SCLSU. Las plataformas utilizadas en este proyecto han sido tres: CPU, Intel Xeon E5-2695 v3, GPU, NVidia GeForce GTX 980, Acelerador, Intel Xeon Phi 31S1P. La idea de este proyecto se basa en realizar un análisis exhaustivo de los resultados obtenidos en las diferentes plataformas, con el fin de evaluar cuál se ajusta mejor a nuestras necesidades.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En los últimos años hemos sido testigos de la expansión del paradigma big data a una velocidad vertiginosa. Los cambios en este campo, nos permiten ampliar las áreas a tratar; lo que a su vez implica una mayor complejidad de los sistemas software asociados a estas tareas, como sucede en sistemas de monitorización o en el Internet de las Cosas (Internet of Things). Asimismo, la necesidad de implementar programas cada vez robustos y eficientes, es decir, que permitan el cómputo de datos a mayor velocidad y de los se obtengan información relevante, ahorrando costes y tiempo, ha propiciado la necesidad cada vez mayor de herramientas que permitan evaluar estos programas. En este contexto, el presente proyecto se centra en extender la herramienta sscheck. Sscheck permite la generación de casos de prueba basados en propiedades de programas escritos en Spark y Spark Streaming. Estos lenguajes forman parte de un mismo marco de código abierto para la computación distribuida en clúster. Dado que las pruebas basadas en propiedades generan datos aleatorios, es difícil reproducir los problemas encontrados en una cierta sesion; por ello, la extensión se centrará en cargar y guardar casos de test en disco mediante el muestreo de datos desde colecciones mayores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este proyecto consiste en el diseño e implementación de un dispositivo que permite el registro de los datos de acelerometría de un trayecto realizado por un ciclista para medir el esfuerzo experimentado por éste. Este dispositivo se fijará al manillar o la tija de una bicicleta de montaña y se complementará con la información proporcionada por el GPS de un móvil. Los datos de acelerometría registrados por el dispositivo se enviarán a dicho dispositivo móvil mediante Bluetooth Low Energy, cuyo funcionamiento se explicará durante el transcurso de esta memoria.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Ciberseguridad es un campo que cada día está más presente en nuestra vida con el avance de la tecnología. Gobiernos, militares, corporaciones, instituciones financieras, hospitales y otros negocios recogen, procesan y almacenan una gran cantidad de información confidencial en sus ordenadores y transmiten estos datos a través de redes a otros ordenadores. Con el creciente volumen y la sofisticación de los Ciberataques, se requiere una atención continua para proteger los negocios sensibles y la información personal así como salvaguardar la seguridad nacional. En el futuro casi todo va a ser informático por lo que con el avance de la tecnología nuevas amenazas aparecen, más peligrosas y sofisticadas. El enfoque de nuestro proyecto es demostrar que con unos pocos conocimientos de redes, seguridad, computación en la nube y unas pocas líneas de código se puede implementar una potente herramienta de ataque que puede poner en peligro la integridad y confidencialidad de los usuarios e instituciones.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En esta memoria se presenta el diseño y desarrollo de una aplicación en la nube destinada a la compartición de objetos y servicios. El desarrollo de esta aplicación surge dentro del proyecto de I+D+i, SITAC: Social Internet of Things – Apps by and for the Crowd ITEA 2 11020, que trata de crear una arquitectura integradora y un “ecosistema” que incluya plataformas, herramientas y metodologías para facilitar la conexión y cooperación de entidades de distinto tipo conectadas a la red bien sean sistemas, máquinas, dispositivos o personas con dispositivos móviles personales como tabletas o teléfonos móviles. El proyecto innovará mediante la utilización de un modelo inspirado en las redes sociales para facilitar y unificar las interacciones tanto entre personas como entre personas y dispositivos. En este contexto surge la necesidad de desarrollar una aplicación destinada a la compartición de recursos en la nube que pueden ser tanto lógicos como físicos, y que esté orientada al big data. Ésta será la aplicación presentada en este trabajo, el “Resource Sharing Center”, que ofrece un servicio web para el intercambio y compartición de contenido, y un motor de recomendaciones basado en las preferencias de los usuarios. Con este objetivo, se han usado tecnologías de despliegue en la nube, como Elastic Beanstalk (el PaaS de Amazon Web Services), S3 (el sistema de almacenamiento de Amazon Web Services), SimpleDB (base de datos NoSQL) y HTML5 con JavaScript y Twitter Bootstrap para el desarrollo del front-end, siendo Python y Node.js las tecnologías usadas en el back end, y habiendo contribuido a la mejora de herramientas de clustering sobre big data. Por último, y de cara a realizar el estudio sobre las pruebas de carga de la aplicación se ha usado la herramienta ApacheJMeter.