891 resultados para Big data analytics
Resumo:
Esta Tesis tiene dos partes. La Primera Parte es Teórica y Metodológica y trata de la actual crisis de paradigma en las Ciencias Sociales, y de cómo se puede remontar con la Teoría del Pensamiento Complejo, siempre que sus propuestas se centren en modelos empíricos de Análisis de Redes Sociales debidamente matematizados y estadísticamente refrendados. La propuesta del tesista propone enriquecer el actual homo economicus, incorporando la importancia de las relaciones con el grupo (coactivas, coercitivas o motivacionales), a través de un nuevo objeto de estudio: los Proyectos. Es mediante los Proyectos, donde los individuos y los grupos en los que interactúan, transan y organizan sus esfuerzos. El problema reside en que, no existe hasta la fecha, una sistematización y modelización de los Proyectos como objeto de estudio en las Ciencias Sociales. Sin embargo, hay una amplia experiencia de análisis y sistematización de Proyectos tanto en la Economía de la Empresa (Management, Business Administration), como en la Economía Pública. En esta Tesis se estudia todo lo publicado recientemente sobre los Proyectos de Inversión Pública (PIPs) y su eficiencia en Latinoamérica. En la Segunda Parte, centrada en un Trabajo Empírico y su modelización, el tesista crea una Base de Datos (BdD) primaria, a partir del Banco de Proyectos (BdP) del Ministerio de Economía y Finanzas (MEF) del Perú (2001-2014), que recoge todos los Proyectos de Inversión Pública (PIP), cerca de 400.000 PIPs Iniciales, los tabula en 48 categorías y posteriormente, “deja hablar a los datos” jugando a relacionar, correlacionar, inducir hipótesis y verificarlas mediante un sistema que se centra en la operativa tipo “Big Data”. A esto le denomina “triangular” porque mezcla en el esfuerzo, herramientas de Estadística Descriptiva, Estadística Inferencial y Econometría para poder refrendar el conocimiento inducido, que siempre en ciencia, es una mera certeza probabilística. El tesista concluye que en el caso del Sistema Nacional de Inversión Pública del Perú (SNIP) y más específicamente, de los procesos administrativos que emplea -denominados “Ciclo PIP”-, queda claro que se está trabajando con “fenómenos emergentes” cuyo comportamiento no se adapta a una Distribución Normal. Y que dicho comportamiento errático se debe a que la Inversión Pública es cíclica (Ecuación Evolutiva de Price) y a que el “Ciclo PIP” opera a todo nivel (GN, GR, GL) en función de las relaciones entre los miembros que componen su red. Ergo, es un tema a Analizar con Social Network Analysis (Análisis Social de Redes, ARS). El tesista concluye que las redes de “Ciclo PIP” en el Perú fallan principalmente por problemas de escasez de personal técnico multisectorial debidamente cualificado. A manera de conclusión, propone la creación de una Plataforma Web 3.0 (metadatos), que utilice un Sistema de Razonamiento Basado en Casos (SRBC) para aprovechar el conocimiento que dimana de los éxitos y fracasos de los propios PIPs, con el fin de facilitar las gestiones de los miembros de la red que formulan, evalúan y ejecutan los PIPs en el Perú, tanto a nivel Municipal (GP) como Regional (GR) y Nacional (GN).
Resumo:
En la actualidad, estudiar comunicación y, específicamente, periodismo es una necesidad, aunque, al mismo tiempo, es un desafío. Esto se justifica por el dinamismo del ecosistema mediático contemporáneo, que corresponde a los medios, a las tecnologías emergentes y a la sociedad, cada vez más participante de los procesos comunicacionales. De hecho, estas transformaciones han cambiado no sólo los procesos, sino, también, las componentes de los grupos profesionales que trabajan en la construcción de la noticia contemporánea, ahora convertida en multilenguaje y pensada para dispositivos antes no pensados, como los teléfonos móviles y las tabletas. Entre los cambios, se destaca el periodismo de datos que tiene en cuenta el fenómeno big data y los contenidos de información disponibles en la nube, informaciones muchas veces disfrazadas o desapercibidas entre contenidos no tan importantes. Para trabajar con estos contenidos y en escenarios emergentes binarios, se justifica la creciente participación de profesionales de las ciencias exactas y de las ingenierías en las salas de redacción de los medios, pues ahora es necesario pensar en la selección, limpieza y comprensión, además de construir el espacio de publicación bajo conceptos digitales para lo multiplataforma. Complementariamente, encontramos una sociedad cada vez más constructora de espacios y caminos para la circulación y retroalimentación de contenidos a través de los medios sociales, posicionándose estos como productores de contenido, es decir, en fuentes activas. Esta investigación de tesis doctoral se ha desarrollado con el objetivo de crear un medio social para el desarrollo del periodismo de datos que tiene como base conceptual la narrativa transmedia, los contenidos multiplataforma y el conectivismo, elementos clave para comprender las posibilidades y aprovechar el conocimiento colectivo disponible en la nube. Por tanto, se han compartido conocimientos y metodologías apropiadas para la investigación en los campos del periodismo y de la ingeniería, tornándose necesaria la inmersión en conceptos relacionados del periodismo, el periodismo de datos, lenguajes y la sociedad mediática para, al final, desarrollar un algoritmo bajo formato de diagrama de flujo, y sus respectivas interfaces, del medio social thirdnews, que sirviera como modelo de ejecución de programación del producto. Entre las metodologías adoptadas, se destacan la investigación bibliográfica y la investigación cuasi-experimental, que empieza a ser común en tesis sobre comunicación aplicada, además del concepto de modelaje de producto y el método Roadmap, utilizados con frecuencia en tesis de ingeniería de producción. Con las conclusiones de la tesis, se espera no sólo poner en práctica el desarrollo del medio social, sino, también, presentar reflexiones teóricas y prácticas sobre el periodismo de datos en las redacciones de los medios actuales.
Resumo:
La cantidad de datos biológicos y médicos que se produce hoy en día es enorme, y se podría decir que el campo de las ciencias de la vida forma parte ya del club del Big Data. Estos datos contienen información crucial que pueden ayudar a comprender mejor los mecanismos moleculares en los sistemas biológicos. Este conocimiento es fundamental para el progreso en el diagnóstico y en el tratamiento de las enfermedades. La Bioinformática, junto con la Biología Computacional, son disciplinas que se encargan de organizar, analizar e interpretar los datos procedentes de la Biología Molecular. De hecho, la complejidad y la heterogeneidad de los problemas biológicos requieren de un continuo diseño, implementación y aplicación de nuevos métodos y algoritmos. La minería de datos biológicos es una tarea complicada debido a la naturaleza heterogénea y compleja de dichos datos, siendo éstos muy dependientes de detalles específicos experimentales. Esta tesis se basa en el estudio de un problema biomédico complejo: la menor probabilidad de desarrollar algunos tipos de cáncer en pacientes con ciertos trastornos del sistema nervioso central (SNC) u otros trastornos neurológicos, y viceversa. Denominamos a esta condición como comorbilidad inversa. Desde el punto de vista médico, entender mejor las conexiones e interacciones entre cáncer y trastornos neurológicos podría mejorar la calidad de vida y el efecto de la asistencia médica de millones de personas en todo el mundo. Aunque la comorbilidad inversa ha sido estudiada a nivel médico, a través de estudios epidemiológicos, no se ha investigado en profundidad a nivel molecular...
Resumo:
En los últimos años hemos sido testigos de la expansión del paradigma big data a una velocidad vertiginosa. Los cambios en este campo, nos permiten ampliar las áreas a tratar; lo que a su vez implica una mayor complejidad de los sistemas software asociados a estas tareas, como sucede en sistemas de monitorización o en el Internet de las Cosas (Internet of Things). Asimismo, la necesidad de implementar programas cada vez robustos y eficientes, es decir, que permitan el cómputo de datos a mayor velocidad y de los se obtengan información relevante, ahorrando costes y tiempo, ha propiciado la necesidad cada vez mayor de herramientas que permitan evaluar estos programas. En este contexto, el presente proyecto se centra en extender la herramienta sscheck. Sscheck permite la generación de casos de prueba basados en propiedades de programas escritos en Spark y Spark Streaming. Estos lenguajes forman parte de un mismo marco de código abierto para la computación distribuida en clúster. Dado que las pruebas basadas en propiedades generan datos aleatorios, es difícil reproducir los problemas encontrados en una cierta sesion; por ello, la extensión se centrará en cargar y guardar casos de test en disco mediante el muestreo de datos desde colecciones mayores.
Resumo:
Los medios online representan actualmente una gran apuesta para la publicidad. Desde la planificación de medios publicitarios, los nuevos medios ofrecen otros caminos para llegar al público, pero añaden mayor complejidad. La capacidad comunicativa de los medios online y el mayor consumo de esos medios por parte de la población abre el debate de la necesidad de replantear el enfoque de la planificación de medios, digamos, tradicional, cuya estructura y procesos de trabajo se desarrollaron cuando los medios eran offline. Así, este artículo proporciona una panorámica general de la influencia de los nuevos medios en la planificación. Para ello, en primer lugar, describe el escenario actual, analizando la penetración y las inversiones publicitarias en Internet. Además, expone los principales soportes online según su proximidad a la concepción de la planificación de medios offline. En segundo lugar, aborda los retos actuales en la medición de los nuevos medios como síntoma del impulso del cambio de modelo. Finalmente, el artículo termina exponiendo algunas tendencias que se presentan como motores de cambio. Sin embargo, tras este análisis se advierte que tales aspectos no modificarían la esencia de la planificación de medios, por lo que cabe cuestionarse si se puede hablar de crisis, o si los nuevos medios están mostrando la necesidad de que la investigación y planificación se comprometa con este nuevo escenario.
imaxin|software: PLN aplicada a la mejora de la comunicación multilingüe de empresas e instituciones
Resumo:
imaxin|software es una empresa creada en 1997 por cuatro titulados en ingeniería informática cuyo objetivo ha sido el de desarrollar videojuegos multimedia educativos y procesamiento del lenguaje natural multilingüe. 17 años más tarde, hemos desarrollado recursos, herramientas y aplicaciones multilingües de referencia para diferentes lenguas: Portugués (Galicia, Portugal, Brasil, etc.), Español (España, Argentina, México, etc.), Inglés, Catalán y Francés. En este artículo haremos una descripción de aquellos principales hitos en relación a la incorporación de estas tecnologías PLN al sector industrial e institucional.
Resumo:
La investigación sobre el consumidor ha sido el eje central del trabajo del planificador estratégico desde el nacimiento de la profesión en 1968. En concreto, en el origen de la disciplina de la Planificación Estratégica está la relevancia de la investigación cualitativa como fuente fiable para conocer en profundidad al consumidor y poder desarrollar campañas de comunicación eficaces, relevantes y distintivas. Por ello, y por la repercusión que tiene el conocimiento profundo del consumidor hoy en día, se va a hacer un repaso bibliográfico por las funciones que tradicionalmente ha adquirido el planificador en relación a la investigación para después aplicarlo a la realidad española actual a partir de un estudio empírico a los planificadores estratégicos españoles. El artículo termina con una reflexión sobre el papel relevante que el planner tendrá en un futuro muy próximo en el panorama de Big Data.
Resumo:
Este libro nace con la pretensión de ser un manual online dirigido a profesionales que se estén iniciando en la planificación de esta publicidad y, sobre todo, a estudiantes. Se concibe un libro que se adapte a diferentes tipos de lectores y a las diferentes necesidades de conocimiento. Se hace uso de su naturaleza online para facilitarte la lectura. Se compone de 12 capítulos. 1. La publicidad online. 2. El plan de medios publicitario. 3. El target group de la campaña: definición, medición y tipología de selección de medios online según público. 4. Los soportes publicitarios online y la publicidad en los medios sociales. 5. Los dispositivos móviles como medio publicitario. 6. Los modelos de pricing o contratación de espacios. 7. La eficacia publicitaria. 8. Herramientas para la planificación de la publicidad online. 9. Agencias de medios y perfiles profesionales. 10. Retos y oportunidades. 11. Fuentes de información. 12. Microtemas.
Resumo:
Nowadays, online media represent a great choice for advertising. From de advertising media planning, new media give new ways to reach the consumers, but they also add more complexity. The communication capacity of online media and the greater use of that media by part of the users open up the debate about the necessity of rethinking the approach of the ‘traditional’ advertising media planning, which structure and work processes were developed when media were offline. So, this article gives a panoramic view about the influence of new media in advertising media planning. To do this, in first place, describes the current scenario, analyzing the penetration and advertising expenditure in Internet. Also, it shows the main online media according to their proximity to the offline advertising media planning conception. In second place, this article addresses the current challenges at measuring new media as a symptom of the impulse at the change of model. Finally, the article ends up showing some trends that are presented as drivers of change. However, after this analysis, comes up the point that those aspects would not change the essence of advertising media planning, so it is questionable if we can speak of a crisis or, instead, if new media are showing the necessity that media planning have to be involved with this new scenario.
Resumo:
De entre los principales retos que plantea la docencia universitaria actual, destaca el de avanzar hacia modelos docentes centrados en el estudiante, capaces de desarrollar y conducir su aprendizaje de forma autónoma (tutorizada) tanto en las actividades presenciales como en las no presenciales. En este sentido, la posibilidad de operar con grandes bases de datos georeferenciadas de libre acceso supone un magnífico potencial para la investigación y la docencia del Urbanismo. Por ello, intervenir como guías en el proceso de comprensión y empleo de los datos a gran escala, es uno de los principales desafíos actuales de los docentes de las asignaturas de Urbanismo. Este artículo tiene por objeto explicar la experiencia desarrollada en la Universidad de Alicante (UA), con el propósito de iniciar al alumnado en el consumo inteligente de la información, para llevar a cabo sus propios análisis y obtener sus propias interpretaciones. El trabajo muestra los métodos y herramientas empleadas para tal fin, que permiten acercarse a nuevas formas dinámicas de relación con el conocimiento, a nuevas prácticas educativas activas y, sobre todo, a la creación de una nueva conciencia social más consciente y acorde con el mundo que habitamos.
Resumo:
El Cuadro de Mando SmartUA es una aplicación software que permite localizar y visualizar con facilidad, en cualquier momento y desde cualquier lugar, toda la información recopilada desde diversas fuentes de datos y redes de sensores generadas por el proyecto Smart University de la Universidad de Alicante; representarla en forma de mapas y gráficas; realizar búsquedas y filtros sobre dicha información; y mostrar a la comunidad universitaria en particular y a la ciudadanía en general, de una forma objetiva e inteligible, los fenómenos que ocurren en el campus, interconectado sistemas y personas para un mejor aprovechamiento de los recursos, una gestión eficiente y una innovación continua.
Resumo:
In order to become better prepared to support Research Data Management (RDM) practices in sciences and engineering, Queen’s University Library, together with the University Research Services, conducted a research study of all ranks of faculty members, as well as postdoctoral fellows and graduate students at the Faculty of Engineering & Applied Science, Departments of Chemistry, Computer Science, Geological Sciences and Geological Engineering, Mathematics and Statistics, Physics, Engineering Physics & Astronomy, School of Environmental Studies, and Geography & Planning in the Faculty of Arts and Science.
Resumo:
Internet traffic classification is a relevant and mature research field, anyway of growing importance and with still open technical challenges, also due to the pervasive presence of Internet-connected devices into everyday life. We claim the need for innovative traffic classification solutions capable of being lightweight, of adopting a domain-based approach, of not only concentrating on application-level protocol categorization but also classifying Internet traffic by subject. To this purpose, this paper originally proposes a classification solution that leverages domain name information extracted from IPFIX summaries, DNS logs, and DHCP leases, with the possibility to be applied to any kind of traffic. Our proposed solution is based on an extension of Word2vec unsupervised learning techniques running on a specialized Apache Spark cluster. In particular, learning techniques are leveraged to generate word-embeddings from a mixed dataset composed by domain names and natural language corpuses in a lightweight way and with general applicability. The paper also reports lessons learnt from our implementation and deployment experience that demonstrates that our solution can process 5500 IPFIX summaries per second on an Apache Spark cluster with 1 slave instance in Amazon EC2 at a cost of $ 3860 year. Reported experimental results about Precision, Recall, F-Measure, Accuracy, and Cohen's Kappa show the feasibility and effectiveness of the proposal. The experiments prove that words contained in domain names do have a relation with the kind of traffic directed towards them, therefore using specifically trained word embeddings we are able to classify them in customizable categories. We also show that training word embeddings on larger natural language corpuses leads improvements in terms of precision up to 180%.
Dando ouvidos aos dispositivos: como resolver controvérsias em um debate sobre cidades inteligentes?
Resumo:
Neste breve artigo, procuro analisar um workshop de pesquisa sobre o tema das “Cidades Inteligentes”, ou smart cities, no qual estive presente. Nessa análise, mostro como os conceitos de “cidade inteligente” e “big data” são construídos de modo distinto pelos dois grupos de pessoas presentes no evento, que classifico como “otimizadores” e “reguladores”. Essas diferentes formas de se enxergar os dispositivos em questão levam a uma série de controvérsias. Em um primeiro momento, procuro enquadrar o modo como algumas das controvérsias aparecem dentro do marco teórico da Construção Social da Tecnologia (SCOT). Posteriormente, pretendo mostrar que as controvérsias que apareceram ao longo do evento não foram solucionadas – e dificilmente serão, num futuro próximo – enquanto não se optar por um modelo analítico tal como a Teoria Ator-Rede, que dá ouvidos para um grupo ignorado naquelas discussões: os dispositivos empregados na construção do conceito de “Cidade Inteligente”.
Resumo:
O sociólogo que comanda um dos grandes centros de análise de big data no Brasil diz que os políticos só vão recuperar legitimidade quando aprenderem que "curtir" é coisa séria para detectar tendências e medir o pulso das aspirações sociais ganhou volume e tempo real no oceano de informações do big data, nome que se dá à gigantesca quantidade de dados produzidos diariamente na internet. É nessa mina inesgotável que o sociólogo carioca Marco Aurelio Ruediger, da Fundação Getulio Vargas, abastece a Diretoria de Análise de Políticas Públicas, um centro de estudo da visão que os brasileiros têm da máquina estatal e dos poderes da República.