365 resultados para Analytics
Resumo:
Cet essai est présenté en tant que mémoire de maîtrise dans le cadre du programme de droit des technologies de l’information. Ce mémoire traite de différents modèles d’affaires qui ont pour caractéristique commune de commercialiser les données dans le contexte des technologies de l’information. Les pratiques commerciales observées sont peu connues et l’un des objectifs est d’informer le lecteur quant au fonctionnement de ces pratiques. Dans le but de bien situer les enjeux, cet essai discutera d’abord des concepts théoriques de vie privée et de protection des renseignements personnels. Une fois ce survol tracé, les pratiques de « data brokerage », de « cloud computing » et des solutions « analytics » seront décortiquées. Au cours de cette description, les enjeux juridiques soulevés par chaque aspect de la pratique en question seront étudiés. Enfin, le dernier chapitre de cet essai sera réservé à deux enjeux, soit le rôle du consentement et la sécurité des données, qui ne relèvent pas d’une pratique commerciale spécifique, mais qui sont avant tout des conséquences directes de l’évolution des technologies de l’information.
Resumo:
A wide range of non-destructive testing (NDT) methods for the monitoring the health of concrete structure has been studied for several years. The recent rapid evolution of wireless sensor network (WSN) technologies has resulted in the development of sensing elements that can be embedded in concrete, to monitor the health of infrastructure, collect and report valuable related data. The monitoring system can potentially decrease the high installation time and reduce maintenance cost associated with wired monitoring systems. The monitoring sensors need to operate for a long period of time, but sensors batteries have a finite life span. Hence, novel wireless powering methods must be devised. The optimization of wireless power transfer via Strongly Coupled Magnetic Resonance (SCMR) to sensors embedded in concrete is studied here. First, we analytically derive the optimal geometric parameters for transmission of power in the air. This specifically leads to the identification of the local and global optimization parameters and conditions, it was validated through electromagnetic simulations. Second, the optimum conditions were employed in the model for propagation of energy through plain and reinforced concrete at different humidity conditions, and frequencies with extended Debye's model. This analysis leads to the conclusion that SCMR can be used to efficiently power sensors in plain and reinforced concrete at different humidity levels and depth, also validated through electromagnetic simulations. The optimization of wireless power transmission via SMCR to Wearable and Implantable Medical Device (WIMD) are also explored. The optimum conditions from the analytics were used in the model for propagation of energy through different human tissues. This analysis shows that SCMR can be used to efficiently transfer power to sensors in human tissue without overheating through electromagnetic simulations, as excessive power might result in overheating of the tissue. Standard SCMR is sensitive to misalignment; both 2-loops and 3-loops SCMR with misalignment-insensitive performances are presented. The power transfer efficiencies above 50% was achieved over the complete misalignment range of 0°-90° and dramatically better than typical SCMR with efficiencies less than 10% in extreme misalignment topologies.
Resumo:
Cet essai est présenté en tant que mémoire de maîtrise dans le cadre du programme de droit des technologies de l’information. Ce mémoire traite de différents modèles d’affaires qui ont pour caractéristique commune de commercialiser les données dans le contexte des technologies de l’information. Les pratiques commerciales observées sont peu connues et l’un des objectifs est d’informer le lecteur quant au fonctionnement de ces pratiques. Dans le but de bien situer les enjeux, cet essai discutera d’abord des concepts théoriques de vie privée et de protection des renseignements personnels. Une fois ce survol tracé, les pratiques de « data brokerage », de « cloud computing » et des solutions « analytics » seront décortiquées. Au cours de cette description, les enjeux juridiques soulevés par chaque aspect de la pratique en question seront étudiés. Enfin, le dernier chapitre de cet essai sera réservé à deux enjeux, soit le rôle du consentement et la sécurité des données, qui ne relèvent pas d’une pratique commerciale spécifique, mais qui sont avant tout des conséquences directes de l’évolution des technologies de l’information.
Resumo:
La Revolución Espiritual promovida por el Dalai Lama plantea una unión entre espiritualidad y política. El proyecto de una ética universal, que se inscribe dentro de dicha Revolución, busca impactar la manera en que las relaciones internacionales se desarrollan, dándole prevalencia a los valores humanos. Sin embargo, esa proposición se encuentra ligada al contexto de exilio en el marco del conflicto sino-tibetano que afecta al continente asiático. Por esto, en la presente monografía, haciendo uso de los conceptos de marco de acción colectiva e identidad inscritos en la corriente de los movimientos sociales en la disciplina de las Relaciones Internacionales, se pretende determinar la relación entre identidad tibetana, marco de acción colectiva y la propuesta de una ética universal. Para ello se recurre, metodológicamente, a textos y a trabajo de campo en Bogotá. Así, se pretende establecer la relación entre espiritualidad y política como propuesta tibetana atravesada por el conflicto sino-tibetano.
Resumo:
El presente documento pretende mostrar la manera como se debe ejecutar la creación de marca mediante la utilización de mecanismos estratégicos comunitarios y marketing. El objetivo del estudio se basa en encontrar los mecanismos adecuados para el desarrollo y creación de una marca enfocándose en el análisis de las principales prácticas y modelos desarrollados en el área del marketing, examinando el impacto que la marca pueda generar en la comunidad en la cual la organización está incluida, estableciendo además un conexión directa con el modo de vida de los consumidores. Durante el desarrollo del documento se demuestra que las estrategias de marketing aplicadas por cada compañía, sirven para construir una relación estrecha y fuerte con todos los agentes involucrados en la construcción de una marca, principalmente con los clientes, ya que la forma más efectiva de establecer relaciones a largo plazo, es enfocándose exclusivamente en las necesidades desarrolladas por los consumidores, y a partir de ellas ajustar los valores (misión, visión, cultura organizacional, objetivos) de la organización. Estas estrategias comunitarias son también influenciadas por varios factores internos y externos a la organización, los cuales deben ser tenidos en cuenta al momento de elegir la estrategia adecuada. Los mecanismos estratégicos que desarrollan las empresas pueden cambiar significativamente de un sector comercial a otro, la importancia de las necesidades que se deben suplir y el consumidor final se deben evaluar desde un aspecto comunitario, entendiendo como comunidad como el conjunto de grupos sociales y comerciales que tienen relación directa o indirecta con la empresa. Con la investigación llevada a cabo acerca de las estrategias que deben aplicar las compañías se concluye que las marcas reflejan la imagen que la empresa transmite a sus compradores estableciendo una relación emocional entre los consumidores y la marca desarrollada, además de estimular la oferta y demanda del negocio. Se espera que por medio de la obtención de información teórica y conceptual, se pueda aclarar la manera como se puede desarrollar la creación de una marca por medio de la correcta utilización de mecanismos estratégicos comunitarios y de marketing.
Resumo:
La empresa Agentur es una agencia de viajes con más de 60 años de experiencia que recientemente ha incursionado en las ventas on-line por medio de un portal web. Actualmente, la empresa no cuenta con un plan de mercadeo que le permita aumentar exponencialmente las ventas por este canal, por lo que el desempeño de este no ha sido el esperado. Debido a este problema es de suma importancia determinar ¿Cuáles son las estrategias de posicionamiento y mercadeo on-line que debe usar la empresa para aumentar las ventas por su portal web? Para realizar este plan de mercadeo, se utilizó la segmentación propuesta por la empresa AMADEUS, llamada “FUTURE TRAVELLER TRIBES 2030 UNDERSTANDING TOMORROW’S TRAVELLER” en las que se explora los diferentes tipos de personas que viajaran en el futuro dependiendo de sus hábitos de compra, personalidad y necesidades específicas.. A partir de esta segmentación, se escogieron los segmentos que más se ajustan a lo que ofrece la página web de Agentur, y se diseñó una estrategia de posicionamiento que le permitirá a la empresa llegar a sus consumidores potenciales y aumentar las ventas de su portal. Se realizó una investigación de cuáles eran las mejores estrategias de publicidad y mercadeo que se tenían que utilizar para llegar a cada segmento de forma individual además del costo que tendría esta estrategia, y de esta forma lograr el volumen de ventas que desea alcanzar la empresa con este portal.
Resumo:
Introducción: El incremento de la población geriátrica es una realidad a nivel mundial y con esto los modelos de atención domiciliaria toman gran relevancia para dar respuesta a las diferentes patologías que requieran su seguimiento. Se ha evidenciado que en dicho seguimiento, el fenómeno de la polimedicación se presenta con frecuencia, con el riesgo de generar efectos cruzados y reacciones adversas que incrementan el deterioro clínico de los pacientes. Objetivo: Determinar los posibles efectos cruzados de la Polimedicación no pertinente en pacientes mayores de 75 años con hipertensión arterial más enfermedad neurodegenerativa en atención domiciliaria de una EPS del régimen contributivo en Bogotá, con base en los criterios de Beers.
Resumo:
El presente artículo, presenta un análisis de las decisiones de estructuración de capital de la compañía Merck Sharp & Dome S.A.S, desde la perspectiva de las finanzas comportamentales, comparando los métodos utilizados actualmente por la compañía seleccionada con la teoría tradicional de las finanzas, para así poder evaluar el desempeño teórico y real. Incorporar elementos comportamentales dentro del estudio permite profundizar más sobre de las decisiones corporativas en un contexto más cercano a los avances investigativos de las finanzas del comportamiento, lo cual lleva a que el análisis de este artículo se enfoque en la identificación y entendimiento de los sesgos de exceso de confianza y statu quo, pero sobre todo su implicación en las decisiones de financiación. Según la teoría tradicional el proceso de estructuración de capital se guía por los costos, pero este estudio de caso permitió observar que en la práctica esta relación de costo-decisión está en un segundo lugar, después de la relación riesgo-decisión a la hora del proceso de estructuración de capital.
Resumo:
Actualmente, la competitividad entre empresas es cada vez más fuerte. Por tanto, las empresas deben innovar en sus procesos, para mantenerse en el mercado. Sin embargo, en la era actual y con la revolución en la tecnología, lo digital se ha vuelto tendencia y una necesidad para los negocios, lo cual, lo lleva a mejorar su posicionamiento, abarcar y conseguir nuevos clientes. De esta forma, el ambiente digital no es una opción al momento de definir las estrategias de una compañía, es una necesidad. El objetivo de este trabajo es aplicar los fundamentos teóricos del marco digital, para así plantear un plan de mercadeo que se ajuste mejor, teniendo en cuenta el sector de empresa y mercado en el que se piensa laborara, además de mostrar los impactos que este tipo de estrategia tiene para el presupuesto y los costos dentro de la misma.
Resumo:
El principal objetivo de este trabajo de grado ha sido diseñar un plan estratégico de medios digitales para el lanzamiento de un nuevo producto para una compañía. En este trabajo, se han establecido parámetros como presupuesto, qué tipos de medios digitales serán usados y el porqué de ellos, se estableció las actividades por cada red social a usar y se muestra la relación costo – beneficio de realizar pauta publicitaria en redes sociales.
Resumo:
A High-Performance Computing job dispatcher is a critical software that assigns the finite computing resources to submitted jobs. This resource assignment over time is known as the on-line job dispatching problem in HPC systems. The fact the problem is on-line means that solutions must be computed in real-time, and their required time cannot exceed some threshold to do not affect the normal system functioning. In addition, a job dispatcher must deal with a lot of uncertainty: submission times, the number of requested resources, and duration of jobs. Heuristic-based techniques have been broadly used in HPC systems, at the cost of achieving (sub-)optimal solutions in a short time. However, the scheduling and resource allocation components are separated, thus generates a decoupled decision that may cause a performance loss. Optimization-based techniques are less used for this problem, although they can significantly improve the performance of HPC systems at the expense of higher computation time. Nowadays, HPC systems are being used for modern applications, such as big data analytics and predictive model building, that employ, in general, many short jobs. However, this information is unknown at dispatching time, and job dispatchers need to process large numbers of them quickly while ensuring high Quality-of-Service (QoS) levels. Constraint Programming (CP) has been shown to be an effective approach to tackle job dispatching problems. However, state-of-the-art CP-based job dispatchers are unable to satisfy the challenges of on-line dispatching, such as generate dispatching decisions in a brief period and integrate current and past information of the housing system. Given the previous reasons, we propose CP-based dispatchers that are more suitable for HPC systems running modern applications, generating on-line dispatching decisions in a proper time and are able to make effective use of job duration predictions to improve QoS levels, especially for workloads dominated by short jobs.
Resumo:
The convergence between the recent developments in sensing technologies, data science, signal processing and advanced modelling has fostered a new paradigm to the Structural Health Monitoring (SHM) of engineered structures, which is the one based on intelligent sensors, i.e., embedded devices capable of stream processing data and/or performing structural inference in a self-contained and near-sensor manner. To efficiently exploit these intelligent sensor units for full-scale structural assessment, a joint effort is required to deal with instrumental aspects related to signal acquisition, conditioning and digitalization, and those pertaining to data management, data analytics and information sharing. In this framework, the main goal of this Thesis is to tackle the multi-faceted nature of the monitoring process, via a full-scale optimization of the hardware and software resources involved by the {SHM} system. The pursuit of this objective has required the investigation of both: i) transversal aspects common to multiple application domains at different abstraction levels (such as knowledge distillation, networking solutions, microsystem {HW} architectures), and ii) the specificities of the monitoring methodologies (vibrations, guided waves, acoustic emission monitoring). The key tools adopted in the proposed monitoring frameworks belong to the embedded signal processing field: namely, graph signal processing, compressed sensing, ARMA System Identification, digital data communication and TinyML.
Resumo:
In questa tesi si trattano lo studio e la sperimentazione di un modello generativo retrieval-augmented, basato su Transformers, per il task di Abstractive Summarization su lunghe sentenze legali. La sintesi automatica del testo (Automatic Text Summarization) è diventata un task di Natural Language Processing (NLP) molto importante oggigiorno, visto il grandissimo numero di dati provenienti dal web e banche dati. Inoltre, essa permette di automatizzare un processo molto oneroso per gli esperti, specialmente nel settore legale, in cui i documenti sono lunghi e complicati, per cui difficili e dispendiosi da riassumere. I modelli allo stato dell’arte dell’Automatic Text Summarization sono basati su soluzioni di Deep Learning, in particolare sui Transformers, che rappresentano l’architettura più consolidata per task di NLP. Il modello proposto in questa tesi rappresenta una soluzione per la Long Document Summarization, ossia per generare riassunti di lunghe sequenze testuali. In particolare, l’architettura si basa sul modello RAG (Retrieval-Augmented Generation), recentemente introdotto dal team di ricerca Facebook AI per il task di Question Answering. L’obiettivo consiste nel modificare l’architettura RAG al fine di renderla adatta al task di Abstractive Long Document Summarization. In dettaglio, si vuole sfruttare e testare la memoria non parametrica del modello, con lo scopo di arricchire la rappresentazione del testo di input da riassumere. A tal fine, sono state sperimentate diverse configurazioni del modello su diverse tipologie di esperimenti e sono stati valutati i riassunti generati con diverse metriche automatiche.
Resumo:
The proliferation of Web-based learning objects makes finding and evaluating resources a considerable hurdle for learners to overcome. While established learning analytics methods provide feedback that can aid learner evaluation of learning resources, the adequacy and reliability of these methods is questioned. Because engagement with online learning is different from other Web activity, it is important to establish pedagogically relevant measures that can aid the development of distinct, automated analysis systems. Content analysis is often used to examine online discussion in educational settings, but these instruments are rarely compared with each other which leads to uncertainty regarding their validity and reliability. In this study, participation in Massive Open Online Course (MOOC) comment forums was evaluated using four different analytical approaches: the Digital Artefacts for Learning Engagement (DiAL-e) framework, Bloom's Taxonomy, Structure of Observed Learning Outcomes (SOLO) and Community of Inquiry (CoI). Results from this study indicate that different approaches to measuring cognitive activity are closely correlated and are distinct from typical interaction measures. This suggests that computational approaches to pedagogical analysis may provide useful insights into learning processes.
Resumo:
The demographics of massive open online course (MOOC) analytics show that the great majority of learners are highly qualified professionals, and not, as originally envisaged, the global community of disadvantaged learners who have no access to good higher education. MOOC pedagogy fits well with the combination of instruction and peer community learning found in most professional development. A UNESCO study therefore set out to test the efficacy of an experimental course for teachers who need but do not receive high-quality continuing professional development, as a way of exploiting what MOOCs can do indirectly to serve disadvantaged students. The course was based on case studies around the world of information and communication technology (ICT) in primary education and was carried out to contribute to the UNESCO “Education For All” goal. It used a co-learning approach to engage the primary teaching community in exploring ways of using ICT in primary education. Course analytics, forums and participant surveys demonstrated that it worked well. The paper concludes by arguing that this technology has the power to tackle the large-scale educational problem of developing the primary-level teachers needed to meet the goal of universal education.