718 resultados para Intuitive


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Attachment and interpersonal theory suggest a sequential pattern of relationships beginning in the earliest stage of development and progressing to social and eventually romantic relationships. Theoretically, cross-sex experiences have an important role in the progression of interpersonal relationships. Despite the prevalence of these theories about the nature of romantic relationship development, the linkage of cross-sex experience (CSE) to romantic relationships has not been established. Indeed, it is an intuitive assumption, especially within Western society and these theories do not consider socio-cultural factors that may influence CSE and relationship satisfaction. This study addresses the varying contextual factors that may contribute to relationship satisfaction and adjustment, aside from CSE, and is divided into two parts. Study 1, addresses CSE, relationship satisfaction, and adjustment in a unique population, ultra-Orthodox Jews. Among this population, social or romantic CSE is limited and sexes are effectively segregated. Study 2, expanded the study to a larger sample of U.S. college students, to assess the linkage of CSE to romantic relationship satisfaction in a more typical Western population. It included social norm and support variables to address the contextual nature of relationship development and satisfaction. Results demonstrated clear differences in the relation between CSE and relationship satisfaction in the two samples. In the first sample CSE was unrelated to relationship satisfaction; nevertheless, relationship satisfaction was associated with adjustment as it is for more typical populations with greater CSE. These results suggested the importance of specifying how social norms and social support relate to CSE, relationship satisfaction and adjustment. The results from the second sample were consistent with the theoretical framework upon which the social/romantic literature is based. CSE was directly connected to relationship satisfaction. As anticipated, CSE, relationship satisfaction, and adjustment also varied as a function of social norms and support. These findings further validate the influence of socio-cultural factors on relationship satisfaction and adjustment. This study contributes to the romantic relationship literature and broadens our understanding of the complex nature of interpersonal and romantic relationships.^

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Developing Cyber-Physical Systems requires methods and tools to support simulation and verification of hybrid (both continuous and discrete) models. The Acumen modeling and simulation language is an open source testbed for exploring the design space of what rigorousbut- practical next-generation tools can deliver to developers of Cyber- Physical Systems. Like verification tools, a design goal for Acumen is to provide rigorous results. Like simulation tools, it aims to be intuitive, practical, and scalable. However, it is far from evident whether these two goals can be achieved simultaneously. This paper explains the primary design goals for Acumen, the core challenges that must be addressed in order to achieve these goals, the “agile research method” taken by the project, the steps taken to realize these goals, the key lessons learned, and the emerging language design.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Previous research with the ratio-bias task found larger response latencies for conflict trials where the heuristic- and analytic-based responses are assumed to be in opposition (e.g., choosing between 1/10 and 9/100 ratios of success) when compared to no-conflict trials where both processes converge on the same response (e.g., choosing between 1/10 and 11/100). This pattern is consistent with parallel dualprocess models, which assume that there is effective, rather than lax, monitoring of the output of heuristic processing. It is, however, unclear why conflict resolution sometimes fails. Ratio-biased choices may increase because of a decline in analytical reasoning (leaving heuristic-based responses unopposed) or to a rise in heuristic processing (making it more difficult for analytic processes to override the heuristic preferences). Using the process-dissociation procedure, we found that instructions to respond logically and response speed affected analytic (controlled) processing (C), leaving heuristic processing (H) unchanged, whereas the intuitive preference for large nominators (as assessed by responses to equal ratio trials) affected H but not C. These findings create new challenges to the debate between dual-process and singleprocess accounts, which are discussed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Background: Diagnostic decision-making is made through a combination of Systems 1 (intuition or pattern-recognition) and Systems 2 (analytic) thinking. The purpose of this study was to use the Cognitive Reflection Test (CRT) to evaluate and compare the level of Systems 1 and 2 thinking among medical students in pre-clinical and clinical programs. Methods: The CRT is a three-question test designed to measure the ability of respondents to activate metacognitive processes and switch to System 2 (analytic) thinking where System 1 (intuitive) thinking would lead them astray. Each CRT question has a correct analytical (System 2) answer and an incorrect intuitive (System 1) answer. A group of medical students in Years 2 & 3 (pre-clinical) and Years 4 (in clinical practice) of a 5-year medical degree were studied. Results: Ten percent (13/128) of students had the intuitive answers to the three questions (suggesting they generally relied on System 1 thinking) while almost half (44%) answered all three correctly (indicating full analytical, System 2 thinking). Only 3-13% had incorrect answers (i.e. that were neither the analytical nor the intuitive responses). Non-native English speaking students (n = 11) had a lower mean number of correct answers compared to native English speakers (n = 117: 1.0 s 2.12 respectfully: p < 0.01). As students progressed through questions 1 to 3, the percentage of correct System 2 answers increased and the percentage of intuitive answers decreased in both the pre-clinical and clinical students. Conclusions: Up to half of the medical students demonstrated full or partial reliance on System 1 (intuitive) thinking in response to these analytical questions. While their CRT performance has no claims to make as to their future expertise as clinicians, the test may be used in helping students to understand the importance of awareness and regulation of their thinking processes in clinical practice.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les applications Web en général ont connu d’importantes évolutions technologiques au cours des deux dernières décennies et avec elles les habitudes et les attentes de la génération de femmes et d’hommes dite numérique. Paradoxalement à ces bouleversements technologiques et comportementaux, les logiciels d’enseignement et d’apprentissage (LEA) n’ont pas tout à fait suivi la même courbe d’évolution technologique. En effet, leur modèle de conception est demeuré si statique que leur utilité pédagogique est remise en cause par les experts en pédagogie selon lesquels les LEA actuels ne tiennent pas suffisamment compte des aspects théoriques pédagogiques. Mais comment améliorer la prise en compte de ces aspects dans le processus de conception des LEA? Plusieurs approches permettent de concevoir des LEA robustes. Cependant, un intérêt particulier existe pour l’utilisation du concept patron dans ce processus de conception tant par les experts en pédagogie que par les experts en génie logiciel. En effet, ce concept permet de capitaliser l’expérience des experts et permet aussi de simplifier de belle manière le processus de conception et de ce fait son coût. Une comparaison des travaux utilisant des patrons pour concevoir des LEA a montré qu’il n’existe pas de cadre de synergie entre les différents acteurs de l’équipe de conception, les experts en pédagogie d’un côté et les experts en génie logiciel de l’autre. De plus, les cycles de vie proposés dans ces travaux ne sont pas complets, ni rigoureusement décrits afin de permettre de développer des LEA efficients. Enfin, les travaux comparés ne montrent pas comment faire coexister les exigences pédagogiques avec les exigences logicielles. Le concept patron peut-il aider à construire des LEA robustes satisfaisant aux exigences pédagogiques ? Comme solution, cette thèse propose une approche de conception basée sur des patrons pour concevoir des LEA adaptés aux technologies du Web. Plus spécifiquement, l’approche méthodique proposée montre quelles doivent être les étapes séquentielles à prévoir pour concevoir un LEA répondant aux exigences pédagogiques. De plus, un répertoire est présenté et contient 110 patrons recensés et organisés en paquetages. Ces patrons peuvent être facilement retrouvés à l’aide du guide de recherche décrit pour être utilisés dans le processus de conception. L’approche de conception a été validée avec deux exemples d’application, permettant de conclure d’une part que l’approche de conception des LEA est réaliste et d’autre part que les patrons sont bien valides et fonctionnels. L’approche de conception de LEA proposée est originale et se démarque de celles que l’on trouve dans la littérature car elle est entièrement basée sur le concept patron. L’approche permet également de prendre en compte les exigences pédagogiques. Elle est générique car indépendante de toute plateforme logicielle ou matérielle. Toutefois, le processus de traduction des exigences pédagogiques n’est pas encore très intuitif, ni très linéaire. D’autres travaux doivent être réalisés pour compléter les résultats obtenus afin de pouvoir traduire en artéfacts exploitables par les ingénieurs logiciels les exigences pédagogiques les plus complexes et les plus abstraites. Pour la suite de cette thèse, une instanciation des patrons proposés serait intéressante ainsi que la définition d’un métamodèle basé sur des patrons qui pourrait permettre la spécification d’un langage de modélisation typique des LEA. L’ajout de patrons permettant d’ajouter une couche sémantique au niveau des LEA pourrait être envisagée. Cette couche sémantique permettra non seulement d’adapter les scénarios pédagogiques, mais aussi d’automatiser le processus d’adaptation au besoin d’un apprenant en particulier. Il peut être aussi envisagé la transformation des patrons proposés en ontologies pouvant permettre de faciliter l’évaluation des connaissances de l’apprenant, de lui communiquer des informations structurées et utiles pour son apprentissage et correspondant à son besoin d’apprentissage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette recherche, nous nous concentrons sur l'analyse des pratiques d'enseignement en anglais langue seconde au collégial. Tout au long de sa carrière, l'enseignante ou l'enseignant expérimenté a développé un répertoire de pratiques qui lui convient. Or, le contexte d'exercice de sa profession est évolutif et complexe. Pour diverses raisons, les groupes sont moins homogènes qu'auparavant et plusieurs éléments ont maintenant un impact important sur sa tâche. Il importe donc d'être en mesure de porter un regard sur la pertinence de ses pratiques afin de tenir compte de cette réalité et ainsi apporter des modifications à son répertoire de pratiques. Les pratiques de l'enseignante ou de l'enseignant en situation d'enseignement sont en fait le reflet d'un savoir en action qu'elle ou qu'il a développé pendant sa carrière. Ce savoir, à bien des égards, s'est construit de manière intuitive en lien avec des principes inhérents à l'enseignement de l'anglais langue seconde que l'enseignante ou l'enseignant considèrent importants. Cependant, celle-ci ou celui-ci ne peut clairement expliquer ou justifier de façon appropriée les raisons qui motivent ses décisions en classe. En outre, il lui faut aussi juger de l'adéquation de ses pratiques. En fonction de la réalité mentionnée ci-haut, il devient essentiel pour l'enseignante ou l'enseignant de prendre conscience de ces raisons et d'apporter des ajustements à ses pratiques, lorsque nécessaires. Toutefois, l'enseignante ou l'enseignant expérimenté dispose de peu d'outils appropriés pour porter un regard sur la pertinence de ses pratiques et s'assurer de leur efficacité. Les outils qui existent ne s'adressent pas à elle ou à lui et ne sont pas adaptés à ses besoins. La présente recherche vise, par conséquent, à concevoir un outil, sous la forme d'une grille d'analyse, qui permettra à l'enseignante ou à l'enseignant d'anglais langue seconde expérimenté de porter un regard critique sur ses pratiques et qui sera adapté à ses besoins. La conception d'un tel outil favorisera chez l'enseignante ou l'enseignant expérimenté une meilleure prise de conscience de son savoir en action et une capacité à expliquer les raisons motivant ses décisions en situation d'enseignement en les situant par rapport à des principes reconnus. Ultimement, cette capacité aura un impact sur ses interventions et sur les apprentissages réalisés par les étudiantes et les étudiants. La recension des écrits pertinents pour l'objectif visé nous a permis de découvrir que les principes inhérents à l'enseignement de l'anglais langue seconde sont de même nature que les principes pédagogiques en enseignement en général. Par ailleurs, ces principes, qu'ils soient issus de théories de l'apprentissage, de l'enseignement ou de l'expérience de l'enseignante ou de l'enseignant, guident les interventions de l'enseignante ou de l'enseignant. Nous avons également constaté qu'une pratique efficace est une pratique qui est cohérente avec ces principes pédagogiques. Partant de ces découvertes, nous avons retenu les principes et les pratiques présents autant chez les auteurs de la recherche en pédagogie en général que chez les auteurs de la recherche en enseignement de l'anglais langue seconde afin d'élaborer le cadre de référence de cette recherche. Les principes et les pratiques se rapportant à l'expérience de l'enseignant chercheur, l'interpellant de manière significative, ont également été considérés pour élaborer le cadre de référence. Un dernier élément à considérer dans l'élaboration du cadre de référence est la démarche d'analyse réflexive, car elle permet une prise de conscience, chez l'enseignante ou l'enseignant, de ses pratiques. Étant donné l'ampleur du présent projet, nous n'avons considéré que les principes de base de cette démarche puisqu'ils conviennent parfaitement à l'objectif visé par cette recherche. Les éléments issus du cadre de référence ont servi de base pour la conception de la grille d'analyse des pratiques. Ce projet s'inscrit néanmoins dans une recherche de type développement et la production de matériel pédagogique ne peut se faire sans l'implication d'intervenants experts dans le domaine de l'enseignement de l'anglais langue seconde. À cet effet, l'enseignant chercheur s'est assuré la participation de collègues de son collège afin de valider la pertinence des pratiques et des principes, la cohérence des pratiques avec les principes, l'adaptabilité des principes et finalement les critères portant sur la facture globale du prototype de la grille d'analyse des pratiques. La richesse des réponses obtenues à l'étape de validation a contribué à améliorer la grille d'analyse des pratiques et l'enseignant chercheur a tenté, dans la mesure du possible et en respectant l'essence du cadre de référence, de considérer les nombreuses suggestions des personnes participantes. La grille d'analyse des pratiques devrait habiliter l'enseignante ou l'enseignant plus expérimenté à porter un regard critique sur ses pratiques en situation d'enseignement et à juger de leur efficacité. L'utilisation d'une telle grille pourrait également l'amener à développer une posture réflexive plus permanente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude fait suite aux expériences professionnelles vécues par le chercheur dans le cadre de ses activités départementales. Celui-ci s’est engagé, pendant deux ans (2002-2004), dans le processus de révision du programme de Techniques d’orthèses et de prothèses orthopédiques du Collège Montmorency, qui venait de faire l’objet d’une évaluation (2001) mettant en lumière plusieurs problématiques. Le principal défi de cette révision de programme consistait à remanier le programme actuel, un des premiers à avoir subi la transformation vers un programme par objectifs et standards en 1996, pour en assurer la pertinence, la cohérence, la validité et la crédibilité. Les nombreux changements apportés ont grandement modifié le plan de formation original, notamment au niveau des objectifs ministériels, des grandes compétences locales et de la grille de cours. Les changements les plus tangibles pour ses protagonistes résident cependant dans la nouvelle approche par compétence et dans ses nouvelles stratégies pédagogiques. Après trois ans d’implantation et deux ans de consolidation, la question fondamentale à laquelle cette étude tente de répondre est donc la suivante: les stratégies pédagogiques, et surtout les stratégies visant le développement de la pensée critique, élaborées et utilisées dans le cadre des cours d’intervention clinique de 3ème année dans le programme de TOP de Montmorency, sont-elles pertinentes et efficaces pour développer les compétences professionnelles et intellectuelles nécessaires à la pratique de la profession d’orthoprothésiste? Le premier chapitre de cette étude décrit les différents contextes, professionnels et pédagogiques, de la profession d’orthoprothésiste et de son évolution. Il présente les nombreuses mouvances ayant influencé les orientations du nouveau programme et de ses stratégies pédagogiques. On y aborde, en conséquence, la problématique ainsi que les raisons qui ont poussé le chercheur à vouloir conduire cette étude. Le deuxième chapitre détermine le cadre conceptuel duquel relève cette étude. Comme les critères d’observation du développement des compétences professionnelles et intellectuelles utilisés sont tirés de recherches sur la pensée critique et la métacognition, cette section en définit les principales caractéristiques de même que leurs applications. Ce chapitre présente aussi une définition des concepts pédagogiques de base utilisés, comme les notions de connaissances et de compétence, ainsi qu’une description des particularités des cours de la troisième année du programme de TOP. Enfin, il se termine par une définition opérationnelle de tous les concepts essentiels à la compréhension de l’étude et par l’explicitation de ses objectifs spécifiques. Le troisième chapitre élabore la méthodologie nécessaire à la réalisation de cette étude. L’approche méthodologique qualitative est présentée ainsi que le paradigme épistémologique interprétatif dont elle s’inspire. La population et l’échantillon y sont définis et on donne aussi un aperçu du déroulement de l’étude. La description des techniques et des instruments de collecte de données représente la principale section de ce chapitre. On expose les résultats de la consultation des collègues professionnels, en lien avec le premier objectif spécifique, de même que l’explication des différents axes de triangulation et la justification de chacun des instruments de collecte en lien avec les deux derniers objectifs spécifiques. Le quatrième chapitre explicite l’analyse et l’interprétation des résultats obtenus lors de l’application des différents instruments de collecte de données en lien avec les deux derniers objectifs spécifiques. Les observations du chercheur et de ses collègues sont formulées ainsi que les conclusions mitigées qui en découlent. On y présente également les opinions exprimées par les élèves et l’enthousiasme avec lequel ils ont perçu leur évolution professionnelle et intellectuelle, à la suite de cette troisième année dans le programme de TOP. Une comparaison des deux perspectives, soit celle des professeurs et celle des élèves, permet de mettre en évidence des améliorations à apporter aux stratégies pédagogiques, particulièrement au plan de leur application pratique. La conclusion détermine l’atteinte des objectifs général et spécifiques de l’étude, confirmant, de façon générale, la pertinence et l’efficacité des stratégies pédagogiques visant le développement des compétences professionnelles et intellectuelles. On y explore les retombées, particulièrement les améliorations à apporter aux stratégies pédagogiques, mais aussi l’utilisation de ses instruments par d’autres programmes techniques pour évaluer leurs propres stratégies pédagogiques. On y propose également des recommandations quant aux suites à donner à l’étude. La principale utilité de cette étude aura été de dépasser la simple évaluation intuitive des stratégies pédagogiques utilisées par le département, et de permettre une évaluation fidèle et valide de leur pertinence et de leur efficacité. Elle développe une méthodologie simple et efficace qui pourrait être reprise par d’autres programmes techniques en proie aux mêmes interrogations. Finalement, son originalité réside dans ses multiples axes de triangulation, ainsi que dans les perspectives exprimées par tous les intervenants du domaine professionnel de l’orthoprothèse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artículo describe la puesta en funcionamiento de una herramienta de información geográfica para la gestión y planificación de recursos hídricos de Cataluña desarrollada mediante plataformas OpenSource. Esta herramienta ha de permitir responder a sucesos extremos como la sequía, facilitando de manera intuitiva y rápida elementos de  evaluación y toma de decisiones. Este Sistema de Información Geográfica (SIG) de gestión de los recursos hídricos se ha  desarrollado para obtener resultados a medida del cliente. Su interfaz ágil y sencilla, su capacidad multiusuario, su alto  rendimiento y escalabilidad y la ausencia de costes de licencia hacen que, con una inversión limitada, se obtenga una amortización muy rápida. Cabe destacar la automatización de procesos sistemáticos, geoprocesos y análisis multicriterio definidos por el cliente, que le permiten ahorrar tiempo y recursos, así como aumentar la productividad.Palabras clave: Sistema de Información Geográfica (SIG), acceso abierto, gestión, agua, automatizaciónAbstractThis article describes the implementation of a geographical information tool developed on an OpenSource platform for the management and planning of water resources in Catalonia. This Geographic Information System (GIS) is designed to deliver fast and intuitive evaluation and decision making criteria in response to extreme events, such as drought. Its strong customization, user friendliness, multiuser capability, performance and scalability, together with its license-free condition, allow for an extremely fast return on investment. The embedded automation of user-defined systemic processes, geo-processes and multi-criteria analyses provide significant time and resource savings and productivity Key Words: Geographic Information System (GIS), Open Source, water supply management, automation

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Industrial robots are both versatile and high performant, enabling the flexible automation typical of the modern Smart Factories. For safety reasons, however, they must be relegated inside closed fences and/or virtual safety barriers, to keep them strictly separated from human operators. This can be a limitation in some scenarios in which it is useful to combine the human cognitive skill with the accuracy and repeatability of a robot, or simply to allow a safe coexistence in a shared workspace. Collaborative robots (cobots), on the other hand, are intrinsically limited in speed and power in order to share workspace and tasks with human operators, and feature the very intuitive hand guiding programming method. Cobots, however, cannot compete with industrial robots in terms of performance, and are thus useful only in a limited niche, where they can actually bring an improvement in productivity and/or in the quality of the work thanks to their synergy with human operators. The limitations of both the pure industrial and the collaborative paradigms can be overcome by combining industrial robots with artificial vision. In particular, vision can be exploited for a real-time adjustment of the pre-programmed task-based robot trajectory, by means of the visual tracking of dynamic obstacles (e.g. human operators). This strategy allows the robot to modify its motion only when necessary, thus maintain a high level of productivity but at the same time increasing its versatility. Other than that, vision offers the possibility of more intuitive programming paradigms for the industrial robots as well, such as the programming by demonstration paradigm. These possibilities offered by artificial vision enable, as a matter of fact, an efficacious and promising way of achieving human-robot collaboration, which has the advantage of overcoming the limitations of both the previous paradigms yet keeping their strengths.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Today we live in an age where the internet and artificial intelligence allow us to search for information through impressive amounts of data, opening up revolutionary new ways to make sense of reality and understand our world. However, it is still an area of improvement to exploit the full potential of large amounts of explainable information by distilling it automatically in an intuitive and user-centred explanation. For instance, different people (or artificial agents) may search for and request different types of information in a different order, so it is unlikely that a short explanation can suffice for all needs in the most generic case. Moreover, dumping a large portion of explainable information in a one-size-fits-all representation may also be sub-optimal, as the needed information may be scarce and dispersed across hundreds of pages. The aim of this work is to investigate how to automatically generate (user-centred) explanations from heterogeneous and large collections of data, with a focus on the concept of explanation in a broad sense, as a critical artefact for intelligence, regardless of whether it is human or robotic. Our approach builds on and extends Achinstein’s philosophical theory of explanations, where explaining is an illocutionary (i.e., broad but relevant) act of usefully answering questions. Specifically, we provide the theoretical foundations of Explanatory Artificial Intelligence (YAI), formally defining a user-centred explanatory tool and the space of all possible explanations, or explanatory space, generated by it. We present empirical results in support of our theory, showcasing the implementation of YAI tools and strategies for assessing explainability. To justify and evaluate the proposed theories and models, we considered case studies at the intersection of artificial intelligence and law, particularly European legislation. Our tools helped produce better explanations of software documentation and legal texts for humans and complex regulations for reinforcement learning agents.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis investigates how individuals can develop, exercise, and maintain autonomy and freedom in the presence of information technology. It is particularly interested in how information technology can impose autonomy constraints. The first part identifies a problem with current autonomy discourse: There is no agreed upon object of reference when bemoaning loss of or risk to an individual’s autonomy. Here, thesis introduces a pragmatic conceptual framework to classify autonomy constraints. In essence, the proposed framework divides autonomy in three categories: intrinsic autonomy, relational autonomy and informational autonomy. The second part of the thesis investigates the role of information technology in enabling and facilitating autonomy constraints. The analysis identifies eleven characteristics of information technology, as it is embedded in society, so-called vectors of influence, that constitute risk to an individual’s autonomy in a substantial way. These vectors are assigned to three sets that correspond to the general sphere of the information transfer process to which they can be attributed to, namely domain-specific vectors, agent-specific vectors and information recipient-specific vectors. The third part of the thesis investigates selected ethical and legal implications of autonomy constraints imposed by information technology. It shows the utility of the theoretical frameworks introduced earlier in the thesis when conducting an ethical analysis of autonomy-constraining technology. It also traces the concept of autonomy in the European Data Lawsand investigates the impact of cultural embeddings of individuals on efforts to safeguard autonomy, showing intercultural flashpoints of autonomy differences. In view of this, the thesis approaches the exercise and constraint of autonomy in presence of information technology systems holistically. It contributes to establish a common understanding of (intuitive) terminology and concepts, connects this to current phenomena arising out of ever-increasing interconnectivity and computational power and helps operationalize the protection of autonomy through application of the proposed frameworks.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hand gesture recognition based on surface electromyography (sEMG) signals is a promising approach for the development of intuitive human-machine interfaces (HMIs) in domains such as robotics and prosthetics. The sEMG signal arises from the muscles' electrical activity, and can thus be used to recognize hand gestures. The decoding from sEMG signals to actual control signals is non-trivial; typically, control systems map sEMG patterns into a set of gestures using machine learning, failing to incorporate any physiological insight. This master thesis aims at developing a bio-inspired hand gesture recognition system based on neuromuscular spike extraction rather than on simple pattern recognition. The system relies on a decomposition algorithm based on independent component analysis (ICA) that decomposes the sEMG signal into its constituent motor unit spike trains, which are then forwarded to a machine learning classifier. Since ICA does not guarantee a consistent motor unit ordering across different sessions, 3 approaches are proposed: 2 ordering criteria based on firing rate and negative entropy, and a re-calibration approach that allows the decomposition model to retain information about previous sessions. Using a multilayer perceptron (MLP), the latter approach results in an accuracy up to 99.4% in a 1-subject, 1-degree of freedom scenario. Afterwards, the decomposition and classification pipeline for inference is parallelized and profiled on the PULP platform, achieving a latency < 50 ms and an energy consumption < 1 mJ. Both the classification models tested (a support vector machine and a lightweight MLP) yielded an accuracy > 92% in a 1-subject, 5-classes (4 gestures and rest) scenario. These results prove that the proposed system is suitable for real-time execution on embedded platforms and also capable of matching the accuracy of state-of-the-art approaches, while also giving some physiological insight on the neuromuscular spikes underlying the sEMG.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Semantic Web technologies provide the means to express the knowledge in a formal and standardized manner, enabling machines to automatically derive meaning from the data. Often this knowledge is uncertain or different degrees of certainty may be assigned to the same statements. This is the case in many fields of study such as in Digital Humanities, Science and Arts. The challenge relies on the fact that our knowledge about the surrounding world is dynamic and may evolve based on new data coming from the latest discoveries. Furthermore we should be able to express conflicting, debated or disputed statements in an efficient, effective and consistent way without the need of asserting them. We call this approach 'Expressing Without Asserting' (EWA). In this work we identify all existing methods that are compatible with actual Semantic Web standards and enable us to express EWA. In our research we were able to prove that existing reification methods such as Named Graphs, Singleton Properties, Wikidata Statements and RDF-Star are the most suitable methods to represent in a reliable way EWA. Next we compare these methods with our own method, namely Conjectures from a quantitative perspective. Our main objective was to put Conjectures into stress tests leveraging enormous datasets created ad hoc using art-related Wikidata dumps and measure the performance in various triplestores in relation with similar concurrent methods. Our experiments show that Conjectures are a formidable tool to express efficiently and effectively EWA. In some cases, Conjectures outperform state of the art methods such as singleton and Rdf-Star exposing their great potential. Is our firm belief that Conjectures represent a suitable solution to EWA issues. Conjectures in their weak form are fully compatible with Semantic Web standards, especially with RDF and SPARQL. Furthermore Conjectures benefit from comprehensive syntax and intuitive semantics that make them easy to learn and adapt.