838 resultados para Modeling Rapport Using Machine Learning
Resumo:
Neural signal processing is a discipline within neuroengineering. This interdisciplinary approach combines principles from machine learning, signal processing theory, and computational neuroscience applied to problems in basic and clinical neuroscience. The ultimate goal of neuroengineering is a technological revolution, where machines would interact in real time with the brain. Machines and brains could interface, enabling normal function in cases of injury or disease, brain monitoring, and/or medical rehabilitation of brain disorders. Much current research in neuroengineering is focused on understanding the coding and processing of information in the sensory and motor systems, quantifying how this processing is altered in the pathological state, and how it can be manipulated through interactions with artificial devices including brain–computer interfaces and neuroprosthetics.
Resumo:
We live in an era of profound changes in university education. The implementation of Bologna plan has led us to raise new teaching methodologies, to review the role of the student, competency assessment, the incorporation of ICT. Unthinkable acts, one or two decade ago. The TIC concept is very broad and is attributed to the media, processes and content usage. Inside the supports and platforms, we stress tools that allow automatic correction of exercises, because they are instruments of great educational value because instantly they assess students and provide instant feedback about the knowledge that they have either as message support or note. If the power of these tools, we add the Internet, using e-learning environment, the results allow us to work, edit, evaluate, resolve doubts, and so on, anywhere, anytime. We present part of a platform and the results of its use in the field of health sciences
Resumo:
Compulsory in Brazil, toy certification aims to prevent possible risks in toy use. The Brazilian National Institute of Metrology (INMETRO) establishes the maximum concentration of toxic elements (TE) that may be present in toys. This study evaluates the presence of TE in different crayons, gouache and modeling clays using X-ray fluorescence. This technique is fast, has low operating cost and minimum sample pretreatment, resulting in a clean procedure without reagent consumption and waste generation. Bromine (in gouache) and Barium (in crayons) were the only potentially TE identified in the samples studied.
Resumo:
Tämän diplomityön tavoitteena oli tutkia ja selvittää kuormakoneen takarunkorakenteen silloitushitsauksen robotisointia. Työ päätettiin rajata koskemaan vain tiettyä moduulia takarungosta. Työssä kartoitettiin tarvittava laitteisto, selvitettiin runkomoduulin silloitusajat sekä arvioitiin investoinnin kannattavuutta. Silloituksen suorittavan järjestelmän vaatimuksena oli, että sen tulee asettaa osat paikoilleen hitsauskiinnittimeen ja tehdä tarvittavat silloitushitsaukset automaattisesti. Sopivaksi laitteistoksi osoittautui taloudellisuuden ja toiminnallisuuden näkökulmasta yhdestä kappaleenkäsittely- sekä hitsausrobotista muodostuva järjestelmä. Kappaleenkäsittelijän ohjauksessa käytetään konenäköä sekä osien paikannuksessa että laadunvarmistuksessa. Robotit liikkuvat yhteisellä lineaariradalla, jonka rinnalla on kappaleenkäsittelylaitteistoja hitsauskiinnittimineen. Robotisoinnin käyttöönotolla yhden takarungon moduulien kokoonpanoon ja silloitukseen käytettävä aika pienenee alle puoleen manuaaliseen työhön verrattuna. Näin saavutetaan merkittäviä kustannussäästöjä. Lisäksi hitsauskiinnittimet voivat olla verrattain yksinkertaisia manuaalityöhön verrattuna, jolloin myös säästetään työkaluinvestoinneissa. Robotisointiprojektin jatkotoimenpiteitä ovat laajamittaiset tuotantosimulaatiot layoutin, laitteiston sekä työkiertojen tarkaksi määrittämiseksi. Lisäksi itse tuotetta on muokattava paremmin robottisilloitukseen sopivaksi.
Resumo:
This thesis researches automatic traffic sign inventory and condition analysis using machine vision and pattern recognition methods. Automatic traffic sign inventory and condition analysis can be used to more efficient road maintenance, improving the maintenance processes, and to enable intelligent driving systems. Automatic traffic sign detection and classification has been researched before from the viewpoint of self-driving vehicles, driver assistance systems, and the use of signs in mapping services. Machine vision based inventory of traffic signs consists of detection, classification, localization, and condition analysis of traffic signs. The produced machine vision system performance is estimated with three datasets, from which two of have been been collected for this thesis. Based on the experiments almost all traffic signs can be detected, classified, and located and their condition analysed. In future, the inventory system performance has to be verified in challenging conditions and the system has to be pilot tested.
Resumo:
Didanosine (ddI) is a component of highly active antiretroviral therapy drug combinations, used especially in resource-limited settings and in zidovudine-resistant patients. The population pharmacokinetics of ddI was evaluated in 48 healthy volunteers enrolled in two bioequivalence studies. These data, along with a set of co-variates, were the subject of a nonlinear mixed-effect modeling analysis using the NONMEM program. A two-compartment model with first order absorption (ADVAN3 TRANS3) was fitted to the serum ddI concentration data. Final pharmacokinetic parameters, expressed as functions of the co-variates gender and creatinine clearance (CL CR), were: oral clearance (CL = 55.1 + 240 x CL CR + 16.6 L/h for males and CL = 55.1 + 240 x CL CR for females), central volume (V2 = 9.8 L), intercompartmental clearance (Q = 40.9 L/h), peripheral volume (V3 = 62.7 + 22.9 L for males and V3 = 62.7 L for females), absorption rate constant (Ka = 1.51/h), and dissolution time of the tablet (D = 0.43 h). The intraindividual (residual) variability expressed as coefficient of variation was 13.0%, whereas the interindividual variability of CL, Q, V3, Ka, and D was 20.1, 75.8, 20.6, 18.9, and 38.2%, respectively. The relatively high (>30%) interindividual variability for some of these parameters, observed under the controlled experimental settings of bioequivalence trials in healthy volunteers, may result from genetic variability of the processes involved in ddI absorption and disposition.
Resumo:
This work investigates theoretical properties of symmetric and anti-symmetric kernels. First chapters give an overview of the theory of kernels used in supervised machine learning. Central focus is on the regularized least squares algorithm, which is motivated as a problem of function reconstruction through an abstract inverse problem. Brief review of reproducing kernel Hilbert spaces shows how kernels define an implicit hypothesis space with multiple equivalent characterizations and how this space may be modified by incorporating prior knowledge. Mathematical results of the abstract inverse problem, in particular spectral properties, pseudoinverse and regularization are recollected and then specialized to kernels. Symmetric and anti-symmetric kernels are applied in relation learning problems which incorporate prior knowledge that the relation is symmetric or anti-symmetric, respectively. Theoretical properties of these kernels are proved in a draft this thesis is based on and comprehensively referenced here. These proofs show that these kernels can be guaranteed to learn only symmetric or anti-symmetric relations, and they can learn any relations relative to the original kernel modified to learn only symmetric or anti-symmetric parts. Further results prove spectral properties of these kernels, central result being a simple inequality for the the trace of the estimator, also called the effective dimension. This quantity is used in learning bounds to guarantee smaller variance.
Resumo:
Convolutional Neural Networks (CNN) have become the state-of-the-art methods on many large scale visual recognition tasks. For a lot of practical applications, CNN architectures have a restrictive requirement: A huge amount of labeled data are needed for training. The idea of generative pretraining is to obtain initial weights of the network by training the network in a completely unsupervised way and then fine-tune the weights for the task at hand using supervised learning. In this thesis, a general introduction to Deep Neural Networks and algorithms are given and these methods are applied to classification tasks of handwritten digits and natural images for developing unsupervised feature learning. The goal of this thesis is to find out if the effect of pretraining is damped by recent practical advances in optimization and regularization of CNN. The experimental results show that pretraining is still a substantial regularizer, however, not a necessary step in training Convolutional Neural Networks with rectified activations. On handwritten digits, the proposed pretraining model achieved a classification accuracy comparable to the state-of-the-art methods.
Resumo:
Tämän kandidaatintyön tavoitteena on käsitellä tekoälyjärjestelmien käyttöä liiketoiminnassa. Tekoälyä on tutkittu pitkään, mutta sen soveltaminen liiketoimintaan on suhteellisen uutta. Työssä esitellään IBM Watson Analytics- tekoälyjärjestelmän käyttöä. Tämän esittelyn kautta on tarkoitus näyttää, kuinka helposti tekoälyjärjestelmät todellisuudessa ovat hyödynnettävissä. Kirjallisuudesta löytyvien esimerkkien kautta työssä esitellään, minkälaisia järjestelmiä tällä hetkellä käytetään, ja millaisiin tarkoituksiin ne on luotu. Tekoälyjärjestelmien monimuotoisuuden vuoksi niitä käytetäänkin laajalti erilaisiin sovelluksiin. Kirjallisuudesta huomataan, että tekoälyjärjestelmät koostuvat usein monesta eri tavasta toteuttaa tekoälyä. Kirjallisuuden ja tekoälyn toteutuksen teorian pohjalta huomataan myös, että tekoälyjärjestelmät toimivat useimmiten erilaisissa päätöksentekoa tukevissa tai helpottavissa tehtävissä. Työssä esitetään myös IBM Watson Analyticsin ja avoimen datan avulla, kuinka helposti tekoälyjärjestelmiä pystytään hyödyntämään. Työssä näytetään tämän esimerkin kautta, miten ja minkä tyyppistä liiketoimintaa tukevaa informaatiota tekoälyjärjestelmä pystyy helposti tuottamaan.
Resumo:
The purpose of this qualitative study was to explore the full-time graduate students' perceptions of teacher effectiveness at the graduate school level, to identify how graduate students perceive effective and ineffective teachers, and specifically to discover the main dimensions of teacher effectiveness that graduate students perceive as most significant. This topic was investigated because, although the teacher has been deemed as a crucial component in the teaching process, there is no common agreement on the definition and measure of teacher effectiveness. Graduate students' perceptions of teacher effectiveness have not been given much attention. The research design was based on a ground theory approach. It utilized qualitative data through interviews, field notes, andjournals. The findings ofthis study revealed that teacher effectiveness is markedly influential to graduate students. There is no universally consented definition or measure of teacher effectiveness due to the multidimensionality of teaching and learning. Nevertheless, several major dimensions ofteacher effectiveness were discovered and highlighted in this study. Such dimensions include good command of subject matter, presentation skills, challenging and motivating students, rapport with students, learning environment, course demands, as well as assessment and feedback. It was hoped that the study would move towards developing a theory that contributes to the knowledge base of graduate students' perceptions of teacher effectiveness. It was anticipated that the results would provide first-hand information for the instructor to improve teaching; for the administrator to promote the effective educational experiences and student achievements. It was intended that the findings would lay a theoretical and empirical groundwork for future research.
Resumo:
L’intérêt marqué porté actuellement aux recherches NBIC (nano-bio-info-cognitivo technologies) visant l’optimisation des capacités humaines augure d’un profond bouleversement dans nos représentations du corps humain et du rapport humain-machine. Tour à tour, des travaux issus des domaines du génie génétique, de la pharmacologie, des biotechnologies ou des nanotechnologies nous promettent un corps moins sujet à la maladie, mieux « adapté » et surtout plus malléable. Cette construction en laboratoire d’un corps amélioré fait amplement écho aux préoccupations contemporaines concernant la santé parfaite, le processus de vieillissement, l’inaptitude, l’apparence, la performance, etc. En vue d’analyser les transformations qu’induisent ces recherches sur les représentations du corps, nous avons construit un modèle théorique appuyé, d’une part, sur des travaux en sociologie du corps et, d’autre part, sur des travaux en épistémologie des sciences. Puis, en scrutant différents textes de vulgarisation scientifique produits par des chercheurs transhumanistes – militant ouvertement en faveur d’une optimisation radicale des capacités humaines par le biais des technosciences –, il a été observé que les représentations du corps s’organisent autour de trois principaux noyaux. Le corps humain est présenté, dans ce discours, comme étant à la fois informationnel, technologiquement perfectible et obsolète. Cette représentation tripartite du corps permet aux transhumanistes d’ériger leur modèle d’action (i.e. amélioration des capacités physiques, intellectuelles, sensitives, émotionnelles, etc.) à titre de nécessité anthropologique. À leurs yeux, l’amélioration des conditions humaines doit passer par une mutation contrôlée de la biologie (i.e. une hybridation avec la machine) du fait que le corps serait « inadapté » au monde contemporain. Ainsi, les promesses NBIC, une fois récupérées par les chercheurs transhumanistes, se voient exacerbées et prennent une tonalité péremptoire. Ceci contribue vivement à la promotion du posthumain ou du cyborg, soit d’un individu transformé dans l’optique d’être plus robuste et intelligent, de moduler sa sensitivité et ses états émotifs et de vivre plus longtemps, voire indéfiniment. Enfin, situé à mi-chemin entre la science et la science-fiction, ce projet est qualifié de techno-prophétie en ce qu’il produit d’innombrables prévisions basées sur les avancées technoscientifiques actuelles et potentielles. Afin d’accroître l’acceptabilité sociale de leur modèle d’action, les transhumanistes ne font pas uniquement appel à la (potentielle) faisabilité technique; ils s’appuient également sur des valeurs socialement partagées, telles que l’autodétermination, la perfectibilité humaine, l’égalité, la liberté ou la dignité. Néanmoins, la lecture qu’ils en font est parfois surprenante et rompt très souvent avec les conceptions issues de la modernité. À leur avis, le perfectionnement humain doit s’opérer par le biais des technosciences (non des institutions sociales), sur le corps même des individus (non sur l’environnement) et en vertu de leur « droit » à l’autodétermination compris comme un droit individuel d’optimiser ses capacités. De même, les technosciences doivent, disent-ils, être démocratisées afin d’en garantir l’accessibilité, de réduire les inégalités biologiques et de permettre à chacun de renforcer son sentiment d’identité et d’accomplissement. L’analyse du discours transhumaniste nous a donc permis d’observer leurs représentations du corps de même que la résonance culturelle du projet qu’ils proposent.
Resumo:
Le rôle important joué par la mitochondrie dans la cellule eucaryote est admis depuis longtemps. Cependant, la composition exacte des mitochondries, ainsi que les processus biologiques qui sy déroulent restent encore largement inconnus. Deux facteurs principaux permettent dexpliquer pourquoi létude des mitochondries progresse si lentement : le manque defficacité des méthodes didentification des protéines mitochondriales et le manque de précision dans lannotation de ces protéines. En conséquence, nous avons développé un nouvel outil informatique, YimLoc, qui permet de prédire avec succès les protéines mitochondriales à partir des séquences génomiques. Cet outil intègre plusieurs indicateurs existants, et sa performance est supérieure à celle des indicateurs considérés individuellement. Nous avons analysé environ 60 génomes fongiques avec YimLoc afin de lever la controverse concernant la localisation de la bêta-oxydation dans ces organismes. Contrairement à ce qui était généralement admis, nos résultats montrent que la plupart des groupes de Fungi possèdent une bêta-oxydation mitochondriale. Ce travail met également en évidence la diversité des processus de bêta-oxydation chez les champignons, en corrélation avec leur utilisation des acides gras comme source dénergie et de carbone. De plus, nous avons étudié le composant clef de la voie de bêta-oxydation mitochondriale, lacyl-CoA déshydrogénase (ACAD), dans 250 espèces, couvrant les 3 domaines de la vie, en combinant la prédiction de la localisation subcellulaire avec la classification en sous-familles et linférence phylogénétique. Notre étude suggère que les gènes ACAD font partie dune ancienne famille qui a adopté des stratégies évolutionnaires innovatrices afin de générer un large ensemble denzymes susceptibles dutiliser la plupart des acides gras et des acides aminés. Finalement, afin de permettre la prédiction de protéines mitochondriales à partir de données autres que les séquences génomiques, nous avons développé le logiciel TESTLoc qui utilise comme données des Expressed Sequence Tags (ESTs). La performance de TESTLoc est significativement supérieure à celle de tout autre outil de prédiction connu. En plus de fournir deux nouveaux outils de prédiction de la localisation subcellulaire utilisant différents types de données, nos travaux démontrent comment lassociation de la prédiction de la localisation subcellulaire à dautres méthodes danalyse in silico permet daméliorer la connaissance des protéines mitochondriales. De plus, ces travaux proposent des hypothèses claires et faciles à vérifier par des expériences, ce qui présente un grand potentiel pour faire progresser nos connaissances des métabolismes mitochondriaux.
Resumo:
En Europe et en Amérique du Nord, les phénomènes de conversion à l'islam suggèrent que modernité et sécularisation ont engendré de nouvelles formes de subjectivité, insolites au premier abord. Pourtant, l'apparente incompatibilité entre les identités musulmane d’un part, et québécoise ou française d’autre part, provient davantage du contexte sociopolitique dans lequel ces identités se produisent que d'une impossibilité inhérente aux paradigmes musulman et occidental en soi. Notre étude réalisée en France et au Québec montre que si le retour à l’islam s’inscrit dans un projet d’herméneutique du soi qui se réalise dans le cadre d’une démarche spirituelle, le geste de conversion est forgé par le contexte social et politique qui lui donne sens et portée. Ainsi, l’identité des nouvelles musulmanes se négocie dans les rapports sociaux qui traversent et dominent les univers du discours locaux; le projet social et politique qui en résulte vise à transcender ces modèles en proposant une alternative qui combine l’hérité et le choisi. Notre projet s’inscrit dans une perspective comparative au sein de deux espaces politiques se distinguant non seulement par leur mode de gestion de la diversité religieuse et ethnique, mais aussi par leur système de régulation du religieux dans l'espace public. Considérant que le changement de religion est un processus aussi subjectif que social, nous soutenons que la nouvelle identité du converti se distribue de façon continue et dynamique entre la réalisation du soi et la (re)construction de son appartenance sociale. Par conséquent, le geste de conversion traduit autant la quête d’une spiritualité et d’un mode de vie pieux, qu’il exprime un discours critique de son contexte social et politique, et constructif puisqu’il en propose une alternative. En nous inspirant des perspectives théoriques de Ricœur, de Foucault, et de Calhoun, nous examinons la formation du sujet et la construction de son identité, autant par la production d’un discours (récit de conversion), que par le modelage du corps (apprentissage des pratiques religieuses et sociales). Cette approche performative de la ritualité quotidienne met en évidence la fluidité, l'idiosyncrasie et l'historicité des appartenances et des subjectivités. Pour les femmes rencontrées, la mise en narration de la trajectoire de conversion joue un rôle clé dans le processus de constitution et d’actualisation du soi musulman. Par la réflexivité du sujet, elle produit en effet une nouvelle herméneutique du soi, motivée par un objectif d’accomplissement personnel, et travaillé par le médium de la spiritualité. Par ailleurs, nous identifions des discours standardisés qui constituent des points de tension autour desquels se forgent la piété, la subjectivité, et l’identité des converties. Parmi eux, le modèle de genre préconisé révèle le retour à une nouvelle morale de la pudeur, de l'intimité, du corps et du souci de soi qui revisite les rhétoriques polarisées entre le féminisme jugé extrême des sociétés occidentales, et les dérives patriarcales de l’islam politique. En ce sens, nous considérons les femmes converties à l’islam comme la figure archétype du sujet musulman féministe. La formation de ces identités originales révèle les forces sociales et politiques sous-jacentes les localités nationales et les dynamiques globales. En effet, les performances élaborées par les converties se situent en compétition avec certains discours construits, tant par les musulmans de naissance que par la société d'origine. La conversion induit ainsi une recomposition des identités genrées, religieuses, nationales ou biographiques des nouvelles musulmanes. Si les attributs de l’altérité désormais mêlés à ceux du soi sont travaillés aux limites des catégories de la modernité avancée (savoir, religion et genre), ils reconfigurent également les rapports sociaux et les frontières de nouveaux groupes d’inclusion et d’exclusion (ethnicité, piété, génération). Au Québec, l'attrait pour l'islam participe d’une reconquête du sens et d’une volonté d'adhésion à la rhétorique cosmopolite hégémonique, l’entrée dans l’islam célèbre alors le retour à des formes de solidarité communautaire, faisant suite à une phase de modernisation et de sécularisation accélérée. En France, elle manifeste une critique envers la différenciation sociale et un mode d'appartenance à une classe ghettoïsée. L’adhésion à la religion de la catégorie minoritaire et ostracisée met en évidence l’échec d'un modèle républicain qui a failli à sa prétention d’universalité. Cette voie alternative aux projets séculier et moderne dominants contribue à reconfigurer les domaines du privé et du public, et permet à ceux qui choisissent la marge, de révéler les apories du centre.