817 resultados para multi-agent learning
Resumo:
L'imagerie par résonance magnétique (IRM) peut fournir aux cardiologues des informations diagnostiques importantes sur l'état de la maladie de l'artère coronarienne dans les patients. Le défi majeur pour l'IRM cardiaque est de gérer toutes les sources de mouvement qui peuvent affecter la qualité des images en réduisant l'information diagnostique. Cette thèse a donc comme but de développer des nouvelles techniques d'acquisitions des images IRM, en changeant les techniques de compensation du mouvement, pour en augmenter l'efficacité, la flexibilité, la robustesse et pour obtenir plus d'information sur le tissu et plus d'information temporelle. Les techniques proposées favorisent donc l'avancement de l'imagerie des coronaires dans une direction plus maniable et multi-usage qui peut facilement être transférée dans l'environnement clinique. La première partie de la thèse s'est concentrée sur l'étude du mouvement des artères coronariennes sur des patients en utilisant la techniques d'imagerie standard (rayons x), pour mesurer la précision avec laquelle les artères coronariennes retournent dans la même position battement après battement (repositionnement des coronaires). Nous avons découvert qu'il y a des intervalles dans le cycle cardiaque, tôt dans la systole et à moitié de la diastole, où le repositionnement des coronaires est au minimum. En réponse nous avons développé une nouvelle séquence d'acquisition (T2-post) capable d'acquérir les données aussi tôt dans la systole. Cette séquence a été testée sur des volontaires sains et on a pu constater que la qualité de visualisation des artère coronariennes est égale à celle obtenue avec les techniques standard. De plus, le rapport signal sur bruit fourni par la séquence d'acquisition proposée est supérieur à celui obtenu avec les techniques d'imagerie standard. La deuxième partie de la thèse a exploré un paradigme d'acquisition des images cardiaques complètement nouveau pour l'imagerie du coeur entier. La technique proposée dans ce travail acquiert les données sans arrêt (free-running) au lieu d'être synchronisée avec le mouvement cardiaque. De cette façon, l'efficacité de la séquence d'acquisition est augmentée de manière significative et les images produites représentent le coeur entier dans toutes les phases cardiaques (quatre dimensions, 4D). Par ailleurs, l'auto-navigation de la respiration permet d'effectuer cette acquisition en respiration libre. Cette technologie rend possible de visualiser et évaluer l'anatomie du coeur et de ses vaisseaux ainsi que la fonction cardiaque en quatre dimensions et avec une très haute résolution spatiale et temporelle, sans la nécessité d'injecter un moyen de contraste. Le pas essentiel qui a permis le développement de cette technique est l'utilisation d'une trajectoire d'acquisition radiale 3D basée sur l'angle d'or. Avec cette trajectoire, il est possible d'acquérir continûment les données d'espace k, puis de réordonner les données et choisir les paramètres temporel des images 4D a posteriori. L'acquisition 4D a été aussi couplée avec un algorithme de reconstructions itératif (compressed sensing) qui permet d'augmenter la résolution temporelle tout en augmentant la qualité des images. Grâce aux images 4D, il est possible maintenant de visualiser les artères coronariennes entières dans chaque phase du cycle cardiaque et, avec les mêmes données, de visualiser et mesurer la fonction cardiaque. La qualité des artères coronariennes dans les images 4D est la même que dans les images obtenues avec une acquisition 3D standard, acquise en diastole Par ailleurs, les valeurs de fonction cardiaque mesurées au moyen des images 4D concorde avec les valeurs obtenues avec les images 2D standard. Finalement, dans la dernière partie de la thèse une technique d'acquisition a temps d'écho ultra-court (UTE) a été développée pour la visualisation in vivo des calcifications des artères coronariennes. Des études récentes ont démontré que les acquisitions UTE permettent de visualiser les calcifications dans des plaques athérosclérotiques ex vivo. Cepandent le mouvement du coeur a entravé jusqu'à maintenant l'utilisation des techniques UTE in vivo. Pour résoudre ce problème nous avons développé une séquence d'acquisition UTE avec trajectoire radiale 3D et l'avons testée sur des volontaires. La technique proposée utilise une auto-navigation 3D pour corriger le mouvement respiratoire et est synchronisée avec l'ECG. Trois échos sont acquis pour extraire le signal de la calcification avec des composants au T2 très court tout en permettant de séparer le signal de la graisse depuis le signal de l'eau. Les résultats sont encore préliminaires mais on peut affirmer que la technique développé peut potentiellement montrer les calcifications des artères coronariennes in vivo. En conclusion, ce travail de thèse présente trois nouvelles techniques pour l'IRM du coeur entier capables d'améliorer la visualisation et la caractérisation de la maladie athérosclérotique des coronaires. Ces techniques fournissent des informations anatomiques et fonctionnelles en quatre dimensions et des informations sur la composition du tissu auparavant indisponibles. CORONARY artery magnetic resonance imaging (MRI) has the potential to provide the cardiologist with relevant diagnostic information relative to coronary artery disease of patients. The major challenge of cardiac MRI, though, is dealing with all sources of motions that can corrupt the images affecting the diagnostic information provided. The current thesis, thus, focused on the development of new MRI techniques that change the standard approach to cardiac motion compensation in order to increase the efficiency of cardioavscular MRI, to provide more flexibility and robustness, new temporal information and new tissue information. The proposed approaches help in advancing coronary magnetic resonance angiography (MRA) in the direction of an easy-to-use and multipurpose tool that can be translated to the clinical environment. The first part of the thesis focused on the study of coronary artery motion through gold standard imaging techniques (x-ray angiography) in patients, in order to measure the precision with which the coronary arteries assume the same position beat after beat (coronary artery repositioning). We learned that intervals with minimal coronary artery repositioning occur in peak systole and in mid diastole and we responded with a new pulse sequence (T2~post) that is able to provide peak-systolic imaging. Such a sequence was tested in healthy volunteers and, from the image quality comparison, we learned that the proposed approach provides coronary artery visualization and contrast-to-noise ratio (CNR) comparable with the standard acquisition approach, but with increased signal-to-noise ratio (SNR). The second part of the thesis explored a completely new paradigm for whole- heart cardiovascular MRI. The proposed techniques acquires the data continuously (free-running), instead of being triggered, thus increasing the efficiency of the acquisition and providing four dimensional images of the whole heart, while respiratory self navigation allows for the scan to be performed in free breathing. This enabling technology allows for anatomical and functional evaluation in four dimensions, with high spatial and temporal resolution and without the need for contrast agent injection. The enabling step is the use of a golden-angle based 3D radial trajectory, which allows for a continuous sampling of the k-space and a retrospective selection of the timing parameters of the reconstructed dataset. The free-running 4D acquisition was then combined with a compressed sensing reconstruction algorithm that further increases the temporal resolution of the 4D dataset, while at the same time increasing the overall image quality by removing undersampling artifacts. The obtained 4D images provide visualization of the whole coronary artery tree in each phases of the cardiac cycle and, at the same time, allow for the assessment of the cardiac function with a single free- breathing scan. The quality of the coronary arteries provided by the frames of the free-running 4D acquisition is in line with the one obtained with the standard ECG-triggered one, and the cardiac function evaluation matched the one measured with gold-standard stack of 2D cine approaches. Finally, the last part of the thesis focused on the development of ultrashort echo time (UTE) acquisition scheme for in vivo detection of calcification in the coronary arteries. Recent studies showed that UTE imaging allows for the coronary artery plaque calcification ex vivo, since it is able to detect the short T2 components of the calcification. The heart motion, though, prevented this technique from being applied in vivo. An ECG-triggered self-navigated 3D radial triple- echo UTE acquisition has then been developed and tested in healthy volunteers. The proposed sequence combines a 3D self-navigation approach with a 3D radial UTE acquisition enabling data collection during free breathing. Three echoes are simultaneously acquired to extract the short T2 components of the calcification while a water and fat separation technique allows for proper visualization of the coronary arteries. Even though the results are still preliminary, the proposed sequence showed great potential for the in vivo visualization of coronary artery calcification. In conclusion, the thesis presents three novel MRI approaches aimed at improved characterization and assessment of atherosclerotic coronary artery disease. These approaches provide new anatomical and functional information in four dimensions, and support tissue characterization for coronary artery plaques.
Resumo:
Statistical properties of binary complex networks are well understood and recently many attempts have been made to extend this knowledge to weighted ones. There are, however, subtle yet important considerations to be made regarding the nature of the weights used in this generalization. Weights can be either continuous or discrete magnitudes, and in the latter case, they can additionally have undistinguishable or distinguishable nature. This fact has not been addressed in the literature insofar and has deep implications on the network statistics. In this work we face this problem introducing multiedge networks as graphs where multiple (distinguishable) connections between nodes are considered. We develop a statistical mechanics framework where it is possible to get information about the most relevant observables given a large spectrum of linear and nonlinear constraints including those depending both on the number of multiedges per link and their binary projection. The latter case is particularly interesting as we show that binary projections can be understood from multiedge processes. The implications of these results are important as many real-agent-based problems mapped onto graphs require this treatment for a proper characterization of their collective behavior.
Resumo:
OBJECTIVES: Specifically we aim to demonstrate that the results of our earlier safety data hold true in this much larger multi-national and multi-ethnical population. BACKGROUND: We sought to re-evaluate the frequency, manifestations, and severity of acute adverse reactions associated with administration of several gadolinium- based contrast agents during routine CMR on a European level. METHODS: Multi-centre, multi-national, and multi-ethnical registry with consecutive enrolment of patients in 57 European centres. RESULTS: During the current observation 37,788 doses of Gadolinium based contrast agent were administered to 37,788 patients. The mean dose was 24.7 ml (range 5-80 ml), which is equivalent to 0.123 mmol/kg (range 0.01 - 0.3 mmol/kg). Forty-five acute adverse reactions due to contrast administration occurred (0.12%). Most reactions were classified as mild (43 of 45) according to the American College of Radiology definition. The most frequent complaints following contrast administration were rashes and hives (15 of 45), followed by nausea (10 of 45) and flushes (10 of 45). The event rate ranged from 0.05% (linear non-ionic agent gadodiamide) to 0.42% (linear ionic agent gadobenate dimeglumine). Interestingly, we also found different event rates between the three main indications for CMR ranging from 0.05% (risk stratification in suspected CAD) to 0.22% (viability in known CAD). CONCLUSIONS: The current data indicate that the results of the earlier safety data hold true in this much larger multi-national and multi-ethnical population. Thus, the "off-label" use of Gadolinium based contrast in cardiovascular MR should be regarded as safe concerning the frequency, manifestation and severity of acute events.
Resumo:
Fluent health information flow is critical for clinical decision-making. However, a considerable part of this information is free-form text and inabilities to utilize it create risks to patient safety and cost-effective hospital administration. Methods for automated processing of clinical text are emerging. The aim in this doctoral dissertation is to study machine learning and clinical text in order to support health information flow.First, by analyzing the content of authentic patient records, the aim is to specify clinical needs in order to guide the development of machine learning applications.The contributions are a model of the ideal information flow,a model of the problems and challenges in reality, and a road map for the technology development. Second, by developing applications for practical cases,the aim is to concretize ways to support health information flow. Altogether five machine learning applications for three practical cases are described: The first two applications are binary classification and regression related to the practical case of topic labeling and relevance ranking.The third and fourth application are supervised and unsupervised multi-class classification for the practical case of topic segmentation and labeling.These four applications are tested with Finnish intensive care patient records.The fifth application is multi-label classification for the practical task of diagnosis coding. It is tested with English radiology reports.The performance of all these applications is promising. Third, the aim is to study how the quality of machine learning applications can be reliably evaluated.The associations between performance evaluation measures and methods are addressed,and a new hold-out method is introduced.This method contributes not only to processing time but also to the evaluation diversity and quality. The main conclusion is that developing machine learning applications for text requires interdisciplinary, international collaboration. Practical cases are very different, and hence the development must begin from genuine user needs and domain expertise. The technological expertise must cover linguistics,machine learning, and information systems. Finally, the methods must be evaluated both statistically and through authentic user-feedback.
Resumo:
The skill of programming is a key asset for every computer science student. Many studies have shown that this is a hard skill to learn and the outcomes of programming courses have often been substandard. Thus, a range of methods and tools have been developed to assist students’ learning processes. One of the biggest fields in computer science education is the use of visualizations as a learning aid and many visualization based tools have been developed to aid the learning process during last few decades. Studies conducted in this thesis focus on two different visualizationbased tools TRAKLA2 and ViLLE. This thesis includes results from multiple empirical studies about what kind of effects the introduction and usage of these tools have on students’ opinions and performance, and what kind of implications there are from a teacher’s point of view. The results from studies in this thesis show that students preferred to do web-based exercises, and felt that those exercises contributed to their learning. The usage of the tool motivated students to work harder during their course, which was shown in overall course performance and drop-out statistics. We have also shown that visualization-based tools can be used to enhance the learning process, and one of the key factors is the higher and active level of engagement (see. Engagement Taxonomy by Naps et al., 2002). The automatic grading accompanied with immediate feedback helps students to overcome obstacles during the learning process, and to grasp the key element in the learning task. These kinds of tools can help us to cope with the fact that many programming courses are overcrowded with limited teaching resources. These tools allows us to tackle this problem by utilizing automatic assessment in exercises that are most suitable to be done in the web (like tracing and simulation) since its supports students’ independent learning regardless of time and place. In summary, we can use our course’s resources more efficiently to increase the quality of the learning experience of the students and the teaching experience of the teacher, and even increase performance of the students. There are also methodological results from this thesis which contribute to developing insight into the conduct of empirical evaluations of new tools or techniques. When we evaluate a new tool, especially one accompanied with visualization, we need to give a proper introduction to it and to the graphical notation used by tool. The standard procedure should also include capturing the screen with audio to confirm that the participants of the experiment are doing what they are supposed to do. By taken such measures in the study of the learning impact of visualization support for learning, we can avoid drawing false conclusion from our experiments. As computer science educators, we face two important challenges. Firstly, we need to start to deliver the message in our own institution and all over the world about the new – scientifically proven – innovations in teaching like TRAKLA2 and ViLLE. Secondly, we have the relevant experience of conducting teaching related experiment, and thus we can support our colleagues to learn essential know-how of the research based improvement of their teaching. This change can transform academic teaching into publications and by utilizing this approach we can significantly increase the adoption of the new tools and techniques, and overall increase the knowledge of best-practices. In future, we need to combine our forces and tackle these universal and common problems together by creating multi-national and multiinstitutional research projects. We need to create a community and a platform in which we can share these best practices and at the same time conduct multi-national research projects easily.
Resumo:
In this work an agent based model (ABM) was proposed using the main idea from the Jabłonska-Capasso-Morale (JCM) model and maximized greediness concept. Using a multi-agents simulator, the power of the ABM was assessed by using the historical prices of silver metal dating from the 01.03.2000 to 01.03.2013. The model results, analysed in two different situations, with and without maximized greediness, have proven that the ABM is capable of explaining the silver price dynamics even in utmost events. The ABM without maximal greediness explained the prices with more irrationalities whereas the ABM with maximal greediness tracked the price movements with more rational decisions. In the comparison test, the model without maximal greediness stood as the best to capture the silver market dynamics. Therefore, the proposed ABM confirms the suggested reasons for financial crises or markets failure. It reveals that an economic or financial collapse may be stimulated by irrational and rational decisions, yet irrationalities may dominate the market.
Resumo:
I am a part-time graduate student who works in industry. This study is my narrative about how six workers and I describe shop-floor learning activities, that is learning activities that occur where work is done, outside a classroom. Because this study is narrative inquiry, you wilileam about me, the narrator, more than you would in a more conventional study. This is a common approach in narrative inquiry and it is important because my intentions shape the way that I tell these six workers' stories. I developed a typology of learning activities by synthesizing various theoretical frameworks. This typology categorizes shop-floor learning activities into five types: onthe- job training, participative learning, educational advertising, incidental learning, and self-directed learning. Although learning can occur in each of these activities in isolation, it is often comprised of a mixture of these activities. The literature review contains a number of cases that have been developed from situations described in the literature. These cases are here to make the similarities and differences between the types of learning activities that they represent more understandable to the reader and to ground the typology in practice as well as in theory. The findings are presented as reader's theatre, a dramatic presentation of these workers' narratives. The workers tell us that learning involves "being shown," and if this is not done properly they "learn the hard way." I found that many of their best case lean1ing activities involved on-the-job training, participative learning, incidentalleaming, and self-directed learning. Worst case examples were typically lacking in properly designed and delivered participative learning activities and to a lesser degree lacking carefully planned and delivered on-the-job training activities. Included are two reflective chapters that describe two cases: Learning "Engels" (English), and Learning to Write. In these chapters you will read about how I came to see that my own shop-floor learning-learning to write this thesis-could be enhanced through participative learning activities. I came to see my thesis supervisor as not only my instructor who directed and judged my learning activities, but also as a more experienced researcher who was there to participate in this process with me and to help me begin to enter the research community. Shop-floor learning involves learners and educators participating in multistranded learning activities, which require an organizational factor of careful planning and delivery. As with learning activities, which can be multi-stranded, so too, there can be multiple orientations to learning on the shop floor. In our stories, you will see that these six workers and I didn't exhibit just one orientation to learning in our stories. Our stories demonstrate that we could be behaviorist and cognitivist and humanist and social learners and constructivist in our orientation to learning. Our stories show that learning is complex and involves multiple strands, orientations, and factors. Our stories show that learning narratives capture the essence of learning-the learners, the educators, the learning activities, the organizational factors, and the learning orientations. Learning narratives can help learners and educators make sense of shop-floor learning.
Resumo:
At Brock University, the Faculty of Mathematics and Science currently has one of the highest percentages of students on academic probation, with many students reporting the most difficulty with Introductory Chemistry in first year and Organic Chemistry in second year. To identify strategies to improve students' performance and reduce the number of students on academic probation, a multi-year research project was undertaken involving several chemistry courses. Students were asked to complete three questionnaires, and provide consent to obtain their final Chemistry grade from the Registrar's Office. Research began at the end of the 2007-08 academic year with CHEM IPOO, and in the 2008-09 academic year, students in the larger CHEM IF92 Introductory Chemistry course were invited to participate in this research near the beginning of the academic year. Students who went on to take second year Organic and Analytical Chemistry were asked to complete these questionnaires in each second year course. The three questionnaires included the Kolb Learning Styles Inventory (Kolb, 1984) modified to include specific reference to Chemistry in each question, Dalgety, ColI, and Jones' (2002) Chemistry Attitudes and Experiences Questionnaire (CAEQ), and lastly, a demographic survey. Correlations were found between learning style and academic success; concrete learners were not as successful as abstract learners. Differences were noted between females and males with respect to learning styles, academic success, and confidence. Several differences were also noted between those who are the First in the Family to attend university and those who are not First in the Family to attend university.
Resumo:
Neither democracy nor globalization can explain the doubling of the peacetime public share in many Western countries between World Wars I and II. Here we examine two other explanations that are consistent with the timing of the observed changes, namely, (1) a shift in the demand for public goods and (2) the effect of war on the willingness to share. We first model each of these approaches as a contingency-learning phenomenon within Schelling’s Multi-Person Dilemma. We then derive verifiable propositions from each hypothesis. National time series of public spending as a share of GNP reveal no unit root but a break in trend, a result shown to favor explanation (2) over (1).
Resumo:
Pérez-Castrillo and Wettstein (2002) propose a multi-bidding mechanism to determine a winner from a set of possible projects. The winning project is implemented and its surplus is shared among the agents. In the multi-bidding mechanism each agent announces a vector of bids, one for each possible project, that are constrained to sum up to zero. In addition, each agent chooses a favorite a object which is used as a tie-breaker if several projects receive the same highest aggregate bid. Since more desirable projects receive larger bids, it is natural to consider the multi-bidding mechanism without the announcement of favorite projects. We show that the merits of the multi-bidding mechanism appear not to be robust to this natural simplification. Specifically, a Nash equilibrium exists if and only if there are at least two individually optimal projects and all individually optimal projects are efficient.
Resumo:
Cette thèse vise à comprendre comment et dans quelle mesure l’agrément des établissements de santé est-il efficace pour développer les capacités des acteurs, nécessaires pour améliorer la qualité des soins et des services. Au cours des dix dernières années, il y a eu une croissance rapide, à l'échelle mondiale de la mise en œuvre de programmes d'agrément en santé pour l’amélioration de la qualité. L'expérience de la dernière décennie prouve que l'agrément est une technique valable pour l'amélioration de la qualité dans beaucoup d’organismes de santé. Il est également utilisé pour soutenir les réformes en santé. Malgré cela, les outils de gestion comme l’agrément sont souvent critiqués, car elles sont adoptées avec enthousiasme négligeant fréquemment une implantation favorisant la mise en place de comportements durables et la démonstration de meilleurs résultats. Le développement des capacités (DC) est un processus délibéré, multidimensionnel, dynamique dont le but est d’améliorer la performance des individus, des équipes, de l’organisation et d’un système. Le DC constitue une des trois assises de l’implantation d’une démarche institutionnalisée de la qualité, au même niveau que la communication et la reconnaissance. Cette recherche c’est déroulée dans un organisme d’Arabie Saoudite dans le cadre de leur première démarche avec le Conseil canadien d’agrément (CCASS) des services de santé. Une étude de cas unique d’implantation de l’agrément a été menée utilisant une approche mixte. Quatre niveaux d’analyse ont été étudiés en détail (individu, équipe, organisation et système) afin de mesurer 28 effets escomptés du DC puisés dans la littérature. Des entretiens semi-structurés, des groupes de discussion, une revue de la documentation ont été réalisés. Dans le but de mesurer trois des effets escomptés, un questionnaire sur le niveau d’implantation de la qualité (NIQ) a été administré pour la première fois en Arabie Saoudite dans cinq organismes. La performance du cas a été évaluée en relation avec les autres et en fonction de son positionnement dans le cycle d’agrément. Des analyses qualitatives et quantitatives utilisant la technique de polissage par la médiane ont été exécutées. Au niveau des individus, l’agrément a motivé la participation à de nouvelles formations. L’auto-évaluation est l’étape qui encourage l’apprentissage par l’autocritique. Le sentiment de fierté est le changement affectif le plus souvent répertorié. Les équipes ont amélioré leur communication par l’implantation d’une « chaîne de commandement ». Elle a introduit des notions de respect et de clarté des rôles telles qu’exigées par les normes. Au moyen de la mesure du NIQ, nous avons constaté que la majorité des organismes saoudiens se positionnent au niveau minimal d’implantation (assurance qualité). Le plus expérimenté avec l’agrément démontre les meilleurs résultats tout près du second niveau. Enfin, plus les organismes progressent dans la démarche d’agrément, plus les écarts de perception entre les 8 domaines mesurés par le questionnaire du NIQ et entre les différentes catégories d’emploi s’amincissent. En conclusion, l’agrément a démontré de l’efficacité à développer de nouvelles capacités par l’intégration des transformations des individus et par l’impact de l’acquisition des nouvelles capacités sur le changement des pratiques, majoritairement au niveau des individus, des équipes et de l’organisation. Le processus d’agrément a également fait preuve d’importants pouvoirs de convergence au niveau de l’adoption des pratiques édictées par les normes d’agrément qui contribuent positivement à l’amélioration de la qualité.
Resumo:
Cette thèse porte sur une classe d'algorithmes d'apprentissage appelés architectures profondes. Il existe des résultats qui indiquent que les représentations peu profondes et locales ne sont pas suffisantes pour la modélisation des fonctions comportant plusieurs facteurs de variation. Nous sommes particulièrement intéressés par ce genre de données car nous espérons qu'un agent intelligent sera en mesure d'apprendre à les modéliser automatiquement; l'hypothèse est que les architectures profondes sont mieux adaptées pour les modéliser. Les travaux de Hinton (2006) furent une véritable percée, car l'idée d'utiliser un algorithme d'apprentissage non-supervisé, les machines de Boltzmann restreintes, pour l'initialisation des poids d'un réseau de neurones supervisé a été cruciale pour entraîner l'architecture profonde la plus populaire, soit les réseaux de neurones artificiels avec des poids totalement connectés. Cette idée a été reprise et reproduite avec succès dans plusieurs contextes et avec une variété de modèles. Dans le cadre de cette thèse, nous considérons les architectures profondes comme des biais inductifs. Ces biais sont représentés non seulement par les modèles eux-mêmes, mais aussi par les méthodes d'entraînement qui sont souvent utilisés en conjonction avec ceux-ci. Nous désirons définir les raisons pour lesquelles cette classe de fonctions généralise bien, les situations auxquelles ces fonctions pourront être appliquées, ainsi que les descriptions qualitatives de telles fonctions. L'objectif de cette thèse est d'obtenir une meilleure compréhension du succès des architectures profondes. Dans le premier article, nous testons la concordance entre nos intuitions---que les réseaux profonds sont nécessaires pour mieux apprendre avec des données comportant plusieurs facteurs de variation---et les résultats empiriques. Le second article est une étude approfondie de la question: pourquoi l'apprentissage non-supervisé aide à mieux généraliser dans un réseau profond? Nous explorons et évaluons plusieurs hypothèses tentant d'élucider le fonctionnement de ces modèles. Finalement, le troisième article cherche à définir de façon qualitative les fonctions modélisées par un réseau profond. Ces visualisations facilitent l'interprétation des représentations et invariances modélisées par une architecture profonde.
Resumo:
Les tendances de la participation à la formation des adultes au Canada n’ont pas évolué depuis des décennies, malgré les nouvelles influences économiques qui ont stimulé l’augmentation et la diversification permanente de la formation des employés et malgré les initiatives plus nombreuses en faveur de l’apprentissage des employés en milieu de travail. Il est donc nécessaire de ne plus se contenter d’étudier les prédicteurs de la formation déjà connus dans les profils des employés et des employeurs. Il est, en revanche, indispensable d’étudier les antécédents de la participation des employés à la formation, y compris les aspects et les étapes du processus qui la précède. Cette étude porte sur les antécédents de la participation des employés aux formations dans un important collège communautaire urbain en Ontario. Afin de préparer le recueil des données, un cadre théorique a été élaboré à partir du concept d’expression de la demande. Ce cadre implique l’existence d’un processus qui comporte plusieurs étapes, au cours desquelles plusieurs intervenants interagissent et dont la formation est susceptible d’être le résultat. Les résultats de l’enquête sur le profil d’apprentissage ont permis de conclure que le comportement des employés et de l’employeur est conforme aux modèles de prédicteurs existants et que les taux et les types de participation étaient similaires aux tendances nationales et internationales. L’analyse des entrevues d’un groupe d’employés atypiques, de leurs superviseurs, ainsi que de représentants du collège et du syndicat, a révélé d’importants thèmes clés : l’expression de la demande n’est pas structurée et elle est communiquée par plusieurs canaux, en excluant parfois les superviseurs. De plus, la place de l’auto évaluation est importante, ainsi que la phase de prise de décision. Ces thèmes ont souligné l’interaction de plusieurs intervenants dans le processus d’expression de la demande d’apprentissage et pendant la prise de décision. L’examen des attentes de chacun de ces intervenants au cours de ce processus nous a permis de découvrir un désir tacite chez les superviseurs et les employés, à savoir que la conversation soit à l’initiative de « l’autre ». Ces thèmes clés ont été ensuite abordés dans une discussion qui a révélé une discordance entre le profil de l’employeur et les profils des employés. Celle-ci se prête à la correction par l’employeur de son profil institutionnel pour l’harmoniser avec le profil dispositionnel des employés et optimiser ainsi vraisemblablement son offre de formation. Ils doivent, pour cela, appliquer un processus plus systématique et plus structuré, doté de meilleurs outils. La discussion a porté finalement sur les effets des motivations économiques sur la participation des employés et a permis de conclure que, bien que les employés ne semblent pas se méfier de l’offre de formation de l’employeur et que celle ci ne semble pas non plus les décourager, des questions de pouvoir sont bel et bien en jeu. Elles se sont principalement manifestées pendant le processus de prise de décision et, à cet égard, les superviseurs comme les employés reconnaissent qu’un processus plus structuré serait bénéfique, puisqu’il atténuerait les problèmes d’asymétrie et d’ambiguïté. Les constatations de cette étude sont pertinentes pour le secteur de la formation des adultes et de la formation en milieu de travail et, plus particulièrement, pour la méthodologie de recherche. Nous avons constaté l’avantage d’une méthodologie à deux volets, à l’écoute de l’employeur et des employés, afin de mieux comprendre la relation entre l’offre de formation et la participation à la formation. La définition des antécédents de la participation sous la forme d’un processus dans lequel plusieurs intervenants remplissent plusieurs rôles a permis de créer un modèle plus détaillé qui servira à la recherche future. Ce dernier a démontré qu’il est indispensable de reconnaître que la prise de décision constitue une étape à part entière, située entre l’expression de la demande et la participation à la formation. Ces constatations ont également révélé qu’il est véritablement indispensable que le secteur de la formation des adultes continue à traiter les questions reliées à la reconnaissance de la formation informelle. Ces conclusions et la discussion sur les constatations clés nous ont inspiré des recommandations à appliquer pour modifier les retombées du processus précédant la participation des employés à la formation. La majorité de ces recommandations ont trait à l’infrastructure de ce processus et ciblent donc principalement l’employeur. Certaines recommandations sont cependant destinées aux syndicats, aux superviseurs et aux employés qui peuvent aider l’employeur à remplir son rôle et favoriser la participation efficace de tous à ce processus. Les recommandations qui précédent impliquent que ce sont les antécédents de la formation qui gagneraient à être plus structurés et non la formation elle même. La structuration de l’infrastructure de l’apprentissage présente cependant des risques à elle seule. En liaison avec ce phénomène, une étude spécifique des effets de la nature, de la qualité et de l’asymétrie de la relation superviseur employé sur la participation des employés à la formation serait bénéfique. Mots clés : formation en entreprise, formation professionnelle continue, antécédents à la participation, employés de soutien
Resumo:
Quand le E-learning a émergé il ya 20 ans, cela consistait simplement en un texte affiché sur un écran d'ordinateur, comme un livre. Avec les changements et les progrès dans la technologie, le E-learning a parcouru un long chemin, maintenant offrant un matériel éducatif personnalisé, interactif et riche en contenu. Aujourd'hui, le E-learning se transforme de nouveau. En effet, avec la prolifération des systèmes d'apprentissage électronique et des outils d'édition de contenu éducatif, ainsi que les normes établies, c’est devenu plus facile de partager et de réutiliser le contenu d'apprentissage. En outre, avec le passage à des méthodes d'enseignement centrées sur l'apprenant, en plus de l'effet des techniques et technologies Web2.0, les apprenants ne sont plus seulement les récipiendaires du contenu d'apprentissage, mais peuvent jouer un rôle plus actif dans l'enrichissement de ce contenu. Par ailleurs, avec la quantité d'informations que les systèmes E-learning peuvent accumuler sur les apprenants, et l'impact que cela peut avoir sur leur vie privée, des préoccupations sont soulevées afin de protéger la vie privée des apprenants. Au meilleur de nos connaissances, il n'existe pas de solutions existantes qui prennent en charge les différents problèmes soulevés par ces changements. Dans ce travail, nous abordons ces questions en présentant Cadmus, SHAREK, et le E-learning préservant la vie privée. Plus précisément, Cadmus est une plateforme web, conforme au standard IMS QTI, offrant un cadre et des outils adéquats pour permettre à des tuteurs de créer et partager des questions de tests et des examens. Plus précisément, Cadmus fournit des modules telles que EQRS (Exam Question Recommender System) pour aider les tuteurs à localiser des questions appropriées pour leur examens, ICE (Identification of Conflits in Exams) pour aider à résoudre les conflits entre les questions contenu dans un même examen, et le Topic Tree, conçu pour aider les tuteurs à mieux organiser leurs questions d'examen et à assurer facilement la couverture des différent sujets contenus dans les examens. D'autre part, SHAREK (Sharing REsources and Knowledge) fournit un cadre pour pouvoir profiter du meilleur des deux mondes : la solidité des systèmes E-learning et la flexibilité de PLE (Personal Learning Environment) tout en permettant aux apprenants d'enrichir le contenu d'apprentissage, et les aider à localiser nouvelles ressources d'apprentissage. Plus précisément, SHAREK combine un système recommandation multicritères, ainsi que des techniques et des technologies Web2.0, tels que le RSS et le web social, pour promouvoir de nouvelles ressources d'apprentissage et aider les apprenants à localiser du contenu adapté. Finalement, afin de répondre aux divers besoins de la vie privée dans le E-learning, nous proposons un cadre avec quatre niveaux de vie privée, ainsi que quatre niveaux de traçabilité. De plus, nous présentons ACES (Anonymous Credentials for E-learning Systems), un ensemble de protocoles, basés sur des techniques cryptographiques bien établies, afin d'aider les apprenants à atteindre leur niveau de vie privée désiré.
Resumo:
La thèse comporte trois essais en microéconomie appliquée. En utilisant des modèles d’apprentissage (learning) et d’externalité de réseau, elle étudie le comportement des agents économiques dans différentes situations. Le premier essai de la thèse se penche sur la question de l’utilisation des ressources naturelles en situation d’incertitude et d’apprentissage (learning). Plusieurs auteurs ont abordé le sujet, mais ici, nous étudions un modèle d’apprentissage dans lequel les agents qui consomment la ressource ne formulent pas les mêmes croyances a priori. Le deuxième essai aborde le problème générique auquel fait face, par exemple, un fonds de recherche désirant choisir les meilleurs parmi plusieurs chercheurs de différentes générations et de différentes expériences. Le troisième essai étudie un modèle particulier d’organisation d’entreprise dénommé le marketing multiniveau (multi-level marketing). Le premier chapitre est intitulé "Renewable Resource Consumption in a Learning Environment with Heterogeneous beliefs". Nous y avons utilisé un modèle d’apprentissage avec croyances hétérogènes pour étudier l’exploitation d’une ressource naturelle en situation d’incertitude. Il faut distinguer ici deux types d’apprentissage : le adaptive learning et le learning proprement dit. Ces deux termes ont été empruntés à Koulovatianos et al (2009). Nous avons montré que, en comparaison avec le adaptive learning, le learning a un impact négatif sur la consommation totale par tous les exploitants de la ressource. Mais individuellement certains exploitants peuvent consommer plus la ressource en learning qu’en adaptive learning. En effet, en learning, les consommateurs font face à deux types d’incitations à ne pas consommer la ressource (et donc à investir) : l’incitation propre qui a toujours un effet négatif sur la consommation de la ressource et l’incitation hétérogène dont l’effet peut être positif ou négatif. L’effet global du learning sur la consommation individuelle dépend donc du signe et de l’ampleur de l’incitation hétérogène. Par ailleurs, en utilisant les variations absolues et relatives de la consommation suite à un changement des croyances, il ressort que les exploitants ont tendance à converger vers une décision commune. Le second chapitre est intitulé "A Perpetual Search for Talent across Overlapping Generations". Avec un modèle dynamique à générations imbriquées, nous avons étudié iv comment un Fonds de recherche devra procéder pour sélectionner les meilleurs chercheurs à financer. Les chercheurs n’ont pas la même "ancienneté" dans l’activité de recherche. Pour une décision optimale, le Fonds de recherche doit se baser à la fois sur l’ancienneté et les travaux passés des chercheurs ayant soumis une demande de subvention de recherche. Il doit être plus favorable aux jeunes chercheurs quant aux exigences à satisfaire pour être financé. Ce travail est également une contribution à l’analyse des Bandit Problems. Ici, au lieu de tenter de calculer un indice, nous proposons de classer et d’éliminer progressivement les chercheurs en les comparant deux à deux. Le troisième chapitre est intitulé "Paradox about the Multi-Level Marketing (MLM)". Depuis quelques décennies, on rencontre de plus en plus une forme particulière d’entreprises dans lesquelles le produit est commercialisé par le biais de distributeurs. Chaque distributeur peut vendre le produit et/ou recruter d’autres distributeurs pour l’entreprise. Il réalise des profits sur ses propres ventes et reçoit aussi des commissions sur la vente des distributeurs qu’il aura recrutés. Il s’agit du marketing multi-niveau (multi-level marketing, MLM). La structure de ces types d’entreprise est souvent qualifiée par certaines critiques de système pyramidal, d’escroquerie et donc insoutenable. Mais les promoteurs des marketing multi-niveau rejettent ces allégations en avançant que le but des MLMs est de vendre et non de recruter. Les gains et les règles de jeu sont tels que les distributeurs ont plus incitation à vendre le produit qu’à recruter. Toutefois, si cette argumentation des promoteurs de MLMs est valide, un paradoxe apparaît. Pourquoi un distributeur qui désire vraiment vendre le produit et réaliser un gain recruterait-il d’autres individus qui viendront opérer sur le même marché que lui? Comment comprendre le fait qu’un agent puisse recruter des personnes qui pourraient devenir ses concurrents, alors qu’il est déjà établi que tout entrepreneur évite et même combat la concurrence. C’est à ce type de question que s’intéresse ce chapitre. Pour expliquer ce paradoxe, nous avons utilisé la structure intrinsèque des organisations MLM. En réalité, pour être capable de bien vendre, le distributeur devra recruter. Les commissions perçues avec le recrutement donnent un pouvoir de vente en ce sens qu’elles permettent au recruteur d’être capable de proposer un prix compétitif pour le produit qu’il désire vendre. Par ailleurs, les MLMs ont une structure semblable à celle des multi-sided markets au sens de Rochet et Tirole (2003, 2006) et Weyl (2010). Le recrutement a un effet externe sur la vente et la vente a un effet externe sur le recrutement, et tout cela est géré par le promoteur de l’organisation. Ainsi, si le promoteur ne tient pas compte de ces externalités dans la fixation des différentes commissions, les agents peuvent se tourner plus ou moins vers le recrutement.