865 resultados para Associative classifier
Resumo:
L'interface cerveau-ordinateur (ICO) décode les signaux électriques du cerveau requise par l’électroencéphalographie et transforme ces signaux en commande pour contrôler un appareil ou un logiciel. Un nombre limité de tâches mentales ont été détectés et classifier par différents groupes de recherche. D’autres types de contrôle, par exemple l’exécution d'un mouvement du pied, réel ou imaginaire, peut modifier les ondes cérébrales du cortex moteur. Nous avons utilisé un ICO pour déterminer si nous pouvions faire une classification entre la navigation de type marche avant et arrière, en temps réel et en temps différé, en utilisant différentes méthodes. Dix personnes en bonne santé ont participé à l’expérience sur les ICO dans un tunnel virtuel. L’expérience fut a était divisé en deux séances (48 min chaque). Chaque séance comprenait 320 essais. On a demandé au sujets d’imaginer un déplacement avant ou arrière dans le tunnel virtuel de façon aléatoire d’après une commande écrite sur l'écran. Les essais ont été menés avec feedback. Trois électrodes ont été montées sur le scalp, vis-à-vis du cortex moteur. Durant la 1re séance, la classification des deux taches (navigation avant et arrière) a été réalisée par les méthodes de puissance de bande, de représentation temporel-fréquence, des modèles autorégressifs et des rapports d’asymétrie du rythme β avec classificateurs d’analyse discriminante linéaire et SVM. Les seuils ont été calculés en temps différé pour former des signaux de contrôle qui ont été utilisés en temps réel durant la 2e séance afin d’initier, par les ondes cérébrales de l'utilisateur, le déplacement du tunnel virtuel dans le sens demandé. Après 96 min d'entrainement, la méthode « online biofeedback » de la puissance de bande a atteint une précision de classification moyenne de 76 %, et la classification en temps différé avec les rapports d’asymétrie et puissance de bande, a atteint une précision de classification d’environ 80 %.
Resumo:
L’état d’attention sans réflexion, aussi appelé « mindfulness », a démontré des effets positifs en clinique pour les désordres émotionnels associés à diverses conditions. Le nombre d’études portant sur la caractérisation des substrats neuronaux de cet état attentionnel croît, mais il importe d’investiguer davantage à ce chapitre pour éventuellement améliorer les interventions cliniques. La présente étude compte aider à déterminer, par la magnétoencéphalographie, quelles régions cérébrales sont en corrélation avec le mindfulness chez des experts, i.e. des méditants Zen. Ces derniers cultivent un état dans lequel ils s’abstiennent de rechercher ou de rejeter les phénomènes sensoriels, ce qui en fait d’excellents candidats à la présente étude. Dans un contexte de stimulations visuelles émotionnelles, il fut demandé aux méditants tantôt d’observer les images dans un état de mindfulness (condition expérimentale), tantôt dans un état dit normal (condition contrôle) où aucun effort particulier d’attention n’était requis. Les résultats d’analyse suggèrent que les participants expérimentèrent une intensité émotionnelle moins importante en mindfulness : les cotes subjectives ainsi qu’une réponse magnétique cérébrale reliée aux émotions nommée Potentiel Positif Tardif magnétique (PPTm) suggèrent cela. Cependant, le résultat le plus statistiquement probant dépasse la nature affective des stimuli. Il s’agit d’une diminution temporellement soutenue de l’activité de fréquence gamma au niveau des zones visuelles associatives du lobe temporal droit, sans égard à la nature des images. Également, une suppression de l’activité gamma d’une zone du cortex préfrontal latéral gauche fut observée. Ceci pourrait indiquer une diminution de la conceptualisation des stimuli reliée au langage et aux processus réflectifs du soi.
Resumo:
S.O.
Resumo:
Ce mémoire de maîtrise présente une nouvelle approche non supervisée pour détecter et segmenter les régions urbaines dans les images hyperspectrales. La méthode proposée n ́ecessite trois étapes. Tout d’abord, afin de réduire le coût calculatoire de notre algorithme, une image couleur du contenu spectral est estimée. A cette fin, une étape de réduction de dimensionalité non-linéaire, basée sur deux critères complémentaires mais contradictoires de bonne visualisation; à savoir la précision et le contraste, est réalisée pour l’affichage couleur de chaque image hyperspectrale. Ensuite, pour discriminer les régions urbaines des régions non urbaines, la seconde étape consiste à extraire quelques caractéristiques discriminantes (et complémentaires) sur cette image hyperspectrale couleur. A cette fin, nous avons extrait une série de paramètres discriminants pour décrire les caractéristiques d’une zone urbaine, principalement composée d’objets manufacturés de formes simples g ́eométriques et régulières. Nous avons utilisé des caractéristiques texturales basées sur les niveaux de gris, la magnitude du gradient ou des paramètres issus de la matrice de co-occurrence combinés avec des caractéristiques structurelles basées sur l’orientation locale du gradient de l’image et la détection locale de segments de droites. Afin de réduire encore la complexité de calcul de notre approche et éviter le problème de la ”malédiction de la dimensionnalité” quand on décide de regrouper des données de dimensions élevées, nous avons décidé de classifier individuellement, dans la dernière étape, chaque caractéristique texturale ou structurelle avec une simple procédure de K-moyennes et ensuite de combiner ces segmentations grossières, obtenues à faible coût, avec un modèle efficace de fusion de cartes de segmentations. Les expérimentations données dans ce rapport montrent que cette stratégie est efficace visuellement et se compare favorablement aux autres méthodes de détection et segmentation de zones urbaines à partir d’images hyperspectrales.
Resumo:
Objectif : Cette thèse a pour objectif de mieux comprendre l’effet du stress sur la douleur aiguë et chronique. Devis expérimental : 16 patients souffrant de douleur chronique lombalgique et 18 sujets contrôles ont participé à une étude d’imagerie par résonance magnétique (IRM) et ont collecté des échantillons de salive afin de quantifier les niveaux d’hormone de stress (i.e. cortisol) la journée de l’étude (réponse réactive) et durant les sept jours consécutifs suivants (réponse basale). Étude 1 : Une première étude a examiné le lien entre les niveaux de cortisol basal, le volume de l’hippocampe et l’activité cérébrale évoquée par la douleur thermique chez des patients souffrant de douleur chronique et les sujets contrôles. Les résultats révèlent que les patients souffrant de douleur chronique avaient des niveaux de cortisol plus élevés que ceux des sujets contrôles. Chez ces patients, un niveau élevé de cortisol était associé à un plus petit volume de l'hippocampe et à davantage d’activation dans le gyrus parahippocampique antérieure (une région impliquée dans l'anxiété anticipatoire et l'apprentissage associatif). De plus, une analyse de médiation a montré que le niveau de cortisol basal et la force de la réponse parahippocampique explique statistiquement l’association négative entre le volume de l'hippocampe et l'intensité de la douleur chronique. Ces résultats suggèrent que l’activité endocrinienne plus élevée chez les patients ayant un plus petit hippocampe modifie le fonctionnement du complexe hippocampique et contribue à l’intensité de la douleur chronique. Étude 2 : La deuxième étude a évalué la contribution de la réponse de stress réactif aux différences interindividuelles dans la perception de la douleur aiguë chez des patients souffrant de douleur chronique et chez des sujets normaux. Les deux groupes ont montré des augmentations significatives du niveau de cortisol en réponse à des stimulations nocives administrées dans un contexte d’IRM suggérant ainsi que la réactivité de l’axe hypothalamo-hypophyso-surrénalien est préservée chez les patients lombalgiques. De plus, les individus présentant une réponse hormonale de stress plus forte ont rapporté moins de douleur et ont montré une réduction de l'activation cérébrale dans le noyau accumbens, dans le cortex cingulaire antérieur (CCA), le cortex somatosensoriel primaire, et l'insula postérieure. Des analyses de médiation ont indiqué que la douleur liée à l'activité du CCA explique statistiquement la relation entre la réponse de stress et le désagrément de la douleur rapportée par les participants. Enfin, des analyses complémentaires ont révélé que le stress réduit la connectivité fonctionnelle entre le CCA et le tronc cérébral pendant la douleur aiguë. Ces résultats indiquent que le stress réactif module la douleur et contribue à la variabilité interindividuelle de l'activité cérébrale et la réponse affective à la douleur. Discussion : Conjointement, ces études suggèrent dans un premier temps que la douleur chronique peut être exacerbée par une réponse physiologique inadéquate de l'organisme exposé à un stress récurrent, et en un second temps, que le CCA contribuerait à l'analgésie induite par le stress. Sur le plan conceptuel, ces études renforcent le point de vue prédominant suggérant que la douleur chronique induit des changements dans les systèmes cérébraux régissant les fonctions motivationnelles et affective de la douleur.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
The work done in this master's thesis, presents a new system for the recognition of human actions from a video sequence. The system uses, as input, a video sequence taken by a static camera. A binary segmentation method of the the video sequence is first achieved, by a learning algorithm, in order to detect and extract the different people from the background. To recognize an action, the system then exploits a set of prototypes generated from an MDS-based dimensionality reduction technique, from two different points of view in the video sequence. This dimensionality reduction technique, according to two different viewpoints, allows us to model each human action of the training base with a set of prototypes (supposed to be similar for each class) represented in a low dimensional non-linear space. The prototypes, extracted according to the two viewpoints, are fed to a $K$-NN classifier which allows us to identify the human action that takes place in the video sequence. The experiments of our model conducted on the Weizmann dataset of human actions provide interesting results compared to the other state-of-the art (and often more complicated) methods. These experiments show first the sensitivity of our model for each viewpoint and its effectiveness to recognize the different actions, with a variable but satisfactory recognition rate and also the results obtained by the fusion of these two points of view, which allows us to achieve a high performance recognition rate.
Resumo:
Les dinoflagellés sont des eucaryotes unicellulaires que l’on retrouve autant en eau douce qu’en milieu marin. Ils sont particulièrement connus pour causer des fleurs d’algues toxiques nommées ‘marée-rouge’, ainsi que pour leur symbiose avec les coraux et pour leur importante contribution à la fixation du carbone dans les océans. Au point de vue moléculaire, ils sont aussi connus pour leur caractéristiques nucléaires uniques, car on retrouve généralement une quantité immense d’ADN dans leurs chromosomes et ceux-ci sont empaquetés et condensés sous une forme cristalline liquide au lieu de nucléosomes. Les gènes encodés par le noyau sont souvent présents en multiples copies et arrangés en tandem et aucun élément de régulation transcriptionnelle, y compris la boite TATA, n’a encore été observé. L’organisation unique de la chromatine des dinoflagellés suggère que différentes stratégies sont nécessaires pour contrôler l’expression des gènes de ces organismes. Dans cette étude, j’ai abordé ce problème en utilisant le dinoflagellé photosynthétique Lingulodinium polyedrum comme modèle. L. polyedrum est d’un intérêt particulier, car il a plusieurs rythmes circadiens (journalier). À ce jour, toutes les études sur l’expression des gènes lors des changements circadiens ont démontrées une régulation à un niveau traductionnel. Pour mes recherches, j’ai utilisé les approches transcriptomique, protéomique et phosphoprotéomique ainsi que des études biochimiques pour donner un aperçu de la mécanique de la régulation des gènes des dinoflagellés, ceci en mettant l’accent sur l’importance de la phosphorylation du système circadien de L. polyedrum. L’absence des protéines histones et des nucléosomes est une particularité des dinoflagellés. En utilisant la technologie RNA-Seq, j’ai trouvé des séquences complètes encodant des histones et des enzymes modifiant les histones. L polyedrum exprime donc des séquences conservées codantes pour les histones, mais le niveau d’expression protéique est plus faible que les limites de détection par immunodétection de type Western. Les données de séquençage RNA-Seq ont également été utilisées pour générer un transcriptome, qui est une liste des gènes exprimés par L. polyedrum. Une recherche par homologie de séquences a d’abord été effectuée pour classifier les transcrits en diverses catégories (Gene Ontology; GO). Cette analyse a révélé une faible abondance des facteurs de transcription et une surprenante prédominance, parmi ceux-ci, des séquences à domaine Cold Shock. Chez L. polyedrum, plusieurs gènes sont répétés en tandem. Un alignement des séquences obtenues par RNA-Seq avec les copies génomiques de gènes organisés en tandem a été réalisé pour examiner la présence de transcrits polycistroniques, une hypothèse formulée pour expliquer le manque d’élément promoteur dans la région intergénique de la séquence de ces gènes. Cette analyse a également démontré une très haute conservation des séquences codantes des gènes organisés en tandem. Le transcriptome a également été utilisé pour aider à l’identification de protéines après leur séquençage par spectrométrie de masse, et une fraction enrichie en phosphoprotéines a été déterminée comme particulièrement bien adapté aux approches d’analyse à haut débit. La comparaison des phosphoprotéomes provenant de deux périodes différentes de la journée a révélée qu’une grande partie des protéines pour lesquelles l’état de phosphorylation varie avec le temps est reliées aux catégories de liaison à l’ARN et de la traduction. Le transcriptome a aussi été utilisé pour définir le spectre des kinases présentes chez L. polyedrum, qui a ensuite été utilisé pour classifier les différents peptides phosphorylés qui sont potentiellement les cibles de ces kinases. Plusieurs peptides identifiés comme étant phosphorylés par la Casein Kinase 2 (CK2), une kinase connue pour être impliquée dans l’horloge circadienne des eucaryotes, proviennent de diverses protéines de liaison à l’ARN. Pour évaluer la possibilité que quelques-unes des multiples protéines à domaine Cold Shock identifiées dans le transcriptome puissent moduler l’expression des gènes de L. polyedrum, tel qu’observé chez plusieurs autres systèmes procaryotiques et eucaryotiques, la réponse des cellules à des températures froides a été examinée. Les températures froides ont permis d’induire rapidement un enkystement, condition dans laquelle ces cellules deviennent métaboliquement inactives afin de résister aux conditions environnementales défavorables. Les changements dans le profil des phosphoprotéines seraient le facteur majeur causant la formation de kystes. Les phosphosites prédits pour être phosphorylés par la CK2 sont la classe la plus fortement réduite dans les kystes, une découverte intéressante, car le rythme de la bioluminescence confirme que l’horloge a été arrêtée dans le kyste.
Resumo:
La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée.
Resumo:
L’apprentissage supervisé de réseaux hiérarchiques à grande échelle connaît présentement un succès fulgurant. Malgré cette effervescence, l’apprentissage non-supervisé représente toujours, selon plusieurs chercheurs, un élément clé de l’Intelligence Artificielle, où les agents doivent apprendre à partir d’un nombre potentiellement limité de données. Cette thèse s’inscrit dans cette pensée et aborde divers sujets de recherche liés au problème d’estimation de densité par l’entremise des machines de Boltzmann (BM), modèles graphiques probabilistes au coeur de l’apprentissage profond. Nos contributions touchent les domaines de l’échantillonnage, l’estimation de fonctions de partition, l’optimisation ainsi que l’apprentissage de représentations invariantes. Cette thèse débute par l’exposition d’un nouvel algorithme d'échantillonnage adaptatif, qui ajuste (de fa ̧con automatique) la température des chaînes de Markov sous simulation, afin de maintenir une vitesse de convergence élevée tout au long de l’apprentissage. Lorsqu’utilisé dans le contexte de l’apprentissage par maximum de vraisemblance stochastique (SML), notre algorithme engendre une robustesse accrue face à la sélection du taux d’apprentissage, ainsi qu’une meilleure vitesse de convergence. Nos résultats sont présent ́es dans le domaine des BMs, mais la méthode est générale et applicable à l’apprentissage de tout modèle probabiliste exploitant l’échantillonnage par chaînes de Markov. Tandis que le gradient du maximum de vraisemblance peut-être approximé par échantillonnage, l’évaluation de la log-vraisemblance nécessite un estimé de la fonction de partition. Contrairement aux approches traditionnelles qui considèrent un modèle donné comme une boîte noire, nous proposons plutôt d’exploiter la dynamique de l’apprentissage en estimant les changements successifs de log-partition encourus à chaque mise à jour des paramètres. Le problème d’estimation est reformulé comme un problème d’inférence similaire au filtre de Kalman, mais sur un graphe bi-dimensionnel, où les dimensions correspondent aux axes du temps et au paramètre de température. Sur le thème de l’optimisation, nous présentons également un algorithme permettant d’appliquer, de manière efficace, le gradient naturel à des machines de Boltzmann comportant des milliers d’unités. Jusqu’à présent, son adoption était limitée par son haut coût computationel ainsi que sa demande en mémoire. Notre algorithme, Metric-Free Natural Gradient (MFNG), permet d’éviter le calcul explicite de la matrice d’information de Fisher (et son inverse) en exploitant un solveur linéaire combiné à un produit matrice-vecteur efficace. L’algorithme est prometteur: en terme du nombre d’évaluations de fonctions, MFNG converge plus rapidement que SML. Son implémentation demeure malheureusement inefficace en temps de calcul. Ces travaux explorent également les mécanismes sous-jacents à l’apprentissage de représentations invariantes. À cette fin, nous utilisons la famille de machines de Boltzmann restreintes “spike & slab” (ssRBM), que nous modifions afin de pouvoir modéliser des distributions binaires et parcimonieuses. Les variables latentes binaires de la ssRBM peuvent être rendues invariantes à un sous-espace vectoriel, en associant à chacune d’elles, un vecteur de variables latentes continues (dénommées “slabs”). Ceci se traduit par une invariance accrue au niveau de la représentation et un meilleur taux de classification lorsque peu de données étiquetées sont disponibles. Nous terminons cette thèse sur un sujet ambitieux: l’apprentissage de représentations pouvant séparer les facteurs de variations présents dans le signal d’entrée. Nous proposons une solution à base de ssRBM bilinéaire (avec deux groupes de facteurs latents) et formulons le problème comme l’un de “pooling” dans des sous-espaces vectoriels complémentaires.
Resumo:
Dans la sémantique des cadres de Fillmore, les mots prennent leur sens par rapport au contexte événementiel ou situationnel dans lequel ils s’inscrivent. FrameNet, une ressource lexicale pour l’anglais, définit environ 1000 cadres conceptuels, couvrant l’essentiel des contextes possibles. Dans un cadre conceptuel, un prédicat appelle des arguments pour remplir les différents rôles sémantiques associés au cadre (par exemple : Victime, Manière, Receveur, Locuteur). Nous cherchons à annoter automatiquement ces rôles sémantiques, étant donné le cadre sémantique et le prédicat. Pour cela, nous entrainons un algorithme d’apprentissage machine sur des arguments dont le rôle est connu, pour généraliser aux arguments dont le rôle est inconnu. On utilisera notamment des propriétés lexicales de proximité sémantique des mots les plus représentatifs des arguments, en particulier en utilisant des représentations vectorielles des mots du lexique.
Resumo:
Port-au-Prince, la ville la plus peuplée des Caraïbes est ceinturée de quartiers précaires connus sous l’appellation de bidonvilles. Ces quartiers construits généralement sur des terrains dangereux, envahis par une population en quête de logement, abritent la plus forte proportion des habitants de la ville. Ils constituent en même temps des lieux d’observation de l’inimaginable capacité des populations locales à garantir l’accès à certains services. À travers l’action d’une association locale évoluant à Village solidarité dans la zone métropolitaine de Port-au-Prince, nous avons étudié les apports et les limites des stratégies utilisées dans l’organisation de services publics d’électricité. L’analyse repose fondamentalement sur une approche de développement local reposant sur cinq notions complémentaires et interreliées qui sont les suivantes : le projet commun, l’appartenance et l’identité collective, les ressources, le leadership, l’opportunité politique. Les résultats de la recherche font état d’un projet commun aux contours assez flous qui reflète des insuffisances au niveau des modes de pensée, et au niveau des ressources matérielles et financières mises en jeu. Le style de leadership en place au sein de l’association est teinté de déterminisme religieux, pris au piège des manœuvres clientélistes des politiciens locaux et infantilisé par l’action des agences gouvernementales. A la fin de l’étude nous dégageons des pistes pour dynamiser les forces du milieu et réorienter l’action associative afin d’aller vers un projet collectif. Ces pistes reposent fondamentalement sur la transformation des modes de pensée influençant l’action et la transformation des pratiques organisationnelles.
Resumo:
Notre analyse du rôle de l’association La ronde des poètes dans la lutte pour l’autonomie de la littérature camerounaise s’est appuyée sur l’approche sociologique de Pierre Bourdieu pour qui la société est constituée de champs spécifiques en lutte les uns contre les autres pour atteindre un statut privilégié dans le champ social, ce qui constitue un aspect de leur autonomie. Selon Bourdieu, l’étude des manifestations de l’autonomie des champs littéraires devrait tenir compte de toutes les actions entreprises par les agents dudit champ. En effet, ces différentes actions ne sont que des stratégies de lutte. Seulement, d’après Jacques Dubois, l’autonomie des littératures nationales n’est acquise que lorsque celles-ci possèdent un appareil institutionnel propre capable d’assurer seul la production et la diffusion des œuvres, la légitimation et la consécration des écrivains. Si toutes ces conditions réunies échappent encore à plusieurs littératures de l’Afrique subsaharienne, il n’en demeure pas moins que ces dernières sont engagées dans un processus de lutte pour leur autonomie, ce que prouve l’exemple de La ronde des poètes, notre prétexte pour observer les manifestations de l’autonomie au sein du champ littéraire camerounais. Les stratégies de lutte de La ronde des poètes sont d’émergence et de fonctionnement. Pour le premier cas, la formule associative qui donne plus de possibilités que ne pourrait avoir un auteur isolé, le choix de la poésie aussi qui est un genre dont la production des œuvres ne nécessite pas de gros moyens financiers, nous sont apparus comme des stratégies ayant permis aux membres de La ronde des poètes de devenir des écrivains dans un contexte de production défavorable. De plus, par leurs textes fondateurs, ils se définissent comme un groupe ayant un programme d’action bien établi. Par ailleurs, ils attirent sur eux l’attention en se proclamant avant-gardistes et, pour le montrer, publient des manifestes et se détournent, idéologiquement parlant, de la poétique de la négritude dont la fixation sur la race a dominé la création littéraire pendant plusieurs décennies en Afrique. Les stratégies d’émergence de La ronde des poètes ont travaillé à l’identification de cette association comme un élément du champ littéraire camerounais ayant sa place aux côtés d’autres acteurs existant déjà dans ce champ. Pour ce qui est des stratégies de fonctionnement, La ronde des poètes s’est dotée d’un statut légal en se faisant enregistrer auprès des autorités camerounaises, ce qui la consolide dans son champ social. Sur le plan littéraire, ses membres lui confèrent un caractère institutionnel en créant en son sein des formes d’instances littéraires. Leurs ateliers d’écriture assurent la création des œuvres, les instances de diffusion prennent chez eux la forme d’un bulletin hebdomadaire, « Le rondin », mais surtout d’une revue, Hiototi : Revue camerounaise de poésie, de lettres et de culture. Cette revue recueille les articles de critiques littéraires formés à La ronde des poètes et de ceux du Cameroun. Le « Prix de la poésie rondine » est leur instance de consécration interne. Cette association réussit ainsi à obtenir la reconnaissance de pairs, poètes et écrivains camerounais et étrangers, celle aussi d’autorités camerounaises et internationales. En somme, la réunion de ces instances institutionnelles montre combien la marche vers l’autonomie de la littérature camerounaise en général est réelle.
Resumo:
Outiller de façon satisfaisante la gestion des connaissances de consultants dans un secteur d’activité en constante évolution est une tâche ardue, pour laquelle il n’existe aucune solution applicable à tous types de milieux. Toutefois, notre expérience de plus de 25 ans en consultation nous amène à croire que, si l’on se restreint à des PME d’au plus 200 consultants dotées d’une culture d’entreprise favorable, il est faisable d’en arriver à une solution informatique réduisant significativement la problématique de gestion des connaissances. Cette étude vise à présenter la conception d’une telle solution. Ses principales caractéristiques sont : utilisation d’une taxonomie pour classifier et décrire uniformément les expertises et leurs usages; prise en compte systématique des caractéristiques des consultants; imbrication avec la gestion des demandes, des affectations, du recrutement et de la rétention; gestion décentralisée et participative; notifications de possibilités d’enrichissements et d’usages des expertises. Cette conception est basée sur des critères de qualité établis à partir d’une description du type d’organisation visé et d’hypothèses sur leur fonctionnement et leurs besoins. Ces hypothèses s’appuient sur une revue de littérature et sur plus de 25 années d’expérience dans le milieu. Il s’agit donc d’une recherche de type « design science », Hevner (2007) et March et Storey (2008), où les hypothèses de nature heuristique (basées sur l’expérience) complètent les connaissances empiriquement établies recensées dans la revue de littérature. La suite naturelle de notre travail serait d’implanter différentes parties de la solution, pour vérifier jusqu’à quel point celle-ci permet bien de réduire la problématique.
Resumo:
L’essence de la théorie du capital humain (Becker, 1964) prédit que l’investissement dans les activités visant à renforcer le potentiel productif des individus se traduit par une augmentation de leurs revenus tout au long de leur carrière (Benjamin, Gunderson et Riddell, 2002 : 245). Pour le groupe occupationnel constitué par les artistes, la littérature s’accorde pourtant pour dire que l’investissement en capital humain demeure rentable financièrement, mais à un niveau sensiblement moindre que pour les autres professions (Snooks, 1983; Filer, 1990; Rengers, 2002; Alper et Wassall, 2006). Nous exposons les théories du capital humain, des différences de salaire compensatoires (Smith, 1776) ainsi que la théorie hédonique des salaires (Rosen, 1974; Rosen et Thaler, 1975) afin d’atteindre deux objectifs. Premièrement, nous cherchons à vérifier empiriquement l’impact de l’acquisition de capital humain sur le revenu d’emploi autonome des artistes canadiens . Dans une autre perspective, nous souhaitons également évaluer la nature et la taille du différentiel de revenu d’emploi par rapport aux autres professions et investiguer les facteurs sur lesquels il repose. Le projet comble un vide dans la littérature portant sur les déterminants du revenu d’emploi des artistes canadiens et permet de réfléchir à l’orientation des politiques publiques culturelles entourant la formation académique de ceux-ci. Nous employons une analyse de régression multivariée sur des variables de capital humain en ayant recours aux données du recensement canadien de 2006 . Plus précisément, nous tentons de mesurer la relation associative entre le revenu de travail autonome exprimé sous forme de logarithme du salaire hebdomaire des artistes canadiens et la scolarité, l’expérience de travail, le sexe, le statut marital légal, la profession/spécialité artistique (classification selon la CNP-S, en vigueur en 2006), le statut d’immigrant, le statut de minorité visible, le fait d’être le principal soutien de la famille ainsi que la zone de résidence. Les résultats nous apprennent que la scolarité demeure rentable financièrement pour la majorité des spécialités artistiques, mais que des profils de scolarité précis ont avantage à être privilégiés selon la spécialité artistique. L’expérience de travail s’avère quant à elle moins rentable au niveau de la rémunération que chez les autres professions, tout comme elle est moins avantageuse financière pour les artistes issus des arts performatifs chez qui la carrière se termine habituellement assez tôt. En ce qui concerne l’effet des variables sociodémographiques, soulignons seulement que le fait d’être de sexe masculin est associé à de plus hauts revenus chez les artistes, mais dans une proportion moindre que chez les autres professions. Quant aux effets des statuts d’immigrant et de minorité visible sur le revenu d’emploi, ceux-ci varient mais demeurent moins pénalisants chez les artistes, ce qui suggère que le marché du travail culturel serait moins discriminant que le marché du travail traditionnel.