1000 resultados para Enseignement géré par ordinateur
Resumo:
Introduction: L'hyperglycémie est un phénomène connu chez les patients gravement agressés, et surtout chez ceux nécessitant un séjour aux soins intensifs, alors que l'hypoglycémie est une complication menaçante. Des valeurs de glycémies anormales sont associées avec une mortalité et morbidité augmentées chez les patients de soins intensifs, y compris les grands brûlés. Des glycémies jusqu'à 15mmol/l ont longtemps été tolérées sans traitement. En 2001, une grande étude randomisée a complètement changé les pratiques du contrôle glycémique aux soins intensifs. Van den Berghe et al. ont montré qu'un contrôle glycémique strict atteint au moyen d'une « intensive insulin therapy » (HT) visant une glycémie 4.1-6.0 mmol/l réduisait la mortalité chez les patients chirurgicaux traités plus que 5. Par la suite plusieurs études contradictoires ont questionné la validité externe de l'étude de Louvain: avec la publication de l'étude « NICE-SUGAR » en 2009 enrôlant plus de 6000 patients cette hypothèse a été réfutée, aboutissant à un contrôle modéré de la glycémie (6-8 mmol/l). Bien que plusieurs études sur le contrôle glycémique aient également inclus quelques patients brûlés, à ce jour il n'y a pas de recommandation ferme concernant la gestion de la glycémie chez les patients brûlés adultes. Le but de l'étude était d'évaluer la sécurité du protocole de contrôle de la glycémie qui avait été introduit aux soins intensifs adultes chez des patients grand brûlés nécessitant un traitement prolongé aux soins intensifs. Méthodes : 11 s'agit d'une étude rétrospective uni-centrique sur des patients brûlés admis aux soins intensifs du CHUV à Lausanne entre de 2000 à juin 2014. Critères d'inclusions : Age >16 ans, brûlures nécessitant un traitement aux soins intensifs >10 jours. Critères d'exclusion : Décès ou transfert hors des soins intensifs <10 jours. Les investigations ont été limitées aux 21 premiers jours de l'hospitalisation aux soins intensifs. Variables : Variables démographiques, surface brûlée (TBSA), scores de sévérité, infections, durée d'intubation, durée du séjour aux soins intensifs, mortalité. Variables métaboliques : Administration totale de glucides, énergie et insuline/2411, valeurs de glycémie artérielle et CRP. Quatre périodes (P) ont été analysées, correspondant à l'évolution du protocole de contrôle de glycémie du service. P1: Avant son introduction (2000-2001) ; P2: Contrôle glycémie serré géré par les médecins (2002-2006) ; P3: Contrôle glycémie serré géré par lés infirmières (2007-2010); P4: Contrôle modéré géré par les infirmières (2011-2014). Les limites glycémiques ont été définis de manière suivante: Hypoglycémie extrême <2.3mmol/l ; hypoglycémie modéré <4.0mmol/l ; hyperglycémie modérée 8.1-10.0mmol/l ; hyperglycémie sévère >10.0mmol/l. Toutes les valeurs de glycémies artérielles ont été extraites depuis le système informatisé des soins intensifs (MetaVision ®). Statistiques: Wilcoxon rank test, Two- way Anova, Tuckey Kramer test, area under the curve (AUC), Spearman's test et odds ratio. STATA 12 1 ' StataCorp, College station, TX, USA and JPM V 10.1 (SAS Institute, Cary, NC, USA). Résultats: Sur les 508 patients brûlés admis durant la période étudiée, 229 patients correspondaient aux critères d'inclusion, âgés de 45±20ans (X±SD) et brûlés sur 32±20% de la surface corporelle. Les scores de sévérité sont restés stables. Au total 28'690 glycémies artérielles ont été analysées. La valeur médiane de glycémie est restée stable avec une diminution progressive de la variabilité intra-patient. Après initiation du protocole, les valeurs normoglycémiques ont augmenté de 34.7% à 65.9% avec diminution des événements hypoglycémiques (pas d'hypoglycémie extrême en P4). Le nombre d'hyperglycémies sévères est resté stable durant les périodes 1 à 3, avec une diminution en P4 (9.25%) : les doses d'insuline ont aussi diminué. L'interprétation des résultats de P4 a été compliquée par une diminution concomitante des apports d'énergie et de glucose (p<0.0001). Conclusions: L'application du protocole destiné aux patients de soins intensifs non brûlés a amélioré le contrôle glycémique chez les patients adultes brûlés, aboutissant à une diminution significative de la variabilité des glycémies. Un contrôle modéré de la glycémie peut être appliqué en sécurité, considérant le nombre très faible d'hypoglycémies. La gestion du protocole par les infirmières s'avère plus sûre qu'un contrôle par les médecins, avec diminution des hypoglycémies. Cependant le nombre d'hyperglycémies reste trop élevé. L'hyperglycémie' n'est pas contrôlable uniquement par l'administration d'insuline, mais nécessite également une approche multifactorielle comprenant une optimisation de la nutrition adaptée aux besoins énergétiques élevés des grands brûlés. Plus d'études seront nécessaire pour mieux comprendre la complexité du mécanisme de l'hyperglycémie chez le patient adulte brûlé et pour en améliorer le contrôle glycémique.
Resumo:
Ce mémoire examine l'adoption des téléphones mobiles et l'utilisation des messages texte (SMS) par les adolescents chinois, selon la théorie des usages et gratifications et de la recherche sur la communication par ordinateur. Certains champs particuliers de l'utilisation des messages textes par les adolescents chinois, comme le contrôle parental, la circulation des chaînes de messages, la popularité des messages de salutations et l'utilisation répandue des émoticônes ont été étudiés. La fonction sociale des SMS, plus particulièrement des pratiques sociales et des relations émotionnelles des adolescents chinois, a également été explorée. Cette étude est basée sur un sondage réalisé sur le terrain auprès de 100 adolescents chinois. Elle révèle que chez les adolescents chinois, les deux principales raisons pour l'adoption du téléphone mobile sont l'influence parentale et le besoin de communication sociale. Quant à l'utilisation des messages texte, elle répond à sept usages et gratifications : la flexibilité, le coût modique, l’intimité, éviter l'embarras, le divertissement, l'engouement et l'évasion. Il a également été observé que les messages texte jouent un rôle positif dans la construction et l'entretien des relations sociales des adolescents chinois.
Resumo:
De récentes découvertes montrent le rôle important que joue l’acide ribonucléique (ARN) au sein des cellules, que ce soit le contrôle de l’expression génétique, la régulation de plusieurs processus homéostasiques, en plus de la transcription et la traduction de l’acide désoxyribonucléique (ADN) en protéine. Si l’on veut comprendre comment la cellule fonctionne, nous devons d’abords comprendre ses composantes et comment ils interagissent, et en particulier chez l’ARN. La fonction d’une molécule est tributaire de sa structure tridimensionnelle (3D). Or, déterminer expérimentalement la structure 3D d’un ARN s’avère fort coûteux. Les méthodes courantes de prédiction par ordinateur de la structure d’un ARN ne tiennent compte que des appariements classiques ou canoniques, similaires à ceux de la fameuse structure en double-hélice de l’ADN. Ici, nous avons amélioré la prédiction de structures d’ARN en tenant compte de tous les types possibles d’appariements, dont ceux dits non-canoniques. Cela est rendu possible dans le contexte d’un nouveau paradigme pour le repliement des ARN, basé sur les motifs cycliques de nucléotides ; des blocs de bases pour la construction des ARN. De plus, nous avons dévelopées de nouvelles métriques pour quantifier la précision des méthodes de prédiction des structures 3D des ARN, vue l’introduction récente de plusieurs de ces méthodes. Enfin, nous avons évalué le pouvoir prédictif des nouvelles techniques de sondage de basse résolution des structures d’ARN.
Resumo:
Ce mémoire s'intéresse à la vision par ordinateur appliquée à des projets d'art technologique. Le sujet traité est la calibration de systèmes de caméras et de projecteurs dans des applications de suivi et de reconstruction 3D en arts visuels et en art performatif. Le mémoire s'articule autour de deux collaborations avec les artistes québécois Daniel Danis et Nicolas Reeves. La géométrie projective et les méthodes de calibration classiques telles que la calibration planaire et la calibration par géométrie épipolaire sont présentées pour introduire les techniques utilisées dans ces deux projets. La collaboration avec Nicolas Reeves consiste à calibrer un système caméra-projecteur sur tête robotisée pour projeter des vidéos en temps réel sur des écrans cubiques mobiles. En plus d'appliquer des méthodes de calibration classiques, nous proposons une nouvelle technique de calibration de la pose d'une caméra sur tête robotisée. Cette technique utilise des plans elliptiques générés par l'observation d'un seul point dans le monde pour déterminer la pose de la caméra par rapport au centre de rotation de la tête robotisée. Le projet avec le metteur en scène Daniel Danis aborde les techniques de calibration de systèmes multi-caméras. Pour son projet de théâtre, nous avons développé un algorithme de calibration d'un réseau de caméras wiimotes. Cette technique basée sur la géométrie épipolaire permet de faire de la reconstruction 3D d'une trajectoire dans un grand volume à un coût minime. Les résultats des techniques de calibration développées sont présentés, de même que leur utilisation dans des contextes réels de performance devant public.
Resumo:
Les pays industrialisés comme le Canada doivent faire face au vieillissement de leur population. En particulier, la majorité des personnes âgées, vivant à domicile et souvent seules, font face à des situations à risques telles que des chutes. Dans ce contexte, la vidéosurveillance est une solution innovante qui peut leur permettre de vivre normalement dans un environnement sécurisé. L’idée serait de placer un réseau de caméras dans l’appartement de la personne pour détecter automatiquement une chute. En cas de problème, un message pourrait être envoyé suivant l’urgence aux secours ou à la famille via une connexion internet sécurisée. Pour un système bas coût, nous avons limité le nombre de caméras à une seule par pièce ce qui nous a poussé à explorer les méthodes monoculaires de détection de chutes. Nous avons d’abord exploré le problème d’un point de vue 2D (image) en nous intéressant aux changements importants de la silhouette de la personne lors d’une chute. Les données d’activités normales d’une personne âgée ont été modélisées par un mélange de gaussiennes nous permettant de détecter tout événement anormal. Notre méthode a été validée à l’aide d’une vidéothèque de chutes simulées et d’activités normales réalistes. Cependant, une information 3D telle que la localisation de la personne par rapport à son environnement peut être très intéressante pour un système d’analyse de comportement. Bien qu’il soit préférable d’utiliser un système multi-caméras pour obtenir une information 3D, nous avons prouvé qu’avec une seule caméra calibrée, il était possible de localiser une personne dans son environnement grâce à sa tête. Concrêtement, la tête de la personne, modélisée par une ellipsoide, est suivie dans la séquence d’images à l’aide d’un filtre à particules. La précision de la localisation 3D de la tête a été évaluée avec une bibliothèque de séquence vidéos contenant les vraies localisations 3D obtenues par un système de capture de mouvement (Motion Capture). Un exemple d’application utilisant la trajectoire 3D de la tête est proposée dans le cadre de la détection de chutes. En conclusion, un système de vidéosurveillance pour la détection de chutes avec une seule caméra par pièce est parfaitement envisageable. Pour réduire au maximum les risques de fausses alarmes, une méthode hybride combinant des informations 2D et 3D pourrait être envisagée.
Resumo:
En Argentine, la biotechnologie agricole, spécialement le soya transgénique, a été adoptée de façon fulgurante et elle a provoqué un fort choc dans l’économie nationale et dans la société. Actuellement, dû à la gravité des conséquences de ce phénomène, les médias, et la presse en particulier, ont fait écho du débat. Le but général de cette étude est d’analyser le débat de société sur ce phénomène dans la presse écrite argentine. Pour ce faire, trois objectifs spécifiques ont été retenus : dresser un portrait général du discours; comprendre le contexte politique et économique qui a permis l’insertion de la biotechnologie agricole en Argentine; et analyser les enjeux socioéthiques subjacents au problème des biotechnologies. Pour répondre à ces objectifs, on a effectué une analyse de contenu du discours social circonscrit à la presse écrite argentine entre les années 1999- 2006. La démarche privilégiée inclut la classification des articles de journaux par l’utilisation de mots-clés et l’assignation à des catégories thématiques avec l’assistance des techniques d’analyse de texte par ordinateur. Les résultats de cette étude signalent pour la période étudiée une importante couverture journalistique des biotechnologies agricoles, couverture qui, en général, a été favorable. La quantité d’articles augmente avec les années et montre un virage important des sujets commerciaux à des questions politiques. Le débat autour des conséquences environnementales et sociales de l’application du nouveau modèle agricole sont pauvrement représentées et montrent une apparition plus tardive dans les journaux argentins. Cependant, cela pourrait s’expliquer par un déplacement dans l’axe de la discussion des biotechnologies vers la sojisation qui devient l’enjeu central du débat autour du phénomène agricole.
Resumo:
Ce mémoire analyse la réception de l’auteur autrichien Thomas Bernhard (1931-1989) au regard des scandales qui ont marqué sa carrière. Tantôt identifié comme l’imprécateur de l’Autriche, tantôt comme écrivain exceptionnel, il aura remis en question le rôle de son pays dans le national-socialisme et multiplié les attaques ad hominem. Il aura tenu un rôle ambigu dans l’espace public. Tout en insistant sur le caractère fictif de ses œuvres, il se mettait en scène de façon provocatrice dans le discours public ainsi que dans sa fiction. Ce mémoire s’intéresse au fonctionnement du scandale en tant qu’événement social complexe ayant lieu dans l’espace public. Les chercheurs s’entendent pour considérer le scandale comme un trouble ou une irritation résultant d’une transgression, apparente ou avérée. Il s’agit en outre d’un phénomène intégré dans l’ordre social et géré par les médias, caractérisé par l’actualisation des valeurs morales. Dans la présente étude, il est postulé que le capital symbolique (cf. Bourdieu) joue un rôle d’a priori et de catalyseur dans les scandales. Une accumulation initiale de capital symbolique assure une visibilité médiatique automatique. Le capital d’identité de Thomas Bernhard – soit la personnalisation du capital symbolique – est hybride et complexe, de sorte qu’il est difficilement appréciable. La difficile appréciation du capital de l’auteur se traduit par l’incertitude des journalistes et du public quant à son message : réactions dispro-portionnées, critique du particulier perçue comme mise en cause de l’universel. Toute dé-claration, toute œuvre de Bernhard est assujettie à ses prestations « scandaleuses » antérieu-res. Ce mémoire insiste sur le caractère autoréférentiel du scandale et s’intéresse aux actes de langage performatifs (cf. John L. Austin). Le corpus comporte des romans de Bernhard, leurs recensions, des articles de quotidiens, des lettres de lecteurs, des documents juridiques ainsi que la correspondance entre Bernhard et Siegfried Unseld.
Resumo:
Cette thése a été réalisée dans le cadre d'une cotutelle avec l'Institut National Polytechnique de Grenoble (France). La recherche a été effectuée au sein des laboratoires de vision 3D (DIRO, UdM) et PERCEPTION-INRIA (Grenoble).
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Par cette recherche, nous voulons évaluer de manière exhaustive les bénéfices qu’apporte l’ExAO (Expérimentation Assistée par Ordinateur) dans les laboratoires scolaires de sciences et technologie au Liban. Nous aimerions aussi qu’elle contribue d’une manière tangible aux recherches du laboratoire de Robotique Pédagogique de l’Université de Montréal, notamment dans le développement du µlaboratoire ExAO. Nous avons voulu tester les capacités de l’ExAO, son utilisation en situation de classe comme : 1. Substitut d’un laboratoire traditionnel dans l’utilisation de la méthode expérimentale; 2. Outil d’investigation scientifique; 3. Outil d’intégration des sciences expérimentales et des mathématiques; 4. Outil d’intégration des sciences expérimentales, des mathématiques et de la technologie dans un apprentissage technoscientifique; Pour ce faire, nous avons mobilisé 13 groupe-classes de niveaux complémentaire et secondaire, provenant de 10 écoles libanaises. Nous avons désigné leurs enseignants pour expérimenter eux-mêmes avec leurs étudiants afin d’évaluer, de manière plus réaliste les avantages d’implanter ce micro laboratoire informatisé à l’école. Les différentes mise à l’essai, évaluées à l’aide des résultats des activités d’apprentissage réalisées par les étudiants, de leurs réponses à un questionnaire et des commentaires des enseignants, nous montrent que : 1. La substitution d’un laboratoire traditionnel par un µlaboratoire ExAO ne semble pas poser de problème; dix minutes ont suffi aux étudiants pour se familiariser avec cet environnement, mentionnant que la rapidité avec laquelle les données étaient représentées sous forme graphique était plus productive. 2. Pour l’investigation d’un phénomène physique, la convivialité du didacticiel associée à la capacité d’amplifier le phénomène avant de le représenter graphiquement a permis aux étudiants de concevoir et de mettre en œuvre rapidement et de manière autonome, une expérimentation permettant de vérifier leur prédiction. 3. L’intégration des mathématiques dans une démarche expérimentale permet d’appréhender plus rapidement le phénomène. De plus, elle donne un sens aux représentations graphiques et algébriques, à l’avis des enseignants, permettant d’utiliser celle-ci comme outil cognitif pour interpréter le phénomène. 4. La démarche réalisée par les étudiants pour concevoir et construire un objet technologique, nous a montré que cette activité a été réalisée facilement par l’utilisation des capteurs universels et des amplificateurs à décalage de l’outil de modélisation graphique ainsi que la capacité du didacticiel à transformer toute variable mesurée par une autre variable (par exemple la variation de résistance en variation de température, …). Cette activité didactique nous montre que les étudiants n’ont eu aucune difficulté à intégrer dans une même activité d’apprentissage les mathématiques, les sciences expérimentales et la technologie, afin de concevoir et réaliser un objet technologique fonctionnel. µlaboratoire ExAO, en offrant de nouvelles possibilités didactiques, comme la capacité de concevoir, réaliser et valider un objet technologique, de disposer pour ce faire, des capacités nouvelles pour amplifier les mesures, modéliser les phénomènes physiques, créer de nouveaux capteurs, est un ajout important aux expériences actuellement réalisées en ExAO.
Resumo:
L’un des aspects les plus percutants des avancées de la technologie des quinze dernières années a trait à la communication médiée par ordinateur : clavardage, messagerie instantanée, courrier électronique, forums de discussion, blogues, sites de réseautage social, etc. En plus d’avoir eu un impact significatif sur la société contemporaine, ces outils de communication ont largement modifié les pratiques d’écriture. Notre objet d’étude est le clavardage en groupe qui offre la possibilité aux scripteurs de communiquer simultanément entre eux. Cet outil de communication présente deux caractéristiques importantes aux plans discursif et communicationnel. Premièrement, on admet de façon générale que le clavardage est une forme de communication hybride : le code utilisé est l’écrit, mais les échanges de messages entrent dans une structure de dialogue qui rappelle l’oral. Deuxièmement, le caractère spontané du clavardage impose la rapidité, tant pour l’encodage que pour le décodage des messages. Dans le cadre d’une étude comparative réalisée sur les pratiques scripturales des clavardeurs francophones (Tatossian et Dagenais 2008), nous avons établi quatre catégories générales pour rendre compte de toutes les variantes scripturales de notre corpus : procédés abréviatifs, substitutions de graphèmes, neutralisations en finale absolue et procédés expressifs. Nous voulons maintenant tester la solidité de notre typologie pour des langues dont le degré de correspondance phonético-graphique diffère. En vertu de l’hypothèse de la profondeur de l’orthographe (orthographic depth hypothesis [ODH]; Katz et Frost 1992) selon laquelle un système orthographique transparent (comme l’italien, l’espagnol ou le serbo-croate) transpose les phonèmes directement dans l’orthographe, nous vérifierons si nos résultats pour le français peuvent être généralisés à des langues dont l’orthographe est dite « transparente » (l’espagnol) comparativement à des langues dont l’orthographe est dite « opaque » (le français et l’anglais). Pour chacune des langues, nous avons voulu répondre à deux question, soit : 1. De quelle manière peut-on classifier les usages scripturaux attestés ? 2. Ces usages graphiques sont-ils les mêmes chez les adolescents et les adultes aux plans qualitatif et quantitatif ? Les phénomènes scripturaux du clavardage impliquent également l’identité générationnelle. L’adolescence est une période caractérisée par la quête d’identité. L’étude de Sebba (2003) sur l’anglais démontre qu’il existe un rapport entre le « détournement de l’orthographe » et la construction identitaire chez les adolescents (par ex. les graffitis, la CMO). De plus, dans ces espaces communicationnels, nous assistons à la formation de communautés d’usagers fondée sur des intérêts communs (Crystal 2006), comme l’est la communauté des adolescents. Pour la collecte des corpus, nous recourrons à des échanges effectués au moyen du protocole Internet Relay Chat (IRC). Aux fins de notre étude, nous délimitons dans chacune des langues deux sous-corpus sociolinguistiquement distincts : le premier constitué à partir de forums de clavardage destinés aux adolescents, le second à partir de forums pour adultes. Pour chacune des langues, nous avons analysé 4 520 énoncés extraits de divers canaux IRC pour adolescents et pour adultes. Nous dressons d’abord un inventaire quantifié des différents phénomènes scripturaux recensés et procédons ensuite à la comparaison des résultats.
Resumo:
L'axe hypothalamo-hypophyso-surrénalien (HPA) permet de maintenir l'homéostasie de l'organisme face à divers stress. Qu'ils soient de nature psychologique, physique ou inflammatoire/infectieux, les stress provoquent la synthèse et la libération de CRH par l'hypothalamus. Les cellules corticotropes hypophysaires perçoivent ce signal et en réaction, produisent et sécrètent l'ACTH. Ceci induit la synthèse des glucocorticoïdes (Gc) par le cortex surrénalien; ces stéroïdes mettent le système métabolique en état d’alerte pour la réponse au stress et à l’agression. Les Gc ont le rôle essentiel de contrôler les défenses de l'organisme, en plus d'exercer une rétro-inhibition sur l'axe HPA. L'ACTH est une petite hormone peptidique produite par le clivage d'un précurseur: la pro-opiomélanocortine (POMC). À cause de sa position critique dans la normalisation de l'homéostasie, le contrôle transcriptionnel du gène Pomc a fait l'objet d'études approfondies au cours des dernières décennies. Nous savons maintenant que la région promotrice du gène Pomc permet une expression ciblée dans les cellules POMC hypophysaires. L'étude du locus Pomc par des technologies génomiques m'a permis de découvrir un nouvel élément de régulation qui est conservé à travers l'évolution des mammifères. La caractérisation de cet enhancer a démontré qu'il dirige une expression restreinte à l'hypophyse, et plus particulièrement dans les cellules corticotropes. De façon intéressante, l'activité de cet élément dépend d'un nouveau site de liaison recrutant un homodimère du facteur de transcription Tpit, dont l'expression est également limitée aux cellules POMC de l'hypophyse. La découverte de cet enhancer ajoute une toute nouvelle dimension à la régulation de l'expression de POMC. Les cytokines pro-inflammatoires IL6/LIF et les Gc sont connus pour leur antagonisme sur la réaction inflammatoire et sur le promoteur Pomc via l'action des facteurs de transcription Stat3 et GR respectivement. L'analyse génomique des sites liés ii par ces deux facteurs nous a révélé une interrelation complexe et a permis de définir un code transcriptionnel entre ces voies de signalisation. En plus de leur action par interaction directe avec l’ADN au niveau des séquences régulatrices, ces facteurs interagissent directement entre eux avec des résultats transcriptionnels différents. Ainsi, le recrutement de GR par contact protéine:protéine (tethering) sur Stat3 étant lié à l'ADN provoque un antagonisme transcriptionnel. Inversement, le tethering de Stat3 sur GR supporte une action synergique, tout comme leur co-recrutement à l'ADN sur des sites contigus ou composites. Lors d'une activation soutenue, ce synergisme entre les voies IL6/LIF et Gc induit une réponse innée de défense cellulaire. Ainsi lors d'un stress majeur, ce mécanisme de défense est mis en branle dans toutes les cellules et tissus. En somme, les travaux présentés dans cette thèse définissent les mécanismes transcriptionnels engagés dans le combat de l'organisme contre les stress. Plus particulièrement, ces mécanismes ont été décrits au niveau de la réponse globale des corticotropes et du gène Pomc. Il est essentiel pour l'organisme d'induire adéquatement ces mécanismes afin de faire face aux stress et d'éviter des dérèglements comme les maladies inflammatoires et métaboliques.
Resumo:
Ce mémoire présente les recherches et réflexions entourant la conception d’une application à base d’ontologie dédiée au e-recrutement dans le domaine des services de dotation de personnel en technologies de l’information à l’ère du Web Social. Cette application, nommée Combine, vise essentiellement à optimiser et enrichir la Communication Médiée par Ordinateur (CMO) des acteurs du domaine et utilise des concepts issus du paradigme technologique émergent qu’est le Web sémantique. Encore très peu discuté dans une perspective CMO, le présent mémoire se propose donc d’examiner les enjeux communicationnels relatifs à ce nouveau paradigme. Il présente ses principaux concepts, dont la notion d’ontologie qui implique la modélisation formelle de connaissances, et expose le cas de développement de Combine. Il décrit comment cette application fut développée, de l’analyse des besoins à l’évaluation du prototype par les utilisateurs ciblés, tout en révélant les préoccupations, les contraintes et les opportunités rencontrées en cours de route. Au terme de cet examen, le mémoire tend à évaluer de manière critique le potentiel de Combine à optimiser la CMO du domaine d’activité ciblé. Le mémoire dresse au final un portrait plutôt favorable quant à la perception positive des acteurs du domaine d’utiliser un tel type d’application, et aussi quant aux nets bénéfices en frais d’Interactions Humain-Ordinateur (IHO) qu’elle fait miroiter. Il avertit toutefois d’une certaine exacerbation du problème dit « d’engagement ontologique » à considérer lors de la construction d’ontologies modélisant des objets sociaux tels que ceux dont le monde du recrutement est peuplé.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU)
Resumo:
Lors d'une intervention conversationnelle, le langage est supporté par une communication non-verbale qui joue un rôle central dans le comportement social humain en permettant de la rétroaction et en gérant la synchronisation, appuyant ainsi le contenu et la signification du discours. En effet, 55% du message est véhiculé par les expressions faciales, alors que seulement 7% est dû au message linguistique et 38% au paralangage. L'information concernant l'état émotionnel d'une personne est généralement inférée par les attributs faciaux. Cependant, on ne dispose pas vraiment d'instruments de mesure spécifiquement dédiés à ce type de comportements. En vision par ordinateur, on s'intéresse davantage au développement de systèmes d'analyse automatique des expressions faciales prototypiques pour les applications d'interaction homme-machine, d'analyse de vidéos de réunions, de sécurité, et même pour des applications cliniques. Dans la présente recherche, pour appréhender de tels indicateurs observables, nous essayons d'implanter un système capable de construire une source consistante et relativement exhaustive d'informations visuelles, lequel sera capable de distinguer sur un visage les traits et leurs déformations, permettant ainsi de reconnaître la présence ou absence d'une action faciale particulière. Une réflexion sur les techniques recensées nous a amené à explorer deux différentes approches. La première concerne l'aspect apparence dans lequel on se sert de l'orientation des gradients pour dégager une représentation dense des attributs faciaux. Hormis la représentation faciale, la principale difficulté d'un système, qui se veut être général, est la mise en œuvre d'un modèle générique indépendamment de l'identité de la personne, de la géométrie et de la taille des visages. La démarche qu'on propose repose sur l'élaboration d'un référentiel prototypique à partir d'un recalage par SIFT-flow dont on démontre, dans cette thèse, la supériorité par rapport à un alignement conventionnel utilisant la position des yeux. Dans une deuxième approche, on fait appel à un modèle géométrique à travers lequel les primitives faciales sont représentées par un filtrage de Gabor. Motivé par le fait que les expressions faciales sont non seulement ambigües et incohérentes d'une personne à une autre mais aussi dépendantes du contexte lui-même, à travers cette approche, on présente un système personnalisé de reconnaissance d'expressions faciales, dont la performance globale dépend directement de la performance du suivi d'un ensemble de points caractéristiques du visage. Ce suivi est effectué par une forme modifiée d'une technique d'estimation de disparité faisant intervenir la phase de Gabor. Dans cette thèse, on propose une redéfinition de la mesure de confiance et introduisons une procédure itérative et conditionnelle d'estimation du déplacement qui offrent un suivi plus robuste que les méthodes originales.