119 resultados para Ordinateur
Resumo:
Cette thèse porte sur la reconstruction active de modèles 3D à l’aide d’une caméra et d’un projecteur. Les méthodes de reconstruction standards utilisent des motifs de lumière codée qui ont leurs forces et leurs faiblesses. Nous introduisons de nouveaux motifs basés sur la lumière non structurée afin de pallier aux manques des méthodes existantes. Les travaux présentés s’articulent autour de trois axes : la robustesse, la précision et finalement la comparaison des patrons de lumière non structurée aux autres méthodes. Les patrons de lumière non structurée se différencient en premier lieu par leur robustesse aux interréflexions et aux discontinuités de profondeur. Ils sont conçus de sorte à homogénéiser la quantité d’illumination indirecte causée par la projection sur des surfaces difficiles. En contrepartie, la mise en correspondance des images projetées et capturées est plus complexe qu’avec les méthodes dites structurées. Une méthode d’appariement probabiliste et efficace est proposée afin de résoudre ce problème. Un autre aspect important des reconstructions basées sur la lumière non structurée est la capacité de retrouver des correspondances sous-pixels, c’est-à-dire à un niveau de précision plus fin que le pixel. Nous présentons une méthode de génération de code de très grande longueur à partir des motifs de lumière non structurée. Ces codes ont l’avantage double de permettre l’extraction de correspondances plus précises tout en requérant l’utilisation de moins d’images. Cette contribution place notre méthode parmi les meilleures au niveau de la précision tout en garantissant une très bonne robustesse. Finalement, la dernière partie de cette thèse s’intéresse à la comparaison des méthodes existantes, en particulier sur la relation entre la quantité d’images projetées et la qualité de la reconstruction. Bien que certaines méthodes nécessitent un nombre constant d’images, d’autres, comme la nôtre, peuvent se contenter d’en utiliser moins aux dépens d’une qualité moindre. Nous proposons une méthode simple pour établir une correspondance optimale pouvant servir de référence à des fins de comparaison. Enfin, nous présentons des méthodes hybrides qui donnent de très bons résultats avec peu d’images.
Resumo:
La personnalisation et l'adaptation d'environnement multimédia pédagogique a pour but de favoriser l'intégration d'application web de formation en fonction de la personnalité de l'apprenant, de sa progression, de ses préférences et de son contexte d'application. Le contrôle de certaines de ces options doit être donné à l'enseignant afin de pouvoir suivre la progression de ses étudiants, de prescrire des activités complémentaires en ce qui est fait en classe et de gérer ses groupes. Nous avons participé au développement et à l'évaluation d'une application pour appuyer le suivi des activités et donner du soutien aux apprenants dans un environnement pédagogique disponible gratuitement en ligne pour l'apprentissage des sciences nommé ScienceEnJeu. ScienceEnJeu est un environnement où l'apprenant peut explorer différents mondes d'apprendre le contenu, comme les mathématiques, l'écologie, la physique, la génomique, etc. Notre système utilise une base de données qui se construit en fonction de conditions comme les activités des utilisateurs dans le jeu et offre la possibilité de lier les activités du jeu à des structures de concepts issues du programme du Ministère de l'éducation de loisirs et du sport (MELS). Une interface permet aux parents ou à l'enseignant de visualiser la progression dans l'environnement d'un étudiant et / ou d'un groupe, voir le modèle de l'élève de superposition sur la structure des activités et des structures de concepts. L'enseignant peut chercher une activité liée à des concepts particuliers et la définir comme une tâche pour son groupe d'étudiants selon un calendrier. Un système de soutien personnalisé fondé sur des règles y est aussi intégré. Ces règles sont des stratégies de soutien construites en fonction de différents paramètres du contexte de l'activité, des préférences de style d'apprentissage de l'élève et de l'aide précédente. De par ces règles, différents avatars animés peuvent être affichés avec des messages qui sont écrits pour soutenir la motivation des élèves selon leur personnalité d'apprenant.
Psychopathie chez les individus non incarcérés et coopération dans un dilemme du prisonnier itératif
Resumo:
Au niveau interpersonnel, la psychopathie implique un manque de considération d’autrui pouvant se manifester par la tromperie, la manipulation et l’exploitation. La présente thèse a investigué la relation entre les caractéristiques psychopathiques d'individus non incarcérés et la tendance à coopérer dans un jeu du dilemme du prisonnier itératif. Un total de 85 hommes ont été recrutés via une annonce qui ciblait des traits de personnalité correspondant à des caractéristiques psychopathiques exprimées de façon non péjorative. Plusieurs méthodes ont été employées pour rejoindre les participants : 46 ont participés en personne après avoir répondu à une invitation affichée dans un journal local ainsi que sur des babillards à proximité d'une université; 39 ont complété l'étude sur Internet après avoir été recrutés via un site web de petites annonces. Chaque participant a répondu à un questionnaire incluant l’Échelle Auto-rapportée de Psychopathie (Levenson, Kiehl, & Fitzpatrick, 1995) et l’Échelle Auto-rapportée des Indicateurs de Psychopathie de l’Enfance et de l’Adolescence (Seto, Khattar, Lalumière, & Quinsey, 1997). Ils ont également complété une simulation informatique du dilemme du prisonnier itératif comprenant 90 essais. La simulation informatique utilisée pour évaluer les participants en personne ainsi que la version accessible par Internet ont été conçues et programmées spécifiquement pour la présente thèse. La simulation informatique incluait trois stratégies souvent associées au dilemme du prisonnier itératif : donnant-donnant, donnant-donnant-généreux et gagne/reste-perd/change. Les analyses préliminaires ont montré que les participants vus en personne et ceux rejoints par Internet ne différaient pas en termes de variables sociodémographiques, des caractéristiques psychopathiques, de la désirabilité sociale et des réponses au dilemme du prisonnier. Une régression multiple standard a indiqué que les mesures psychopathiques ne pouvaient pas prédire le nombre total de choix coopératifs dans le jeu. Par contre, une corrélation négative a été trouvée entre les caractéristiques interpersonnelles et affectives de la psychopathie et la coopération dans le premier tiers du jeu. De plus, les participants qui présentaient davantage de caractéristiques psychopathiques interpersonnelles et affectives avaient plus souvent réussi à exploiter l'ordinateur en dénonçant alors que la simulation informatique coopérait. Des analyses multi-niveaux ont exploré la contribution de variables au niveau de la décision et au niveau de l'individu dans la prédiction du choix de coopérer ou de dénoncer lors de chaque essai du jeu; les interactions entre ces variables ont aussi été considérées. Les résultats ont montré que les variables au niveau de la décision influençaient généralement plus fortement les chances de coopérer que les variables au niveau de l'individu. Parmi les mesures de la psychopathie, seulement les caractéristiques interpersonnelles et affectives ont montré une association significative avec les chances de coopérer; les interactions avec le premier choix effectué dans le jeu et le premier tiers du jeu étaient significatives. Ainsi, si un participant avait coopéré au premier essai, la présence de caractéristiques psychopathiques interpersonnelles et affectives était associée à une diminution de ses chances de coopérer par la suite. Aussi, durant les 30 premiers essais du jeu, la présence de caractéristiques psychopathiques interpersonnelles et affectives était associée à une diminution des chances de coopérer. La stratégie adoptée par la simulation informatique n'avait pas d'influence sur le lien entre les caractéristiques psychopathiques et la probabilité de coopérer. Toutefois, le fait de jouer contre donnant-donnant était associé à de plus fortes chances de coopérer d'un essai à l'autre pour l'ensemble des participants. Globalement, les résultats suggèrent que les hommes non incarcérés présentant des caractéristiques psychopathiques ne seraient pas nécessairement portés à choisir systématiquement la non-coopération. En fait, les caractéristiques interpersonnelles et affectives de la psychopathie ont semblé se traduire par une tendance à faire bonne impression au départ, tenter rapidement d'exploiter autrui en dénonçant, puis finir par coopérer. Cette tendance comportementale est discutée, ainsi que la pertinence d'utiliser le dilemme du prisonnier itératif et les analyses multi-niveaux pour étudier le comportement interpersonnel des psychopathes.
Resumo:
Ce mémoire est composé de trois articles et présente les résultats de travaux de recherche effectués dans le but d'améliorer les techniques actuelles permettant d'utiliser des données associées à certaines tâches dans le but d'aider à l'entraînement de réseaux de neurones sur une tâche différente. Les deux premiers articles présentent de nouveaux ensembles de données créés pour permettre une meilleure évaluation de ce type de techniques d'apprentissage machine. Le premier article introduit une suite d'ensembles de données pour la tâche de reconnaissance automatique de chiffres écrits à la main. Ces ensembles de données ont été générés à partir d'un ensemble de données déjà existant, MNIST, auquel des nouveaux facteurs de variation ont été ajoutés. Le deuxième article introduit un ensemble de données pour la tâche de reconnaissance automatique d'expressions faciales. Cet ensemble de données est composé d'images de visages qui ont été collectées automatiquement à partir du Web et ensuite étiquetées. Le troisième et dernier article présente deux nouvelles approches, dans le contexte de l'apprentissage multi-tâches, pour tirer avantage de données pour une tâche donnée afin d'améliorer les performances d'un modèle sur une tâche différente. La première approche est une généralisation des neurones Maxout récemment proposées alors que la deuxième consiste en l'application dans un contexte supervisé d'une technique permettant d'inciter des neurones à apprendre des fonctions orthogonales, à l'origine proposée pour utilisation dans un contexte semi-supervisé.
Resumo:
L’analyse de la marche a émergé comme l’un des domaines médicaux le plus im- portants récemment. Les systèmes à base de marqueurs sont les méthodes les plus fa- vorisées par l’évaluation du mouvement humain et l’analyse de la marche, cependant, ces systèmes nécessitent des équipements et de l’expertise spécifiques et sont lourds, coûteux et difficiles à utiliser. De nombreuses approches récentes basées sur la vision par ordinateur ont été développées pour réduire le coût des systèmes de capture de mou- vement tout en assurant un résultat de haute précision. Dans cette thèse, nous présentons notre nouveau système d’analyse de la démarche à faible coût, qui est composé de deux caméras vidéo monoculaire placées sur le côté gauche et droit d’un tapis roulant. Chaque modèle 2D de la moitié du squelette humain est reconstruit à partir de chaque vue sur la base de la segmentation dynamique de la couleur, l’analyse de la marche est alors effectuée sur ces deux modèles. La validation avec l’état de l’art basée sur la vision du système de capture de mouvement (en utilisant le Microsoft Kinect) et la réalité du ter- rain (avec des marqueurs) a été faite pour démontrer la robustesse et l’efficacité de notre système. L’erreur moyenne de l’estimation du modèle de squelette humain par rapport à la réalité du terrain entre notre méthode vs Kinect est très prometteur: les joints des angles de cuisses (6,29◦ contre 9,68◦), jambes (7,68◦ contre 11,47◦), pieds (6,14◦ contre 13,63◦), la longueur de la foulée (6.14cm rapport de 13.63cm) sont meilleurs et plus stables que ceux de la Kinect, alors que le système peut maintenir une précision assez proche de la Kinect pour les bras (7,29◦ contre 6,12◦), les bras inférieurs (8,33◦ contre 8,04◦), et le torse (8,69◦contre 6,47◦). Basé sur le modèle de squelette obtenu par chaque méthode, nous avons réalisé une étude de symétrie sur différentes articulations (coude, genou et cheville) en utilisant chaque méthode sur trois sujets différents pour voir quelle méthode permet de distinguer plus efficacement la caractéristique symétrie / asymétrie de la marche. Dans notre test, notre système a un angle de genou au maximum de 8,97◦ et 13,86◦ pour des promenades normale et asymétrique respectivement, tandis que la Kinect a donné 10,58◦et 11,94◦. Par rapport à la réalité de terrain, 7,64◦et 14,34◦, notre système a montré une plus grande précision et pouvoir discriminant entre les deux cas.
Resumo:
L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.
Resumo:
En apprentissage automatique, domaine qui consiste à utiliser des données pour apprendre une solution aux problèmes que nous voulons confier à la machine, le modèle des Réseaux de Neurones Artificiels (ANN) est un outil précieux. Il a été inventé voilà maintenant près de soixante ans, et pourtant, il est encore de nos jours le sujet d'une recherche active. Récemment, avec l'apprentissage profond, il a en effet permis d'améliorer l'état de l'art dans de nombreux champs d'applications comme la vision par ordinateur, le traitement de la parole et le traitement des langues naturelles. La quantité toujours grandissante de données disponibles et les améliorations du matériel informatique ont permis de faciliter l'apprentissage de modèles à haute capacité comme les ANNs profonds. Cependant, des difficultés inhérentes à l'entraînement de tels modèles, comme les minima locaux, ont encore un impact important. L'apprentissage profond vise donc à trouver des solutions, en régularisant ou en facilitant l'optimisation. Le pré-entraînnement non-supervisé, ou la technique du ``Dropout'', en sont des exemples. Les deux premiers travaux présentés dans cette thèse suivent cette ligne de recherche. Le premier étudie les problèmes de gradients diminuants/explosants dans les architectures profondes. Il montre que des choix simples, comme la fonction d'activation ou l'initialisation des poids du réseaux, ont une grande influence. Nous proposons l'initialisation normalisée pour faciliter l'apprentissage. Le second se focalise sur le choix de la fonction d'activation et présente le rectifieur, ou unité rectificatrice linéaire. Cette étude a été la première à mettre l'accent sur les fonctions d'activations linéaires par morceaux pour les réseaux de neurones profonds en apprentissage supervisé. Aujourd'hui, ce type de fonction d'activation est une composante essentielle des réseaux de neurones profonds. Les deux derniers travaux présentés se concentrent sur les applications des ANNs en traitement des langues naturelles. Le premier aborde le sujet de l'adaptation de domaine pour l'analyse de sentiment, en utilisant des Auto-Encodeurs Débruitants. Celui-ci est encore l'état de l'art de nos jours. Le second traite de l'apprentissage de données multi-relationnelles avec un modèle à base d'énergie, pouvant être utilisé pour la tâche de désambiguation de sens.
Resumo:
Dans les dernières décennies, les changements morphologiques des maisons iraniennes, l’arrivage de l'éclairage artificiel et le manque de connaissance suffisante de la valeur de la lumière du jour pour le bien-être des occupants ont résulté une diminution de l'utilisation de la lumière du jour dans les habitations iraniennes contemporaines. En conséquence, le niveau du bien-être des occupants a décru ce qui peut être corrélée avec la diminution de l'utilisation de la lumière du jour. Considérant l'architecture traditionnelle iranienne et l'importance de la lumière du jour dans les habitations traditionnelles, cette recherche étudie l’utilisation de la lumière du jour dans les habitations traditionnelles et explore comment extrapoler ces techniques dans les maisons contemporaines pourrait augmenter l'utilisation de la lumière du jour et par conséquence améliorer le bien-être des occupants. Une revue de littérature, une enquête des experts iraniens et une étude de cas des maisons à cour traditionnelles à la ville de Kashan ont permis de recueillir les données nécessaires pour cette recherche. De par le contexte de recherche, la ville de Kashan a été choisie particulièrement grâce à sa texture historique intacte. L’analyse de la lumière du jour a été faite par un logiciel de simulation pour trois maisons à cour de la ville de Kashan ayant les mêmes caractéristiques de salon d’hiver. Cette étude se concentre sur l’analyse de la lumière du jour dans les salons d'hiver du fait de la priorité obtenue de l'enquête des experts et de la revue de littérature. Les résultats de cette recherche montrent que l’extrapolation des techniques traditionnelles de l'utilisation de lumière du jour dans les habitations modernes peut être considéré comme une option de conception alternative. Cette dernière peut optimiser l'utilisation de lumière du jour et par conséquence améliorer le bien-être des occupants. L'approche utilisée dans cette recherche a fourni une occasion d’étudier l'architecture du passé et d’évaluer plus précisément son importance. Cette recherche contribue ainsi à définir un modèle en tirant les leçons du passé pour résoudre les problèmes actuels.
Resumo:
La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution.
Resumo:
clRNG et clProbdist sont deux interfaces de programmation (APIs) que nous avons développées pour la génération de nombres aléatoires uniformes et non uniformes sur des dispositifs de calculs parallèles en utilisant l’environnement OpenCL. La première interface permet de créer au niveau d’un ordinateur central (hôte) des objets de type stream considérés comme des générateurs virtuels parallèles qui peuvent être utilisés aussi bien sur l’hôte que sur les dispositifs parallèles (unités de traitement graphique, CPU multinoyaux, etc.) pour la génération de séquences de nombres aléatoires. La seconde interface permet aussi de générer au niveau de ces unités des variables aléatoires selon différentes lois de probabilité continues et discrètes. Dans ce mémoire, nous allons rappeler des notions de base sur les générateurs de nombres aléatoires, décrire les systèmes hétérogènes ainsi que les techniques de génération parallèle de nombres aléatoires. Nous présenterons aussi les différents modèles composant l’architecture de l’environnement OpenCL et détaillerons les structures des APIs développées. Nous distinguons pour clRNG les fonctions qui permettent la création des streams, les fonctions qui génèrent les variables aléatoires uniformes ainsi que celles qui manipulent les états des streams. clProbDist contient les fonctions de génération de variables aléatoires non uniformes selon la technique d’inversion ainsi que les fonctions qui permettent de retourner différentes statistiques des lois de distribution implémentées. Nous évaluerons ces interfaces de programmation avec deux simulations qui implémentent un exemple simplifié d’un modèle d’inventaire et un exemple d’une option financière. Enfin, nous fournirons les résultats d’expérimentation sur les performances des générateurs implémentés.
Resumo:
La pléthymographie pénienne est considérée comme la méthode la plus objective pour évaluer les intérêts sexuels d'hommes adultes. Par contre, un nombre grandissant de chercheurs déplorent le manque de correspondance qui existe entre les stimuli présentés dans ce type d'évaluation et la réalité. Il est proposé de tenter de remédier à cette lacune en utilisant des personnages virtuels générés par ordinateur et présentant une variété de dispositions affectives lors d'évaluations pléthysmographiques. Ces stimuli n'ont jamais été utilisés dans l'évaluation des intérêts sexuels auprès d’agresseurs sexuels d'enfants. Cette thèse est composée de deux articles qui visent à soutenir le recours à ce type de stimuli lors d'évaluations pléthysmographiques. Afin d'atteindre cet objectif, des hommes ayant eu ou non des contacts sexuels avec des enfants ont été recrutés dans le but de les comparer. Une première étude empirique est bipartite. Elle vise en premier lieu à déterminer auprès d'une population étudiante si les dispositions affectives simulées par les personnages virtuels sont identifiables. Elle cherche ensuite à déterminer la capacité des personnages virtuels à générer un profil d'excitation sexuelle propre à un groupe d'individus n'ayant pas de problématique sexuelle. La seconde étude expérimentale porte sur la comparaison des profils de réponses érectiles issus de la présentation des personnages virtuels et évalue leur capacité à discriminer les individus selon qu'ils possèdent ou non des antécédents en matière de délinquance sexuelle envers les enfants. Dans l'ensemble, les résultats soutiennent l'utilisation de ces stimuli lors d'évaluations pléthysmographiques. Ils démontrent que les personnages virtuels simulent les dispositions affectives prévues et qu'ils génèrent des profils d'excitation sexuelle et des indices de déviance permettant de discriminer entre les groupes à l'étude. Ce projet de recherche présente les avantages associés à la présentation des personnages virtuels simulant différentes dispositions affectives lors de l'évaluation des intérêts sexuels chez les agresseurs d'enfants et propose des avenues intéressantes en termes d'évaluation et de traitement auprès de cette population.
Resumo:
Parallèlement à l’histoire du développement d’Internet et du web, une autre histoire est fondamentale pour comprendre les enjeux de l’édition numérique : celle des humanités numériques. Il y a encore quelques décennies, on pouvait penser que les ordinateurs et les technologies numériques étaient destinés uniquement aux sciences dures, les sciences exactes dont le calcul et les mathématiques sont les principaux outils. Cette idée est manifestement fausse aujourd’hui : le numérique habite l’ensemble de nos vies et touche aussi, et surtout, à nos activités purement « humanistes », ou même « humaines ». Ce chapitre a pour ambition de retracer l’histoire du rapport complexe entre les sciences humaines et l’informatique qui a mené des premières expériences de recherche assistée par ordinateur, dans le domaine des sciences humaines (humanities computing), aux actuelles digital humanities, ou à un possible humanisme numérique.
Resumo:
There are many ways to generate geometrical models for numerical simulation, and most of them start with a segmentation step to extract the boundaries of the regions of interest. This paper presents an algorithm to generate a patient-specific three-dimensional geometric model, based on a tetrahedral mesh, without an initial extraction of contours from the volumetric data. Using the information directly available in the data, such as gray levels, we built a metric to drive a mesh adaptation process. The metric is used to specify the size and orientation of the tetrahedral elements everywhere in the mesh. Our method, which produces anisotropic meshes, gives good results with synthetic and real MRI data. The resulting model quality has been evaluated qualitatively and quantitatively by comparing it with an analytical solution and with a segmentation made by an expert. Results show that our method gives, in 90% of the cases, as good or better meshes as a similar isotropic method, based on the accuracy of the volume reconstruction for a given mesh size. Moreover, a comparison of the Hausdorff distances between adapted meshes of both methods and ground-truth volumes shows that our method decreases reconstruction errors faster. Copyright © 2015 John Wiley & Sons, Ltd.
Resumo:
Se languir, s’embêter, regarder sans cesse sa montre, se morfondre, s’emmerder, trouver le temps long : s’ennuyer, bref. Au Québec, dans un registre plus populaire : trouver ça plate. Radicalement : se faire chier. Cela nous arrive sur les bancs d’école, dans une conversation, devant un livre, une émission de télé ou de radio, face à notre ordinateur – et au théâtre. Mais qu’est-ce que l’ennui? [...]
Resumo:
Dans le présent travail, nous faisons une incursion sur l'exposition de la réalité, dans une étude spécifique du programme Big Brother Brasil 9, approcher le sujet de la visibilité et de l'exposition à travers les concepts de la culture, corps, à et communication. Nous avons lié l'him/it à la théorie de pouvoir proposée par Michel Foucault. Le corps, dans notre analyse, est prisonnier à ordinateur individuel propulse, en camionnant des transformations dans le filet de rapports établis pour les participants de BBB. Nous avons cherché, à travers un plurimetodológica de l'approche, expliquer comme ils sentent les rapports de pouvoir dans ce televisivo du programme/jeu et la transformation des gens anonymes dans célébrités, raconter, avec tout ce avec la logique d'une consommation d'images. Dans l´époque contemporain, les images sont mediateurs puissants de la communication et ils servent de support au midiatique des produits, dans la fiction et banalité ou actions différentes et expériences du quotidien. Comme référence de recherche empirique, le travail est basé au Big Brother-9, a exposé par le Globe Net de Télévision, canal ouvert, dans la période du 13 janvier à avril 07, 2009. Avant que les résultats aient obtenu par l'analyse, nous avons vérifié ce BBB-9 à travers les plusieurs épreuves, les preuves et situations ont créé au-dedans parmi les participants du jeu il met à jour des rapports de pouvoir et d'exclusion, dans le différend pour le succès individuel, le tout coût. Le publique/telespectateur quand participe à travers le vote du programme travaille comme un régulateur pédagogique qu'il qualifie, Il classifique et il punit les conduites privées des joueurs, en étant responsable pour l'acceptation possible, ou pas, des gens, pendant s'écouler du jeu