473 resultados para Théorie de complexité du calcul
Resumo:
La complexité du traitement oncologique a amélioré les taux de survie des adolescents ayant le cancer mais a également augmenté leur souffrance. Le but de la présente étude était d'élaborer une échelle pour mesurer la souffrance chez cette population. À partir d’entrevues semi-structurées auprès de 19 adolescents et 16 experts, un pool d’items associés à la souffrance a été créé. Les items ont été présentés à un panel de neuf experts pour déterminer leur validité de contenu. Les analyses ont montré une validité de contenu élevée de l’échelle par l’indice de validité de contenu de 0,98 associé à un accord inter-juges de 0,88. La majorité des items étaient considérés faciles à comprendre et à y répondre. L’Échelle de Souffrance des Adolescents ayant le cancer (ESAC) est de type likert à quatre choix de réponses. Elle comprend 41 items portant sur la souffrance physique, psychologique, sociale, spirituelle, cognitive et globale.
Resumo:
Les simulations ont été implémentées avec le programme Java.
Resumo:
La présente thèse avait pour objectif général d’alimenter la réflexion sur les troubles de la mentalisation et, en particulier, sur les phénomènes de pensée concrète. Nous avons d’abord procédé à une récapitulation synthétique des notions avancées par les principaux théoriciens qui ont travaillé sur cette question. Nous avons ainsi repris les travaux de Freud sur la névrose actuelle, de Marty et l’école de Paris sur le fonctionnement opératoire, de Nemiah, Sifneos, Taylor et leurs collègues américains qui ont proposé la notion d’alexithymie, et de Fonagy et Target sur la fonction réflexive. Nous avons ensuite développé l’hypothèse de l’existence d’une position (au sens de perspective et d’organisation expérientielle particulière) concrète, dont le fonctionnement serait antérieur à la position schizoparanoïde décrite par Klein. Notre compréhension s’est articulée autour de la notion de pulsion léthique, à partir d’une réflexion sur la pulsion de mort et des différentes propositions quant à sa nature et son fonctionnement (Freud, Green, Laplanche, Schmidt-Hellerau). Nous soulignons comme caractéristique de la pulsion léthique l’importance du phénomène de néantisation du sujet psychique, qui résulte en une situation d’absence ou de « sommeil endopsychique », au sein de la position concrète. Nous avons tenté d’articuler cette action interne au sein de l’expérience psychique afin de dresser un portrait qui saurait englober la complexité du fonctionnement mental humain, dans sa fluidité comme dans sa diversité. Nous avons exploré les impacts de traumatismes relationnels sur l’environnement interne et sur l’origine des pulsions. Nous avons ensuite illustré chacun des éléments structuraux (expérience, relations d’objet, défenses, angoisses) résultant d’un fonctionnement concret, en illustrant notre propos. Enfin, nous avons discuté de certains enjeux techniques et contre-transférentiels soulevés par le travail psychothérapeutique avec des sujets aux prises avec une pensée concrète.
Resumo:
L’objectif de cette recherche est de comparer deux modes d’intervention internationale (étatique et non-étatique) qui ont une optique de maintien ou de rétablissement de l’ordre et de la paix, de développement économique et social, pour des raisons humanitaires. De fait, la frontière est aujourd’hui floue entre les interventions étatiques et non-étatiques. Pour éviter une confusion conceptuelle, l’objet de l’étude est la comparaison de trois moments historiques d’intervention américaine en Haïti. L’étude se déroule en deux temps. D’abord elle servira à comprendre la logique d’action de l’État américain lors des interventions passées et présente afin de relever les objectifs implicites et explicites de ces interventions. Dans un deuxième temps elle se concentrera sur la biopolitique dans l’intervention humanitaire et l’application de la théorie de régulation du chaos. Celle-ci impliquant des conditions variées, elle propose un modèle théorique qui vise à comprendre l’intervention contemporaine en tant que nouveau cadre épistémique d’action politique, celle du ‘chaos régulé’ (‘Regulated Chaos’: McFalls, Pandolfi, Nguyen). Cette recherche transpose donc l’emphase sur la nécessité effective de l’intervention vers les propriétés de l’intervention. Elle est une tentative de comprendre les expériences sociales de pouvoir dans une zone humanitaire comme Port-au-Prince.
Resumo:
Cette recherche porte sur la notion de contrôle qui s’opère sur l’Internet grâce aux outils de l’information et de la communication. Dans une première approche à mon sujet, j’ai essayé de définir les concepts information et communication puis, j’ai retracé le cadre théorique de leurs évolutions; ceci dans le but de (1) montrer l’ambiguïté qui tourne autour de leurs définitions, (2) créer un lien entre ces deux termes et le contrôle. Après une brève description théorique, la complexité du concept de contrôle est mise en relief. Pour- ce- faire, je prends principalement appui sur les travaux de Wiener puis de Michel Foucault, sans toutefois les embrasser totalement. L’objectif de cette approche de travail est de me permettre de cerner et de regrouper les différentes formes de contrôle sur le net en deux catégories, suivant le modèle établi par Michel Foucault dans son ouvrage Surveiller et Punir. Mes deux axes sont: (1) le contrôle - mécanisme, (2) le contrôle - blocus. Enfin, je m’intéresse à l’influence que ces différentes formes de contrôle peuvent avoir sur la construction de notre individualité. Comme point de départ, j’analyse la notion d’individu chez M. Foucault et ensuite, j’explore les concepts d’intériorité versus extériorité. Ces deux concepts recoupent en partie la notion d’individu –construction social - chez Michel Foucault et permettent de poser des questions fondamentales sur les possibilités du sujet d’échapper au contrôle des nouvelles technologies de l’information et de la communication. Quelques éléments de réponse ainsi que des reformulations sont proposés en guise de conclusion.
Resumo:
En radiothérapie, la tomodensitométrie (CT) fournit l’information anatomique du patient utile au calcul de dose durant la planification de traitement. Afin de considérer la composition hétérogène des tissus, des techniques de calcul telles que la méthode Monte Carlo sont nécessaires pour calculer la dose de manière exacte. L’importation des images CT dans un tel calcul exige que chaque voxel exprimé en unité Hounsfield (HU) soit converti en une valeur physique telle que la densité électronique (ED). Cette conversion est habituellement effectuée à l’aide d’une courbe d’étalonnage HU-ED. Une anomalie ou artefact qui apparaît dans une image CT avant l’étalonnage est susceptible d’assigner un mauvais tissu à un voxel. Ces erreurs peuvent causer une perte cruciale de fiabilité du calcul de dose. Ce travail vise à attribuer une valeur exacte aux voxels d’images CT afin d’assurer la fiabilité des calculs de dose durant la planification de traitement en radiothérapie. Pour y parvenir, une étude est réalisée sur les artefacts qui sont reproduits par simulation Monte Carlo. Pour réduire le temps de calcul, les simulations sont parallélisées et transposées sur un superordinateur. Une étude de sensibilité des nombres HU en présence d’artefacts est ensuite réalisée par une analyse statistique des histogrammes. À l’origine de nombreux artefacts, le durcissement de faisceau est étudié davantage. Une revue sur l’état de l’art en matière de correction du durcissement de faisceau est présentée suivi d’une démonstration explicite d’une correction empirique.
Resumo:
La majorité des personnes atteintes de démence en soins de longue durée (SLD) souffre d’une détérioration de la cognition, des interactions sociales, de la santé mentale et de la qualité de vie (QdV). Par conséquent, les proches aidants et les soignants de cette population peuvent éprouver des difficultés, tel que le stress, en raison de la complexité du syndrome. Il s’avère essentiel de valider des interventions psychosociales adaptées à la population atteinte de démence et à ses aidants. La réminiscence, une intervention psychosociale misant sur les capacités résiduelles des personnes atteintes de démence, se fonde sur la remémoration des souvenirs anciens agréables. L’objectif général du mémoire était de valider la mise en œuvre d’une intervention de réminiscence menée par le personnel soignant auprès des personnes atteintes de démence et leurs familles dans un centre de SLD, en faisant appel aux avis experts des soignants et des familles des personnes atteintes de démence dans le contexte d’entrevues. Une évaluation pré-post intervention a permis de mesurer la santé mentale et la QdV des personnes atteintes de démence avant l’intervention, une semaine après et trois mois après l’intervention. Les résultats indiquent que la réminiscence a été bien appréciée par les soignants, les personnes atteintes de démence et leurs familles, et valident sa mise en œuvre en SLD. Des améliorations significatives (Wilcoxon p < 0,025) à court et à long terme ont été observées au niveau de la santé mentale et la QdV des personnes atteintes de démence.
Resumo:
Cette thèse a pour but d’améliorer l’automatisation dans l’ingénierie dirigée par les modèles (MDE pour Model Driven Engineering). MDE est un paradigme qui promet de réduire la complexité du logiciel par l’utilisation intensive de modèles et des transformations automatiques entre modèles (TM). D’une façon simplifiée, dans la vision du MDE, les spécialistes utilisent plusieurs modèles pour représenter un logiciel, et ils produisent le code source en transformant automatiquement ces modèles. Conséquemment, l’automatisation est un facteur clé et un principe fondateur de MDE. En plus des TM, d’autres activités ont besoin d’automatisation, e.g. la définition des langages de modélisation et la migration de logiciels. Dans ce contexte, la contribution principale de cette thèse est de proposer une approche générale pour améliorer l’automatisation du MDE. Notre approche est basée sur la recherche méta-heuristique guidée par les exemples. Nous appliquons cette approche sur deux problèmes importants de MDE, (1) la transformation des modèles et (2) la définition précise de langages de modélisation. Pour le premier problème, nous distinguons entre la transformation dans le contexte de la migration et les transformations générales entre modèles. Dans le cas de la migration, nous proposons une méthode de regroupement logiciel (Software Clustering) basée sur une méta-heuristique guidée par des exemples de regroupement. De la même façon, pour les transformations générales, nous apprenons des transformations entre modèles en utilisant un algorithme de programmation génétique qui s’inspire des exemples des transformations passées. Pour la définition précise de langages de modélisation, nous proposons une méthode basée sur une recherche méta-heuristique, qui dérive des règles de bonne formation pour les méta-modèles, avec l’objectif de bien discriminer entre modèles valides et invalides. Les études empiriques que nous avons menées, montrent que les approches proposées obtiennent des bons résultats tant quantitatifs que qualitatifs. Ceux-ci nous permettent de conclure que l’amélioration de l’automatisation du MDE en utilisant des méthodes de recherche méta-heuristique et des exemples peut contribuer à l’adoption plus large de MDE dans l’industrie à là venir.
Resumo:
Il y a des problemes qui semblent impossible a resoudre sans l'utilisation d'un tiers parti honnete. Comment est-ce que deux millionnaires peuvent savoir qui est le plus riche sans dire a l'autre la valeur de ses biens ? Que peut-on faire pour prevenir les collisions de satellites quand les trajectoires sont secretes ? Comment est-ce que les chercheurs peuvent apprendre les liens entre des medicaments et des maladies sans compromettre les droits prives du patient ? Comment est-ce qu'une organisation peut ecmpecher le gouvernement d'abuser de l'information dont il dispose en sachant que l'organisation doit n'avoir aucun acces a cette information ? Le Calcul multiparti, une branche de la cryptographie, etudie comment creer des protocoles pour realiser de telles taches sans l'utilisation d'un tiers parti honnete. Les protocoles doivent etre prives, corrects, efficaces et robustes. Un protocole est prive si un adversaire n'apprend rien de plus que ce que lui donnerait un tiers parti honnete. Un protocole est correct si un joueur honnete recoit ce que lui donnerait un tiers parti honnete. Un protocole devrait bien sur etre efficace. Etre robuste correspond au fait qu'un protocole marche meme si un petit ensemble des joueurs triche. On demontre que sous l'hypothese d'un canal de diusion simultane on peut echanger la robustesse pour la validite et le fait d'etre prive contre certains ensembles d'adversaires. Le calcul multiparti a quatre outils de base : le transfert inconscient, la mise en gage, le partage de secret et le brouillage de circuit. Les protocoles du calcul multiparti peuvent etre construits avec uniquements ces outils. On peut aussi construire les protocoles a partir d'hypoth eses calculatoires. Les protocoles construits a partir de ces outils sont souples et peuvent resister aux changements technologiques et a des ameliorations algorithmiques. Nous nous demandons si l'efficacite necessite des hypotheses de calcul. Nous demontrons que ce n'est pas le cas en construisant des protocoles efficaces a partir de ces outils de base. Cette these est constitue de quatre articles rediges en collaboration avec d'autres chercheurs. Ceci constitue la partie mature de ma recherche et sont mes contributions principales au cours de cette periode de temps. Dans le premier ouvrage presente dans cette these, nous etudions la capacite de mise en gage des canaux bruites. Nous demontrons tout d'abord une limite inferieure stricte qui implique que contrairement au transfert inconscient, il n'existe aucun protocole de taux constant pour les mises en gage de bit. Nous demontrons ensuite que, en limitant la facon dont les engagements peuvent etre ouverts, nous pouvons faire mieux et meme un taux constant dans certains cas. Ceci est fait en exploitant la notion de cover-free families . Dans le second article, nous demontrons que pour certains problemes, il existe un echange entre robustesse, la validite et le prive. Il s'effectue en utilisant le partage de secret veriable, une preuve a divulgation nulle, le concept de fantomes et une technique que nous appelons les balles et les bacs. Dans notre troisieme contribution, nous demontrons qu'un grand nombre de protocoles dans la litterature basee sur des hypotheses de calcul peuvent etre instancies a partir d'une primitive appelee Transfert Inconscient Veriable, via le concept de Transfert Inconscient Generalise. Le protocole utilise le partage de secret comme outils de base. Dans la derniere publication, nous counstruisons un protocole efficace avec un nombre constant de rondes pour le calcul a deux parties. L'efficacite du protocole derive du fait qu'on remplace le coeur d'un protocole standard par une primitive qui fonctionne plus ou moins bien mais qui est tres peu couteux. On protege le protocole contre les defauts en utilisant le concept de privacy amplication .
Resumo:
Simuler efficacement l'éclairage global est l'un des problèmes ouverts les plus importants en infographie. Calculer avec précision les effets de l'éclairage indirect, causés par des rebonds secondaires de la lumière sur des surfaces d'une scène 3D, est généralement un processus coûteux et souvent résolu en utilisant des algorithmes tels que le path tracing ou photon mapping. Ces techniquesrésolvent numériquement l'équation du rendu en utilisant un lancer de rayons Monte Carlo. Ward et al. ont proposé une technique nommée irradiance caching afin d'accélérer les techniques précédentes lors du calcul de la composante indirecte de l'éclairage global sur les surfaces diffuses. Krivanek a étendu l'approche de Ward et Heckbert pour traiter le cas plus complexe des surfaces spéculaires, en introduisant une approche nommée radiance caching. Jarosz et al. et Schwarzhaupt et al. ont proposé un modèle utilisant le hessien et l'information de visibilité pour raffiner le positionnement des points de la cache dans la scène, raffiner de manière significative la qualité et la performance des approches précédentes. Dans ce mémoire, nous avons étendu les approches introduites dans les travaux précédents au problème du radiance caching pour améliorer le positionnement des éléments de la cache. Nous avons aussi découvert un problème important négligé dans les travaux précédents en raison du choix des scènes de test. Nous avons fait une étude préliminaire sur ce problème et nous avons trouvé deux solutions potentielles qui méritent une recherche plus approfondie.
Resumo:
Le monde du travail connaît actuellement de grandes transformations. Le modèle nord-américain d’organisation syndicale ne semble plus permettre au mouvement syndical de répondre efficacement à ces transformations, favorisant le développement de plusieurs initiatives de renouveau syndical. Pour évaluer les impacts d’initiatives de renouveau syndical, nous avons développé un modèle basé sur le concept de zone syndicale (Haiven, 2003, 2006). Nous avons dû déterminer les facteurs définissant la zone syndicale, comme la littérature était muette à ce sujet. En utilisant d’abord la théorie des déterminants de la densité syndicale (Schnabel, 2003), nous avons intégré au modèle les éléments de la théorie des ressources du pouvoir syndical (Lévesque et Murray, 2010) pour considérer les facteurs internes aux syndicats qui influencent la zone syndicale. L’intégration de ces trois théories dans un modèle unifié constitue une innovation théorique significative. Le modèle a été appliqué à deux centres de travailleurs : le Vermont Workers Center et le Centre des Travailleurs de St-Rémi. Dans les deux cas, ces initiatives ont permis d’élargir la zone syndicale. Par contre, le Centre du Vermont applique les principes du syndicalisme communautaire, en cherchant à développer du leaderhsip chez ses membres (Cranford et Ladd, 2013), alors que celui de St-Rémi applique un syndicalisme de mobilisation, où le leadership s’exerce par les organisateurs syndicaux (Camfield, 2007). Cette différence et leurs différents mandats font que les impacts des deux cas étudiés diffèrent. D’autres études sont nécessaires pour améliorer le modèle proposé. Ce dernier demeure malgré tout un outil pour les chercheurs ou les syndicats qui veulent évaluer des initiatives ou des pratiques syndicales et permettre, à terme, d’augmenter l’influence du mouvement syndical sur le marché du travail et la société.
Resumo:
Les récents avancements en sciences cognitives, psychologie et neurosciences, ont démontré que les émotions et les processus cognitifs sont intimement reliés. Ce constat a donné lieu à une nouvelle génération de Systèmes Tutoriels Intelligents (STI) dont la logique d’adaptation repose sur une considération de la dimension émotionnelle et affective de l’apprenant. Ces systèmes, connus sous le nom de Systèmes Tutoriels Émotionnellement Intelligents (STEI), cherchent à se doter des facultés des tuteurs humains dans leurs capacités à détecter, comprendre et s’adapter intuitivement en fonction de l’état émotionnel des apprenants. Toutefois, en dépit du nombre important de travaux portant sur la modélisation émotionnelle, les différents résultats empiriques ont démontré que les STEI actuels n’arrivent pas à avoir un impact significatif sur les performances et les réactions émotionnelles des apprenants. Ces limites sont principalement dues à la complexité du concept émotionnel qui rend sa modélisation difficile et son interprétation ambiguë. Dans cette thèse, nous proposons d’augmenter les STEI des indicateurs d’états mentaux d’engagement et de charge mentale de travail. Ces états mentaux ont l’avantage d’englober à la fois une dimension affective et cognitive. Pour cela, nous allons, dans une première partie, présenter une approche de modélisation de ces indicateurs à partir des données de l’activité cérébrale des apprenants. Dans une seconde partie, nous allons intégrer ces modèles dans un STEI capable d’adapter en temps réel le processus d’apprentissage en fonction de ces indicateurs.
Resumo:
À travers cette thèse, nous revisitons les différentes étapes qui ont conduit à la découverte des isolants topologiques, suite à quoi nous nous penchons sur la question à savoir si une phase topologiquement non-triviale peut coexister avec un état de symétrie brisée. Nous abordons les concepts les plus importants dans la description de ce nouvel état de la matière, et tentons de comprendre les conséquences fascinantes qui en découlent. Il s’agit d’un champ de recherche fortement alimenté par la théorie, ainsi, l’étude du cadre théorique est nécessaire pour atteindre une compréhension profonde du sujet. Le chapitre 1 comprend un retour sur l’effet de Hall quantique, afin de motiver les sections subséquentes. Le chapitre 2 présente la première réalisation d’un isolant topologique à deux dimensions dans un puits quantique de HgTe/CdTe, suite à quoi ces résultats sont généralisés à trois dimensions. Nous verrons ensuite comment incorporer des principes de topologie dans la caractérisation d’un système spécifique, à l’aide d’invariants topologiques. Le chapitre 3 introduit le premier dérivé de l’état isolant topologique, soit l’isolant topologique antiferromagnétique (ITAF). Après avoir motivé théoriquement le sujet et introduit un invariant propre à ce nouvel état ITAF, qui est couplé à l’ordre de Néel, nous explorons, dans les chapitres 4 et 5, deux candidats de choix pour la phase ITAF : GdBiPt et NdBiPt.
Resumo:
Ce mémoire a pour thèse que les fonctions devraient être transparentes lors de la phase de métaprogrammation. En effet, la métaprogrammation se veut une possibilité pour le programmeur d’étendre le compilateur. Or, dans un style de programmation fonctionnelle, la logique du programme se retrouve dans les définitions des diverses fonctions le composant. Puisque les fonctions sont généralement opaques, l’impossibilité d’accéder à cette logique limite les applications possibles de la phase de métaprogrammation. Nous allons illustrer les avantages que procurent les fonctions transparentes pour la métaprogrammation. Nous donnerons notamment l’exemple du calcul symbolique et un exemple de nouvelles optimisations désormais possibles. Nous illustrerons également que la transparence des fonctions permet de faire le pont entre les datatypes du programme et les fonctions. Nous allons également étudier ce qu'implique la présence de fonctions transparentes au sein d'un langage. Nous nous concentrerons sur les aspects reliés à l'implantation de ces dernières, aux performances et à la facilité d'utilisation. Nous illustrerons nos propos avec le langage Abitbol, un langage créé sur mesure pour la métaprogrammation.
Resumo:
Ce mémoire s'intéresse à la reconstruction d'un modèle 3D à partir de plusieurs images. Le modèle 3D est élaboré avec une représentation hiérarchique de voxels sous la forme d'un octree. Un cube englobant le modèle 3D est calculé à partir de la position des caméras. Ce cube contient les voxels et il définit la position de caméras virtuelles. Le modèle 3D est initialisé par une enveloppe convexe basée sur la couleur uniforme du fond des images. Cette enveloppe permet de creuser la périphérie du modèle 3D. Ensuite un coût pondéré est calculé pour évaluer la qualité de chaque voxel à faire partie de la surface de l'objet. Ce coût tient compte de la similarité des pixels provenant de chaque image associée à la caméra virtuelle. Finalement et pour chacune des caméras virtuelles, une surface est calculée basée sur le coût en utilisant la méthode de SGM. La méthode SGM tient compte du voisinage lors du calcul de profondeur et ce mémoire présente une variation de la méthode pour tenir compte des voxels précédemment exclus du modèle par l'étape d'initialisation ou de creusage par une autre surface. Par la suite, les surfaces calculées sont utilisées pour creuser et finaliser le modèle 3D. Ce mémoire présente une combinaison innovante d'étapes permettant de créer un modèle 3D basé sur un ensemble d'images existant ou encore sur une suite d'images capturées en série pouvant mener à la création d'un modèle 3D en temps réel.