31 resultados para Matching patient to digital phantoms

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The following properties of the core of a one well-known: (i) the core is non-empty; (ii) the core is a lattice; and (iii) the set of unmatched agents is identical for any two matchings belonging to the core. The literature on two-sided matching focuses almost exclusively on the core and studies extensively its properties. Our main result is the following characterization of (von Neumann-Morgenstern) stable sets in one-to-one matching problem only if it is a maximal set satisfying the following properties : (a) the core is a subset of the set; (b) the set is a lattice; (c) the set of unmatched agents is identical for any two matchings belonging to the set. Furthermore, a set is a stable set if it is the unique maximal set satisfying properties (a), (b) and (c). We also show that our main result does not extend from one-to-one matching problems to many-to-one matching problems.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

ARTICLE 1 : RÉSUMÉ Amputation traumatique: Une étude de cas laotien sur l’indignation et l’injustice. La culture est un contexte essentiel à considérer pour produire un diagnostic et un plan d’intervention psychiatrique. Une perspective culturelle met en relief le contexte social dans lequel les symptômes émergent, et comment ils sont interprétés et gérés par la personne atteinte. Des études ethnoculturelles sur les maladies nous suggèrent que la plupart des gens nous donnent des explications pour leurs symptômes qui ont un fondement culturel. Bien que ces explications contredisent la théorie biomédicale, elles soulagent la souffrance des patients et leur permettent de donner une signification à cette dernière. L’exploration des caractéristiques, contextes et antécédents des symptômes permet au patient de les communiquer au clinicien qui pourrait avoir une explication différente de sa maladie. Cette étude de cas permet de montrer comment le Guide pour Formulation Culturelle du DSM-IV (The DSM-IV Outline for Cultural Formulation) permet aux cliniciens de solliciter un récit du patient en lien avec son expérience de la maladie. Notre étude examine l’utilisation par un patient laotien de « l’indignation sociale » (« Khuâm khum khang ») comme le modèle explicatif culturel de son problème malgré le diagnostic de trouble de stress post-traumatique qui lui fut attribué après une amputation traumatique. L’explication culturelle de son problème a permis au patient d’exprimer la signification personnelle et collective à sa colère et sa frustration, émotions qu’il avait réprimées. Cet idiome culturel lui a permis d’exprimer sa détresse et de réfléchir sur le système de soins de santé et, plus précisément, le contexte dans lequel les symptômes et leurs origines sont racontés et évalués. Cette représentation laotienne a aussi permis aux cliniciens de comprendre des expériences et les explications du client, autrement difficiles à situer dans un contexte biomédical et psychiatrique Euro-américain. Cette étude démontre comment il est possible d’améliorer les interactions entre cliniciens et patients et dès lors la qualité des soins par la compréhension de la perspective du patient et l’utilisation d’une approche culturelle. Mots clés: Culture, signification, idiome culturel, modèle explicatif, Guide pour Formulation culturelle du DSM-IV, indignation sociale, interaction entre patient et intervenant. ARTICLE 2 : RÉSUMÉ Impact de l’utilisation du Guide pour la formulation culturelle du DSM-IV sur la dynamique de conférences multidisciplinaires en santé mentale. La croissance du pluralisme culturel en Amérique du nord a obligé la communauté oeuvrant en santé mentale d’adopter une sensibilité culturelle accrue dans l’exercice de leur métier. Les professionnels en santé mentale doivent prendre conscience du contexte historique et social non seulement de leur clientèle mais également de leur propre profession. Les renseignements exigés pour les soins professionnels proviennent d’ évaluations cliniques. Il faut examiner ces informations dans un cadre culturellement sensible pour pouvoir formuler une évaluation des cas qui permet aux cliniciens de poser un diagnostic juste et précis, et ce, à travers les frontières culturelles du patient aussi bien que celles du professionnel en santé mentale. Cette situation a suscité le développement du Guide pour la formulation culturelle dans la 4ième édition du Manuel diagnostique et statistique des troubles mentaux américain (Diagnostic and Statistical Manual of Mental Disorders (4th ed., DSM-IV) de l’Association psychiatrique américaine. Ce guide est un outil pour aider les cliniciens à obtenir des informations de nature culturelle auprès du client et de sa famille afin de guider la production des soins en santé mentale. L’étude vise l’analyse conversationnelle de la conférence multidisciplinaire comme contexte d’utilisation du Guide pour la formulation culturelle qui sert de cadre dans lequel les pratiques discursives des professionnels de la santé mentale évoluent. Utilisant la perspective théorique de l’interactionnisme symbolique, l’étude examine comment les diverses disciplines de la santé mentale interprètent et conceptualisent les éléments culturels et les implications de ce cadre pour la collaboration interdisciplinaire dans l’évaluation, l’élaboration de plans de traitement et des soins. Mots clé: Guide pour Formulation culturelle – Santé mentale – Psychiatrie transculturelle – Analyse conversationnelle – Interactionnisme symbolique

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cet article met en lumière la perspective européenne sur un des plus importants défis que l’Internet et le Web 2.0 présente pour la vie privée et le droit à la protection des données. L’auteur y soulève des problématiques liées à la mémoire numérique et distingue à partir de plusieurs cas où les individus seraient intéressés de réclamer l'oubli tant dans les réseaux sociaux, les journaux officiels des gouvernements et dans les bibliothèques médiatiques numériques. Il trace l’histoire de l’identification du droit à l’oubli dont les fondements ont été définis par les agences françaises, italiennes et espagnoles de protection des données. En conclusion, il pose son regard sur un nouveau cadre européen de la protection des données comprenant le droit individuel à voir leurs données supprimées lorsqu’elles ne sont plus nécessaires à des fins légitimes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le diagnostic de l’acouphène repose sur le rapport verbal du patient. Cependant, les paramètres psychoacoustiques, tels que la hauteur et la sonie de l’acouphène, sont essentiels pour l’évaluation et pour discriminer les fausses plaintes. Quantifier le percept de l’acouphène reste un objectif de recherche important. Nous avons cherché à: (1) évaluer la précision d'une nouvelle méthode d'évaluation des acouphènes du type « likeness rating » avec une méthode de présentation continue de la hauteur, en considérant la formation musicale, et (2) vérifier si les mesures psychoacoustiques de l’acouphène ont la sensibilité et la spécificité pour détecter les personnes simulant un acouphène. Nous avons recruté des musiciens et des non-musiciens souffrant d'acouphènes et des simulateurs sans acouphènes. La plupart d’entre eux ont été testés une seconde fois quelques semaines plus tard. La hauteur de l’acouphène a d’abord été évaluée en utilisant la méthode « likness rating ». Des sons purs ont été présentés de manière aléatoire de 0.25 kHz à 16 kHz et les participants devaient coter la ressemblance de chaque son par rapport à leur acouphène, et en ajuster son volume de 0 à 100 dB SPL. La hauteur a ensuite été évaluée par une méthode, où les participants devaient apparier la hauteur de leur acouphène en déplaçant leur doigt sur une bande tactile générant des sons purs en continu de 0.5 kHz à 20 kHz par pas de 1 Hz. Les capacités à apparier des sons externes ont été évaluées en utilisant cet appareil. La hauteur prédominante de l’acouphène était similaire entre les deux méthodes pour les musiciens et les non-musiciens, bien que les musiciens montraient de meilleures capacités d’appariement face à des sons externes. Les simulateurs ont coté la sonie bien au-dessus que les autres groupes avec un grand degré de spécificité (94,4%), et ont été inconsistants dans l’appariement de cette sonie (pas de la hauteur) d’une session à une autre. Les données de la seconde session montrent des réponses similaires pour l’appariement de la hauteur pour les deux méthodes ainsi que pour tous nos participants. En conclusion, la hauteur et la sonie correspondent au percept de l’acouphène et doivent en plus être utilisées avec des échelles visuelles analogiques, qui sont plus corrélées avec la gêne et la détresse. Enfin, l’appariement de la sonie est sensible et spécifique à déterminer la présence de l’acouphène.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les maladies cardiovasculaires sont la première cause de mortalité dans le monde et les anévrismes de l’aorte abdominale (AAAs) font partie de ce lot déplorable. Un anévrisme est la dilatation d’une artère pouvant conduire à la mort. Une rupture d’AAA s’avère fatale près de 80% du temps. Un moyen de traiter les AAAs est l’insertion d’une endoprothèse (SG) dans l’aorte, communément appelée la réparation endovasculaire (EVAR), afin de réduire la pression exercée par le flux sanguin sur la paroi. L’efficacité de ce traitement est compromise par la survenue d’endofuites (flux sanguins entre la prothèse et le sac anévrismal) pouvant conduire à la rupture de l’anévrisme. Ces flux sanguins peuvent survenir à n’importe quel moment après le traitement EVAR. Une surveillance par tomodensitométrie (CT-scan) annuelle est donc requise, augmentant ainsi le coût du suivi post-EVAR et exposant le patient à la radiation ionisante et aux complications des contrastes iodés. L’endotension est le concept de dilatation de l’anévrisme sans la présence d’une endofuite apparente au CT-scan. Après le traitement EVAR, le sang dans le sac anévrismal coagule pour former un thrombus frais, qui deviendra progressivement un thrombus plus fibreux et plus organisé, donnant lieu à un rétrécissement de l’anévrisme. Il y a très peu de données dans la littérature pour étudier ce processus temporel et la relation entre le thrombus frais et l’endotension. L’étalon d’or du suivi post-EVAR, le CT-scan, ne peut pas détecter la présence de thrombus frais. Il y a donc un besoin d’investir dans une technique sécuritaire et moins coûteuse pour le suivi d’AAAs après EVAR. Une méthode récente, l’élastographie dynamique, mesure l’élasticité des tissus en temps réel. Le principe de cette technique repose sur la génération d’ondes de cisaillement et l’étude de leur propagation afin de remonter aux propriétés mécaniques du milieu étudié. Cette thèse vise l’application de l’élastographie dynamique pour la détection des endofuites ainsi que de la caractérisation mécanique des tissus du sac anévrismal après le traitement EVAR. Ce projet dévoile le potentiel de l’élastographie afin de réduire les dangers de la radiation, de l’utilisation d’agent de contraste ainsi que des coûts du post-EVAR des AAAs. L’élastographie dynamique utilisant le « Shear Wave Imaging » (SWI) est prometteuse. Cette modalité pourrait complémenter l’échographie-Doppler (DUS) déjà utilisée pour le suivi d’examen post-EVAR. Le SWI a le potentiel de fournir des informations sur l’organisation fibreuse du thrombus ainsi que sur la détection d’endofuites. Tout d’abord, le premier objectif de cette thèse consistait à tester le SWI sur des AAAs dans des modèles canins pour la détection d’endofuites et la caractérisation du thrombus. Des SGs furent implantées dans un groupe de 18 chiens avec un anévrisme créé au moyen de la veine jugulaire. 4 anévrismes avaient une endofuite de type I, 13 avaient une endofuite de type II et un anévrisme n’avait pas d’endofuite. Des examens échographiques, DUS et SWI ont été réalisés à l’implantation, puis 1 semaine, 1 mois, 3 mois et 6 mois après le traitement EVAR. Une angiographie, un CT-scan et des coupes macroscopiques ont été produits au sacrifice. Les régions d’endofuites, de thrombus frais et de thrombus organisé furent identifiées et segmentées. Les valeurs de rigidité données par le SWI des différentes régions furent comparées. Celles-ci furent différentes de façon significative (P < 0.001). Également, le SWI a pu détecter la présence d’endofuites où le CT-scan (1) et le DUS (3) ont échoué. Dans la continuité de ces travaux, le deuxième objectif de ce projet fut de caractériser l’évolution du thrombus dans le temps, de même que l’évolution des endofuites après embolisation dans des modèles canins. Dix-huit anévrismes furent créés dans les artères iliaques de neuf modèles canins, suivis d’une endofuite de type I après EVAR. Deux gels embolisants (Chitosan (Chi) ou Chitosan-Sodium-Tetradecyl-Sulfate (Chi-STS)) furent injectés dans le sac anévrismal pour promouvoir la guérison. Des examens échographiques, DUS et SWI ont été effectués à l’implantation et après 1 semaine, 1 mois, 3 mois et 6 mois. Une angiographie, un CT-scan et un examen histologique ont été réalisés au sacrifice afin d’évaluer la présence, le type et la grosseur de l’endofuite. Les valeurs du module d’élasticité des régions d’intérêts ont été identifiées et segmentées sur les données pathologiques. Les régions d’endofuites et de thrombus frais furent différentes de façon significative comparativement aux autres régions (P < 0.001). Les valeurs d’élasticité du thrombus frais à 1 semaine et à 3 mois indiquent que le SWI peut évaluer la maturation du thrombus, de même que caractériser l’évolution et la dégradation des gels embolisants dans le temps. Le SWI a pu détecter des endofuites où le DUS a échoué (2) et, contrairement au CT-scan, détecter la présence de thrombus frais. Finalement, la dernière étape du projet doctoral consistait à appliquer le SWI dans une phase clinique, avec des patients humains ayant déjà un AAA, pour la détection d’endofuite et la caractérisation de l’élasticité des tissus. 25 patients furent sélectionnés pour participer à l’étude. Une comparaison d’imagerie a été produite entre le SWI, le CT-scan et le DUS. Les valeurs de rigidité données par le SWI des différentes régions (endofuite, thrombus) furent identifiées et segmentées. Celles-ci étaient distinctes de façon significative (P < 0.001). Le SWI a détecté 5 endofuites sur 6 (sensibilité de 83.3%) et a eu 6 faux positifs (spécificité de 76%). Le SWI a pu détecter la présence d’endofuites où le CT-scan (2) ainsi que le DUS (2) ont échoué. Il n’y avait pas de différence statistique notable entre la rigidité du thrombus pour un AAA avec endofuite et un AAA sans endofuite. Aucune corrélation n’a pu être établie de façon significative entre les diamètres des AAAs ainsi que leurs variations et l’élasticité du thrombus. Le SWI a le potentiel de détecter les endofuites et caractériser le thrombus selon leurs propriétés mécaniques. Cette technique pourrait être combinée au suivi des AAAs post-EVAR, complémentant ainsi l’imagerie DUS et réduisant le coût et l’exposition à la radiation ionisante et aux agents de contrastes néphrotoxiques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les patients atteints de mono-traumatisme à un membre doivent consulter un médecin de première ligne qui assurera la prise en charge initiale et référera au besoin le patient vers un orthopédiste. L‟objectif principal de cette étude est de décrire ce mécanisme de référence envers un Service d‟orthopédie affilié à un Centre de traumatologie Niveau 1. La collecte de données concernant l‟accès aux soins spécialisés et la qualité des soins primaires a été faite lors de la visite en orthopédie. Nous avons étudié 166 patients consécutifs référés en orthopédie sur une période de 4 mois. Avant leur référence en orthopédie, 23 % des patients ont dû consulter 2 médecins de première ligne ou plus pour leur blessure. Le temps entre la consultation en première ligne et la visite en orthopédie (68 heures) dépasse le temps compris entre le traumatisme et l‟accès au généraliste (21 heures). Parmi les cas jugés urgents, 36 % n‟ont pas été vus dans les temps recommandés. La qualité des soins de première ligne fut sous-optimale chez 49 % des patients concernant l‟analgésie, l‟immobilisation et/ou l‟aide à la marche. Les facteurs associés à une diminution d‟accès en orthopédie et/ou une qualité de soins inférieure sont : tabagisme, jeune âge, habiter loin de l‟hôpital, consulter initialement une clinique privée, avoir une blessure au membre inférieur ou des tissus mous et une faible sévérité de la blessure selon le patient. Ces résultats démontrent qu‟il faut mieux cibler l‟enseignement relié aux mono-traumatismes envers les médecins de première ligne afin d‟améliorer le système de référence.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La situation d’un patient trop malade pour une transplantation et qui est maintenu à long terme aux soins intensifs (SI) avec l’aide d’un dispositif d'assistance ventriculaire (DAV) peut évoluer de multiples façons. Malheureusement, plusieurs soignants vivent un malaise lorsque ce patient survit avec des complications, sans possibilité de transplantation cardiaque ni de retour à domicile. Par conséquent, différents buts thérapeutiques sont poursuivis au sein de l’équipe soignante. L’étude avait pour objectifs de cerner les buts poursuivis par les professionnels de la santé œuvrant auprès de ce type de patient, de clarifier les facteurs influençant les buts poursuivis et de mieux connaître les difficultés éprouvées par l’équipe soignante dans l’élaboration d’un but commun. La phénoménologie a été utilisée comme méthodologie de définition de la problématique. L’échantillon comprenait 12 participants représentant les infirmières, médecins et perfusionnistes d'une unité de SI, travaillant auprès de ce type de patient. Chacun des participants a fait l’objet d’une entrevue individuelle, semi-dirigée et enregistrée sur appareil audio. Il leur a d’abord été présenté une vignette à partir de laquelle ont été posées un certain nombre de questions identiques pour tous. Dans leurs réponses à ces questions, les participants ont eu la possibilité de s’exprimer autant sur leur expérience que sur le contexte du phénomène. Une seconde rencontre a été nécessaire afin de valider ou de corriger l’interprétation de ce que chacun avait exprimé durant l’entrevue. L'analyse des données témoigne d’un manque d’harmonie quant au but à poursuivre à l’égard du patient en question. Environ la moitié des participants visent la transplantation, alors que les autres poursuivent d’autres buts comme la sortie des SI, la limitation des traitements ou les soins palliatifs. Les participants sont influencés majoritairement par les volontés du patient, l'absence de mécanisme formel de communication entre eux et les facteurs professionnels tels que : les valeurs, les pratiques et l’environnement, sans oublier les rapports de pouvoir. Un certain nombre de barrières empêchent l’équipe de déterminer un but commun. Pour vaincre ces obstacles et s’entendre sur les buts à poursuivre en équipe, le développement de la communication multidisciplinaire s’impose. Pour y arriver, deux prérequis doivent être développés : l’intention éthique et l’engagement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le phénomène de Clignement Attentionnel (Attentional Blink, AB), fait référence à une diminution transitoire du rapport exact d’une deuxième cible (C2) si celle-ci est présentée trop tôt après une première cible (C1) lors d’une présentation visuelle sérielle rapide (rapid serial visual presentation, RSVP), et ce, quand les deux cibles doivent être rapportées. Cette étude a examiné l’existence possible d’asymétries hémisphèriques dans le traitement attentionnel ainsi que l’éventualité que la présentation de cibles à deux hémisphères différents puisse diminuer le AB chez des participants neurologiquement sains et l’abolir dans le cas d’un patient callosotomisé. Pour ce faire, nous avons employé un paradigme modifié du AB dans lequel les cibles pouvaient apparaître dans n’importe quelle de quatre RSVP, une dans chaque quadrant du champ visuel, pour permettre des essais dans lesquels les deux cibles puissent être présentées au même hémisphère et d’autres où chaque cible était présentée à un hémisphère différent. Bien que nous n’ayons trouvé aucune diminution de l’effet AB lors de présentation inter-hémisphérique, dans les deux populations à l’étude, le taux de bonnes réponses globales à la deuxième cible était plus élevé quand les cibles étaient présentées à des hémisphères différents. Nous avons également trouvé un avantage de l’hémisphère gauche chez le patient callosotomisé.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'hétérogénéité de réponses dans un groupe de patients soumis à un même régime thérapeutique doit être réduite au cours d'un traitement ou d'un essai clinique. Deux approches sont habituellement utilisées pour atteindre cet objectif. L'une vise essentiellement à construire une observance active. Cette approche se veut interactive et fondée sur l'échange ``médecin-patient '', ``pharmacien-patient'' ou ``vétérinaire-éleveurs''. L'autre plutôt passive et basée sur les caractéristiques du médicament, vise à contrôler en amont cette irrégularité. L'objectif principal de cette thèse était de développer de nouvelles stratégies d'évaluation et de contrôle de l'impact de l'irrégularité de la prise du médicament sur l'issue thérapeutique. Plus spécifiquement, le premier volet de cette recherche consistait à proposer des algorithmes mathématiques permettant d'estimer efficacement l'effet des médicaments dans un contexte de variabilité interindividuelle de profils pharmacocinétiques (PK). Cette nouvelle méthode est fondée sur l'utilisation concommitante de données \textit{in vitro} et \textit{in vivo}. Il s'agit de quantifier l'efficience ( c-à-dire efficacité plus fluctuation de concentrations \textit{in vivo}) de chaque profil PK en incorporant dans les modèles actuels d'estimation de l'efficacité \textit{in vivo}, la fonction qui relie la concentration du médicament de façon \textit{in vitro} à l'effet pharmacodynamique. Comparativement aux approches traditionnelles, cette combinaison de fonction capte de manière explicite la fluctuation des concentrations plasmatiques \textit{in vivo} due à la fonction dynamique de prise médicamenteuse. De plus, elle soulève, à travers quelques exemples, des questions sur la pertinence de l'utilisation des indices statiques traditionnels ($C_{max}$, $AUC$, etc.) d'efficacité comme outil de contrôle de l'antibiorésistance. Le deuxième volet de ce travail de doctorat était d'estimer les meilleurs temps d'échantillonnage sanguin dans une thérapie collective initiée chez les porcs. Pour ce faire, nous avons développé un modèle du comportement alimentaire collectif qui a été par la suite couplé à un modèle classique PK. À l'aide de ce modèle combiné, il a été possible de générer un profil PK typique à chaque stratégie alimentaire particulière. Les données ainsi générées, ont été utilisées pour estimer les temps d'échantillonnage appropriés afin de réduire les incertitudes dues à l'irrégularité de la prise médicamenteuse dans l'estimation des paramètres PK et PD . Parmi les algorithmes proposés à cet effet, la méthode des médianes semble donner des temps d'échantillonnage convenables à la fois pour l'employé et pour les animaux. Enfin, le dernier volet du projet de recherche a consisté à proposer une approche rationnelle de caractérisation et de classification des médicaments selon leur capacité à tolérer des oublis sporadiques. Méthodologiquement, nous avons, à travers une analyse globale de sensibilité, quantifié la corrélation entre les paramètres PK/PD d'un médicament et l'effet d'irrégularité de la prise médicamenteuse. Cette approche a consisté à évaluer de façon concomitante l'influence de tous les paramètres PK/PD et à prendre en compte, par la même occasion, les relations complexes pouvant exister entre ces différents paramètres. Cette étude a été réalisée pour les inhibiteurs calciques qui sont des antihypertenseurs agissant selon un modèle indirect d'effet. En prenant en compte les valeurs des corrélations ainsi calculées, nous avons estimé et proposé un indice comparatif propre à chaque médicament. Cet indice est apte à caractériser et à classer les médicaments agissant par un même mécanisme pharmacodynamique en terme d'indulgence à des oublis de prises médicamenteuses. Il a été appliqué à quatre inhibiteurs calciques. Les résultats obtenus étaient en accord avec les données expérimentales, traduisant ainsi la pertinence et la robustesse de cette nouvelle approche. Les stratégies développées dans ce projet de doctorat sont essentiellement fondées sur l'analyse des relations complexes entre l'histoire de la prise médicamenteuse, la pharmacocinétique et la pharmacodynamique. De cette analyse, elles sont capables d'évaluer et de contrôler l'impact de l'irrégularité de la prise médicamenteuse avec une précision acceptable. De façon générale, les algorithmes qui sous-tendent ces démarches constitueront sans aucun doute, des outils efficients dans le suivi et le traitement des patients. En outre, ils contribueront à contrôler les effets néfastes de la non-observance au traitement par la mise au point de médicaments indulgents aux oublis

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les logiciels sont en constante évolution, nécessitant une maintenance et un développement continus. Ils subissent des changements tout au long de leur vie, que ce soit pendant l'ajout de nouvelles fonctionnalités ou la correction de bogues dans le code. Lorsque ces logiciels évoluent, leurs architectures ont tendance à se dégrader avec le temps et deviennent moins adaptables aux nouvelles spécifications des utilisateurs. Elles deviennent plus complexes et plus difficiles à maintenir. Dans certains cas, les développeurs préfèrent refaire la conception de ces architectures à partir du zéro plutôt que de prolonger la durée de leurs vies, ce qui engendre une augmentation importante des coûts de développement et de maintenance. Par conséquent, les développeurs doivent comprendre les facteurs qui conduisent à la dégradation des architectures, pour prendre des mesures proactives qui facilitent les futurs changements et ralentissent leur dégradation. La dégradation des architectures se produit lorsque des développeurs qui ne comprennent pas la conception originale du logiciel apportent des changements au logiciel. D'une part, faire des changements sans comprendre leurs impacts peut conduire à l'introduction de bogues et à la retraite prématurée du logiciel. D'autre part, les développeurs qui manquent de connaissances et–ou d'expérience dans la résolution d'un problème de conception peuvent introduire des défauts de conception. Ces défauts ont pour conséquence de rendre les logiciels plus difficiles à maintenir et évoluer. Par conséquent, les développeurs ont besoin de mécanismes pour comprendre l'impact d'un changement sur le reste du logiciel et d'outils pour détecter les défauts de conception afin de les corriger. Dans le cadre de cette thèse, nous proposons trois principales contributions. La première contribution concerne l'évaluation de la dégradation des architectures logicielles. Cette évaluation consiste à utiliser une technique d’appariement de diagrammes, tels que les diagrammes de classes, pour identifier les changements structurels entre plusieurs versions d'une architecture logicielle. Cette étape nécessite l'identification des renommages de classes. Par conséquent, la première étape de notre approche consiste à identifier les renommages de classes durant l'évolution de l'architecture logicielle. Ensuite, la deuxième étape consiste à faire l'appariement de plusieurs versions d'une architecture pour identifier ses parties stables et celles qui sont en dégradation. Nous proposons des algorithmes de bit-vecteur et de clustering pour analyser la correspondance entre plusieurs versions d'une architecture. La troisième étape consiste à mesurer la dégradation de l'architecture durant l'évolution du logiciel. Nous proposons un ensemble de m´etriques sur les parties stables du logiciel, pour évaluer cette dégradation. La deuxième contribution est liée à l'analyse de l'impact des changements dans un logiciel. Dans ce contexte, nous présentons une nouvelle métaphore inspirée de la séismologie pour identifier l'impact des changements. Notre approche considère un changement à une classe comme un tremblement de terre qui se propage dans le logiciel à travers une longue chaîne de classes intermédiaires. Notre approche combine l'analyse de dépendances structurelles des classes et l'analyse de leur historique (les relations de co-changement) afin de mesurer l'ampleur de la propagation du changement dans le logiciel, i.e., comment un changement se propage à partir de la classe modifiée è d'autres classes du logiciel. La troisième contribution concerne la détection des défauts de conception. Nous proposons une métaphore inspirée du système immunitaire naturel. Comme toute créature vivante, la conception de systèmes est exposée aux maladies, qui sont des défauts de conception. Les approches de détection sont des mécanismes de défense pour les conception des systèmes. Un système immunitaire naturel peut détecter des pathogènes similaires avec une bonne précision. Cette bonne précision a inspiré une famille d'algorithmes de classification, appelés systèmes immunitaires artificiels (AIS), que nous utilisions pour détecter les défauts de conception. Les différentes contributions ont été évaluées sur des logiciels libres orientés objets et les résultats obtenus nous permettent de formuler les conclusions suivantes: • Les métriques Tunnel Triplets Metric (TTM) et Common Triplets Metric (CTM), fournissent aux développeurs de bons indices sur la dégradation de l'architecture. La d´ecroissance de TTM indique que la conception originale de l'architecture s’est dégradée. La stabilité de TTM indique la stabilité de la conception originale, ce qui signifie que le système est adapté aux nouvelles spécifications des utilisateurs. • La séismologie est une métaphore intéressante pour l'analyse de l'impact des changements. En effet, les changements se propagent dans les systèmes comme les tremblements de terre. L'impact d'un changement est plus important autour de la classe qui change et diminue progressivement avec la distance à cette classe. Notre approche aide les développeurs à identifier l'impact d'un changement. • Le système immunitaire est une métaphore intéressante pour la détection des défauts de conception. Les résultats des expériences ont montré que la précision et le rappel de notre approche sont comparables ou supérieurs à ceux des approches existantes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Depuis l’entrée en vigueur du Programme de formation de l’école québécoise en 2001, l’astronomie est à nouveau enseignée dans les classes du Québec. Malheureusement, l’école est mal outillée pour enseigner des concepts astronomiques complexes se déroulant pour la plupart en dehors des heures de classe et sur de longues périodes de temps. Sans compter que bien des phénomènes astronomiques mettent en jeu des astres se déplaçant dans un espace tridimensionnel auquel nous n’avons pas accès depuis notre point de vue géocentrique. Les phases de la Lune, concept prescrit au premier cycle du secondaire, sont de ceux-là. Heureusement, l’école peut compter sur l’appui du planétarium, musée de sciences dédié à la présentation, en accéléré et à toute heure du jour, de simulations ultra réalistes de divers phénomènes astronomiques. Mais quel type de planétarium secondera l’école ? Récemment, les planétariums ont eux aussi subi leur propre révolution : ces institutions sont passées de l’analogique au numérique, remplaçant les projecteurs optomécaniques géocentriques par des projecteurs vidéo qui offrent la possibilité de se déplacer virtuellement dans une simulation de l’Univers tridimensionnel complètement immersive. Bien que la recherche en éducation dans les planétariums se soit peu penchée sur ce nouveau paradigme, certaines de ses conclusions basées sur l’étude des planétariums analogiques peuvent nous aider à concevoir une intervention didactique fructueuse dans ces nouveaux simulateurs numériques. Mais d’autres sources d’inspiration seront invoquées, au premier chef la didactique des sciences, qui conçoit l’apprentissage non plus comme la transmission de connaissances, mais plutôt comme la construction de savoirs par les apprenants eux-mêmes, avec et contre leurs conceptions premières. La conception d’environnements d’apprentissages constructivistes, dont le planétarium numérique est un digne représentant, et l’utilisation des simulations en astronomie, complèteront notre cadre théorique et mèneront à la conception d’une intervention didactique à propos des phases de la Lune dans un planétarium numérique s’adressant à des élèves âgés de 12 à 14 ans. Cette intervention didactique a été mise à l’essai une première fois dans le cadre d’une recherche de développement (ingénierie didactique) visant à l’améliorer, à la fois sur son versant théorique et sur son versant pratique, par le biais de multiples itérations dans le milieu « naturel » où elle se déploie, ici un planétarium numérique gonflable de six mètres de diamètre. Nous présentons les résultats de notre première itération, réalisée en compagnie de six jeunes de 12 à 14 ans (quatre garçons et deux filles) dont nous avons recueilli les conceptions à propos des phases de la Lune avant, pendant et après l’intervention par le biais d’entrevues de groupe, questionnaires, mises en situation et enregistrement des interventions tout au long de l’activité. L'évaluation a été essentiellement qualitative, basée sur les traces obtenues tout au long de la séance, en particulier sous la voûte du planétarium. Ce matériel a ensuite été analysé pour valider les concepts théoriques qui ont mené à la conception de l'intervention didactique, d'une part, mais aussi pour faire émerger des améliorations possibles visant à bonifier l'intervention. Nous avons ainsi constaté que l'intervention provoque effectivement l'évolution des conceptions de la majorité des participants à propos des phases de la Lune, mais nous avons également identifié des façons de rendre l’intervention encore plus efficace à l’avenir.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette étude s’intéresse à l’évolution formelle du jeu d’aventure de 1976 à 1999. Elle se propose de mieux comprendre les facteurs historiques contribuant à l’apparition du genre, son institution et ses transformations. La recherche est fondée sur l’analyse du discours de la presse spécialisée en jeux d’ordinateur et d’un corpus étendu d’œuvres. L’une des thèses proposées est que l’identité générique du jeu d’aventure est fondée sur une expérience vidéoludique demeurant relativement constante malgré des variations importantes de formes. Cette expérience est assurée par la reproduction des principaux éléments d’une architecture générale de design de jeu inaugurée par Adventure en 1977. Les variations formelles ponctuelles résultent d’une négociation entre la volonté de s’adapter aux changements de contexte de l’écologie du jeu d’ordinateur et la résistance d’une architecture ludique établie. La pertinence d’une histoire d’un genre vidéoludique est justifiée au premier chapitre en fonction de l’état actuel des connaissances sur l’histoire du jeu vidéo et du jeu d’aventure. On y précise également le cadre théorique, la méthodologie et les sources étudiées. Le deuxième chapitre s’intéresse à la genèse d’Adventure de Crowther et Woods (1976; 1977) en fonction des diverses pratiques culturelles dans lesquelles l’œuvre s’inscrit. Cette analyse permet d’en dégager l’architecture ludique. Le troisième chapitre porte sur le « tournant narratif » du jeu d’aventure ayant lieu au début des années 1980. On y décrit différents facteurs historiques poussant le genre vers l’enchâssement d’histoires pré-écrites afin d’en faire un véhicule narratif. Le quatrième chapitre décrit le contexte du « tournant graphique », passage du jeu d’aventure d’une représentation textuelle à un régime visuel, ainsi que ses conséquences expérientielles. Le « tournant ergonomique » décrit au cinquième chapitre traite de l’apparition du modèle « pointer et cliquer » en fonction des avancées des connaissances concernant les interactions humain-machine ainsi que de la maturation du design de jeu comme pratique autonome. Le dernier chapitre relate l’apogée du jeu d’aventure au début de la révolution multimédia sous ses formes de film interactif et « Myst-like » puis du ralentissement – voire de l’arrêt – de son évolution formelle.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les tumeurs solides sont infiltrées par des cellules immunes (TIIC) dont la nature, la fonction et la composition varient d’un patient à l'autre. Ces cellules inflammatoires influencent l'invasion tumorale en contrôlant la croissance et le potentiel métastatique d’une tumeur. Ainsi, il est proposé d’utiliser cette infiltration comme outil diagnostic et pronostic de routine. Certaines cellules sont bien connues pour jouer un rôle important dans le contrôle de la progression tumorale, comme c’est le cas des lymphocytes T cytotoxiques CD8+ alors que d’autres possèdent un rôle contradictoire. Étant donné la dépendance des tumeurs sur l’équilibre entre ces différentes cellules, il est important d’identifier les fonctions précises des cellules immunes au sein de la tumeur. De nombreuses études sont réalisées afin d’identifier des marqueurs descriptifs du phénotype et la fonction des cellules immunes dans la tumeur. Ce projet de doctorat se divise en deux parties : 1- Identifier la méthode de désagrégation des tissus tumoraux altérant le moins la biologie des TIIC pour leur caractérisation. 2- Caractériser l’expression de la molécule d’adhérence CD146 dans les TIIC et en identifier l’origine. L’identification de marqueurs pour la caractérisation phénotypique et fonctionnelle des TIIC a été réalisée, entre autres, par la détection de protéines exprimées par la cellule. Dans la première partie de ce projet, nous avons démontré que les méthodes utilisées pour désagréger les tissus tumoraux dans le but d’isoler les TIIC induisent des changements dans la biologie de ces cellules ce qui peut fausser les conclusions qui en dérivent. Nous avons donc comparé l'impact de trois méthodes de désagrégation : une dissociation mécanique utilisant la MédimachineTM et deux digestions enzymatiques utilisant une collagénase de type I seule ou combinée à de la collagénase de type IV et de la DNase I de type II. Nous nous sommes intéressés à l'effet de ces méthodes sur des paramètres tels que la viabilité cellulaire, l’altération des protéines de surface et la capacité des cellules à proliférer. Nous avons démontré que ces méthodes affectent la viabilité des cellules de manière comparable, alors que la détection de certaines protéines de surface et la capacité de proliférer est réduite/inhibée par les traitements enzymatiques. Nous concluons qu’une méthode mécanique utilisant la MédimachineTM est mieux adaptée à la caractérisation des TIIC afin de conserver leurs propriétés. Dans la deuxième partie de notre projet, nous avons adapté cette méthode à la caractérisation des TIIC. Nous avons porté une attention particulière à la molécule d’adhérence CD146 dont l’implication dans la migration des cellules immunes à travers l’endothélium vers les sites d’inflammation est de plus en plus étudiée dans les maladies autoimmunes. Nous avons mis en évidence une augmentation des proportions de cellules immunes exprimant CD146 dans les tumeurs comparativement au sang de patients de cancers. Cette expression est induite par les cellules tumorales tout en étant accrue par la nécrose de celles-ci. Nous démontrons que ces cellules sont majoritairement des lymphocytes T CD4+ présentant un profil immunosuppressif. En conclusion, nos résultats suggèrent que CD146 participe à la mise en place du contexte immunitaire dans la tumeur et augmente la capacité de migration des lymphocytes T CD4+. L’induction par les cellules tumorales de cette molécule d’adhérence dans les cellules suppressives pourrait contribuer aux mécanismes immunorégulateurs mis en place par la tumeur. CD146 pourrait être un marqueur d’intérêt pour l’identification des cellules immunosuppressives et pour le développement de nouvelles thérapies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ce mémoire de maîtrise se penche sur la place du cinéma analogique à l’ère du « tout-numérique », en particulier dans le domaine du cinéma d’avant-garde. Le premier chapitre se consacre, d’un point de vue historique et théorique, sur «l’air du temps cinématographique», c’est-à-dire, sur le statut de la pellicule dans un contexte où l’on assiste à la disparition du format 35mm, tout aussi bien comme support de diffusion dans les salles de cinéma qu’à l’étape du tournage et de la postproduction. Face à une industrie qui tend à rendre obsolète le travail en pellicule, tout en capitalisant sur l’attrait de celle-ci en la reproduisant par le biais de simulacres numériques, il existe des regroupements de cinéastes qui continuent de défendre l’art cinématographique sur support argentique. Ainsi, le deuxième chapitre relève la pluralité des micros-laboratoires cinématographiques qui offrent des formes de résistance à cette domination du numérique. Nous nous intéresserons également, en amont, aux mouvements des coopératives tels que la Film-Maker’s Cooperative de New York et la London Filmmaker’s Coop afin de comprendre le changement de paradigme qui s’est opéré au sein de l’avant-garde cinématographique entre les années 50 et 70. Les mouvements de coopératives cherchaient avant tout une autonomie créative, tandis que les collectifs contemporains dédiés à la pellicule assurent la pérennité d’une pratique en voie de disparition. Finalement, le troisième chapitre propose une étude de cas sur le collectif de cinéastes montréalais Double Négatif. Ce chapitre relate tout aussi bien l’historique du collectif (fondement du groupe lors de leur passage à l’université Concordia), les spécificités qui émanent de leur filmographie (notamment les multiples collaborations musicales) ainsi que leur dévouement pour la diffusion de films sur support pellicule, depuis bientôt dix ans, au sein de la métropole. À l’image de d’autres regroupements similaires ailleurs sur la planète (Process Reversal, l’Abominable, Filmwerplaats pour ne nommer que ceux-là) le collectif Double Négatif montre des voies à suivre pour assurer que le cinéma sur pellicule puisse se décliner au futur.