788 resultados para RST-invariant object representation


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lors de ces dix dernières années, le coût de la maintenance des systèmes orientés objets s'est accru jusqu' à compter pour plus de 70% du coût total des systèmes. Cette situation est due à plusieurs facteurs, parmi lesquels les plus importants sont: l'imprécision des spécifications des utilisateurs, l'environnement d'exécution changeant rapidement et la mauvaise qualité interne des systèmes. Parmi tous ces facteurs, le seul sur lequel nous ayons un réel contrôle est la qualité interne des systèmes. De nombreux modèles de qualité ont été proposés dans la littérature pour contribuer à contrôler la qualité. Cependant, la plupart de ces modèles utilisent des métriques de classes (nombre de méthodes d'une classe par exemple) ou des métriques de relations entre classes (couplage entre deux classes par exemple) pour mesurer les attributs internes des systèmes. Pourtant, la qualité des systèmes par objets ne dépend pas uniquement de la structure de leurs classes et que mesurent les métriques, mais aussi de la façon dont celles-ci sont organisées, c'est-à-dire de leur conception, qui se manifeste généralement à travers les patrons de conception et les anti-patrons. Dans cette thèse nous proposons la méthode DEQUALITE, qui permet de construire systématiquement des modèles de qualité prenant en compte non seulement les attributs internes des systèmes (grâce aux métriques), mais aussi leur conception (grâce aux patrons de conception et anti-patrons). Cette méthode utilise une approche par apprentissage basée sur les réseaux bayésiens et s'appuie sur les résultats d'une série d'expériences portant sur l'évaluation de l'impact des patrons de conception et des anti-patrons sur la qualité des systèmes. Ces expériences réalisées sur 9 grands systèmes libres orientés objet nous permettent de formuler les conclusions suivantes: • Contre l'intuition, les patrons de conception n'améliorent pas toujours la qualité des systèmes; les implantations très couplées de patrons de conception par exemple affectent la structure des classes et ont un impact négatif sur leur propension aux changements et aux fautes. • Les classes participantes dans des anti-atrons sont beaucoup plus susceptibles de changer et d'être impliquées dans des corrections de fautes que les autres classes d'un système. • Un pourcentage non négligeable de classes sont impliquées simultanément dans des patrons de conception et dans des anti-patrons. Les patrons de conception ont un effet positif en ce sens qu'ils atténuent les anti-patrons. Nous appliquons et validons notre méthode sur trois systèmes libres orientés objet afin de démontrer l'apport de la conception des systèmes dans l'évaluation de la qualité.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette analyse dresse le portrait des différentes représentations de la télévision à travers le cinéma américain de 1970 à 1999. Ce travail porte sur un corpus de quatorze films et s’intéresse à quatre dimensions de la télévision : l’appareil électrique, le téléspectateur, le contenu et l’univers professionnel. Les hypothèses soulevées sont que la télévision est majoritairement présentée de façon négative, que les représentations s’inscrivent dans un contexte culturel précis et qu’il y a un consensus entre les écrits universitaires et les cinéastes au sujet de l’écran cathodique. Bien que certaines critiques soient récurrentes d’une décennie à l’autre, il y a une évolution des représentations. Dans les années 1970, la télévision est un objet de risée. Son contenu est caricaturé et les professionnels qui travaillent pour la télévision sont personnifiés comme des êtres incompétents. Dans les années 1980, le petit écran est montré comme un objet dangereux. Sa très grande popularité en ferait un puissant diffuseur idéologique qui transforme tout en spectacle même la mort. Cette même popularité servira de prétexte aux cinéastes des années 1990 pour utiliser la télévision comme symbole de l’Amérique. Le portrait est peu flatteur : une Amérique corrompue, violente et en manque d’idéaux. Cette analyse montre également qu’au fil des décennies, les mêmes idées circulent entre cinéastes et penseurs américains. Enfin, cette attitude par rapport à la télévision est d’ailleurs symptomatique d’un mépris de l’élite intellectuel envers l’art populaire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse s’intéresse aux fondements épistémologiques et à la vision que des enseignants d’histoire au secondaire entretiennent à l’égard de l’enseignement de l’histoire et de la formation citoyenne. La réflexion s’inscrit dans le contexte de la refonte des programmes d’enseignement de l’histoire qui engage dorénavant les maîtres d’histoire à éduquer à la citoyenneté démocratique. Ce projet éducationnel repose sur le postulat suivant : l’apprentissage de l’histoire, de sa pensée et de sa méthode permet de former des individus capables de réflexion critique autonome et informée. Cette vision de l’enseignement de l’histoire implique que les élèves s’exercent à la pensée historienne, à l’analyse des sources et à la construction d’interprétations historiques. Ce faisant, ils développeraient une compréhension du monde fondée sur la maîtrise de concepts et une pensée complexe, ce qui servirait de ce fait la citoyenneté. La recherche a par ailleurs démontré que les maîtres avaient recours à des méthodes pédagogiques plus traditionnelles (Charland, 2003; Martineau, 1997). C’est donc à des changements de pratiques qu’appelle le ministère de l’Éducation. Or un tel changement ne se déclare pas « d’en haut ». Les convictions des maîtres sont lentes à se transformer et ce sont elles qui déterminent la formation historienne et citoyenne que recevront les élèves. Nous en avons fait notre objet d’étude pour cette recherche en recourant à la théorie des représentations sociales. Nous avons adopté le modèle du noyau central (Abric, 1994) et celui des principes organisateurs qui permet d’identifier les relations existantes entre plusieurs représentations. Nous avons effectué une recherche exploratoire de type qualitative. Des entretiens individuels semi-dirigés d’une durée moyenne de 120 minutes ont été réalisés avec un échantillon comptant 18 enseignants d’histoire au secondaire de Montréal, de Québec et de communautés amérindiennes du Québec. L’outil de cueillette et d’analyse des données s’inspire grandement des développements méthodologiques réalisés par la recherche sur les représentations sociales (évocation hiérarchisée continuée ou limitée, schémas conceptuels) (Abric, 1994; 1997). Les résultats permettent d’identifier les fondements épistémologiques et didactiques, le contenu et la structure, de même que les relations existant entre les représentations de l’enseignement de l’histoire et de la formation à la citoyenneté. Ils ont également mis en lumière les convictions idéologiques et pédagogiques des maîtres d’histoire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Par cette recherche, nous voulons évaluer de manière exhaustive les bénéfices qu’apporte l’ExAO (Expérimentation Assistée par Ordinateur) dans les laboratoires scolaires de sciences et technologie au Liban. Nous aimerions aussi qu’elle contribue d’une manière tangible aux recherches du laboratoire de Robotique Pédagogique de l’Université de Montréal, notamment dans le développement du µlaboratoire ExAO. Nous avons voulu tester les capacités de l’ExAO, son utilisation en situation de classe comme : 1. Substitut d’un laboratoire traditionnel dans l’utilisation de la méthode expérimentale; 2. Outil d’investigation scientifique; 3. Outil d’intégration des sciences expérimentales et des mathématiques; 4. Outil d’intégration des sciences expérimentales, des mathématiques et de la technologie dans un apprentissage technoscientifique; Pour ce faire, nous avons mobilisé 13 groupe-classes de niveaux complémentaire et secondaire, provenant de 10 écoles libanaises. Nous avons désigné leurs enseignants pour expérimenter eux-mêmes avec leurs étudiants afin d’évaluer, de manière plus réaliste les avantages d’implanter ce micro laboratoire informatisé à l’école. Les différentes mise à l’essai, évaluées à l’aide des résultats des activités d’apprentissage réalisées par les étudiants, de leurs réponses à un questionnaire et des commentaires des enseignants, nous montrent que : 1. La substitution d’un laboratoire traditionnel par un µlaboratoire ExAO ne semble pas poser de problème; dix minutes ont suffi aux étudiants pour se familiariser avec cet environnement, mentionnant que la rapidité avec laquelle les données étaient représentées sous forme graphique était plus productive. 2. Pour l’investigation d’un phénomène physique, la convivialité du didacticiel associée à la capacité d’amplifier le phénomène avant de le représenter graphiquement a permis aux étudiants de concevoir et de mettre en œuvre rapidement et de manière autonome, une expérimentation permettant de vérifier leur prédiction. 3. L’intégration des mathématiques dans une démarche expérimentale permet d’appréhender plus rapidement le phénomène. De plus, elle donne un sens aux représentations graphiques et algébriques, à l’avis des enseignants, permettant d’utiliser celle-ci comme outil cognitif pour interpréter le phénomène. 4. La démarche réalisée par les étudiants pour concevoir et construire un objet technologique, nous a montré que cette activité a été réalisée facilement par l’utilisation des capteurs universels et des amplificateurs à décalage de l’outil de modélisation graphique ainsi que la capacité du didacticiel à transformer toute variable mesurée par une autre variable (par exemple la variation de résistance en variation de température, …). Cette activité didactique nous montre que les étudiants n’ont eu aucune difficulté à intégrer dans une même activité d’apprentissage les mathématiques, les sciences expérimentales et la technologie, afin de concevoir et réaliser un objet technologique fonctionnel. µlaboratoire ExAO, en offrant de nouvelles possibilités didactiques, comme la capacité de concevoir, réaliser et valider un objet technologique, de disposer pour ce faire, des capacités nouvelles pour amplifier les mesures, modéliser les phénomènes physiques, créer de nouveaux capteurs, est un ajout important aux expériences actuellement réalisées en ExAO.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pour respecter les droits d'auteur, la version électronique de cette thèse a été dépouillée de ces documents visuels. La version intégrale de la thèse a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire portera sur le problème de la signification, dans la pensée de Heidegger, de la métaphysique moderne, à partir de la conception de l’histoire de l’être qu’il développe dans les années 1930. Plus précisément, nous nous baserons sur l’écrit Die Zeit des Weltbildes, que l’on retrouve dans le recueil nommé Holzwege, mais également, dans une moindre mesure, sur l’écrit Niezsches Wort « Gott ist tot » du même recueil. Nous commencerons par introduire le lecteur à l’idée qu’il se fait de la métaphysique en général dans son rapport à l’homme, et du nihilisme que constitue son histoire, lequel s’accentue à l’époque moderne. Nous rentournerons alors brièvement aux premiers commencements de la métaphysique, chez Parménide et Platon principalement, dans le but de dégager les aspects de la métaphysique moderne qui y ont trouvé leur source. C’est alors que nous entrerons dans le vif du sujet, en expliquant en quoi consiste l’inauguration de la métaphysique moderne chez Descartes qui, face à l’obligation religieuse, pose la confirmation autonome de la vérité qui trouve son lieu propre dans la conscience de soi. Il sera dès lors question de montrer précisément comment se fait cette confirmation par soi-même du vrai, au travers de certaines notions centrales de l’analyse heideggerienne : la pro-position, la présentation et la représentation, l’instauration, la production, l’obtention, la préhension et la compréhension, notamment. Nous analyserons ensuite le mouvement de la volonté du sujet qui sous-tend cette confirmation autonome du savoir jusqu’à son aboutissement chez des penseurs tels que Schopenhauer. Nous mettrons par le fait même en évidence le rapport fondamental, souligné par Heidegger, entre le sujet et son objet, l’homme moderne se soulèvant et se donnant lui-même le statut éminent de centre de référence de toute chose, rapportant à lui-même tout chose. Ce mémoire se terminera par l’analyse que fait Heidegger d’un phénomène propre à la modernité, et donc émanent de la métaphysique qui aura été examinée au préalable, soit la science moderne. Celle-ci constitue la voie privilégiée où l’homme moderne, après avoir sciemment pris position au centre du monde, peut « procéder » dans le monde comme dans son royaume, un monde qui se révèle alors comme étant essentiellement à sa disposition. La science, émanant selon Heidegger de la conception moderne de la vérité et de l’étant, se révèle alors non seulement comme une réalisation de la métaphysique qui aura été analysée dans les chapitres précédents, mais peut-être même comme le phénomène duquel Heidegger semble s’être inspiré pour développer son idée de la métaphysique moderne.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans les pays africains en général et au Niger en particulier, l’ordinateur commence à trouver sa place au sein de l’école. Ce processus d’intégration pédagogique des technologies de l’information et de la communication est fortement dépendant des paramètres technologiques, pédagogiques et humains. Réussir ce processus, c’est connaitre les jugements et les attitudes des acteurs de cette école vis-à-vis de ces technologies. À partir des représentations sociales, nous pouvons connaître la manière de penser, de s'approprier, d'interpréter la réalité quotidienne d’un groupe d’individus vis-à-vis d’un objet, en l’occurrence ici, les TIC. Le premier objectif de notre recherche est de connaitre les représentations sociales que les enseignants du secondaire ont de l’ordinateur. Pour cela, nous avons mené une investigation auprès de vingt enseignants. À l’issue des entrevues, nous avons identifié des représentations sociales sur les attitudes des enseignants à l’égard de l’ordinateur, sur les risques de l’ordinateur à l’école et enfin sur les avantages de l’ordinateur à l’école. L’ensemble de ces représentations sociales met en évidence une attitude positive des enseignants vis-à-vis de l’ordinateur à l’école même si pour certains enseignants, l’ordinateur est un outil qui favorise la démotivation des élèves et qui est vu comme un concurrent potentiel. Notre second objectif est de connaître les représentations sociales des TIC chez des élèves. Cinquante élèves provenant de deux écoles ont constitué la population de notre étude. Après avoir soumis les entretiens recueillis à une analyse de contenu, nous sommes parvenu à des résultats qui mettent en évidence des représentations sociales sur les connaissances des TIC et sur son utilisation dans le cadre de l’apprentissage. Notre recherche devait aussi déterminer si les représentations sociales étaient fonction de la formation aux TIC. Les résultats du test d’hypothèse du Khi-carré montrent que la formation aux TIC n’influence pas l’émergence des représentations sociales. Le troisième objectif de notre recherche porte sur la construction d’une échelle de mesure des représentations sociales des TIC chez des élèves. Après avoir été élaborée l’échelle de mesure a été administrée à 265 élèves de deux lycées. Les résultats de l’analyse factorielle exploratoire montrent que l’échelle a une assez bonne cohérence interne. L’ensemble des résultats garantit la validité et la fidélité de l’échelle. L’ensemble des résultats montre que, bien que son utilisation soit très récente dans les écoles nigériennes, des représentations sociales ont été engendrées à l’endroit des TIC. Les contenus de ces représentations montrent des attitudes favorables aux TIC dans l’apprentissage.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La conception de systèmes hétérogènes exige deux étapes importantes, à savoir : la modélisation et la simulation. Habituellement, des simulateurs sont reliés et synchronisés en employant un bus de co-simulation. Les approches courantes ont beaucoup d’inconvénients : elles ne sont pas toujours adaptées aux environnements distribués, le temps d’exécution de simulation peut être très décevant, et chaque simulateur a son propre noyau de simulation. Nous proposons une nouvelle approche qui consiste au développement d’un simulateur compilé multi-langage où chaque modèle peut être décrit en employant différents langages de modélisation tel que SystemC, ESyS.Net ou autres. Chaque modèle contient généralement des modules et des moyens de communications entre eux. Les modules décrivent des fonctionnalités propres à un système souhaité. Leur description est réalisée en utilisant la programmation orientée objet et peut être décrite en utilisant une syntaxe que l’utilisateur aura choisie. Nous proposons ainsi une séparation entre le langage de modélisation et la simulation. Les modèles sont transformés en une même représentation interne qui pourrait être vue comme ensemble d’objets. Notre environnement compile les objets internes en produisant un code unifié au lieu d’utiliser plusieurs langages de modélisation qui ajoutent beaucoup de mécanismes de communications et des informations supplémentaires. Les optimisations peuvent inclure différents mécanismes tels que le regroupement des processus en un seul processus séquentiel tout en respectant la sémantique des modèles. Nous utiliserons deux niveaux d’abstraction soit le « register transfer level » (RTL) et le « transaction level modeling » (TLM). Le RTL permet une modélisation à bas niveau d’abstraction et la communication entre les modules se fait à l’aide de signaux et des signalisations. Le TLM est une modélisation d’une communication transactionnelle à un plus haut niveau d’abstraction. Notre objectif est de supporter ces deux types de simulation, mais en laissant à l’usager le choix du langage de modélisation. De même, nous proposons d’utiliser un seul noyau au lieu de plusieurs et d’enlever le bus de co-simulation pour accélérer le temps de simulation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le réalisme des images en infographie exige de créer des objets (ou des scènes) de plus en plus complexes, ce qui entraîne des coûts considérables. La modélisation procédurale peut aider à automatiser le processus de création, à simplifier le processus de modification ou à générer de multiples variantes d'une instance d'objet. Cependant même si plusieurs méthodes procédurales existent, aucune méthode unique permet de créer tous les types d'objets complexes, dont en particulier un édifice complet. Les travaux réalisés dans le cadre de cette thèse proposent deux solutions au problème de la modélisation procédurale: une solution au niveau de la géométrie de base, et l’autre sous forme d'un système général adapté à la modélisation des objets complexes. Premièrement, nous présentons le bloc, une nouvelle primitive de modélisation simple et générale, basée sur une forme cubique généralisée. Les blocs sont disposés et connectés entre eux pour constituer la forme de base des objets, à partir de laquelle est extrait un maillage de contrôle pouvant produire des arêtes lisses et vives. La nature volumétrique des blocs permet une spécification simple de la topologie, ainsi que le support des opérations de CSG entre les blocs. La paramétrisation de la surface, héritée des faces des blocs, fournit un soutien pour les textures et les fonctions de déplacements afin d'appliquer des détails de surface. Une variété d'exemples illustrent la généralité des blocs dans des contextes de modélisation à la fois interactive et procédurale. Deuxièmement, nous présentons un nouveau système de modélisation procédurale qui unifie diverses techniques dans un cadre commun. Notre système repose sur le concept de composants pour définir spatialement et sémantiquement divers éléments. À travers une série de déclarations successives exécutées sur un sous-ensemble de composants obtenus à l'aide de requêtes, nous créons un arbre de composants définissant ultimement un objet dont la géométrie est générée à l'aide des blocs. Nous avons appliqué notre concept de modélisation par composants à la génération d'édifices complets, avec intérieurs et extérieurs cohérents. Ce nouveau système s'avère général et bien adapté pour le partionnement des espaces, l'insertion d'ouvertures (portes et fenêtres), l'intégration d'escaliers, la décoration de façades et de murs, l'agencement de meubles, et diverses autres opérations nécessaires lors de la construction d'un édifice complet.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Si, depuis son apparition, la télévision suscite de nombreuses réactions de mépris chez les élites cultivées, son emprise sur l’individu et la vie en société est indéniable. La littérature ne pouvait manquer de s’intéresser à la nature et à l’évolution de ce média si discuté avec lequel elle entretient des relations plus complexes qu’il n’y paraît. Cette étude porte sur deux romans qui proposent une représentation très élaborée et singulière du petit écran et de son rôle, La Télévision de Jean-Philippe Toussaint et Que la paix soit avec vous de Serge Joncour. Chacun d’eux fait l’objet d’un chapitre. En plus de procéder à une critique incisive du média télévisuel, ces fictions mettent en évidence ses liens avec l’imaginaire social contemporain. Toussaint accorde une importance particulière aux bouleversements socioculturels causés par la télévision et montre qu’elle a si bien investi la place de la vie quotidienne que les mondes réel et virtuel risquent désormais constamment de se confondre. Joncour décrit avec soin l’influence qu’elle exerce sur notre perception de la réalité et critique la lecture superficielle du monde qu’elle impose. Cependant qu’elles effectuent ce travail critique, les deux œuvres se rejoignent pour souligner son pouvoir de fascination et la présentent telle une tentatrice redoutable. Parce qu’elle part d’une lecture interne des textes pour les mettre en relation avec la façon dont la télévision, en tant que dispositif sémiotique, c’est-à-dire en tant que machine à produire du sens, informe la réalité humaine, notre étude se situe sur le terrain de la sociocritique des textes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Analyser le code permet de vérifier ses fonctionnalités, détecter des bogues ou améliorer sa performance. L’analyse du code peut être statique ou dynamique. Des approches combinants les deux analyses sont plus appropriées pour les applications de taille industrielle où l’utilisation individuelle de chaque approche ne peut fournir les résultats souhaités. Les approches combinées appliquent l’analyse dynamique pour déterminer les portions à problèmes dans le code et effectuent par la suite une analyse statique concentrée sur les parties identifiées. Toutefois les outils d’analyse dynamique existants génèrent des données imprécises ou incomplètes, ou aboutissent en un ralentissement inacceptable du temps d’exécution. Lors de ce travail, nous nous intéressons à la génération de graphes d’appels dynamiques complets ainsi que d’autres informations nécessaires à la détection des portions à problèmes dans le code. Pour ceci, nous faisons usage de la technique d’instrumentation dynamique du bytecode Java pour extraire l’information sur les sites d’appels, les sites de création d’objets et construire le graphe d’appel dynamique du programme. Nous démontrons qu’il est possible de profiler dynamiquement une exécution complète d’une application à temps d’exécution non triviale, et d’extraire la totalité de l’information à un coup raisonnable. Des mesures de performance de notre profileur sur trois séries de benchmarks à charges de travail diverses nous ont permis de constater que la moyenne du coût de profilage se situe entre 2.01 et 6.42. Notre outil de génération de graphes dynamiques complets, nommé dyko, constitue également une plateforme extensible pour l’ajout de nouvelles approches d’instrumentation. Nous avons testé une nouvelle technique d’instrumentation des sites de création d’objets qui consiste à adapter les modifications apportées par l’instrumentation au bytecode de chaque méthode. Nous avons aussi testé l’impact de la résolution des sites d’appels sur la performance générale du profileur.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La représentation que se font les patients souffrant d’un trouble de personnalité limite (TPL) de leur expérience de tristesse est un domaine de recherche important tant pour la conceptualisation du trouble que pour son traitement. Ces patients sont connus pour vivre une grande détresse qui se manifeste à travers divers symptômes (Bland, Williams, Scharer, & Manning, 2004). Un nombre élevé de patients présentant un TPL se suicident (Paris, 2002), font au moins une tentative de suicide au cours de leur vie (Oldham, 2006) et s’automutilent (p.ex., Brown, Williams, & Collins, 2007). La recherche sur la souffrance du TPL s’entend sur un paradoxe : ces patients souffrent beaucoup, mais ils vivent peu de tristesse. Leur souffrance prend une forme distincte en qualité, celle-ci demandant à être davantage étudiée empiriquement et théoriquement. L’objectif de cette thèse est d’explorer la représentation de la tristesse de participants souffrant d’un TPL. Alors qu’à notre connaissance aucune étude n’a encore poursuivi cet objectif spécifique, différentes pistes de réflexion ont été soulevées dans la documentation scientifique pour expliquer la nature de la souffrance du TPL en ce qui a trait au tempérament, au fonctionnement mental, à la dépression, à l’organisation de la personnalité et aux événements traumatiques. La première étude de cette thèse vise à réfléchir théoriquement et cliniquement à la tristesse, afin d’en raffiner la définition, entre autres par opposition à la détresse. Elle propose une distinction tant au plan métapsychologique que phénoménologique de ces deux expériences, en se basant sur des théories évolutionnistes des émotions et sur différentes conceptions psychanalytiques du fonctionnement mental et des relations objectales. Une vignette clinique illustre cette réflexion. La seconde étude vise à explorer, par une démarche qualitative, les principaux thèmes abordés par des participants souffrant d’un TPL lorsqu’ils racontent des épisodes de tristesse. Sept participants avec un diagnostic de TPL évalué à l’aide du SCID-II (First, Gibbon, Spitzer, & Williams, 1997) ont participé à une entrevue semi-dirigée visant le rappel de deux épisodes relationnels de tristesse. Suivant la méthode d’analyse phénoménologique interprétative (Smith, 1996), une analyse thématique de quatorze épisodes de tristesse a été effectuée conjointement par deux candidates au doctorat pour décrire la représentation de la tristesse de ces participants. Cinq thèmes ont été identifiés : 1) agression, 2) relation brisée par l’autre, 3) affectivité négative indifférenciée, 4) soi défectueux et 5) débordement. Les résultats suggèrent que la représentation de la tristesse du TPL n’est pas associée à la perte, mais plutôt à l’impression d’avoir été endommagé par une attaque infligée par quelqu’un d’autre. Il s’agit d’une expérience peu mentalisée que l’individu semble tenter de réguler dans la sphère interpersonnelle. Cette expérience ne représenterait pas de la tristesse à proprement parler. Les conclusions ont permis d’élaborer une nouvelle hypothèse de recherche : l’expérience de tristesse des patients souffrant d’un TPL ne correspond pas à la tristesse proprement dite, mais à une forme de détresse interpersonnelle impliquant à la fois des déficits du fonctionnement mental et une organisation particulière de la personnalité. Les implications cliniques et théoriques sont discutées.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Un système, décrit avec un grand nombre d'éléments fortement interdépendants, est complexe, difficile à comprendre et à maintenir. Ainsi, une application orientée objet est souvent complexe, car elle contient des centaines de classes avec de nombreuses dépendances plus ou moins explicites. Une même application, utilisant le paradigme composant, contiendrait un plus petit nombre d'éléments, faiblement couplés entre eux et avec des interdépendances clairement définies. Ceci est dû au fait que le paradigme composant fournit une bonne représentation de haut niveau des systèmes complexes. Ainsi, ce paradigme peut être utilisé comme "espace de projection" des systèmes orientés objets. Une telle projection peut faciliter l'étape de compréhension d'un système, un pré-requis nécessaire avant toute activité de maintenance et/ou d'évolution. De plus, il est possible d'utiliser cette représentation, comme un modèle pour effectuer une restructuration complète d'une application orientée objets opérationnelle vers une application équivalente à base de composants tout aussi opérationnelle. Ainsi, La nouvelle application bénéficiant ainsi, de toutes les bonnes propriétés associées au paradigme composants. L'objectif de ma thèse est de proposer une méthode semi-automatique pour identifier une architecture à base de composants dans une application orientée objets. Cette architecture doit, non seulement aider à la compréhension de l'application originale, mais aussi simplifier la projection de cette dernière dans un modèle concret de composant. L'identification d'une architecture à base de composants est réalisée en trois grandes étapes: i) obtention des données nécessaires au processus d'identification. Elles correspondent aux dépendances entre les classes et sont obtenues avec une analyse dynamique de l'application cible. ii) identification des composants. Trois méthodes ont été explorées. La première utilise un treillis de Galois, la seconde deux méta-heuristiques et la dernière une méta-heuristique multi-objective. iii) identification de l'architecture à base de composants de l'application cible. Cela est fait en identifiant les interfaces requises et fournis pour chaque composant. Afin de valider ce processus d'identification, ainsi que les différents choix faits durant son développement, j'ai réalisé différentes études de cas. Enfin, je montre la faisabilité de la projection de l'architecture à base de composants identifiée vers un modèle concret de composants.