999 resultados para réseaux Bayésiens dynamiques
Resumo:
La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée.
Resumo:
L’infonuage est un nouveau paradigme de services informatiques disponibles à la demande qui a connu une croissance fulgurante au cours de ces dix dernières années. Le fournisseur du modèle de déploiement public des services infonuagiques décrit le service à fournir, le prix, les pénalités en cas de violation des spécifications à travers un document. Ce document s’appelle le contrat de niveau de service (SLA). La signature de ce contrat par le client et le fournisseur scelle la garantie de la qualité de service à recevoir. Ceci impose au fournisseur de gérer efficacement ses ressources afin de respecter ses engagements. Malheureusement, la violation des spécifications du SLA se révèle courante, généralement en raison de l’incertitude sur le comportement du client qui peut produire un nombre variable de requêtes vu que les ressources lui semblent illimitées. Ce comportement peut, dans un premier temps, avoir un impact direct sur la disponibilité du service. Dans un second temps, des violations à répétition risquent d'influer sur le niveau de confiance du fournisseur et sur sa réputation à respecter ses engagements. Pour faire face à ces problèmes, nous avons proposé un cadre d’applications piloté par réseau bayésien qui permet, premièrement, de classifier les fournisseurs dans un répertoire en fonction de leur niveau de confiance. Celui-ci peut être géré par une entité tierce. Un client va choisir un fournisseur dans ce répertoire avant de commencer à négocier le SLA. Deuxièmement, nous avons développé une ontologie probabiliste basée sur un réseau bayésien à entités multiples pouvant tenir compte de l’incertitude et anticiper les violations par inférence. Cette ontologie permet de faire des prédictions afin de prévenir des violations en se basant sur les données historiques comme base de connaissances. Les résultats obtenus montrent l’efficacité de l’ontologie probabiliste pour la prédiction de violation dans l’ensemble des paramètres SLA appliqués dans un environnement infonuagique.
Resumo:
La modélisation de l’expérience de l’utilisateur dans les Interactions Homme-Machine est un enjeu important pour la conception et le développement des systèmes adaptatifs intelligents. Dans ce contexte, une attention particulière est portée sur les réactions émotionnelles de l’utilisateur, car elles ont une influence capitale sur ses aptitudes cognitives, comme la perception et la prise de décision. La modélisation des émotions est particulièrement pertinente pour les Systèmes Tutoriels Émotionnellement Intelligents (STEI). Ces systèmes cherchent à identifier les émotions de l’apprenant lors des sessions d’apprentissage, et à optimiser son expérience d’interaction en recourant à diverses stratégies d’interventions. Cette thèse vise à améliorer les méthodes de modélisation des émotions et les stratégies émotionnelles utilisées actuellement par les STEI pour agir sur les émotions de l’apprenant. Plus précisément, notre premier objectif a été de proposer une nouvelle méthode pour détecter l’état émotionnel de l’apprenant, en utilisant différentes sources d’informations qui permettent de mesurer les émotions de façon précise, tout en tenant compte des variables individuelles qui peuvent avoir un impact sur la manifestation des émotions. Pour ce faire, nous avons développé une approche multimodale combinant plusieurs mesures physiologiques (activité cérébrale, réactions galvaniques et rythme cardiaque) avec des variables individuelles, pour détecter une émotion très fréquemment observée lors des sessions d’apprentissage, à savoir l’incertitude. Dans un premier lieu, nous avons identifié les indicateurs physiologiques clés qui sont associés à cet état, ainsi que les caractéristiques individuelles qui contribuent à sa manifestation. Puis, nous avons développé des modèles prédictifs permettant de détecter automatiquement cet état à partir des différentes variables analysées, à travers l’entrainement d’algorithmes d’apprentissage machine. Notre deuxième objectif a été de proposer une approche unifiée pour reconnaître simultanément une combinaison de plusieurs émotions, et évaluer explicitement l’impact de ces émotions sur l’expérience d’interaction de l’apprenant. Pour cela, nous avons développé une plateforme hiérarchique, probabiliste et dynamique permettant de suivre les changements émotionnels de l'apprenant au fil du temps, et d’inférer automatiquement la tendance générale qui caractérise son expérience d’interaction à savoir : l’immersion, le blocage ou le décrochage. L’immersion correspond à une expérience optimale : un état dans lequel l'apprenant est complètement concentré et impliqué dans l’activité d’apprentissage. L’état de blocage correspond à une tendance d’interaction non optimale où l'apprenant a de la difficulté à se concentrer. Finalement, le décrochage correspond à un état extrêmement défavorable où l’apprenant n’est plus du tout impliqué dans l’activité d’apprentissage. La plateforme proposée intègre trois modalités de variables diagnostiques permettant d’évaluer l’expérience de l’apprenant à savoir : des variables physiologiques, des variables comportementales, et des mesures de performance, en combinaison avec des variables prédictives qui représentent le contexte courant de l’interaction et les caractéristiques personnelles de l'apprenant. Une étude a été réalisée pour valider notre approche à travers un protocole expérimental permettant de provoquer délibérément les trois tendances ciblées durant l’interaction des apprenants avec différents environnements d’apprentissage. Enfin, notre troisième objectif a été de proposer de nouvelles stratégies pour influencer positivement l’état émotionnel de l’apprenant, sans interrompre la dynamique de la session d’apprentissage. Nous avons à cette fin introduit le concept de stratégies émotionnelles implicites : une nouvelle approche pour agir subtilement sur les émotions de l’apprenant, dans le but d’améliorer son expérience d’apprentissage. Ces stratégies utilisent la perception subliminale, et plus précisément une technique connue sous le nom d’amorçage affectif. Cette technique permet de solliciter inconsciemment les émotions de l’apprenant, à travers la projection d’amorces comportant certaines connotations affectives. Nous avons mis en œuvre une stratégie émotionnelle implicite utilisant une forme particulière d’amorçage affectif à savoir : le conditionnement évaluatif, qui est destiné à améliorer de façon inconsciente l’estime de soi. Une étude expérimentale a été réalisée afin d’évaluer l’impact de cette stratégie sur les réactions émotionnelles et les performances des apprenants.
Resumo:
Le travail d'un(e) expert(e) en science forensique exige que ce dernier (cette dernière) prenne une série de décisions. Ces décisions sont difficiles parce qu'elles doivent être prises dans l'inévitable présence d'incertitude, dans le contexte unique des circonstances qui entourent la décision, et, parfois, parce qu'elles sont complexes suite à de nombreuse variables aléatoires et dépendantes les unes des autres. Etant donné que ces décisions peuvent aboutir à des conséquences sérieuses dans l'administration de la justice, la prise de décisions en science forensique devrait être soutenue par un cadre robuste qui fait des inférences en présence d'incertitudes et des décisions sur la base de ces inférences. L'objectif de cette thèse est de répondre à ce besoin en présentant un cadre théorique pour faire des choix rationnels dans des problèmes de décisions rencontrés par les experts dans un laboratoire de science forensique. L'inférence et la théorie de la décision bayésienne satisfont les conditions nécessaires pour un tel cadre théorique. Pour atteindre son objectif, cette thèse consiste de trois propositions, recommandant l'utilisation (1) de la théorie de la décision, (2) des réseaux bayésiens, et (3) des réseaux bayésiens de décision pour gérer des problèmes d'inférence et de décision forensiques. Les résultats présentent un cadre uniforme et cohérent pour faire des inférences et des décisions en science forensique qui utilise les concepts théoriques ci-dessus. Ils décrivent comment organiser chaque type de problème en le décomposant dans ses différents éléments, et comment trouver le meilleur plan d'action en faisant la distinction entre des problèmes de décision en une étape et des problèmes de décision en deux étapes et en y appliquant le principe de la maximisation de l'utilité espérée. Pour illustrer l'application de ce cadre à des problèmes rencontrés par les experts dans un laboratoire de science forensique, des études de cas théoriques appliquent la théorie de la décision, les réseaux bayésiens et les réseaux bayésiens de décision à une sélection de différents types de problèmes d'inférence et de décision impliquant différentes catégories de traces. Deux études du problème des deux traces illustrent comment la construction de réseaux bayésiens permet de gérer des problèmes d'inférence complexes, et ainsi surmonter l'obstacle de la complexité qui peut être présent dans des problèmes de décision. Trois études-une sur ce qu'il faut conclure d'une recherche dans une banque de données qui fournit exactement une correspondance, une sur quel génotype il faut rechercher dans une banque de données sur la base des observations faites sur des résultats de profilage d'ADN, et une sur s'il faut soumettre une trace digitale à un processus qui compare la trace avec des empreintes de sources potentielles-expliquent l'application de la théorie de la décision et des réseaux bayésiens de décision à chacune de ces décisions. Les résultats des études des cas théoriques soutiennent les trois propositions avancées dans cette thèse. Ainsi, cette thèse présente un cadre uniforme pour organiser et trouver le plan d'action le plus rationnel dans des problèmes de décisions rencontrés par les experts dans un laboratoire de science forensique. Le cadre proposé est un outil interactif et exploratoire qui permet de mieux comprendre un problème de décision afin que cette compréhension puisse aboutir à des choix qui sont mieux informés. - Forensic science casework involves making a sériés of choices. The difficulty in making these choices lies in the inévitable presence of uncertainty, the unique context of circumstances surrounding each décision and, in some cases, the complexity due to numerous, interrelated random variables. Given that these décisions can lead to serious conséquences in the admin-istration of justice, forensic décision making should be supported by a robust framework that makes inferences under uncertainty and décisions based on these inferences. The objective of this thesis is to respond to this need by presenting a framework for making rational choices in décision problems encountered by scientists in forensic science laboratories. Bayesian inference and décision theory meets the requirements for such a framework. To attain its objective, this thesis consists of three propositions, advocating the use of (1) décision theory, (2) Bayesian networks, and (3) influence diagrams for handling forensic inference and décision problems. The results present a uniform and coherent framework for making inferences and décisions in forensic science using the above theoretical concepts. They describe how to organize each type of problem by breaking it down into its différent elements, and how to find the most rational course of action by distinguishing between one-stage and two-stage décision problems and applying the principle of expected utility maximization. To illustrate the framework's application to the problems encountered by scientists in forensic science laboratories, theoretical case studies apply décision theory, Bayesian net-works and influence diagrams to a selection of différent types of inference and décision problems dealing with différent catégories of trace evidence. Two studies of the two-trace problem illustrate how the construction of Bayesian networks can handle complex inference problems, and thus overcome the hurdle of complexity that can be present in décision prob-lems. Three studies-one on what to conclude when a database search provides exactly one hit, one on what genotype to search for in a database based on the observations made on DNA typing results, and one on whether to submit a fingermark to the process of comparing it with prints of its potential sources-explain the application of décision theory and influ¬ence diagrams to each of these décisions. The results of the theoretical case studies support the thesis's three propositions. Hence, this thesis présents a uniform framework for organizing and finding the most rational course of action in décision problems encountered by scientists in forensic science laboratories. The proposed framework is an interactive and exploratory tool for better understanding a décision problem so that this understanding may lead to better informed choices.
Resumo:
Lors de ces dix dernières années, le coût de la maintenance des systèmes orientés objets s'est accru jusqu' à compter pour plus de 70% du coût total des systèmes. Cette situation est due à plusieurs facteurs, parmi lesquels les plus importants sont: l'imprécision des spécifications des utilisateurs, l'environnement d'exécution changeant rapidement et la mauvaise qualité interne des systèmes. Parmi tous ces facteurs, le seul sur lequel nous ayons un réel contrôle est la qualité interne des systèmes. De nombreux modèles de qualité ont été proposés dans la littérature pour contribuer à contrôler la qualité. Cependant, la plupart de ces modèles utilisent des métriques de classes (nombre de méthodes d'une classe par exemple) ou des métriques de relations entre classes (couplage entre deux classes par exemple) pour mesurer les attributs internes des systèmes. Pourtant, la qualité des systèmes par objets ne dépend pas uniquement de la structure de leurs classes et que mesurent les métriques, mais aussi de la façon dont celles-ci sont organisées, c'est-à-dire de leur conception, qui se manifeste généralement à travers les patrons de conception et les anti-patrons. Dans cette thèse nous proposons la méthode DEQUALITE, qui permet de construire systématiquement des modèles de qualité prenant en compte non seulement les attributs internes des systèmes (grâce aux métriques), mais aussi leur conception (grâce aux patrons de conception et anti-patrons). Cette méthode utilise une approche par apprentissage basée sur les réseaux bayésiens et s'appuie sur les résultats d'une série d'expériences portant sur l'évaluation de l'impact des patrons de conception et des anti-patrons sur la qualité des systèmes. Ces expériences réalisées sur 9 grands systèmes libres orientés objet nous permettent de formuler les conclusions suivantes: • Contre l'intuition, les patrons de conception n'améliorent pas toujours la qualité des systèmes; les implantations très couplées de patrons de conception par exemple affectent la structure des classes et ont un impact négatif sur leur propension aux changements et aux fautes. • Les classes participantes dans des anti-atrons sont beaucoup plus susceptibles de changer et d'être impliquées dans des corrections de fautes que les autres classes d'un système. • Un pourcentage non négligeable de classes sont impliquées simultanément dans des patrons de conception et dans des anti-patrons. Les patrons de conception ont un effet positif en ce sens qu'ils atténuent les anti-patrons. Nous appliquons et validons notre méthode sur trois systèmes libres orientés objet afin de démontrer l'apport de la conception des systèmes dans l'évaluation de la qualité.
Resumo:
Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis.
Resumo:
Nous proposons une approche probabiliste afin de déterminer l’impact des changements dans les programmes à objets. Cette approche sert à prédire, pour un changement donné dans une classe du système, l’ensemble des autres classes potentiellement affectées par ce changement. Cette prédiction est donnée sous la forme d’une probabilité qui dépend d’une part, des interactions entre les classes exprimées en termes de nombre d’invocations et d’autre part, des relations extraites à partir du code source. Ces relations sont extraites automatiquement par rétro-ingénierie. Pour la mise en oeuvre de notre approche, nous proposons une approche basée sur les réseaux bayésiens. Après une phase d’apprentissage, ces réseaux prédisent l’ensemble des classes affectées par un changement. L’approche probabiliste proposée est évaluée avec deux scénarios distincts mettant en oeuvre plusieurs types de changements effectués sur différents systèmes. Pour les systèmes qui possèdent des données historiques, l’apprentissage a été réalisé à partir des anciennes versions. Pour les systèmes dont on ne possède pas assez de données relatives aux changements de ses versions antécédentes, l’apprentissage a été réalisé à l’aide des données extraites d’autres systèmes.
Resumo:
L’un des problèmes importants en apprentissage automatique est de déterminer la complexité du modèle à apprendre. Une trop grande complexité mène au surapprentissage, ce qui correspond à trouver des structures qui n’existent pas réellement dans les données, tandis qu’une trop faible complexité mène au sous-apprentissage, c’est-à-dire que l’expressivité du modèle est insuffisante pour capturer l’ensemble des structures présentes dans les données. Pour certains modèles probabilistes, la complexité du modèle se traduit par l’introduction d’une ou plusieurs variables cachées dont le rôle est d’expliquer le processus génératif des données. Il existe diverses approches permettant d’identifier le nombre approprié de variables cachées d’un modèle. Cette thèse s’intéresse aux méthodes Bayésiennes nonparamétriques permettant de déterminer le nombre de variables cachées à utiliser ainsi que leur dimensionnalité. La popularisation des statistiques Bayésiennes nonparamétriques au sein de la communauté de l’apprentissage automatique est assez récente. Leur principal attrait vient du fait qu’elles offrent des modèles hautement flexibles et dont la complexité s’ajuste proportionnellement à la quantité de données disponibles. Au cours des dernières années, la recherche sur les méthodes d’apprentissage Bayésiennes nonparamétriques a porté sur trois aspects principaux : la construction de nouveaux modèles, le développement d’algorithmes d’inférence et les applications. Cette thèse présente nos contributions à ces trois sujets de recherches dans le contexte d’apprentissage de modèles à variables cachées. Dans un premier temps, nous introduisons le Pitman-Yor process mixture of Gaussians, un modèle permettant l’apprentissage de mélanges infinis de Gaussiennes. Nous présentons aussi un algorithme d’inférence permettant de découvrir les composantes cachées du modèle que nous évaluons sur deux applications concrètes de robotique. Nos résultats démontrent que l’approche proposée surpasse en performance et en flexibilité les approches classiques d’apprentissage. Dans un deuxième temps, nous proposons l’extended cascading Indian buffet process, un modèle servant de distribution de probabilité a priori sur l’espace des graphes dirigés acycliques. Dans le contexte de réseaux Bayésien, ce prior permet d’identifier à la fois la présence de variables cachées et la structure du réseau parmi celles-ci. Un algorithme d’inférence Monte Carlo par chaîne de Markov est utilisé pour l’évaluation sur des problèmes d’identification de structures et d’estimation de densités. Dans un dernier temps, nous proposons le Indian chefs process, un modèle plus général que l’extended cascading Indian buffet process servant à l’apprentissage de graphes et d’ordres. L’avantage du nouveau modèle est qu’il admet les connections entres les variables observables et qu’il prend en compte l’ordre des variables. Nous présentons un algorithme d’inférence Monte Carlo par chaîne de Markov avec saut réversible permettant l’apprentissage conjoint de graphes et d’ordres. L’évaluation est faite sur des problèmes d’estimations de densité et de test d’indépendance. Ce modèle est le premier modèle Bayésien nonparamétrique permettant d’apprendre des réseaux Bayésiens disposant d’une structure complètement arbitraire.
Resumo:
Abstract: On Sunday 1745-8-29 a small upheaval occurred in Bagnes, a rather marginal mountain valley in the Swiss Alps, against the abbot of St-Maurice, the local feudal lord. In our perspective, this movement was nothing but one element in a long-term struggle, carried out by a stable and quite well organized political faction. The detailed analysis of the conflicts, of their protagonists as well as an analysis of the mobilization networks allows to highlight crucial aspects of local political life and reveals the active role of working classes. The micro-historical approach leads to some conclusions which challenge classical interpretation of pre-modern rural revolts. The case of Bagnes sheds light on the active and innovative character of popular politics, still underestimated in studies about pre-modern rural societies. The participants in the struggle against the abbot had a political program which was not limited to the quest for local autonomy. They fought for an opening of local corporations and a weakening of the control mechanism, for economic, political and cultural evolution of their valley. Bagnes rebels were decidedly "innovative rebels" Résumé: Le dimanche 29 août 1745, une petite émeute éclate à Bagnes, une vallée marginale des Alpes suisses, contre le seigneur, l'abbé de St-Maurice. Dans notre perspective, cette révolte n'est qu'un élément d'une lutte de longue haleine, pendant laquelle l'opposition au seigneur représente une partie active et bien organisée du conflit. L'analyse détaillée des protagonistes des luttes politiques, ainsi que des réseaux sociaux qui influencent la mobilisation, permet de mieux comprendre les dynamiques d'organisation de la vie politique locale et le rôle actif des couches populaires. Cette perspective autorise quelques conclusions, qui remettent en question les interprétations classiques des révoltes rurales d'Ancien Régime. Dans le cas de Bagnes, le caractère actif et novateur de la « politique populaire » encore négligé dans les études sur la période moderne, apparaît évident. Les protagonistes de la lutte contre l'abbé soutiennent un projet politique qui ne se réduit pas à une autonomie maximale de la région. Au contraire, ils prônent une ouverture des corporations locales, une transformation des structures économiques, politiques et culturelles de la vallée. Les émeutiers du Châble étaient décidément des « rebelles-novateurs ».
Resumo:
Ce mémoire traite du rôle des réseaux sociaux dans les trajectoires de vie des personnes qui vivent de l’aide sociale au Québec. La discrimination et la stigmatisation sont des processus émanant de rapports sociaux dans lesquels peuvent être inscrites ces personnes du fait de leurs conditions de vie précaires. L’analyse des réseaux sociaux pourrait nous permettre de découvrir certaines dynamiques, propres à ces rapports sociaux, en portant sur leur caractère qualitatif et temporel. Nous avons eu recours aux récits de vie afin d’identifier certains réseaux sociaux émergeant du discours et d’élaborer un modèle d’analyse qualitative des réseaux sociaux dans une perspective de trajectoire de vie. Cette étape a permis de percevoir l’existence d’un lien entre certains événements importants du récit et les transformations des relations. Nous avons également relevé dans le discours des indicateurs de la qualité des contacts selon leur contribution « positive », « négative » ou « neutre » dans la trajectoire. La comparaison des trajectoires des personnes sélectionnées a permis d’identifier des morphologies de réseaux similaires et de dresser une typologie. Les types ont pu être identifiés en fonction des trois catégories dominantes de contacts évoquées par les répondants : la famille, les connaissances, et les organismes. La mention de l’aide sociale, de contacts en psychiatrie ou même le passage sous silence par le répondant d’une de ces catégories a permis de nuancer la typologie et de recenser onze types de réseaux. Afin d’évaluer l’intérêt de ce modèle d’analyse, nous avons tenté une opérationnalisation exploratoire de la typologie.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
L’intégration des soins et des services de santé est vue autant, par les décideurs, par les professionnels que par les usagers, comme une nécessité pour assurer une meilleure accessibilité, pour favoriser la continuité et la coordination et pour améliorer la qualité des soins et services tout en contrôlant les coûts. Depuis près de deux décennies, des réseaux intégrés de soins et de services de santé se développent dans les pays de l’OCDE. Ce phénomène a généré une littérature plutôt abondante sur les conditions organisationnelles supportant l’intégration des soins et plus récemment, sur l’importance du rôle et de la place des professionnels dans ces structures. Les données empiriques et les écrits mettent en évidence que les infirmières ont joué un rôle important dans la mise en place des réseaux intégrés de services depuis leurs débuts. Cette étude vise à identifier les pratiques stratégiques des infirmières qui sont impliquées dans des réseaux intégrés de services de santé et de comprendre comment ces pratiques favorisent des apprentissages organisationnels permettant l’ajustement des pratiques de l’ensemble des intervenants dans le sens de l’intégration clinique. Elle vise aussi à mettre en évidence les facteurs individuels et organisationnels impliqués dans le développement de ces pratiques et dans le processus d’apprentissage organisationnel. Une revue des écrits sur les réseaux de services intégrés et sur l’intégration clinique, ainsi que sur l’apprentissage organisationnel et sur l’analyse stratégique a confirmé que ces écrits, tout en étant complémentaires, soutenaient les objectifs de cette étude. En effet, les écrits sur l’intégration présentent des déterminants de l’intégration sans aborder les pratiques stratégiques et sont discrets sur l’apprentissage organisationnel. Les écrits sur l’apprentissage organisationnel abordent le processus d’apprentissage, mais ne décrivent pas les pratiques favorisant l’apprentissage organisationnel et sont peu loquaces sur les facteurs influençant l’apprentissage organisationnel. Enfin, les écrits sur l’analyse stratégique discutent des systèmes et des processus dynamiques en incluant les conditions individuelles et organisationnelles, mais ne font pas allusion à l’apprentissage organisationnel. Afin de découvrir les pratiques stratégiques ainsi que les apprentissages organisationnels, et de comprendre le processus d’apprentissage et les facteurs impliqués dans celui-ci, nous avons eu recours à un devis d’étude de cas multiples où nous nous sommes attardés à étudier les pratiques d’infirmières évoluant dans quatre situations visant l’intégration clinique. Ces situations faisaient partie de trois réseaux intégrés de services de santé impliquant des professionnels de différentes disciplines rattachés soit, à un centre hospitalier ou à un centre local de services communautaires. Trois études de cas ont été rédigées à partir des informations émanant des différentes sources de données. Dans le cadre de cette étude, quatre sources de données ont été utilisées soit : des entrevues individuelles avec des infirmières, d’autres professionnels et des gestionnaires (n=60), des entrevues de groupe (n=3), des séances d’observations (n=12) et l’étude de documents d’archives (n=96). À l’aide des données empiriques recueillies, il a été possible de découvrir quinze pratiques stratégiques et de préciser la nature des apprentissages qu'elles généraient. L’analyse des cas a également permis de mieux comprendre le rapport entre les pratiques stratégiques et les apprentissages organisationnels et d’apporter des précisions sur le processus d’apprentissage organisationnel. Cette étude contribue à la pratique et à la recherche, car en plus d’offrir un modèle d’apprentissage organisationnel intégré, elle précise que le processus d’apprentissage organisationnel est propulsé grâce à des boucles d’apprentissages stimulées par des pratiques stratégiques, que ces pratiques stratégiques s’actualisent grâce aux ressources individuelles des infirmières et aux facteurs organisationnels et enfin, que ces apprentissages organisationnels favorisent des changements de pratiques soutenant l’intégration clinique.
Resumo:
Cette étude analyse l’impact du processus libéral de paix en République Démocratique du Congo sur la poursuite des violences dans les provinces du Nord et du Sud Kivu. Elle soutient que les dynamiques conflictuelles dans ces deux régions sont entretenues par l’établissement d’un programme de partage de pouvoir (power sharing), inclusif, jumelé à l’application des réformes économiques libérales. En se concentrant sur la réforme du secteur de sécurité et l’harmonisation de la politique nationale (en vue des élections post-conflictuelles de 2006), le processus de paix néglige les enjeux politiques et socio-économiques locaux. Le désengagement de l’État et la libéralisation du secteur minier accentuent le taux de corruption du gouvernement de transition et renforcent l’exploitation illégale des ressources par les groupes armés. Cette recherche soutient que l’implantation massive d’entreprises minières multinationales dans les provinces du Nord et du Sud Kivu aggrave la déformation des tissus socio-économiques locaux, accentue la dépendance des populations aux réseaux de gouvernance informelle et renforce les divers groupes armés présents sur le terrain. Par conséquent, les réformes structurelles menées dans le cadre du processus libéral de paix font perdurer les violences et occasionnent de nouvelles dynamiques conflictuelles localisées autour du contrôle des ressources locales, qu’elles soient d’ordre économique ou politique.
Resumo:
La connectomique est l’étude des cartes de connectivité du cerveau (animal ou humain), qu’on nomme connectomes. À l’aide des outils développés par la science des réseaux complexes, la connectomique tente de décrire la complexité fonctionnelle et structurelle du cerveau. L’organisation des connexions du connectome, particulièrement la hiérarchie sous-jacente, joue un rôle majeur. Jusqu’à présent, les modèles hiérarchiques utilisés en connectomique sont pauvres en propriétés émergentes et présentent des structures régulières. Or, la complexité et la richesse hiérarchique du connectome et de réseaux réels ne sont pas saisies par ces modèles. Nous introduisons un nouveau modèle de croissance de réseaux hiérarchiques basé sur l’attachement préférentiel (HPA - Hierarchical preferential attachment). La calibration du modèle sur les propriétés structurelles de réseaux hiérarchiques réels permet de reproduire plusieurs propriétés émergentes telles que la navigabilité, la fractalité et l’agrégation. Le modèle permet entre autres de contrôler la structure hiérarchique et apporte un support supplémentaire quant à l’influence de la structure sur les propriétés émergentes. Puisque le cerveau est continuellement en activité, nous nous intéressons également aux propriétés dynamiques sur des structures hiérarchiques produites par HPA. L’existence d’états dynamiques d’activité soutenue, analogues à l’état minimal de l’activité cérébrale, est étudiée en imposant une dynamique neuronale binaire. Bien que l’organisation hiérarchique favorise la présence d’un état d’activité minimal, l’activité persistante émerge du contrôle de la propagation par la structure du réseau.
Resumo:
Notre objectif avec cette communication est de démontrer que les relations ville/port à Rio de Janeiro sont empreintes de grandes difficultés auxquelles la géographie peut, à défaut d’y remédier, en analyser les tenants et les aboutissants. Pour cela nous avons élaboré notre méthodologie autour de concepts empruntant à la géographie économique (Veltz, Harvey, Sassen…) pour les notions de réseaux, villes, flux ; et à la géographie des transports (transport maritime) pour les notions de relations ville/port (Baudouin, Slack, Hoyle, Monié, Ducruet, Frémont, Rodrigue…). Depuis maintenant quelques décennies, la réorganisation productive à l’œuvre projette d’une manière chaque fois plus évidente les villes et les ports comme des acteurs majeurs de l’intégration de territoires dans les flux issus de la mondialisation croissante des économies. A Rio de Janeiro, nous assistons à de nombreuses initiatives de modernisation du système portuaire et à la revitalisation des friches portuaires de la ville. Depuis un peu plus d’une décennie, le port de Rio est devenu l’un des plus dynamique du pays grâce notamment aux activités de conteneurs, Roll-on/Roll-off, ou encore au développement du tourisme maritime. Cependant, si ces projets s’inscrivent dans une volonté de « connecter » chaque fois un peu plus la seconde métropole brésilienne aux flux de la mondialisation, on s’aperçoit qu’il existe encore de nombreux obstacles caractérisés par les difficultés qu’éprouvent les autorités portuaires et la préfecture de formuler un projet de développement régional autour du port et de la ville. Les relations ville/port à Rio de Janeiro sont marquées par la difficulté de concevoir les ports comme un atout essentiel dans la constitution de réseaux logistiques productifs et intégrés propres à l’économie de circulation actuelle.