314 resultados para motiv
Resumo:
Servicios registrales
Resumo:
Cette thèse vise à comprendre comment et dans quelle mesure l’agrément des établissements de santé est-il efficace pour développer les capacités des acteurs, nécessaires pour améliorer la qualité des soins et des services. Au cours des dix dernières années, il y a eu une croissance rapide, à l'échelle mondiale de la mise en œuvre de programmes d'agrément en santé pour l’amélioration de la qualité. L'expérience de la dernière décennie prouve que l'agrément est une technique valable pour l'amélioration de la qualité dans beaucoup d’organismes de santé. Il est également utilisé pour soutenir les réformes en santé. Malgré cela, les outils de gestion comme l’agrément sont souvent critiqués, car elles sont adoptées avec enthousiasme négligeant fréquemment une implantation favorisant la mise en place de comportements durables et la démonstration de meilleurs résultats. Le développement des capacités (DC) est un processus délibéré, multidimensionnel, dynamique dont le but est d’améliorer la performance des individus, des équipes, de l’organisation et d’un système. Le DC constitue une des trois assises de l’implantation d’une démarche institutionnalisée de la qualité, au même niveau que la communication et la reconnaissance. Cette recherche c’est déroulée dans un organisme d’Arabie Saoudite dans le cadre de leur première démarche avec le Conseil canadien d’agrément (CCASS) des services de santé. Une étude de cas unique d’implantation de l’agrément a été menée utilisant une approche mixte. Quatre niveaux d’analyse ont été étudiés en détail (individu, équipe, organisation et système) afin de mesurer 28 effets escomptés du DC puisés dans la littérature. Des entretiens semi-structurés, des groupes de discussion, une revue de la documentation ont été réalisés. Dans le but de mesurer trois des effets escomptés, un questionnaire sur le niveau d’implantation de la qualité (NIQ) a été administré pour la première fois en Arabie Saoudite dans cinq organismes. La performance du cas a été évaluée en relation avec les autres et en fonction de son positionnement dans le cycle d’agrément. Des analyses qualitatives et quantitatives utilisant la technique de polissage par la médiane ont été exécutées. Au niveau des individus, l’agrément a motivé la participation à de nouvelles formations. L’auto-évaluation est l’étape qui encourage l’apprentissage par l’autocritique. Le sentiment de fierté est le changement affectif le plus souvent répertorié. Les équipes ont amélioré leur communication par l’implantation d’une « chaîne de commandement ». Elle a introduit des notions de respect et de clarté des rôles telles qu’exigées par les normes. Au moyen de la mesure du NIQ, nous avons constaté que la majorité des organismes saoudiens se positionnent au niveau minimal d’implantation (assurance qualité). Le plus expérimenté avec l’agrément démontre les meilleurs résultats tout près du second niveau. Enfin, plus les organismes progressent dans la démarche d’agrément, plus les écarts de perception entre les 8 domaines mesurés par le questionnaire du NIQ et entre les différentes catégories d’emploi s’amincissent. En conclusion, l’agrément a démontré de l’efficacité à développer de nouvelles capacités par l’intégration des transformations des individus et par l’impact de l’acquisition des nouvelles capacités sur le changement des pratiques, majoritairement au niveau des individus, des équipes et de l’organisation. Le processus d’agrément a également fait preuve d’importants pouvoirs de convergence au niveau de l’adoption des pratiques édictées par les normes d’agrément qui contribuent positivement à l’amélioration de la qualité.
Resumo:
Le rôle intégratif que la Cour de justice des Communautés européennes (CJCE) a joué dans la construction européenne est bien connu et très documenté. Ce qui l'est moins ce sont les raisons qui l'ont motivé, et le motivent encore. Si certains se sont déjà penchés sur cette question, un aspect a néanmoins été complètement négligé, celui de l'influence qu'a pu avoir à cet égard le contexte conjoncturel sur la jurisprudence communautaire et plus précisément sur l'orientation que la Cour a choisi de lui donner. Dans ce cadre, les auditoires de la Cour ont un rôle déterminant. Pour s'assurer d'une bonne application de ses décisions, la Cour est en effet amenée à prendre en considération les attentes des États membres, des institutions européennes, de la communauté juridique (tribunaux nationaux, avocats généraux, doctrine et praticiens) et des ressortissants européens (citoyens et opérateurs économiques). Aussi, à la question du pourquoi la CJCE décide (ou non) d'intervenir, dans le domaine de la libre circulation des marchandises, en faveur de l'intégration économique européenne, j'avance l'hypothèse suivante: l'intervention de la Cour dépend d'une variable centrale : les auditoires, dont les attentes (et leur poids respectif) sont elles-mêmes déterminées par le contexte conjoncturel. L'objectif est de faire ressortir l'aspect plus idéologique de la prise de décision de la Cour, largement méconnu par la doctrine, et de démontrer que le caractère fluctuant de la jurisprudence communautaire dans ce domaine, et en particulier dans l'interprétation de l'article 28 du traité CE, s'explique par la prise en compte par la Cour des attentes de ses auditoires, lesquels ont majoritairement adhéré à l'idéologie néolibérale. Afin de mieux saisir le poids - variable - de chaque auditoire de la Cour, j'apprécierai, dans une première partie, le contexte conjoncturel de la construction européenne de 1990 à 2006 et notamment le virage néolibéral que celle-ci a opéré. L'étude des auditoires et de leur impact sur la jurisprudence fera l'objet de la seconde partie de ma thèse. Je montrerai ainsi que la jurisprudence communautaire est une jurisprudence « sous influence », essentiellement au service de la réalisation puis de l'approfondissement du marché intérieur européen.
Resumo:
Based on a close reading of the debate between Rawls and Sen on primary goods versus capabilities, I argue that liberal theory cannot adequately respond to Sen’s critique within a conventionally neutralist framework. In support of the capability approach, I explain why and how it defends a more robust conception of opportunity and freedom, along with public debate on substantive questions about well-being and the good life. My aims are: (i) to show that Sen’s capability approach is at odds with Rawls’s political liberal version of neutrality; (ii) to carve out a third space in the neutrality debate; and (iii) to begin to develop, from Sen’s approach, the idea of public value liberalism as a position that falls within that third space.
Resumo:
Les tâches de vision artificielle telles que la reconnaissance d’objets demeurent irrésolues à ce jour. Les algorithmes d’apprentissage tels que les Réseaux de Neurones Artificiels (RNA), représentent une approche prometteuse permettant d’apprendre des caractéristiques utiles pour ces tâches. Ce processus d’optimisation est néanmoins difficile. Les réseaux profonds à base de Machine de Boltzmann Restreintes (RBM) ont récemment été proposés afin de guider l’extraction de représentations intermédiaires, grâce à un algorithme d’apprentissage non-supervisé. Ce mémoire présente, par l’entremise de trois articles, des contributions à ce domaine de recherche. Le premier article traite de la RBM convolutionelle. L’usage de champs réceptifs locaux ainsi que le regroupement d’unités cachées en couches partageant les même paramètres, réduit considérablement le nombre de paramètres à apprendre et engendre des détecteurs de caractéristiques locaux et équivariant aux translations. Ceci mène à des modèles ayant une meilleure vraisemblance, comparativement aux RBMs entraînées sur des segments d’images. Le deuxième article est motivé par des découvertes récentes en neurosciences. Il analyse l’impact d’unités quadratiques sur des tâches de classification visuelles, ainsi que celui d’une nouvelle fonction d’activation. Nous observons que les RNAs à base d’unités quadratiques utilisant la fonction softsign, donnent de meilleures performances de généralisation. Le dernière article quand à lui, offre une vision critique des algorithmes populaires d’entraînement de RBMs. Nous montrons que l’algorithme de Divergence Contrastive (CD) et la CD Persistente ne sont pas robustes : tous deux nécessitent une surface d’énergie relativement plate afin que leur chaîne négative puisse mixer. La PCD à "poids rapides" contourne ce problème en perturbant légèrement le modèle, cependant, ceci génère des échantillons bruités. L’usage de chaînes tempérées dans la phase négative est une façon robuste d’adresser ces problèmes et mène à de meilleurs modèles génératifs.
Resumo:
Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.
Resumo:
This dissertation focuses on military cooperation between the United States and its special allies. It argues that alliance expectations determine the level of military cooperation, while two intervening variables - the level of government cohesion and military capabilities - determine its implementation. This study also shows how secondary states deploy strategies to overcome power asymmetries through bilateral concessions, international organizations and by appealing to principle. The focus of the research is on special allies, as they have the most to gain or lose by going along with American plans. My contention is that secondary allies can rarely influence the dominant ally decisively, but they can act autonomously and resist to pressures exerted by the stronger alliance partner. The argument builds on three central claims. First, power asymmetries between allies translate into different assessments of international threats. Second, when disagreements over threats arise, the outcome of intra-alliance bargaining is not necessarily dictated by the preferences of the stronger power. Third, secondary states, as opposed to the dominant partner, face unique constraints when facing major foreign policy decisions, i.e. they face a trade-off between establishing a credible reputation as an alliance partner in a politically feasible way while minimizing domestic audience costs. To examine the theoretical puzzle presented by asymmetric military cooperation, I introduce a causal explanation that builds on neoclassical realism, to zone in on the interaction between systemic and domestic variables. My research makes a contribution to alliance theory and foreign policy decision-making by studying how special allies respond to American decisions in times of threat and how systemic constraints are channeled through state-level variables. To investigate the causal link between threat perception, alliance expectations and domestic constraints, this study relies on the method of structured focused comparison with three detailed case studies. The focus is on the initial decision made by special allies regarding whether or not to participle in joint mobilization with the United States. The decision-making process is presented from the perspective of secondary allied states and measures the explanatory factors that motivated the decision on military cooperation. The case studies are the UK, Canada and Australia’s response to the war in Afghanistan and the war in Iraq during the period of 2001 to 2003.
Resumo:
Figure majeure de l’histoire des relations coloniales franco-algériennes, l’émir Abdelkader est généralement présenté par ses compatriotes comme le modèle politique, militaire et religieux du résistant au colonialisme français du 19ième siècle. L’historiographie officielle algérienne en véhicule l’image du chef religieux qui a initié al-jihad de résistance conforme aux règles exotériques de la chari’ia. Il est décrit comme un guerrier loyal et magnanime, fin stratège, dont la défaite militaire a paradoxalement marqué la fondation de l’Algérie moderne en tant que Nation et État. La construction sociopolitique postcoloniale de ce mythe a permis de légitimer les différents régimes politiques, qui se sont succédé dans l’Algérie indépendante et qui ont toujours tenu, dans le cadre d’une lecture littérale de l’Islam. Ceci dans le but de taire la dimension spirituelle d’Abdelkader disciple, héritier et commentateur de l’œuvre du magister Magnus soufi, IbnʻArabî. Fascinés dès le début de l’occupation par cet adversaire hors du commun, les français, de plus en plus sécularisés, en ont érigé une image utilitaire, l’aliénant ainsi de ses compatriotes coreligionnaires et le découplant de sa foi islamique. Les mémoires concurrentes de l’ancienne puissance coloniale et de son ex-colonie, l’Algérie, ont généré plusieurs débats contemporains en ce qui a trait à l’écriture de l’histoire de la colonisation. Le personnage d’Abdelkader a été instrumentalisé par les uns et les autres. Deux évènements controversés de sa biographie sont devenus les objets d’une polémique souvent âpre et amère entre auteurs chercheurs algériens et français : l’adhésion de l’émir à la franc-maçonnerie française et sa séparation d’avec celle-ci. Nous allons présenter que la prémisse d’auteurs algériens, selon laquelle Abdelkader n’aurait pas pu adhérer au Grand Orient de France, pour cause d’incompatibilité doctrinale musulmane, est inconsistante. Nous essayerons de démontrer au contraire, que son initiation à la maçonnerie telle qu’elle s’était présentée à lui était en accord avec sa vision soufie et légaliste du dogme islamique. En nous basant sur le choix de la franc-maçonnerie française pour la laïcité au moment de la réception supposée de l’émir dans la fraternité, nous montrerons qu’il s’en éloigna pour des raisons de doctrine islamique. En effet, l’élimination de toute référence déiste des textes constitutifs du Grand Orient de France fut inacceptable pour le musulman qu’était Abdelkader, vaincu militairement mais raffermi spirituellement par sa proximité grandissante avec son maître spirituel IbnʻArabî. L’humanisme des francs-maçons français avait motivé une refondation basée sur les droits de l’homme issus de la révolution française. Tandis que celui de l’émir Abdelkader prenait sa source dans l’Unicité de l’Être, concept-cadre Akbarien de la compréhension de la relation de Dieu avec ses créatures. Nous allons montrer que les polémiques franco-algériennes sur les relations d’Abdelkader avec la franc-maçonnerie française, masquent un autre débat de fond qui dure depuis des siècles dans le monde musulman. Un débat opposant deux herméneutiques légalistes des textes islamiques, l’une exotérique s’incarnant dans l’œuvre du théologien musulman Ibn Taymiyya et l’autre ésotérique se trouvant au cœur des écrits du mystique IbnʻArabî.
Resumo:
Résumé Cet ouvrage examine les fondements du mouvement de conservation architecturale moderne. Dans ce contexte, la création de la « Society for the Protection of Ancient Buildings » par William Morris est considéré comme le point culminant d’un processus historique qui mena à l’apparition du mouvement. Sa genèse est présentée comme ayant été le résultat d’une confrontation entre deux visions utopiques du moyen-âge; celle de l’Église Anglicane et celle de William Morris. Un survol détaillé des origines, des résultats et des effets de la « Renaissance Gothique » ouvre tout grand sur les sources littéraires, idéologiques et religieuses qui y donnèrent sa force. Les grands programmes de restaurations qui ont vu le jour en Angleterre à l’ère victorienne sont examinés en relation avec l’Église Anglicane et caractérisés par les motivations idéologiques de celle-ci. Bien que ce memoire ne réussit pas à démontré de manière sans équivoque que la création du mouvement de conservation architectural moderne par Morris fut essentiellement en reaction au programme idéologique de l’Église Anglicane au dix-neuvième siècle, nous y retrouvons néanmoins une réévaluation des causes et de l’impact de la « Renaissance Gothique » qui, de manière significative, allaient à l’encontre des croyances et des principes les plus chers à Morris. Il existe une quantité admirable d’ouvrages examinant les travaux et l’impact de William Morris en littérature et en arts, ainsi que son activisme socialiste. Cependant, il serait juste de constater qu’en comparaison, la grande contribution qu’il apporta à la protection de l’architecture patrimoniale a certainement été négligée dans les publications à son sujet. Ce projet de recherche examine les éléments et les conditions qui ont motivé Morris à créer un mouvement qui encore aujourd’hui continue de croitre en importance et en influence.
Resumo:
L’imputation simple est très souvent utilisée dans les enquêtes pour compenser pour la non-réponse partielle. Dans certaines situations, la variable nécessitant l’imputation prend des valeurs nulles un très grand nombre de fois. Ceci est très fréquent dans les enquêtes entreprises qui collectent les variables économiques. Dans ce mémoire, nous étudions les propriétés de deux méthodes d’imputation souvent utilisées en pratique et nous montrons qu’elles produisent des estimateurs imputés biaisés en général. Motivé par un modèle de mélange, nous proposons trois méthodes d’imputation et étudions leurs propriétés en termes de biais. Pour ces méthodes d’imputation, nous considérons un estimateur jackknife de la variance convergent vers la vraie variance, sous l’hypothèse que la fraction de sondage est négligeable. Finalement, nous effectuons une étude par simulation pour étudier la performance des estimateurs ponctuels et de variance en termes de biais et d’erreur quadratique moyenne.
Resumo:
Le Popol Vuh, récit historique du peuple maya quiché, a été traduit des dizaines de fois. Jusqu’au milieu du 20e siècle, bon nombre de ces traductions se fondaient sur la version réalisée en 1861 par Brasseur de Bourbourg, un missionnaire français. Pour souligner le travail du traducteur, nous avons étudié sa traduction non pas d’un point de vue comparatif des deux textes, mais du point de vue du paratexte, c’est-à-dire ce qui entoure le texte (page de titre, préface, notes, illustrations, etc.). Pour ce faire, nous avons dressé le cadre théorique du paratexte à l’appui des écrits de Genette et de Lane, puis nous l’avons appliqué à celui de la traduction du Popol Vuh de Brasseur de Bourbourg. D’une taille colossale, ce paratexte nous renseigne sur ce qui a motivé le travail du traducteur et sur ce qu’il a fait. L’étude de son avant-propos nous indique clairement que son but est de faire connaître la culture des Amériques sous un jour nouveau, et le Popol Vuh est pour lui l’exemple parfait d’une richesse littéraire, historique et culturelle jusque-là largement ignorée. Cette partie du paratexte de Brasseur de Bourbourg nous prépare à la lecture, alors que les nombreuses notes de bas de page nous guident pendant celle-ci. Force est toutefois d’admettre que le paratexte de cet ouvrage est si imposant qu’il porte ombrage à la traduction. Bref, l’étude du paratexte nous amène à aborder la traduction de Brasseur de Bourbourg d’un oeil critique, en fonction de ce que nous dit le paratexte. La lecture du paratexte et la connaissance de ses tenants et aboutissants devraient donc faire d’un simple lecteur un véritable lecteur averti, qu’il s’agisse d’une traduction ou de tout autre texte.
Resumo:
La protection de l’intimité et de la vie privée des personnes est une préoccupation majeure de notre société car elle favorise la santé et le bien-être des individus. La confidentialité est un des éléments du droit au respect de la vie privée. Élément indispensable à la relation de confiance, le respect de la confidentialité soulève quelques problèmes quant à son maintien dans la relation impliquant les enfants. L’objectif de la présente étude est tout d’abord, d’explorer les différentes dynamiques entourant le secret thérapeutique ou la confidentialité de même que son application, à la lumière des pratiques internationales. Ensuite, elle vise à comprendre les perceptions et le sens de la confidentialité du dossier médical des enfants chez les professionnels de la santé et de l’éducation. Enfin, ce travail vise à comprendre les motivations et la connaissance des impacts du bris de confidentialité par ces professionnels. Il s'agit d'une étude qualitative de nature exploratoire. Les données proviennent d'entrevues semi-dirigées réalisées auprès de dix-neuf personnes oeuvrant de près ou de loin auprès des enfants. Une grille d'entrevue a été utilisée pour la collecte des données. Les résultats permettent d'observer que : tout d’abord, sur le plan international, il y a une absence d’uniformité dans l’application du concept de confidentialité. Son degré de protection dépend du contexte juridique d'un système donné Ensuite, l’étude démontre une relation entre la sensibilité du répondant et son milieu professionnel usuel. En effet, les professionnels de la santé, membres de corporation professionnelle, ont une vision beaucoup plus déontologique de la confidentialité et ils sont très sensibles à la question de la confidentialité, car celle-ci constitue une valeur centrale. Par contre, les professionnels de l’éducation, en l’absence d’identité professionnelle commune, s’inspirent d’une approche institutionnelle qu’éthique et ils apparaissent nettement moins sensibles à la confidentialité. Bref, le respect de la confidentialité est lié à une question de responsabilité sociale des professionnels. Enfin, le bris de la confidentialité est motivé par divers facteurs légitimes (pour raisons légale ou judiciaire, contexte de collaboration) et illégitimes (la négligence, l’erreur, l’inconduite).
Resumo:
La méthode ChIP-seq est une technologie combinant la technique de chromatine immunoprecipitation avec le séquençage haut-débit et permettant l’analyse in vivo des facteurs de transcription à grande échelle. Le traitement des grandes quantités de données ainsi générées nécessite des moyens informatiques performants et de nombreux outils ont vu le jour récemment. Reste cependant que cette multiplication des logiciels réalisant chacun une étape de l’analyse engendre des problèmes de compatibilité et complique les analyses. Il existe ainsi un besoin important pour une suite de logiciels performante et flexible permettant l’identification des motifs. Nous proposons ici un ensemble complet d’analyse de données ChIP-seq disponible librement dans R et composé de trois modules PICS, rGADEM et MotIV. A travers l’analyse de quatre jeux de données des facteurs de transcription CTCF, STAT1, FOXA1 et ER nous avons démontré l’efficacité de notre ensemble d’analyse et mis en avant les fonctionnalités novatrices de celui-ci, notamment concernant le traitement des résultats par MotIV conduisant à la découverte de motifs non détectés par les autres algorithmes.
Resumo:
Lors d'une intervention conversationnelle, le langage est supporté par une communication non-verbale qui joue un rôle central dans le comportement social humain en permettant de la rétroaction et en gérant la synchronisation, appuyant ainsi le contenu et la signification du discours. En effet, 55% du message est véhiculé par les expressions faciales, alors que seulement 7% est dû au message linguistique et 38% au paralangage. L'information concernant l'état émotionnel d'une personne est généralement inférée par les attributs faciaux. Cependant, on ne dispose pas vraiment d'instruments de mesure spécifiquement dédiés à ce type de comportements. En vision par ordinateur, on s'intéresse davantage au développement de systèmes d'analyse automatique des expressions faciales prototypiques pour les applications d'interaction homme-machine, d'analyse de vidéos de réunions, de sécurité, et même pour des applications cliniques. Dans la présente recherche, pour appréhender de tels indicateurs observables, nous essayons d'implanter un système capable de construire une source consistante et relativement exhaustive d'informations visuelles, lequel sera capable de distinguer sur un visage les traits et leurs déformations, permettant ainsi de reconnaître la présence ou absence d'une action faciale particulière. Une réflexion sur les techniques recensées nous a amené à explorer deux différentes approches. La première concerne l'aspect apparence dans lequel on se sert de l'orientation des gradients pour dégager une représentation dense des attributs faciaux. Hormis la représentation faciale, la principale difficulté d'un système, qui se veut être général, est la mise en œuvre d'un modèle générique indépendamment de l'identité de la personne, de la géométrie et de la taille des visages. La démarche qu'on propose repose sur l'élaboration d'un référentiel prototypique à partir d'un recalage par SIFT-flow dont on démontre, dans cette thèse, la supériorité par rapport à un alignement conventionnel utilisant la position des yeux. Dans une deuxième approche, on fait appel à un modèle géométrique à travers lequel les primitives faciales sont représentées par un filtrage de Gabor. Motivé par le fait que les expressions faciales sont non seulement ambigües et incohérentes d'une personne à une autre mais aussi dépendantes du contexte lui-même, à travers cette approche, on présente un système personnalisé de reconnaissance d'expressions faciales, dont la performance globale dépend directement de la performance du suivi d'un ensemble de points caractéristiques du visage. Ce suivi est effectué par une forme modifiée d'une technique d'estimation de disparité faisant intervenir la phase de Gabor. Dans cette thèse, on propose une redéfinition de la mesure de confiance et introduisons une procédure itérative et conditionnelle d'estimation du déplacement qui offrent un suivi plus robuste que les méthodes originales.
Resumo:
Pour répondre aux exigences du gouvernement fédéral quant aux temps d’attente pour les chirurgies de remplacement du genou et de la hanche, les établissements canadiens ont adopté des stratégies de gestion des listes d’attentes avec des niveaux de succès variables. Notre question de recherche visait à comprendre Quels facteurs ont permis de maintenir dans le temps un temps d’attente répondant aux exigences du gouvernement fédéral pendant au moins 6-12 mois? Nous avons développé un modèle possédant quatre facteurs, inspiré du modèle de Parsons (1977), afin d’analyser les facteurs comprenant la gouvernance, la culture, les ressources, et les outils. Trois études de cas ont été menées. En somme, le 1er cas a été capable d’obtenir les exigences pendant six mois mais incapable de les maintenir, le 2e cas a été capable de maintenir les exigences > 18 mois et le 3e cas a été incapable d’atteindre les objectifs. Des documents furent recueillis et des entrevues furent réalisées auprès des personnes impliquées dans la stratégie. Les résultats indiquent que l’hôpital qui a été en mesure de maintenir le temps d’attente possède certaines caractéristiques: réalisation exclusive de chirurgie de remplacement de la hanche et du genou, présence d’un personnel motivé, non distrait par d’autres préoccupations et un esprit d’équipe fort. Les deux autres cas ont eu à faire face à une culture médicale moins homogène et moins axés sur l’atteinte des cibles; des ressources dispersées et une politique intra-établissement imprécise. Le modèle d’hôpital factory est intéressant dans le cadre d’une chirurgie surspécialisée. Toutefois, les patients sont sélectionnés pour des chirurgies simples et dont le risque de complication est faible. Il ne peut donc pas être retenu comme le modèle durable par excellence.