100 resultados para Spiegelbildprinzip, reconnaissance de décisions étrangères
Resumo:
Les milieux humides remplissent plusieurs fonctions écologiques d’importance et contribuent à la biodiversité de la faune et de la flore. Même s’il existe une reconnaissance croissante sur l’importante de protéger ces milieux, il n’en demeure pas moins que leur intégrité est encore menacée par la pression des activités humaines. L’inventaire et le suivi systématique des milieux humides constituent une nécessité et la télédétection est le seul moyen réaliste d’atteindre ce but. L’objectif de cette thèse consiste à contribuer et à améliorer la caractérisation des milieux humides en utilisant des données satellites acquises par des radars polarimétriques en bande L (ALOS-PALSAR) et C (RADARSAT-2). Cette thèse se fonde sur deux hypothèses (chap. 1). La première hypothèse stipule que les classes de physionomies végétales, basées sur la structure des végétaux, sont plus appropriées que les classes d’espèces végétales car mieux adaptées au contenu informationnel des images radar polarimétriques. La seconde hypothèse stipule que les algorithmes de décompositions polarimétriques permettent une extraction optimale de l’information polarimétrique comparativement à une approche multipolarisée basée sur les canaux de polarisation HH, HV et VV (chap. 3). En particulier, l’apport de la décomposition incohérente de Touzi pour l’inventaire et le suivi de milieux humides est examiné en détail. Cette décomposition permet de caractériser le type de diffusion, la phase, l’orientation, la symétrie, le degré de polarisation et la puissance rétrodiffusée d’une cible à l’aide d’une série de paramètres extraits d’une analyse des vecteurs et des valeurs propres de la matrice de cohérence. La région du lac Saint-Pierre a été sélectionnée comme site d’étude étant donné la grande diversité de ses milieux humides qui y couvrent plus de 20 000 ha. L’un des défis posés par cette thèse consiste au fait qu’il n’existe pas de système standard énumérant l’ensemble possible des classes physionomiques ni d’indications précises quant à leurs caractéristiques et dimensions. Une grande attention a donc été portée à la création de ces classes par recoupement de sources de données diverses et plus de 50 espèces végétales ont été regroupées en 9 classes physionomiques (chap. 7, 8 et 9). Plusieurs analyses sont proposées pour valider les hypothèses de cette thèse (chap. 9). Des analyses de sensibilité par diffusiogramme sont utilisées pour étudier les caractéristiques et la dispersion des physionomies végétales dans différents espaces constitués de paramètres polarimétriques ou canaux de polarisation (chap. 10 et 12). Des séries temporelles d’images RADARSAT-2 sont utilisées pour approfondir la compréhension de l’évolution saisonnière des physionomies végétales (chap. 12). L’algorithme de la divergence transformée est utilisé pour quantifier la séparabilité entre les classes physionomiques et pour identifier le ou les paramètres ayant le plus contribué(s) à leur séparabilité (chap. 11 et 13). Des classifications sont aussi proposées et les résultats comparés à une carte existante des milieux humide du lac Saint-Pierre (14). Finalement, une analyse du potentiel des paramètres polarimétrique en bande C et L est proposé pour le suivi de l’hydrologie des tourbières (chap. 15 et 16). Les analyses de sensibilité montrent que les paramètres de la 1re composante, relatifs à la portion dominante (polarisée) du signal, sont suffisants pour une caractérisation générale des physionomies végétales. Les paramètres des 2e et 3e composantes sont cependant nécessaires pour obtenir de meilleures séparabilités entre les classes (chap. 11 et 13) et une meilleure discrimination entre milieux humides et milieux secs (chap. 14). Cette thèse montre qu’il est préférable de considérer individuellement les paramètres des 1re, 2e et 3e composantes plutôt que leur somme pondérée par leurs valeurs propres respectives (chap. 10 et 12). Cette thèse examine également la complémentarité entre les paramètres de structure et ceux relatifs à la puissance rétrodiffusée, souvent ignorée et normalisée par la plupart des décompositions polarimétriques. La dimension temporelle (saisonnière) est essentielle pour la caractérisation et la classification des physionomies végétales (chap. 12, 13 et 14). Des images acquises au printemps (avril et mai) sont nécessaires pour discriminer les milieux secs des milieux humides alors que des images acquises en été (juillet et août) sont nécessaires pour raffiner la classification des physionomies végétales. Un arbre hiérarchique de classification développé dans cette thèse constitue une synthèse des connaissances acquises (chap. 14). À l’aide d’un nombre relativement réduit de paramètres polarimétriques et de règles de décisions simples, il est possible d’identifier, entre autres, trois classes de bas marais et de discriminer avec succès les hauts marais herbacés des autres classes physionomiques sans avoir recours à des sources de données auxiliaires. Les résultats obtenus sont comparables à ceux provenant d’une classification supervisée utilisant deux images Landsat-5 avec une exactitude globale de 77.3% et 79.0% respectivement. Diverses classifications utilisant la machine à vecteurs de support (SVM) permettent de reproduire les résultats obtenus avec l’arbre hiérarchique de classification. L’exploitation d’une plus forte dimensionalitée par le SVM, avec une précision globale maximale de 79.1%, ne permet cependant pas d’obtenir des résultats significativement meilleurs. Finalement, la phase de la décomposition de Touzi apparaît être le seul paramètre (en bande L) sensible aux variations du niveau d’eau sous la surface des tourbières ouvertes (chap. 16). Ce paramètre offre donc un grand potentiel pour le suivi de l’hydrologie des tourbières comparativement à la différence de phase entre les canaux HH et VV. Cette thèse démontre que les paramètres de la décomposition de Touzi permettent une meilleure caractérisation, de meilleures séparabilités et de meilleures classifications des physionomies végétales des milieux humides que les canaux de polarisation HH, HV et VV. Le regroupement des espèces végétales en classes physionomiques est un concept valable. Mais certaines espèces végétales partageant une physionomie similaire, mais occupant un milieu différent (haut vs bas marais), ont cependant présenté des différences significatives quant aux propriétés de leur rétrodiffusion.
Resumo:
Dans le cadre de cette thèse, nous investiguons la capacité de chaque hémisphère cérébral à utiliser l’information visuelle disponible lors de la reconnaissance de mots. Il est généralement convenu que l’hémisphère gauche (HG) est mieux outillé pour la lecture que l’hémisphère droit (HD). De fait, les mécanismes visuoperceptifs utilisés en reconnaissance de mots se situent principalement dans l’HG (Cohen, Martinaud, Lemer et al., 2003). Puisque les lecteurs normaux utilisent optimalement des fréquences spatiales moyennes (environ 2,5 - 3 cycles par degré d’angle visuel) pour reconnaître les lettres, il est possible que l’HG les traite mieux que l’HD (Fiset, Gosselin, Blais et Arguin, 2006). Par ailleurs, les études portant sur la latéralisation hémisphérique utilisent habituellement un paradigme de présentation en périphérie visuelle. Il a été proposé que l’effet de l’excentricité visuelle sur la reconnaissance de mots soit inégal entre les hémichamps. Notamment, la première lettre est celle qui porte habituellement le plus d’information pour l’identification d’un mot. C’est aussi la plus excentrique lorsque le mot est présenté à l’hémichamp visuel gauche (HVG), ce qui peut nuire à son identification indépendamment des capacités de lecture de l’HD. L’objectif de la première étude est de déterminer le spectre de fréquences spatiales utilisé par l’HG et l’HD en reconnaissance de mots. Celui de la deuxième étude est d’explorer les biais créés par l’excentricité et la valeur informative des lettres lors de présentation en champs divisés. Premièrement, nous découvrons que le spectre de fréquences spatiales utilisé par les deux hémisphères en reconnaissance de mots est globalement similaire, même si l’HG requière moins d’information visuelle que l’HD pour atteindre le même niveau de performance. Étonnament toutefois, l’HD utilise de plus hautes fréquences spatiales pour identifier des mots plus longs. Deuxièmement, lors de présentation à l’HVG, nous trouvons que la 1re lettre, c’est à dire la plus excentrique, est parmi les mieux identifiées même lorsqu’elle a une plus grande valeur informative. Ceci est à l’encontre de l’hypothèse voulant que l’excentricité des lettres exerce un biais négatif pour les mots présentés à l’HVG. De façon intéressante, nos résultats suggèrent la présence d’une stratégie de traitement spécifique au lexique.
Resumo:
La présente recherche est constituée de deux études. Dans l’étude 1, il s’agit d’améliorer la validité écologique des travaux sur la reconnaissance émotionnelle faciale (REF) en procédant à la validation de stimuli qui permettront d’étudier cette question en réalité virtuelle. L’étude 2 vise à documenter la relation entre le niveau de psychopathie et la performance à une tâche de REF au sein d’un échantillon de la population générale. Pour ce faire, nous avons créé des personnages virtuels animés de différentes origines ethniques exprimant les six émotions fondamentales à différents niveaux d’intensité. Les stimuli, sous forme statique et dynamique, ont été évalués par des étudiants universitaires. Les résultats de l’étude 1 indiquent que les stimuli virtuels, en plus de comporter plusieurs traits distinctifs, constituent un ensemble valide pour étudier la REF. L’étude 2 a permis de constater qu’un score plus élevé à l’échelle de psychopathie, spécifiquement à la facette de l’affect plat, est associé à une plus grande sensibilité aux expressions émotionnelles, particulièrement pour la tristesse. Inversement, un niveau élevé de tendances criminelles est, pour sa part, associé à une certaine insensibilité générale et à un déficit spécifique pour le dégoût. Ces résultats sont spécifiques aux participants masculins. Les données s’inscrivent dans une perspective évolutive de la psychopathie. L’étude met en évidence l’importance d’étudier l’influence respective des facettes de la personnalité psychopathique, ce même dans des populations non-cliniques. De plus, elle souligne la manifestation différentielle des tendances psychopathiques chez les hommes et chez les femmes.
Resumo:
Cette recherche explore le Théâtre-forum comme support méthodologie d’un espace délibératif pour discuter des tensions sociales liées à la coprésence au centre-ville de Montréal entre des personnes en situation de rue et leurs voisins domiciliés. L’argument au cœur de la problématique repose sur les taches aveugles de la délibération: dans les forums de quartier, les inégalités sociales se traduisent par des inégalités délibératives au désavantage des personnes sans adresse en défaut d’autorité épistémologique en raison de leur statut; ces inégalités délibératives reproduisent le déni de reconnaissance qui traverse l’expérience relationnelle de ces personnes. Le Théâtre-forum est issu du Théâtre de l’opprimé : une pratique d’intervention théâtrale conçue par Augusto Boal durant la dictature au Brésil comme dispositif émancipateur pour les groupes opprimés. Le Joker incite les membres de l’auditoire à devenir Spect-acteurs par les remplacements du protagoniste, et ce, afin de surmonter son oppression. Ainsi, cette projection dans les chaussures du protagoniste-itinérant facilite-t-elle ce passage de l’indignité à la reconnaissance pour les personnes en situation de rue? L’échange théâtral peut-il ouvrir la voie vers la reconstruction d’un lien intersubjectif entre personnes sans adresse et domiciliés, intersubjectivité qui au cœur-même des vertus délibératives et des principes fondateurs défendus par les théoriciens de la reconnaissance comme Honneth et Renault?
Resumo:
Après avoir passé plus de 4 ans dans des camps de travail forcé, Jonas Mekas, lituanien, est déporté avec son frère par les Nations-Unies en 1949 aux États-Unis. Les deux rescapés de la seconde guerre mondiale dédient alors leur temps au cinéma. Dès leur arrivée, ils se procurent une caméra 16 mm bolex et se tournent vers le cinéma expérimental, grâce, entre autre, à une de ces cinéastes pionnières américaine Maya Deren. En marge de l'industrie cinématographique hollywoodienne, Jonas Mekas participe à l'édification de structures - coopératives, associations, magazines, journaux - afin de rendre accessible ce genre filmique, de lui obtenir une reconnaissance publique et de, ultimement, le préserver. En 1969, il réalise un film intitulé "Diaries, Notes and Sketches : Also Known as Walden". Mekas réalise ensuite des films qui réemploient des séquences qui se trouvent dans cette première ébauche filmique. Ce processus se retrace au sein de son « premier essai » numérique qu'il réalise à l'ère cybériste intitulé "The First Forty" (2006), composé de vidéos et de descriptions textuelles. Tout comme il l’avait fait avec Walden, Mekas présente explicitement celui-ci à un public, en l’occurrence son nouveau public d'internautes, qui en prend connaissance sur son site web officiel. La présentation numérique et la table des matières papier accompagnant "Diaries, Notes and Sketches : Also Known as Walden" rédigée par l'artiste en 1969 ont une fonction similaire au sens où, par elles, Jonas Mekas donne ces deux créations aux spectateurs. Nous avons choisi d'employer le terme de dispositif pour parler de ces « objets » qui font appel à diverses formes énonciatives afin de créer un effet spécifique chez le spectateur. En explorant la théorie sociologique moderne du don développée par Jacques T. Godbout, notre projet a été de relever « l'esprit de don » qui se retrace au sein de ces dispositifs. Cette étude nous permet de constater que les dispositifs audiovisuels / cinématographiques que développa Mekas sont des « objets » qui peuvent être reçus tel des dons suscitant le désir de donner chez les spectateurs. Ils sont le ciment symbolique personnel et collectif nécessaire à l’accomplissement du processus de « reconnaissance » qu’implique le don.
Resumo:
Notre étude porte sur le programme d’appui à la création en arts visuels contemporains du Conseil des arts et des lettres du Québec (CALQ). La question soulevé habituellement ce type de programme qui s’appuie sur l’évaluation par les pairs est la suivante : les décisions sont-elles « biaisées »? Mais derrière cette question, il y a en a une autre, plus fondamentale : sur quels critères se base l’évaluation? Nous nous intéressons à comprendre le rapport entre l’évaluation de la qualité artistique et l’attribution de bourses. Plus spécifiquement, nous cherchons à analyser comment sont déterminées la qualité et la valeur d’une candidature en arts visuels, sur quels types d’arguments et de critères s’appuie l’évaluation artistique et par quels moyens cette dernière pourra créer une iniquité entre les candidats. Il s’agit donc d’une recherche qui relève de la sociologie de l’art, mais d’une sociologie qui prend en compte le contexte institutionnel et dont l’objet sont les valeurs qui sous-tendent l’évaluation artistique, dans le cadre d’une organisation autonome de subvention des arts. Dans cette perspective, les valeurs artistiques ne se définissent pas ex nihilo mais in situ, dans des situations (ex. comités d’évaluation) et dans un contexte institutionnel précis (le CALQ). L’évaluation de la qualité artistique s’inscrit donc dans des dynamiques sociales concrètes et particulières qu’il nous revient d’observer et d’analyser minutieusement. Notre attention portera spécialement sur les mécanismes de prise de décision et à la construction collective des jugements.
Resumo:
The work done in this master's thesis, presents a new system for the recognition of human actions from a video sequence. The system uses, as input, a video sequence taken by a static camera. A binary segmentation method of the the video sequence is first achieved, by a learning algorithm, in order to detect and extract the different people from the background. To recognize an action, the system then exploits a set of prototypes generated from an MDS-based dimensionality reduction technique, from two different points of view in the video sequence. This dimensionality reduction technique, according to two different viewpoints, allows us to model each human action of the training base with a set of prototypes (supposed to be similar for each class) represented in a low dimensional non-linear space. The prototypes, extracted according to the two viewpoints, are fed to a $K$-NN classifier which allows us to identify the human action that takes place in the video sequence. The experiments of our model conducted on the Weizmann dataset of human actions provide interesting results compared to the other state-of-the art (and often more complicated) methods. These experiments show first the sensitivity of our model for each viewpoint and its effectiveness to recognize the different actions, with a variable but satisfactory recognition rate and also the results obtained by the fusion of these two points of view, which allows us to achieve a high performance recognition rate.
Resumo:
L’objet de cette étude porte sur la détermination de la sanction à imposer aux policiers ayant été reconnus coupables d’infractions criminelles, sur l’influence de l’article 18.2 de la Charte des droits et libertés de la personne dans cette détermination et sur les méthodes utilisées dans la jurisprudence arbitrale. Deux méthodes de détermination des sanctions s’opposent sur ce sujet, soit la méthode « large et libérale » et la méthode « stricte et littérale ». La méthode de détermination des sanctions « large et libérale » prévoit, entre autres, l’application de l’article 18.2 de la Charte des droits et libertés de la personne. Cette loi est de niveau quasi constitutionnel et prévoit, notamment, l’analyse objective du lien existant entre l’emploi de policier et l’infraction criminelle commise. Quant à la méthode de détermination des sanctions « stricte et littérale », elle résulte de l’application de la Loi sur la police qui est une loi ordinaire prévoyant un régime particulier pour les policiers reconnus coupables d’infractions criminelles. En effet, l’article 119 de la Loi sur la police implique, depuis son remaniement en 2000, la destitution automatique des policiers reconnus coupables d’une infraction criminelle poursuivable uniquement par voie de mise en accusation et la destitution des policiers reconnus coupables d’une infraction criminelle poursuivable soit sur déclaration de culpabilité par procédure sommaire, soit par voie de mise en accusation à moins que le policier ne puisse démontrer que des circonstances particulières ne justifient une mesure différente que la destitution. L’analyse réalisée dans le cadre de cette recherche vise la détermination des sanctions guidant les décisions des arbitres de griefs quant à la situation des policiers accusés et/ou reconnus coupables d’infractions criminelles en cours d’emploi. À cet effet, 25 décisions arbitrales et leurs révisions judiciaires ont été étudiées selon l’analyse de contenu à l’aide d’une grille d’analyse. L’analyse des données obtenues a par la suite été réalisée par l’entremise de l’analyse qualitative.
Resumo:
Les domaines de transactivation (TAD) acides sont présents dans plusieurs protéines oncogéniques, virales et dans des facteurs de différenciation de cellules souches. Ces domaines acides contrôlent la transcription à travers une myriade d’interactions avec divers partenaires ce qui provoque l’activation de la transcription ou leur propre élimination. Cependant, dans la dernière décennie, de plus en plus de recherches ont démontré que les TAD possédaient un sous-domaine activation/dégradation (DAD) responsable pour une fonction d'activation de la transcription dépendante de la dégradation de la protéine. Un tel phénomène peut être accompli par plusieurs moyens tels que des modifications post-traductionnelles, l’association à des cofacteurs ou la formation d’un réseau d’interaction complexe en chaînes. Or, aucune preuve concrète n’a pu clairement démontrer le fonctionnement de la dépendance paradoxale entre ces deux fonctions sur un activateur de transcription. Le DAD, a été observé dans plusieurs facteurs de transcription incluant la protéine suppresseur de tumeur p53 et le facteur de différenciation érythrocyte EKLF. Un aspect particulier des DAD est que la composition de leur séquence d’acide aminé est fortement similaire à celle des domaines de liaison à l’ubiquitine (UBD) qui jouent un rôle clé dans le contrôle de la transcription à travers leur interaction non-covalente avec l’ubiquitine. Ainsi, dans ce mémoire, nous avons étudié la possibilité que les TAD acides soient capables d’agir comme UBD pour réguler leur fonction paradoxale à travers des interactions non-covalentes avec l’ubiquitine. L’analyse est faite en utilisant la résonnance magnétique nucléaire (RMN) ainsi qu’avec des essais fonctionnels de dégradation. En somme, cette étude amène une plus grande compréhension des protéines impliquées dans le contrôle des TAD et caractérise le tout premier exemple de TAD capable d’interagir avec l’ubiquitine.
Resumo:
Les implications philosophiques de la Théorie de la Perspective de 1979, notamment celles qui concernent l’introduction d’une fonction de valeur sur les résultats et d’un coefficient de pondération sur les probabilités, n’ont à ce jour jamais été explorées. Le but de ce travail est de construire une théorie philosophique de la volonté à partir des résultats de la Théorie de la Perspective. Afin de comprendre comment cette théorie a pu être élaborée il faut étudier la Théorie de l’Utilité Attendue dont elle est l’aboutissement critique majeur, c’est-à-dire les axiomatisations de la décision de Ramsey (1926), von Neumann et Morgenstern (1947), et enfin Savage (1954), qui constituent les fondements de la théorie classique de la décision. C’est entre autres la critique – par l’économie et la psychologie cognitive – du principe d’indépendance, des axiomes d’ordonnancement et de transitivité qui a permis de faire émerger les éléments représentationnels subjectifs à partir desquels la Théorie de la Perspective a pu être élaborée. Ces critiques ont été menées par Allais (1953), Edwards (1954), Ellsberg (1961), et enfin Slovic et Lichtenstein (1968), l’étude de ces articles permet de comprendre comment s’est opéré le passage de la Théorie de l’Utilité Attendue, à la Théorie de la Perspective. À l’issue de ces analyses et de celle de la Théorie de la Perspective est introduite la notion de Système de Référence Décisionnel, qui est la généralisation naturelle des concepts de fonction de valeur et de coefficient de pondération issus de la Théorie de la Perspective. Ce système, dont le fonctionnement est parfois heuristique, sert à modéliser la prise de décision dans l’élément de la représentation, il s’articule autour de trois phases : la visée, l’édition et l’évaluation. À partir de cette structure est proposée une nouvelle typologie des décisions et une explication inédite des phénomènes d’akrasie et de procrastination fondée sur les concepts d’aversion au risque et de surévaluation du présent, tous deux issus de la Théorie de la Perspective.
Resumo:
Les « dispositions successorales spéciales » de la lex situs apportent une exception particulière au système unitaire de la loi applicable à la succession. Leur reconnaissance dans le récent Règlement du Parlement européen et du Conseil relatif à la compétence, la loi applicable, la reconnaissance et l'exécution des décisions, et l'acceptation et l'exécution des actes authentiques en matière de successions et à la création d'un certificat successoral européen du 4 juillet 2012 témoigne de l’importance et de l’actualité de cette prévision normative. L’exception trouve sa source dans l’article 15 de la Convention du 1er août 1989 sur la loi applicable aux successions à cause de mort, formule qui fut suivi par l’article 3099 al. 2 du Code civil du Québec. La conception originaire de la règle se situe à l’article 28 de la Loi d’introduction au Code civil allemand de 1896. Ces législations reconnaissent la nécessité de respecter certaines dérogations aux règles successorales ordinaires dont le contenu matériel justifie une rupture exceptionnelle de l’unité de la succession internationale. Ainsi, l’opposition traditionnelle entre le système scissionniste qui divise la loi applicable à la succession en fonction de la nature mobilière ou immobilière des biens et celui qui postule l’unité législative trouve dans le respect des « dispositions spéciales » de la lex rei sitae régissant certains biens de la succession un facteur conciliateur. Il s’agit de respecter un minimum normatif de la loi de l’État où sont situés certains biens de la succession malgré la compétence générale d’une lex successionis étrangère. Ce bloc normatif irréductible se présente comme un pont qui relie les deux solutions extrêmes dans une position intermédiaire où il n’y a plus de scission au sens classique du terme mais où l’unité est néanmoins brisée en raison de certaines considérations substantielles tirées de la destination des biens.
Resumo:
Le but de l’expérience décrite dans ce mémoire est d'arriver à inculquer inconsciemment aux sujets une stratégie visuelle leur permettant d'utiliser seulement une partie spécifique de l'information visuelle disponible dans le visage humain pour en reconnaître le genre. Normalement, le genre d’un visage est reconnu au moyen de certaines régions, comme la bouche et les yeux (Dupuis-Roy, Fortin, Fiset et Gosselin, 2009). La tâche accomplie par les sujets permettait un apprentissage perceptuel implicite qui se faisait par conditionnement opérant. Ces derniers étaient informés qu'un nombre de points leur serait attribué selon leur performance à la tâche. Au terme de l’entraînement, les sujets renforcés pour l’utilisation de l’oeil gauche utilisaient davantage l’oeil gauche que l’oeil droit et ceux renforcés pour l’utilisation de l’oeil droit utilisaient davantage l’oeil droit. Nous discuterons de potentielles applications cliniques de cette procédure de conditionnement.
Resumo:
Les buts des recherches présentées dans cette thèse étaient d’évaluer le rôle de la stéréoscopie dans la reconnaissance de forme, dans la perception du relief et dans la constance de forme. La première étude a examiné le rôle de la stéréoscopie dans la perception des formes visuelles en utilisant une tâche de reconnaissance de formes. Les stimuli pouvaient être présentés en 2D, avec disparité normale (3D) ou avec disparité inversée. La performance de reconnaissance était meilleure avec les modes de présentation 2D et 3D qu’avec la 3D inversée. Cela indique que la stéréoscopie contribue à la reconnaissance de forme. La deuxième étude s’est intéressée à la contribution conjointe de l’ombrage et de la stéréoscopie dans la perception du relief des formes. Les stimuli étaient des images d’une forme 3D convexe synthétique présentée sous un point de vue menant à une ambigüité quant à sa convexité. L’illumination pouvait provenir du haut ou du bas et de la gauche ou de la droite, et les stimuli étaient présentés dichoptiquement avec soit de la disparité binoculaire normale, de la disparité inversée ou sans disparité entre les vues. Les participants ont répondu que les formes étaient convexes plus souvent lorsque la lumière provenait du haut que du bas, plus souvent avec la disparité normale qu’en 2D, et plus souvent avec absence de disparité qu’avec disparité inversée. Les effets de direction d’illumination et du mode de présentation étaient additifs, c’est-à-dire qu’ils n’interagissaient pas. Cela indique que l’ombrage et la stéréoscopie contribuent indépendamment à la perception du relief des formes. La troisième étude a évalué la contribution de la stéréoscopie à la constance de forme, et son interaction avec l’expertise perceptuelle. Elle a utilisé trois tâches de discrimination séquentielle de trombones tordus ayant subi des rotations en profondeur. Les stimuli pouvaient être présentés sans stéréoscopie, avec stéréoscopie normale ou avec stéréoscopie inversée. Dans la première moitié de l’Exp. 1, dans laquelle les variations du mode de présentation étaient intra-sujets, les performances étaient meilleures en 3D qu’en 2D et qu’en 3D inversée. Ces effets ont été renversés dans la seconde moitié de l’expérience, et les coûts de rotation sont devenus plus faibles pour la 2D et la 3D inversée que pour la 3D. Dans les Exps. 2 (variations intra-sujets du mode de présentation, avec un changement de stimuli au milieu de l’expérience) et 3 (variations inter-sujets du mode de présentation), les effets de rotation étaient en tout temps plus faibles avec stéréoscopie qu’avec stéréoscopie inversée et qu’en 2D, et plus faibles avec stéréoscopie inversée que sans stéréoscopie. Ces résultats indiquent que la stéréoscopie contribue à la constance de forme. Toutefois, cela demande qu’elle soit valide avec un niveau minimal de consistance, sinon elle devient stratégiquement ignorée. En bref, les trois études présentées dans cette thèse ont permis de montrer que la stéréoscopie contribue à la reconnaissance de forme, à la perception du relief et à la constance de forme. De plus, l’ombrage et la stéréoscopie sont intégrés linéairement.
Resumo:
Les sociétés contemporaines affrontent le défi de s’intégrer et s’adapter à un processus de transformation qui vise la construction de sociétés du savoir. Ce processus doit notamment son élan aux institutions d’enseignement supérieur qui constituent un espace privilégié où on bâtit l’avenir d’une société à partir des savoirs et celles-ci doivent faire face aux nouveaux enjeux sociaux, économiques et politiques qui affectent tous les pays du monde. La quête de la qualité devient donc un processus constant d’amélioration et surgit l’intérêt par l’évaluation au niveau universitaire. Par conséquent, cette recherche s’attache au sujet de l’évaluation à l’enseignement supérieur et s’enfonce dans le débat actuel sur les changements provoqués par les évaluations institutionnelles produisant un défi puisqu’il s’agit d’une prise de conscience fondée sur la culture de la qualité. L’autoévaluation est une stratégie permettant aux institutions d’enseignement supérieur mener des processus intégraux de valorisation dont le but est d’identifier les faiblesses des facteurs qui ont besoin d’améliorer. Le résultat conduit à l’élaboration et à la mise en œuvre d’un plan d’amélioration pour l'institution, programme académique ou plan d’études. À travers l’orientation du modèle d’évaluation systémique CIPP de Stufflebeam (1987), on a pu analyser de façon holistique la mise en place de l’autoévaluation depuis son contexte, planification, processus et produit. Ainsi les objectifs de la thèse visent l’identification du développement de la deuxième autoévaluation afin d’obtenir une reconnaissance de haute qualité et effectuer la mise en œuvre du plan d’amélioration auprès des programmes académiques de Licence en Comptabilité et Gestion de l’entreprise de la Faculté de Sciences de l’Administration de l’Université du Valle en Colombie. À travers l’appropriation de la théorie Neo-institutionnelle les changements apparus après l’autoévaluation ont été également analysés et interprétés et ont ainsi permis l’achèvement des fins de la recherche. La méthodologie développe la stratégie de l’étude de cas dans les deux programmes académiques avec une approche mixte où la phase qualitative des entretiens semi-structurés est complémentée par la phase quantitative des enquêtes. Des documents institutionnels des programmes et de la faculté ont aussi été considérés. Grâce à ces trois instruments ont pu obtenir plus d’objectivité et d’efficacité pendant la recherche. Les résultats dévoilent que les deux programmes ciblés ont recouru à des procédés et à des actions accordées au modèle de l’Université du Valle quoiqu’il ait fallu faire des adaptations à leurs propres besoins et pertinence ce qui a permis de mener à terme la mise en œuvre du processus d’autoévaluation et ceci a donné lieu à certains changements. Les composantes Processus Académiques et Enseignants sont celles qui ont obtenu le plus fort développement, parmi celles-ci on trouve également : Organisation, Administration et Gestion, Ressources Humaines, Physiques et Financières. D’autre part, parmi les composantes moins développées on a : Anciens Étudiants et Bienêtre Institutionnel. Les conclusions ont révélé que se servir d’un cadre institutionnel fort donne du sens d’identité et du soutien aux programmes. Il faut remarquer qu’il est essentiel d’une part élargir la communication de l’autoévaluation et ses résultats et d’autre part effectuer un suivi permanent des plans d’amélioration afin d’obtenir des changements importants et produire ainsi un enracinement plus fort de la culture de la qualité et l’innovation auprès de la communauté académique. Les résultats dégagés de cette thèse peuvent contribuer à mieux comprendre tant la mise en œuvre de l’autoévaluation et des plans d’amélioration aussi que les aspects facilitateurs, limitants, les blocages aux processus d’évaluation et la génération de changements sur les programmes académiques. Dans ce sens, la recherche devient un guide et une réflexion à propos des thèmes où les résultats sont très faibles. Outre, celle-ci révèle l’influence des cadres institutionnels ainsi que les entraves et tensions internes et externes montrant un certain degré d’agencement par le biais de stratégies de la part des responsables de la prise de décisions dans les universités. On peut déduire que la qualité, l’évaluation, le changement et l’innovation sont des concepts inhérents à la perspective de l’apprentissage organisationnel et à la mobilité des savoirs.
Resumo:
Les interactions ARN/ARN de type kissing-loop sont des éléments de structure tertiaire qui jouent souvent des rôles clés chez les ARN, tant au niveau fonctionnel que structural. En effet, ce type d’interaction est crucial pour plusieurs processus dépendant des ARN, notamment pour l’initiation de la traduction, la reconnaissance des ARN antisens et la dimérisation de génome rétroviral. Les interactions kissing-loop sont également importantes pour le repliement des ARN, puisqu’elles permettent d’établir des contacts à longue distance entre différents ARN ou encore entre les domaines éloignés d’un même ARN. Ce type d’interaction stabilise aussi les structures complexes des ARN fonctionnels tels que les ARNt, les riborégulateurs et les ribozymes. Comme d’autres ARN fonctionnels, le ribozyme VS de Neurospora contient une interaction kissing-loop importante. Celle-ci est impliquée dans la reconnaissance du substrat et se forme entre la tige-boucle I (stem-loop I, SLI) du substrat et la tige-boucle V (stem-loop V, SLV) du domaine catalytique. Des études biochimiques ont démontré que l’interaction kissing-loop I/V, dépendante du magnésium, implique trois paires de bases Watson-Crick (W-C). De plus, cette interaction est associée à un réarrangement de la structure du substrat, le faisant passer d’une conformation inactive dite unshifted à une conformation active dite shifted. Les travaux présentés dans cette thèse consistent en une caractérisation structurale et thermodynamique de l’interaction kissing-loop I/V du ribozyme VS, laquelle est formée de fragments d’ARN représentant les tige-boucles I et V dérivées du ribozyme VS (SLI et SLV). Cette caractérisation a été réalisée principalement par spectroscopie de résonance magnétique nucléaire (RMN) et par titrage calorimétrique isotherme (isothermal titration calorimetry, ITC) en utilisant différents complexes SLI/SLV dans lesquels l’ARN SLV est commun à tous les complexes, alors que différentes variations de l’ARN SLI ont été utilisées, soit en conformation shiftable ou preshifted. Les données d’ITC ont permis de démontrer qu’en présence d’une concentration saturante de magnésium, l’affinité d’un substrat SLI preshifted pour SLV est extrêmement élevée, rendant cette interaction plus stable que ce qui est prédit pour un duplexe d’ARN équivalent. De plus, l’étude effectuée par ITC montre que des ARN SLI preshifted présentent une meilleure affinité pour SLV que des ARN SLI shiftable, ce qui a permis de calculer le coût énergétique associé au réarrangement de structure du substrat. En plus de confirmer la formation des trois paires de bases W-C prédites à la jonction I/V, les études de RMN ont permis d’obtenir une preuve structurale directe du réarrangement structural des substrats SLI shiftable en présence de magnésium et de l’ARN SLV. La structure RMN d’un complexe SLI/SLV de grande affinité démontre que les boucles terminales de SLI et SLV forment chacune un motif U-turn, ce qui facilite l’appariement W-C intermoléculaire. Plusieurs autres interactions ont été définies à l’interface I/V, notamment des triplets de bases, ainsi que des empilements de bases. Ces interactions contribuent d’ailleurs à la création d’une structure présentant un empilement continu, c’est-à-dire qui se propage du centre de l’interaction jusqu’aux bouts des tiges de SLI et SLV. Ces études de RMN permettent donc de mieux comprendre la stabilité exceptionnelle de l’interaction kissing-loop I/V au niveau structural et mènent à l’élaboration d’un modèle cinétique de l’activation du substrat par le ribozyme VS. En considérant l’ensemble des données d’ITC et de RMN, l’étonnante stabilité de l’interaction I/V s’explique probablement par une combinaison de facteurs, dont les motifs U-turn, la présence d’un nucléotide exclu de la boucle de SLV (U700), la liaison de cations magnésium et l’empilement de bases continu à la jonction I/V.