781 resultados para Règles d’origine
Resumo:
Depuis l'année 1960, jusqu'au début des années '90, une institution financière, dite coopérative, s'est imposée sur le marché au Québec, accumulant durant cette période près de un milliard et demi de dollars (1 500 000 000,00 $) d'actifs. Presque jusqu'à sa "mort" coopérative, elle a connu des taux de croissance atteignant soixante pourcent (60%) par année. Beaucoup de personnes ont perdu des sommes importantes dans cette galère. L'image des coopératives en a pris pour son rhume et n'eût été du Mouvement Desjardins, nous doutons fort que la coopération aujourd'hui encore bénéficierait des mêmes appuis! Cette institution financière se nomme : le mouvement des caisses d'entraide économique. Pour éviter une situation semblable dans l'avenir, nous croyons pertinent de faire un retour dans le passé et d'analyser les comportements que ces caisses privilégiaient. À la lecture de ce travail, certains seront surpris de connaître les méthodes utilisées par elles et, à notre avis, le peu de dimension coopérative qu'on apportait avec les membres. Leur "faillite technique" en '81 a obligé le Gouvernement du Québec à réagir en conséquence. C'est alors que fut créé au Ministère des Institutions Financières un service d'inspection opérant avec des règles et des suivis relativement élaborés. On se rappelle qu'à cette époque aussi plusieurs banques à charte canadiennes ont connu des problèmes financiers majeurs, nécessitant l'intervention de l'État fédéral. Il a donc fallu des situations critiques avant qu'on apporte les correctifs requis, et cela même si le gouvernement de l'époque savait par un rapport secret depuis 1978, l'existence d'un problème potentiel! En 1979, alors que nous étions à l'emploi du Mouvement Desjardins, nous nous sommes intéressés à leurs techniques de ventes et à leur fonctionnement parce que certains dirigeants, gestionnaires et recruteurs des Caisses d'Entraide Économique laissaient courir le bruit que leur réseau était regroupé avec le Mouvement Desjardins, et aussi parce que leur agressivité causait des saignées de fonds très importantes dans les caisses populaires. On profitait ainsi de la grande crédibilité et confiance accordées à Desjardins pour accroître les ventes de leurs plans d'épargne. En collaboration avec certaines fédérations, nous avons compilé plusieurs informations pour fins d'analyse et de compréhension de leur système. Peu de temps après le début de ce travail, des problèmes majeurs au niveau de la liquidité, de la sécurité des fonds et de privilèges accordés à certains de leurs membres ont été soulevés au réseau TVA. Dès lors, étant donné la précarité de leur système financier, les membres n'avaient plus accès à leurs épargnes. La confiance en cette institution financière fut détruite presque sur le coup. […]
Resumo:
Facebook joue un rôle déterminant dans la montée fulgurante en popularité des RSN sur Internet. Tout le fonctionnement de la plateforme repose sur la connexion aux comptes des autres membres. La popularité de Facebook doit beaucoup au partage public et réciproque des informations personnelles de ses usagers. Ce type de renseignement était jusqu’à présent réservé aux personnes appartenant à un cercle restreint de proches et d’intimes. Toutefois, les listes de contact des utilisateurs Facebook ne sont pas uniquement constituées d’amis proches, mais plutôt d’un ensemble de relations interpersonnelles – formé de connaissances, de collègues, d’anciens camarades de classe, etc. Les membres Facebook divulguent ainsi souvent leur intimité à un auditoire qui peut être qualifié de public en raison de sa taille et de sa diversité d’origine. Les recherches quantitatives sur le sujet sont nombreuses, néanmoins le point de vue de réels utilisateurs des réseaux sociaux numériques est très peu connu. Cette étude exploratoire vise les expressions visibles de l’intimité sur les réseaux sociaux numériques, tels que Facebook, et s’intéresse plus particulièrement à l’apparition d’une nouvelle forme d’intimité exclusive aux réseaux sociaux numériques. Pour ce faire, 15 entretiens individuels ont été menés auprès d’une population à forte utilisation de Facebook : les étudiantes universitaires de 18 à 24 ans. À l’aide des notions d’espace public, d’espace privé, d’intimité, d’extimité et de visibilité, ce mémoire explore la représentation que l’utilisateur se fait de l’envahissement du territoire de l’intimité par les réseaux sociaux. On y explique l’apparition d’une possible nouvelle forme d’intimité – engendré par les réseaux sociaux numériques – grâce au mouvement des frontières entre les espaces privés et publics. Selon les résultats présentés dans ce mémoire, les utilisateurs Facebook emploient un certain nombre de stratégies pour se protéger des effets négatifs de la diffusion de leur vie privée, tout en divulguant suffisamment d’information pour assurer l’entretient de leur relation avec leurs amis. Leur vie privée est donc publique, mais seulement pour leurs propres réseaux. L’intimité sur Facebook s’affiche aisément, selon des degrés déterminés par la communauté d’utilisateurs, alors qu’elle reste cachée dans la vie de tous les jours.
Resumo:
L’objectif de cet essai est d’élaborer des outils afin de connaître, comprendre et suivre les fuites de nitrates d’origine agricole dans le périmètre du SAGE Rance Frémur baie de Beaussais. Les outils sont de deux catégories : des références agronomiques locales et des indicateurs de suivi. Le premier type d’outils doit permettre aux exploitants d’adapter leurs pratiques agricoles en fonction du contexte pédoclimatique, afin de réduire l’impact négatif sur les fuites de nitrates. Le second type d’outils a pour but d’évaluer la situation des fuites de nitrates à l’échelle du bassin versant. Ces indicateurs ont pour objectif de suivre les pratiques agricoles en lien avec les fuites de nitrates et de suivre l’état des milieux aquatiques pour ce paramètre chimique. Avant de proposer des outils adaptés, il est nécessaire de comprendre les enjeux liés aux nitrates sur le territoire étudié. Une bonne connaissance du territoire s’accompagne de connaissances théoriques indispensables sur les mécanismes responsables des fuites de nitrates. Ces mécanismes sont influencés par plusieurs facteurs en interaction : les facteurs environnementaux et les facteurs humains. Pour les facteurs environnementaux, plusieurs projets scientifiques spécifiques sont en œuvre sur le territoire pour mieux les appréhender. Concernant les facteurs humains, plusieurs dispositions politiques et réglementaires les encadrent, encourageant les bonnes pratiques, de gré ou de force. Parmi elles, la Directive Nitrates en vigueur dans l’Union européenne depuis 1991 fait figure de proue. À l’échelle locale, le SAGE révisé de la Rance, du Frémur et de la baie de Beaussais a été approuvé par arrêté préfectoral et est en application depuis décembre 2013. Ce document a pour but d’atteindre le bon état écologique des eaux. Plusieurs dispositions concernent le monde agricole et certaines d’entre elles ciblent spécifiquement la réduction des fuites d’azote. L’essai vise à mettre en œuvre deux d’entre elles, l’orientation de gestion n°17 (Élaboration de référentiels agronomiques locaux) et la disposition n°39 (Connaître et suivre la pression azotée et les pratiques agricoles). La thématique des pollutions liées à l’azote alimente les revues scientifiques et techniques depuis plus de 15 ans, avec une quantité importante d’outils préconisés qui s’ajoutent les uns aux autres. Or pour une mise en œuvre efficace sur le territoire, il est nécessaire de restreindre ce nombre : ce qui implique une sélection méthodique des outils les plus pertinents pour satisfaire l’objectif de l’essai. Au total, une dizaine de références agronomiques locales sont répertoriées et huit indicateurs de suivi sont proposés. Un tableau de bord a été élaboré afin de faciliter l’articulation et l’interprétation des indicateurs.
Resumo:
(POO) est l’utilisation de patrons de conception (PC). Un PC est un arrangement caractéristique de classes permettant d’offrir une solution éprouvée, tout en obtenant un code réutilisable et compréhensible. Plusieurs PC sont définis, dont 24 par la GoF [12] et plusieurs autres sont apparus par la suite. Le concept de PC est abstrait ce qui peut amener différentes interprétations. Ces différences peuvent aussi causer une mauvaise implémentation qui peut réduire les avantages d’utiliser ce patron. Ce projet consiste à concevoir un outil facilitant l’utilisation des PC. L’outil Génération et Restructuration de Patrons de Conception(GRPC) permet la génération automatique du squelette d’un patron de conception ainsi que la restructuration d’un code en le transformant structure respectant un PC. La génération et la restructuration automatique permettent d’obtenir un code uniforme et de qualité tout en respectant le patron de conception. La compréhension et la maintenance du code sont ainsi améliorées. GRPC est module d’extension pour l’environnement de développement Eclipse écrit en Java. Le code est conçu pour être facilement compréhensible et extensible. Les deux principaux objectifs de GRPC sont de restructurer (refactoring) une section de code vers l’architecture d’un patron de conception et de générer des squelettes de patrons de conception. Une interface graphique permet de guider l’utilisateur et d’aller chercher toutes les informations importantes pour le fonctionnement du logiciel. Elle permet aussi de configurer les éléments du patron de conception. Pour s’assurer de la possibilité d’effectuer une restructuration, chaque patron est associé avec une ou plusieurs règles qui analysent le code pour détecter la présence d’une structure particulière. Des procédures aident les développeurs à ajouter de nouveaux PC dans GRPC. GRPC fournit des fonctionnalités permettant d’implémenter quelques patrons de conception de la POO définis dans le livre Design Patterns : Elements of Reusable Object-Oriented Software.
Resumo:
La présence accrue de jeunes appartenant à un groupe ethnoculturel minoritaire dans les institutions pour jeunes contrevenants au Québec est une problématique complexe et préoccupante. Lorsque les études scientifiques se penchent sur les questions liées à la délinquance juvénile et aux gangs de rue, l’accent est placé sur l’identification de groupes ethniques plus à risque de s’associer à un gang (van Gemert, Peterson, & Lien, 2008; Wortley & Tanner, 2006). L’association à un gang de rue est régulièrement considérée comme un phénomène qui toucherait principalement les groupes ethnoculturels minoritaires (Perreault & Bibeau, 2003 ; Spergel, 2009), sans toutefois préciser le rôle plus concret de l’ethnicité et de la culture dans l’association aux gangs de rue. Cette thèse, composée d’articles scientifiques, présente les résultats de deux études portant sur l’identité ethnique de jeunes contrevenants, mesurée par le Multigroup Ethnic Identity Measure – Revised (MEIM-R) de Phinney et Ong (2007). La première étude explore les effets de l’identité ethnique et de la génération d’immigration sur les comportements délinquants autorévélés de jeunes contrevenants judiciarisés. (N = 71, âge 14-20 ans). Les comportements délinquants ont été mesurés à partir du Self-Report of Offending – Revised (SRO-R) de Huizingua, Esbensen et Weihar (1991). La seconde étude explore le rôle de l’identité ethnique et de l’appartenance à un groupe de minorités racisées dans l’association autorévélée à un gang de rue et dans l’adhésion à la culture de gang (N = 69; âge 14-20 ans). L’adhésion à la culture de gang a, quant à elle, été établie à partir de la Mesure d’adhésion à la culture de gang (MACg) de Fredette (2014). Les résultats indiquent une plus forte identité ethnique chez les jeunes contrevenants issus de la première et de la seconde génération d’immigration que ceux de la troisième génération d’immigration ou plus. Lorsqu’on tient uniquement compte de l’apparence ethnique, les jeunes contrevenants appartenant à une minorité racisée présentent aussi des plus hauts scores d’identité ethnique que ceux appartenant à la majorité caucasienne. Les résultats indiquent également que les jeunes contrevenants de l’échantillon ayant immigré avant l’âge de 6 ans et qui ont tendance à présenter une identité ethnique élevée rapportent davantage de crimes contre la personne. Afin de mieux cerner les mécanismes sous-jacents à l’effet de l’identité ethnique sur les crimes reconnus plus violents, il a été convenu de prendre l’association à un gang de rue comme variable dépendante de la seconde étude. En effet, les délinquants qui se disent associés aux gangs de rue présentent une problématique de délinquance plus sévère que les autres (Laurier, Guay, Lafortune, & Toupin, 2015), notamment en ce qui a trait à la délinquance violente (Guay et al., 2015). Plus un jeune contrevenant rapporte un niveau d’exploration de l’identité ethnique élevé, plus il adhère aux dimensions signes et symboles et règles et rituels de l’adhésion à la culture de gang, et ce, peu importe son âge, ou qu’il appartienne à une minorité racisée. Cette recherche fait ressortir l’importance de s’intéresser aux questions identitaires liées à l’ethnicité, à la race et à la culture lors d’interventions auprès de jeunes contrevenants, et ce, peu importe leurs origines.
Resumo:
La vérification de la résistance aux attaques des implémentations embarquées des vérifieurs de code intermédiaire Java Card est une tâche complexe. Les méthodes actuelles n'étant pas suffisamment efficaces, seule la génération de tests manuelle est possible. Pour automatiser ce processus, nous proposons une méthode appelée VTG (Vulnerability Test Generation, génération de tests de vulnérabilité). En se basant sur une représentation formelle des comportements fonctionnels du système sous test, un ensemble de tests d'intrusions est généré. Cette méthode s'inspire des techniques de mutation et de test à base de modèle. Dans un premier temps, le modèle est muté selon des règles que nous avons définies afin de représenter les potentielles attaques. Les tests sont ensuite extraits à partir des modèles mutants. Deux modèles Event-B ont été proposés. Le premier représente les contraintes structurelles des fichiers d'application Java Card. Le VTG permet en quelques secondes de générer des centaines de tests abstraits. Le second modèle est composé de 66 événements permettant de représenter 61 instructions Java Card. La mutation est effectuée en quelques secondes. L'extraction des tests permet de générer 223 tests en 45 min. Chaque test permet de vérifier une précondition ou une combinaison de préconditions d'une instruction. Cette méthode nous a permis de tester différents mécanismes d'implémentations de vérifieur de code intermédiaire Java Card. Bien que développée pour notre cas d'étude, la méthode proposée est générique et a été appliquée à d'autres cas d'études.
Resumo:
Cette thèse étudie la façon dont trois romans latino-canadiens utilisent le trope de l’exil comme allégorie d’un trauma historique qui comprend plus que l’expérience individuelle de ses protagonistes : la transition forcée de l’État vers le Marché en Amérique latine effectuée par les dictatures. Cobro revertido (1992) de José Leandro Urbina; Le pavillon des miroirs (1994) Sergio Kokis; et Rojo, amarillo y verde (2003) de Alejandro Saravia, explorent divers aspects de ce processus à travers les exercices de mémoire de leurs personnages. L’exil oblige les protagonistes de ces oeuvres à se confronter aux limites des structures sémiotiques par lesquelles ils essaient de donner un fondement idéologique à leur existence sociale. Ils découvrent ainsi qu’il n’est pas possible de reproduire des hiérarchies, des valeurs, ni des relations de pouvoir de leur pays d’origine dans leur pays d’accueil, non seulement à cause des différences culturelles, mais aussi à cause d’un changement historique qui concerne la relation du sujet avec la collectivité et le territoire. Ces œuvres abordent l’expérience de ce changement par un dialogue avec différents genres littéraires comme le roman de fondation, la méta-fiction historique du Boom, le roman de formation et le testimonio, mis en relation avec divers moments historiques, de la période nationale-populaire aux transitions, en passant par les dictatures. Cela permet aux auteurs de réfléchir aux mécanismes narratifs que plusieurs œuvres latino-américaines du XXème siècle ont utilisé pour construire et naturaliser des subjectivités favorables aux projets hégémoniques des États nationaux. Ces exercices méta-narratifs comprennent le rôle de l’écriture comme support privilégié pour l’articulation d’une identité avec le type de communauté imaginaire qu’est la nation. Ils servent aussi à signaler les limites de l’écriture dans le moment actuel du développement technologique des médias et de l’expansion du capitalisme transnational. Ainsi, les auteurs de ces œuvres cherchent d’autres formes de représentation pour rendre visibles les traces d’autres histoires qui n’ont pas pu être incorporées dans le discours historique officiel.
Resumo:
Les transactions sur les valeurs mobilières ainsi que leur mise en garantie se font bien au-delà des frontières nationales. Elles impliquent une multitude d’intervenants, tels que l’émetteur, un grand nombre d’intermédiaires disposés en structure pyramidale, un ou des investisseurs et, bien évidemment, les bénéficiaires desdites valeurs mobilières ou garanties. On peut aussi signaler l’existence de nombreux portefeuilles diversifiés contenant des titres émis par plusieurs émetteurs situés dans plusieurs états. Toute la difficulté d’une telle diversité d’acteurs, de composantes financières et juridiques, réside dans l’application de règles divergentes et souvent conflictuelles provenant de systèmes juridiques d’origines diverses (Common Law et civiliste). De nombreux juristes, de toutes nationalités confondues, ont pu constater ces dernières années que les règles de création, d’opposabilité et de réalisation des sûretés, ainsi que les règles de conflit de lois qui aident à déterminer la loi applicable à ces différentes questions, ne répondaient plus adéquatement aux exigences juridiques nationales dans un marché financier global, exponentiel et sans réelles frontières administratives. Afin de résoudre cette situation et accommoder le marché financier, de nombreux textes de loi ont été révisés et adaptés. Notre analyse du droit québécois est effectuée en fonction du droit américain et canadien, principales sources du législateur québécois, mais aussi du droit suisse qui est le plus proche de la tradition civiliste québécoise, le tout à la lueur de la 36e Convention de La Haye du 5 juillet 2006 sur la loi applicable à certains droits sur des titres détenus auprès d'un intermédiaire. Par exemple, les articles 8 et 9 du Uniform Commercial Code (UCC) américain ont proposé des solutions modernes et révolutionnaires qui s’éloignent considérablement des règles traditionnelles connues en matière de bien, de propriété, de sûreté et de conflits de lois. Plusieurs autres projets et instruments juridiques dédiés à ces sujets ont été adoptés, tels que : la Loi uniforme sur le transfert des valeurs mobilières (LUTVM) canadienne, qui a été intégrée au Québec par le biais de la Loi sur le transfert de valeurs mobilières et l’obtention de titres intermédiés, RLRQ, c.T-11.002 (LTVMQ) ; la 36e Convention de La Haye du 5 juillet 2006 sur la loi applicable à certains droits sur des titres détenus auprès d'un intermédiaire; la Loi fédérale sur le droit international privé (LDIP) suisse, ainsi que la Loi fédérale sur les titres intermédiés (LTI) suisse. L’analyse de ces textes de loi nous a permis de proposer une nouvelle version des règles de conflit de lois en matière de sûretés et de transfert des titres intermédiés en droit québécois. Cette étude devrait susciter une réflexion profonde du point de vue d’un juriste civiliste, sur l’efficacité des nouvelles règles québécoises de sûretés et de conflit de lois en matière de titres intermédiés, totalement inspirées des règles américaines de Common Law. Un choix qui semble totalement ignorer un pan du système juridique civiliste et sociétal.
Resumo:
Dans cette thèse, nous avons analysé le déroulement d’un processus de municipalisation du système de santé, effectué au Rio Grande do Norte (RN), un des états fédérés du nord-est du Brésil. En tenant compte des contextes historiques d’implantation, nous avons centré notre attention sur la contribution des acteurs impliqués dans ce processus, spécialement dans l’allocation des ressources financières du système. Les croyances, perceptions, attentes, représentations, connaissances, intérêts, l’ensemble des facteurs qui contribuent à la constitution des capacités cognitives de ces acteurs, favorise la réflexivité sur leurs actions et la définition de stratégies diverses de façon à poursuivre leurs objectifs dans le système de santé. Ils sont vus ainsi comme des agents compétents et réflexifs, capables de s’approprier des propriétés structurelles du système de santé (règles et ressources), de façon à prendre position dans l’espace social de ce système pour favoriser le changement ou la permanence du statu quo. Au cours du processus de structuration du Système unique de santé brésilien, le SUS, la municipalisation a été l’axe le plus développé d’un projet de réforme de la santé. Face aux contraintes contextuelles et de la dynamique complexe des espaces sociaux de la santé, les acteurs réformistes n’ont pas pu suivre le chemin de l’utopie idéalisée; quelques détours ont été parcourus. Au RN, la municipalisation de la santé a constitué un processus très complexe où la triade centralisation/décentralisation/recentralisation a suivi son cours au milieu de négociations, de conflits, d’alliances, de disputes, de coopérations, de compétitions. Malgré les contraintes des contextes successifs, des propriétés structurelles du système et des dynamiques sociales dans le système de santé, quelques changements sont intervenus : la construction de leaderships collectifs; l’émergence d’une culture de négociation; la création des structures et des espaces sociaux du système, favorisant les rencontres des acteurs dans chaque municipalité et au niveau de l’état fédéré; un apprentissage collectif sur le processus de structuration du SUS; une grande croissance des services de première ligne permettant d’envisager une inversion de tendance du modèle de prestation des services; les premiers pas vers la rupture avec la culture bureaucratique du système. Le SUS reste prisonnier de quelques enjeux institutionnalisés dans ce système de santé : la dépendance du secteur privé et de quelques groupes de professionnels; le financement insuffisant et instable; la situation des ressources humaines. Les changements arrivés sont convergents, incrémentiels, lents; ils résultent d’actions normatives, délibérées, formalisées. Elles aussi sont issues de l’inattendu, de l’informel, du paradoxe; quelques-unes plus localisées, d’autres plus généralisées, pour une courte ou une plus longue durée.
Resumo:
People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.
Resumo:
1. Un premier apport de notre travail consiste à proposer un cadre théorique, analytique et conceptuel original, permettant d'approcher la notion de qualité des publications en SHS (sciences humaines et sociales) et en sciences de la communication de façon à la fois holistique et dynamique, en tant qu'elle fait l'objet de descriptions et de jugements multiples, émis par une diversité de parties prenantes, au sein et en dehors des milieux académiques. Pour ce faire, il s'agira de considérer la qualité dans ses différentes dimensions constitutives (approche holistique) tout en l'inscrivant dans le cadre d'évolutions tendancielles en matière de publication scientifique (approche dynamique) et en tenant compte de la qualité telle qu'elle est prescrite, souhaitée et mise en oeuvre par les différentes parties prenantes (chercheurs et entités prescriptrices, aux niveaux politique et managérial). En croisant de façon systématique ces trois approches - approche multidimensionnelle, rapport aux prescrits et aux souhaits, et étude des évolutions tendancielles -, il s’avérera possible d'évaluer l'incidence des différentes tendances en matière de publication scientifique – i.e. tendances à la massification, à l'internationalisation, à l' « exotérisation » (i.e. à l'ouverture vers le monde extérieur, au-delà des pairs), à la « gestionnarisation » (i.e. à l'usage des publications dans la gestion dela recherche et des chercheurs, en particulier en situation d'évaluation), à la commercialisation et à l' « enlignement » (i.e. à la mise en ligne, sur Internet) – ainsi que des prescriptions managériales et politiques qui les initient, les stimulent ou les prolongent à des degrés divers, sur la qualité de l'activité même de publier, et sur celle des différents types génériques et spécifiques d'objets publiés.2. En appliquant cette triple approche aux SHS et, plus particulièrement, au cas des sciences de la communication, nous montrerons comment la plupart des évolutions tendancielles qui sont discutées ici ainsi que des prescrits politiques et managériaux qui y affèrent aboutissent à valoriser principalement, en situation d'évaluation de la recherche et des chercheurs, la publication d'un grand nombre d'articles dans des revues savantes internationales de premier plan, destinés avant tout aux pairs, et à dévaloriser les publications, ouvertes à des publics plus locaux, rédigées en langue vernaculaire, ou qui se consacreraient à la résolution de problèmes de société. En particulier, à la faveur de la tendance à la « gestionnarisation » des publications, l'article de revue savante internationale de premier plan, ainsi que les citations qui lui sont faites par les seuls pairs, sont posés en indicateurs de performance de tout premier plan, « fixant » ainsi les pratiques de recherche et de publication des chercheurs. Cette « fixion » sera d'autant plus marquée que les indicateurs bibliométriques, à l'échelon national, seront intégrés à des processus de financement public de la recherche fondés sur les performances, et que, à l'échelon international, les indicateurs joueront un rôle prépondérant dans l'établissement des rankings des universités ainsi que des benchmarks des systèmes nationaux et régionaux de recherche. Pour autant, des prescriptions politiques sont également édictées, principalement au niveau européen, dans l'optique de la mise en oeuvre, au sein de l'Espace européen de la recherche et, dans une moindre mesure, de l'Espace européen de l'enseignement supérieur, d'une économie de la connaissance compétitive à l'échelon global et, plus particulièrement, d'un « mode 2 » de production des connaissances, qui insistent sur l'importance de davantage valoriser les résultats de la recherche, interdisciplinaire et coopérative, auprès de parties prenantes extra-académiques. En résulte une relation paradoxale entre la tendance à l'exotérisation de la recherche et des publications, et les prescrits de gestionnarisation des publications, ainsi qu'entre les prescriptions qui les sous-tendent respectivement.3. Or l'enquête que nous avons menée auprès des membres de trois sociétés savantes internationales en sciences de la communication montre combien les chercheurs de cette discipline ont désormais bien intégré les critères de qualité promus par les prescrits politiques et managériaux soutenant l'instauration d'une nouvelle « culture de la publication », à la croisée des tendances à la massification, à l'internationalisation et à la gestionnarisation des publications. Pour autant, des entretiens approfondis menés auprès de chercheurs en sciences de la communication actifs en Belgique francophone et néerlandophone n'en révèlent pas moins que ces derniers développent une attitude foncièrement ambivalente envers la culture du « publish or perish » et à l'égard de prescriptions qui sur-valorisent les revues savantes internationales de premier plan, en situation d'évaluation de la recherche et des chercheurs. D'une part, en effet, les chercheurs avec qui nous nous sommes entretenus estiment que la nouvelle culture de la publication joue un rôle bénéfique dans la professionnalisation et dans le développement d'une culture véritablement scientifique dans les sciences de la communication. Partant, la plupart d'entre eux développent des stratégies visant à aligner leurs pratiques de publication sur les prescrits. D'autre part, plusieurs répondants n'en regrettent pas moins le caractère réducteur de la survalorisation des revues savantes internationales de premier plan dans l'évaluation, et souhaitent qu'une plus grande diversité de types de publication soit prise en compte par les évaluateurs. Afin de concilier « qualité prescrite » et « qualité souhaitée » dans la qualité de leur activité effective de publication et dans celle des objets effectivement publiés (« qualité réelle »), il arrive dès lors à ces chercheurs de « bricoler » avec les prescriptions. Par ailleurs, la plupart des répondants, davantage cependant en FédérationWallonie-Bruxelles qu'en Flandre, où le financement public de la recherche est d'ores et déjà fondé en partie sur des indicateurs bibliométriques et revue-métriques, regrettent le manque d'explicite dans la formulation des prescriptions – ces dernières prenant régulièrement la forme de « scripts » plus indirects et/ou implicites, plutôt que de normes et de règles stricto sensu –, ainsi que l'absence de seuil quantitatif minimal à atteindre.4. Il nous semble par conséquent, dans une optique plus normative, que le dépôt systématique des différents types de publication produits par les chercheurs en SHS et en sciences de la communication sur des répertoires numériques institutionnels (Open Access Green) serait de nature à (contribuer à) résoudre le paradoxe des prescriptions en matière de « qualité prescrite », ainsi que l'ambivalence des perceptions des chercheurs en matière de « qualité souhaitée ». En effet, le dépôt des publications sur des répertoires institutionnels ouvre des opportunités inédites de renouveler la conversation savante qui se structure autour des objets publiés, au sein de la communauté argumentative (Kommunikationsgemeinschaft) des pairs, par le biais notamment de la revue par les pairs ouverte et grâce à la possibilité de commenter ad libitum les publications disséminées en Open Access. mais également en rendant les résultats de la recherche aisément accessibles et ré-utilisables par des parties prenantes extra-académiques. Les opportunités liées au dépôt des publications sur des répertoires Open Access (Green), en termes de qualité tant épistémique que pragmatiquede ces dernières, seront d'autant plus fécondes que le dépôt des travaux sur les répertoires institutionnels s'articulera à l'usage, par le chercheur, des instruments idoines, génériques ou dédiés, du Web participatif (Wikis, blogues, micro-blogues, réseaux sociaux, outils de partage de signets et de listes bibliographiques). Par ailleurs, les dépôts numériques fonctionnent désormais en tant qu'« outils de transparence », susceptibles de donner davantage de visibilité à des productions de recherche et des types de publication diversifiés. En situation d'évaluation de la recherche et des chercheurs, le recours aux dépôts institutionnels - pour autant qu'un mandat prescrive le dépôt de tous les travaux produits par les chercheurs de l'institution – permettrait aux évaluateurs de fonder leur jugement sur une gamme plus large et plus représentative de types de publication et de formes de communication en SHS et en sciences de la communication. De plus, grâce à la dissémination en Open Access, en conjonction avec l'usage d'une diversité d'outils du Web participatif, il devient mieux possible de soumettre les différents types de publication archivés et publiés en libre accès à des indicateurs de performance eux-mêmes diversifiés – bibliométriques, mais également « webométriques » et « altmétriques » -, fondés sur les articles plutôt que sur les revues et mieux adaptés à la diversité de leurs impacts, tant au sein qu'en dehors du cercle des pairs.5. Partant, l'Open Access (Green) nous apparaît in fine comme étant doté d'un potentiel important, en matière d'intégration de la recherche et des chercheurs en SHS et en sciences de la communication à la mise en place – au-delà d'une économie de la connaissance - d'une véritable société de la connaissance, ainsi qu'aux processus d'innovation techno-industrielle, sociale et intellectuelle qui la sous-tendent.
Resumo:
Le principe ex injuria jus non oritur selon lequel le droit ne naît pas de l’illégalité existe en droit international comme un principe qui permet d’expliquer une série de règles qui excluent, de différentes manières, qu’un fait illicite ne produise des droits dans le chef de l’auteur de ce fait. Ce principe se caractérise surtout par la tension entre le droit et le fait qui permet de comprendre les ambiguïtés dont son statut est pétri, le principe n’étant admis en droit positif que moyennant une définition restrictive de ses termes qui permet une certaine souplesse quant à son application. Cette tension est également palpable dans le discours des Etats comme dans celui des auteurs de doctrine lorsque les uns et les autres sont confrontés à des situations illicites effectives. Le principe ex injuria jus non oritur révèle bien plus qu’il ne résout les difficultés de concilier les exigences idéalistes du respect du droit avec les impératifs réalistes de prendre en compte la force du fait. Cette tension renvoie à la question de l’existence même du droit international, lequel peut être présenté comme une forme sophistiquée de discours, et non comme un corps de règles régissant effectivement la réalité sociale. Dans cette perspective, on constate que, au-delà des stratégies par lesquelles les Etats tentent de justifier certains faits accomplis sans remettre en cause le principe de légalité, il est des cas où les Etats restent tout simplement silencieux. L’analyse du principe ex injuria jus non oritur à l’épreuve de la pratique internationale tendrait peut-être à montrer qu’au-delà d’un certain seuil de tension, le discours juridique semble impropre à justifier certaines situations factuelles aux origines douteuses, ce qui expliquerait que les Etats préfèrent parfois dans ces cas s’abstenir de prendre position à leur sujet.
Resumo:
L’obésité est un problème de santé publique reconnu. Dans la dernière décennie l’obésité abdominale (OA) a été considérée comme une maladie métabolique qui contribue davantage au risque de diabète et de maladies cardiovasculaires que l’obésité générale définie par l’indice de masse corporelle. Toutefois, dans les populations d’origine africaine, la relation entre l’OA et les autres biomarqueurs de risque cardiométabolique (RCM) demeure obscure à cause du manque d’études chez ces populations et de l’absence de valeurs-seuils spécifiques pour juger d’une OA. Cette étude visait à comparer la prévalence des biomarqueurs de RCM (OA, hypertension artérielle, hyperglycémie, dyslipidémie, résistance à l'insuline et inflammation pré-clinique) chez les Béninois de Cotonou et les Haïtiens de Port-au-Prince (PAP), à étudier l’association de l’OA avec les autres biomarqueurs de RCM, à documenter le rôle du niveau socio-économique (NSE) et du mode de vie dans cette association et à ’identifier les indicateurs anthropométriques de l’OA -tour de taille (TT) et le ratio TT/hauteur (TT/H)- et les seuils qui prédisent le mieux le RCM à Cotonou et à PAP. Il s’est agi d’une analyse de données transversales chez 452 adultes (52 % hommes) apparemment en bonne santé, âgés de 25 à 60 ans, avec 200 sujets vivant à Cotonou (Bénin) et 252 sujets à PAP (Haïti). Les biomarqueurs de RCM considérés étaient : le syndrome métabolique (SMet) d’après les critères harmonisés de 2009 et ses composantes individuelles - une OA à partir d’un TT ≥ 94cm chez les hommes et ≥ 80cm chez les femmes, une hypertension, une dyslipidémie et une hyperglycémie; la résistance à l’insuline définie chez l’ensemble des sujets de l’étude à partir du 75e centile de l’Homeostasis Model Assessment (HOMA-IR); un ratio d’athérogénicité élevé (Cholestérol sérique total/HDL-Cholestérol); et l’inflammation pré-clinique mesurée à partir d’un niveau de protéine C-réactive ultrasensible (PCRus) entre 3 et 10 mg/l. Le ratio TT/H était aussi considéré pour définir l’OA à partir d’un seuil de 0,5. Les données sur les habitudes alimentaires, la consommation d’alcool, le tabagisme, les caractéristiques sociodémographiques et les conditions socio-économiques incluant le niveau d’éducation et un proxy du revenu (basé sur l’analyse par composante principale des biens et des possessions) ont été recueillies au moyen d’un questionnaire. Sur la base de données de fréquence de consommation d’aliments occidentaux, urbains et traditionnels, des schémas alimentaires des sujets de chaque ville ont été identifiés par analyse typologique. La validité et les valeurs-seuils de TT et du ratio TT/H prédictives du RCM ont été définies à partir des courbes ROC (Receiver Operating Characteristics). Le SMet était présent chez 21,5 % et 16,1 % des participants, respectivement à Cotonou et à PAP. La prévalence d’OA était élevée à Cotonou (52,5 %) qu’à PAP (36%), avec une prévalence plus élevée chez les femmes que chez les hommes. Le profil lipidique sérique était plus athérogène à PAP avec 89,3 % d’HDL-c bas à PAP contre 79,7 % à Cotonou et un ratio CT/HDL-c élevé de 73,4 % à PAP contre 42 % à Cotonou. Les valeurs-seuils spécifiques de TT et du TT/H étaient respectivement 94 cm et 0,59 chez les femmes et 80 cm et 0,50 chez les hommes. Les analyses multivariées de l’OA avec les biomarqueurs de RCM les plus fortement prévalents dans ces deux populations montraient que l’OA était associée à un risque accru de résistance à l’insuline, d’athérogénicité et de tension artérielle élevée et ceci, indépendamment des facteurs socio-économiques et du mode de vie. Deux schémas alimentaires ont émergé, transitionnel et traditionnel, dans chaque ville, mais ceux-ci ne se révélaient pas associés aux biomarqueurs de RCM bien qu’ils soient en lien avec les variables socio-économiques. La présente étude confirme la présence de plusieurs biomarqueurs de RCM chez des sujets apparemment sains. En outre, l’OA est un élément clé du RCM dans ces deux populations. Les seuils actuels de TT devraient être reconsidérés éventuellement à la lumière d’études de plus grande envergure, afin de mieux définir l’OA chez les Noirs africains ou d’origine africaine, ce qui permettra une surveillance épidémiologique plus adéquate des biomarqueurs de RCM.
Resumo:
Selon la théorie de l’auto-détermination, l’autonomie est un besoin universel de base qui, lorsque soutenu, permet aux individus de mieux fonctionner et de vivre plus de bien-être psychologique (p. ex., Deci & Ryan, 2008). Le style parental des parents qui soutiennent l’autonomie de leur enfant est caractérisé par le soutien du fonctionnement autodéterminé de ce dernier. Sa définition traditionnelle inclut des pratiques telles qu’offrir des explications et des choix lors des requêtes, communiquer de l’empathie, et encourager les prises d’initiatives tout en minimisant l’utilisation d’un langage contrôlant (p. ex., Soenens et al., 2007). Les bénéfices d’un style parental qui soutient l’autonomie d’un enfant ont été bien documentés (p. ex., Grolnick, Deci, & Ryan, 1997), toutefois, peu d’études ont été effectuées auprès des bambins. Or, cette thèse visait à enrichir la littérature sur le « parentage » en explorant les pratiques soutenantes qui sont utilisées par des parents de bambins dans un contexte de socialisation (étude 1), ainsi qu’en examinant les facteurs qui peuvent brimer leur mise en pratique (étude 2). La première étude a examiné un grand nombre de pratiques de socialisation que les parents qui favorisent davantage le soutien à l’autonomie (SA) pourraient utiliser plus fréquemment lorsqu’ils font des demandes à leurs bambins. Cette étude nous a permis d’explorer comment les parents manifestent leur SA et si le SA dans ce type de contexte est associé à un plus grand niveau d’internalisation des règles. Des parents (N = 182) de bambins (M âge = 27.08 mois) ont donc été invités à rapporter la fréquence avec laquelle ils utilisent 26 pratiques potentiellement soutenantes lorsqu’ils demandent à leurs bambins de compléter des tâches importantes mais non intéressantes et de rapporter à quel point ils valorisent le SA. Huit pratiques ont été identifiées comme étant soutenantes: quatre façons de communiquer de l’empathie, donner des explications courtes, expliquer pourquoi la tâche est importante, décrire le problème de façon informative et neutre, et mettre en pratique le comportement désiré soi-même. De plus, l’ensemble des huit pratiques corrélait positivement avec le niveau d’internalisation des bambins, suggérant aussi que celles-ci représentent bien le concept du SA. Des études futures pourraient tenter de répliquer ces résultats dans des contextes potentiellement plus chargés ou ébranlants (p. ex., réagir face à des méfaits, avec des enfants souffrant de retard de développement). La deuxième étude a poursuivi l’exploration du concept du SA parental en examinant les facteurs qui influencent la fréquence d’utilisation des stratégies soutenantes dans des contextes de socialisation. Puisque la littérature suggère que le stress parental et le tempérament difficile des bambins (c.-à-d., plus haut niveau d’affectivité négative, plus faible niveau de contrôle volontaire/autorégulation, plus faible niveau de surgency) comme étant des facteurs de risque potentiels, nous avons exploré de quelle façon ces variables étaient associées à la fréquence d’utilisation des stratégies soutenantes. Les buts de l’étude étaient: (1) d’examiner comment le tempérament des bambins et le stress parental influençaient le SA parental, et (2) de vérifier si le stress parental médiait la relation possible entre le tempérament des bambins et le SA parental. Le même échantillon de parents a été utilisé. Les parents ont été invités à répondre à des questions portant sur le tempérament de leur enfant ainsi que sur leur niveau de stress. Les résultats ont démontré qu’un plus grand niveau d’affectivité négative était associé à un plus grand niveau de stress parental, qui à son tour prédisait moins de SA parental. De plus, le stress parental médiait la relation positive entre l’autorégulation du bambin et le SA parental. Des recherches futures pourraient évaluer des interventions ayant pour but d’aider les parents à préserver leur attitude soutenante durant des contextes de socialisation plus difficiles malgré certaines caractéristiques tempéramentales exigeantes des bambins, en plus du stress qu’ils pourraient vivre au quotidien.
Resumo:
Les algèbres de Temperley-Lieb originales, aussi dites régulières, apparaissent dans de nombreux modèles statistiques sur réseau en deux dimensions: les modèles d'Ising, de Potts, des dimères, celui de Fortuin-Kasteleyn, etc. L'espace d'Hilbert de l'hamiltonien quantique correspondant à chacun de ces modèles est un module pour cette algèbre et la théorie de ses représentations peut être utilisée afin de faciliter la décomposition de l'espace en blocs; la diagonalisation de l'hamiltonien s'en trouve alors grandement simplifiée. L'algèbre de Temperley-Lieb diluée joue un rôle similaire pour des modèles statistiques dilués, par exemple un modèle sur réseau où certains sites peuvent être vides; ses représentations peuvent alors être utilisées pour simplifier l'analyse du modèle comme pour le cas original. Or ceci requiert une connaissance des modules de cette algèbre et de leur structure; un premier article donne une liste complète des modules projectifs indécomposables de l'algèbre diluée et un second les utilise afin de construire une liste complète de tous les modules indécomposables des algèbres originale et diluée. La structure des modules est décrite en termes de facteurs de composition et par leurs groupes d'homomorphismes. Le produit de fusion sur l'algèbre de Temperley-Lieb originale permet de «multiplier» ensemble deux modules sur cette algèbre pour en obtenir un autre. Il a été montré que ce produit pouvait servir dans la diagonalisation d'hamiltoniens et, selon certaines conjectures, il pourrait également être utilisé pour étudier le comportement de modèles sur réseaux dans la limite continue. Un troisième article construit une généralisation du produit de fusion pour les algèbres diluées, puis présente une méthode pour le calculer. Le produit de fusion est alors calculé pour les classes de modules indécomposables les plus communes pour les deux familles, originale et diluée, ce qui vient ajouter à la liste incomplète des produits de fusion déjà calculés par d'autres chercheurs pour la famille originale. Finalement, il s'avère que les algèbres de Temperley-Lieb peuvent être associées à une catégorie monoïdale tressée, dont la structure est compatible avec le produit de fusion décrit ci-dessus. Le quatrième article calcule explicitement ce tressage, d'abord sur la catégorie des algèbres, puis sur la catégorie des modules sur ces algèbres. Il montre également comment ce tressage permet d'obtenir des solutions aux équations de Yang-Baxter, qui peuvent alors être utilisées afin de construire des modèles intégrables sur réseaux.