791 resultados para règles législatives


Relevância:

10.00% 10.00%

Publicador:

Resumo:

1. Un premier apport de notre travail consiste à proposer un cadre théorique, analytique et conceptuel original, permettant d'approcher la notion de qualité des publications en SHS (sciences humaines et sociales) et en sciences de la communication de façon à la fois holistique et dynamique, en tant qu'elle fait l'objet de descriptions et de jugements multiples, émis par une diversité de parties prenantes, au sein et en dehors des milieux académiques. Pour ce faire, il s'agira de considérer la qualité dans ses différentes dimensions constitutives (approche holistique) tout en l'inscrivant dans le cadre d'évolutions tendancielles en matière de publication scientifique (approche dynamique) et en tenant compte de la qualité telle qu'elle est prescrite, souhaitée et mise en oeuvre par les différentes parties prenantes (chercheurs et entités prescriptrices, aux niveaux politique et managérial). En croisant de façon systématique ces trois approches - approche multidimensionnelle, rapport aux prescrits et aux souhaits, et étude des évolutions tendancielles -, il s’avérera possible d'évaluer l'incidence des différentes tendances en matière de publication scientifique – i.e. tendances à la massification, à l'internationalisation, à l' « exotérisation » (i.e. à l'ouverture vers le monde extérieur, au-delà des pairs), à la « gestionnarisation » (i.e. à l'usage des publications dans la gestion dela recherche et des chercheurs, en particulier en situation d'évaluation), à la commercialisation et à l' « enlignement » (i.e. à la mise en ligne, sur Internet) – ainsi que des prescriptions managériales et politiques qui les initient, les stimulent ou les prolongent à des degrés divers, sur la qualité de l'activité même de publier, et sur celle des différents types génériques et spécifiques d'objets publiés.2. En appliquant cette triple approche aux SHS et, plus particulièrement, au cas des sciences de la communication, nous montrerons comment la plupart des évolutions tendancielles qui sont discutées ici ainsi que des prescrits politiques et managériaux qui y affèrent aboutissent à valoriser principalement, en situation d'évaluation de la recherche et des chercheurs, la publication d'un grand nombre d'articles dans des revues savantes internationales de premier plan, destinés avant tout aux pairs, et à dévaloriser les publications, ouvertes à des publics plus locaux, rédigées en langue vernaculaire, ou qui se consacreraient à la résolution de problèmes de société. En particulier, à la faveur de la tendance à la « gestionnarisation » des publications, l'article de revue savante internationale de premier plan, ainsi que les citations qui lui sont faites par les seuls pairs, sont posés en indicateurs de performance de tout premier plan, « fixant » ainsi les pratiques de recherche et de publication des chercheurs. Cette « fixion » sera d'autant plus marquée que les indicateurs bibliométriques, à l'échelon national, seront intégrés à des processus de financement public de la recherche fondés sur les performances, et que, à l'échelon international, les indicateurs joueront un rôle prépondérant dans l'établissement des rankings des universités ainsi que des benchmarks des systèmes nationaux et régionaux de recherche. Pour autant, des prescriptions politiques sont également édictées, principalement au niveau européen, dans l'optique de la mise en oeuvre, au sein de l'Espace européen de la recherche et, dans une moindre mesure, de l'Espace européen de l'enseignement supérieur, d'une économie de la connaissance compétitive à l'échelon global et, plus particulièrement, d'un « mode 2 » de production des connaissances, qui insistent sur l'importance de davantage valoriser les résultats de la recherche, interdisciplinaire et coopérative, auprès de parties prenantes extra-académiques. En résulte une relation paradoxale entre la tendance à l'exotérisation de la recherche et des publications, et les prescrits de gestionnarisation des publications, ainsi qu'entre les prescriptions qui les sous-tendent respectivement.3. Or l'enquête que nous avons menée auprès des membres de trois sociétés savantes internationales en sciences de la communication montre combien les chercheurs de cette discipline ont désormais bien intégré les critères de qualité promus par les prescrits politiques et managériaux soutenant l'instauration d'une nouvelle « culture de la publication », à la croisée des tendances à la massification, à l'internationalisation et à la gestionnarisation des publications. Pour autant, des entretiens approfondis menés auprès de chercheurs en sciences de la communication actifs en Belgique francophone et néerlandophone n'en révèlent pas moins que ces derniers développent une attitude foncièrement ambivalente envers la culture du « publish or perish » et à l'égard de prescriptions qui sur-valorisent les revues savantes internationales de premier plan, en situation d'évaluation de la recherche et des chercheurs. D'une part, en effet, les chercheurs avec qui nous nous sommes entretenus estiment que la nouvelle culture de la publication joue un rôle bénéfique dans la professionnalisation et dans le développement d'une culture véritablement scientifique dans les sciences de la communication. Partant, la plupart d'entre eux développent des stratégies visant à aligner leurs pratiques de publication sur les prescrits. D'autre part, plusieurs répondants n'en regrettent pas moins le caractère réducteur de la survalorisation des revues savantes internationales de premier plan dans l'évaluation, et souhaitent qu'une plus grande diversité de types de publication soit prise en compte par les évaluateurs. Afin de concilier « qualité prescrite » et « qualité souhaitée » dans la qualité de leur activité effective de publication et dans celle des objets effectivement publiés (« qualité réelle »), il arrive dès lors à ces chercheurs de « bricoler » avec les prescriptions. Par ailleurs, la plupart des répondants, davantage cependant en FédérationWallonie-Bruxelles qu'en Flandre, où le financement public de la recherche est d'ores et déjà fondé en partie sur des indicateurs bibliométriques et revue-métriques, regrettent le manque d'explicite dans la formulation des prescriptions – ces dernières prenant régulièrement la forme de « scripts » plus indirects et/ou implicites, plutôt que de normes et de règles stricto sensu –, ainsi que l'absence de seuil quantitatif minimal à atteindre.4. Il nous semble par conséquent, dans une optique plus normative, que le dépôt systématique des différents types de publication produits par les chercheurs en SHS et en sciences de la communication sur des répertoires numériques institutionnels (Open Access Green) serait de nature à (contribuer à) résoudre le paradoxe des prescriptions en matière de « qualité prescrite », ainsi que l'ambivalence des perceptions des chercheurs en matière de « qualité souhaitée ». En effet, le dépôt des publications sur des répertoires institutionnels ouvre des opportunités inédites de renouveler la conversation savante qui se structure autour des objets publiés, au sein de la communauté argumentative (Kommunikationsgemeinschaft) des pairs, par le biais notamment de la revue par les pairs ouverte et grâce à la possibilité de commenter ad libitum les publications disséminées en Open Access. mais également en rendant les résultats de la recherche aisément accessibles et ré-utilisables par des parties prenantes extra-académiques. Les opportunités liées au dépôt des publications sur des répertoires Open Access (Green), en termes de qualité tant épistémique que pragmatiquede ces dernières, seront d'autant plus fécondes que le dépôt des travaux sur les répertoires institutionnels s'articulera à l'usage, par le chercheur, des instruments idoines, génériques ou dédiés, du Web participatif (Wikis, blogues, micro-blogues, réseaux sociaux, outils de partage de signets et de listes bibliographiques). Par ailleurs, les dépôts numériques fonctionnent désormais en tant qu'« outils de transparence », susceptibles de donner davantage de visibilité à des productions de recherche et des types de publication diversifiés. En situation d'évaluation de la recherche et des chercheurs, le recours aux dépôts institutionnels - pour autant qu'un mandat prescrive le dépôt de tous les travaux produits par les chercheurs de l'institution – permettrait aux évaluateurs de fonder leur jugement sur une gamme plus large et plus représentative de types de publication et de formes de communication en SHS et en sciences de la communication. De plus, grâce à la dissémination en Open Access, en conjonction avec l'usage d'une diversité d'outils du Web participatif, il devient mieux possible de soumettre les différents types de publication archivés et publiés en libre accès à des indicateurs de performance eux-mêmes diversifiés – bibliométriques, mais également « webométriques » et « altmétriques » -, fondés sur les articles plutôt que sur les revues et mieux adaptés à la diversité de leurs impacts, tant au sein qu'en dehors du cercle des pairs.5. Partant, l'Open Access (Green) nous apparaît in fine comme étant doté d'un potentiel important, en matière d'intégration de la recherche et des chercheurs en SHS et en sciences de la communication à la mise en place – au-delà d'une économie de la connaissance - d'une véritable société de la connaissance, ainsi qu'aux processus d'innovation techno-industrielle, sociale et intellectuelle qui la sous-tendent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le principe ex injuria jus non oritur selon lequel le droit ne naît pas de l’illégalité existe en droit international comme un principe qui permet d’expliquer une série de règles qui excluent, de différentes manières, qu’un fait illicite ne produise des droits dans le chef de l’auteur de ce fait. Ce principe se caractérise surtout par la tension entre le droit et le fait qui permet de comprendre les ambiguïtés dont son statut est pétri, le principe n’étant admis en droit positif que moyennant une définition restrictive de ses termes qui permet une certaine souplesse quant à son application. Cette tension est également palpable dans le discours des Etats comme dans celui des auteurs de doctrine lorsque les uns et les autres sont confrontés à des situations illicites effectives. Le principe ex injuria jus non oritur révèle bien plus qu’il ne résout les difficultés de concilier les exigences idéalistes du respect du droit avec les impératifs réalistes de prendre en compte la force du fait. Cette tension renvoie à la question de l’existence même du droit international, lequel peut être présenté comme une forme sophistiquée de discours, et non comme un corps de règles régissant effectivement la réalité sociale. Dans cette perspective, on constate que, au-delà des stratégies par lesquelles les Etats tentent de justifier certains faits accomplis sans remettre en cause le principe de légalité, il est des cas où les Etats restent tout simplement silencieux. L’analyse du principe ex injuria jus non oritur à l’épreuve de la pratique internationale tendrait peut-être à montrer qu’au-delà d’un certain seuil de tension, le discours juridique semble impropre à justifier certaines situations factuelles aux origines douteuses, ce qui expliquerait que les Etats préfèrent parfois dans ces cas s’abstenir de prendre position à leur sujet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Selon la théorie de l’auto-détermination, l’autonomie est un besoin universel de base qui, lorsque soutenu, permet aux individus de mieux fonctionner et de vivre plus de bien-être psychologique (p. ex., Deci & Ryan, 2008). Le style parental des parents qui soutiennent l’autonomie de leur enfant est caractérisé par le soutien du fonctionnement autodéterminé de ce dernier. Sa définition traditionnelle inclut des pratiques telles qu’offrir des explications et des choix lors des requêtes, communiquer de l’empathie, et encourager les prises d’initiatives tout en minimisant l’utilisation d’un langage contrôlant (p. ex., Soenens et al., 2007). Les bénéfices d’un style parental qui soutient l’autonomie d’un enfant ont été bien documentés (p. ex., Grolnick, Deci, & Ryan, 1997), toutefois, peu d’études ont été effectuées auprès des bambins. Or, cette thèse visait à enrichir la littérature sur le « parentage » en explorant les pratiques soutenantes qui sont utilisées par des parents de bambins dans un contexte de socialisation (étude 1), ainsi qu’en examinant les facteurs qui peuvent brimer leur mise en pratique (étude 2). La première étude a examiné un grand nombre de pratiques de socialisation que les parents qui favorisent davantage le soutien à l’autonomie (SA) pourraient utiliser plus fréquemment lorsqu’ils font des demandes à leurs bambins. Cette étude nous a permis d’explorer comment les parents manifestent leur SA et si le SA dans ce type de contexte est associé à un plus grand niveau d’internalisation des règles. Des parents (N = 182) de bambins (M âge = 27.08 mois) ont donc été invités à rapporter la fréquence avec laquelle ils utilisent 26 pratiques potentiellement soutenantes lorsqu’ils demandent à leurs bambins de compléter des tâches importantes mais non intéressantes et de rapporter à quel point ils valorisent le SA. Huit pratiques ont été identifiées comme étant soutenantes: quatre façons de communiquer de l’empathie, donner des explications courtes, expliquer pourquoi la tâche est importante, décrire le problème de façon informative et neutre, et mettre en pratique le comportement désiré soi-même. De plus, l’ensemble des huit pratiques corrélait positivement avec le niveau d’internalisation des bambins, suggérant aussi que celles-ci représentent bien le concept du SA. Des études futures pourraient tenter de répliquer ces résultats dans des contextes potentiellement plus chargés ou ébranlants (p. ex., réagir face à des méfaits, avec des enfants souffrant de retard de développement). La deuxième étude a poursuivi l’exploration du concept du SA parental en examinant les facteurs qui influencent la fréquence d’utilisation des stratégies soutenantes dans des contextes de socialisation. Puisque la littérature suggère que le stress parental et le tempérament difficile des bambins (c.-à-d., plus haut niveau d’affectivité négative, plus faible niveau de contrôle volontaire/autorégulation, plus faible niveau de surgency) comme étant des facteurs de risque potentiels, nous avons exploré de quelle façon ces variables étaient associées à la fréquence d’utilisation des stratégies soutenantes. Les buts de l’étude étaient: (1) d’examiner comment le tempérament des bambins et le stress parental influençaient le SA parental, et (2) de vérifier si le stress parental médiait la relation possible entre le tempérament des bambins et le SA parental. Le même échantillon de parents a été utilisé. Les parents ont été invités à répondre à des questions portant sur le tempérament de leur enfant ainsi que sur leur niveau de stress. Les résultats ont démontré qu’un plus grand niveau d’affectivité négative était associé à un plus grand niveau de stress parental, qui à son tour prédisait moins de SA parental. De plus, le stress parental médiait la relation positive entre l’autorégulation du bambin et le SA parental. Des recherches futures pourraient évaluer des interventions ayant pour but d’aider les parents à préserver leur attitude soutenante durant des contextes de socialisation plus difficiles malgré certaines caractéristiques tempéramentales exigeantes des bambins, en plus du stress qu’ils pourraient vivre au quotidien.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les algèbres de Temperley-Lieb originales, aussi dites régulières, apparaissent dans de nombreux modèles statistiques sur réseau en deux dimensions: les modèles d'Ising, de Potts, des dimères, celui de Fortuin-Kasteleyn, etc. L'espace d'Hilbert de l'hamiltonien quantique correspondant à chacun de ces modèles est un module pour cette algèbre et la théorie de ses représentations peut être utilisée afin de faciliter la décomposition de l'espace en blocs; la diagonalisation de l'hamiltonien s'en trouve alors grandement simplifiée. L'algèbre de Temperley-Lieb diluée joue un rôle similaire pour des modèles statistiques dilués, par exemple un modèle sur réseau où certains sites peuvent être vides; ses représentations peuvent alors être utilisées pour simplifier l'analyse du modèle comme pour le cas original. Or ceci requiert une connaissance des modules de cette algèbre et de leur structure; un premier article donne une liste complète des modules projectifs indécomposables de l'algèbre diluée et un second les utilise afin de construire une liste complète de tous les modules indécomposables des algèbres originale et diluée. La structure des modules est décrite en termes de facteurs de composition et par leurs groupes d'homomorphismes. Le produit de fusion sur l'algèbre de Temperley-Lieb originale permet de «multiplier» ensemble deux modules sur cette algèbre pour en obtenir un autre. Il a été montré que ce produit pouvait servir dans la diagonalisation d'hamiltoniens et, selon certaines conjectures, il pourrait également être utilisé pour étudier le comportement de modèles sur réseaux dans la limite continue. Un troisième article construit une généralisation du produit de fusion pour les algèbres diluées, puis présente une méthode pour le calculer. Le produit de fusion est alors calculé pour les classes de modules indécomposables les plus communes pour les deux familles, originale et diluée, ce qui vient ajouter à la liste incomplète des produits de fusion déjà calculés par d'autres chercheurs pour la famille originale. Finalement, il s'avère que les algèbres de Temperley-Lieb peuvent être associées à une catégorie monoïdale tressée, dont la structure est compatible avec le produit de fusion décrit ci-dessus. Le quatrième article calcule explicitement ce tressage, d'abord sur la catégorie des algèbres, puis sur la catégorie des modules sur ces algèbres. Il montre également comment ce tressage permet d'obtenir des solutions aux équations de Yang-Baxter, qui peuvent alors être utilisées afin de construire des modèles intégrables sur réseaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les manifestations de crise, en Côte d'Ivoire, ont été extrêmement violentes. Au cours des quinze dernières années, plus de 400 personnes sont mortes, tuées dans des affrontements avec les forces de sécurités ou des contre-manifestants. Malgré la gravité du problème, peu d’études scientifiques y sont consacrées et les rares analyses et enquêtes existantes portent, de façon unilatérale, sur l’identité et la responsabilité pénale des auteurs et commanditaires putatifs de cette violence. La présente étude s’élève contre le moralisme inhérent à ces approches pour aborder la question sous l’angle de l’interaction : cette thèse a pour objectif de comprendre les processus et logiques qui sous-tendent l’usage de la violence au cours des manifestations. Le cadre théorique utilisé dans cette étude qualitative est l’interactionnisme symbolique. Le matériel d’analyse est composé d’entrevues et de divers documents. Trente-trois (33) entrevues semi-dirigées ont été réalisées avec des policiers et des manifestants, cooptés selon la technique de la boule de neige, entre le 3 janvier et le 15 mai 2013, à Abidjan. Les rapports d’enquête, de l’ONG Human Rights Watch, sur les manifestations de crise, les manuels de formation de la police et divers autres matériaux périphériques ont également été consultés. Les données ont été analysées suivant les principes et techniques de la théorisation ancrée (Paillée, 1994). Trois principaux résultats ont été obtenus. Premièrement, le système ivoirien de maintien de l'ordre est conçu selon le modèle d’une « police du prince ». Les forces de sécurité dans leur ensemble y occupent une fonction subalterne d’exécutant. Elles sont placées sous autorité politique avec pour mandat la défense inconditionnelle des institutions. Le style standard de gestion des foules, qui en découle, est légaliste et répressif, correspondant au style d’escalade de la force (McPhail, Schweingruber, & Carthy, 1998). Cette « police du prince » dispose toutefois de marges de manœuvre sur le terrain, qui lui permettent de moduler son style en fonction de la conception qu’elle se fait de l’attitude des manifestants : paternaliste avec les foules dites calmes, elle devient répressive ou déviante avec les foules qu’elle définit comme étant hostiles. Deuxièmement, à rebours d’une conception victimaire de la foule, la violence est une transaction situationnelle dynamique entre forces de sécurité et manifestants. La violence suit un processus ascendant dont les séquences et les règles d’enchainement sont décrites. Ainsi, le premier niveau auquel s’arrête la majorité des manifestations est celui d’une force non létale bilatérale dans lequel les deux acteurs, protestataires et policiers, ont recours à des armes non incapacitantes, où les cailloux des premiers répondent au gaz lacrymogène des seconds. Le deuxième niveau correspond à la létalité unilatérale : la police ouvre le feu lorsque les manifestants se rapprochent de trop près. Le troisième et dernier niveau est atteint lorsque les manifestants utilisent à leur tour des armes à feu, la létalité est alors bilatérale. Troisièmement, enfin, le concept de « l’indignité républicaine » rend compte de la logique de la violence dans les manifestations. La violence se déclenche et s’intensifie lorsqu’une des parties, manifestants ou policiers, interprète l’acte posé par l’adversaire comme étant en rupture avec le rôle attendu du statut qu’il revendique dans la manifestation. Cet acte jugé indigne a pour conséquence de le priver de la déférence rattachée à son statut et de justifier à son encontre l’usage de la force. Ces actes d’indignités, du point de vue des policiers, sont symbolisés par la figure du manifestant hostile. Pour les manifestants, l’indignité des forces de sécurité se reconnait par des actes qui les assimilent à une milice privée. Le degré d’indignité perçu de l’acte explique le niveau d’allocation de la violence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle avec l'université Paris1-Sorbonne

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le principe de coopération est considéré depuis longtemps comme l’une des pierres angulaires du droit international, toutefois, l’existence d’une obligation de coopérer en droit international reste encore controversée. Les ressources en eau, à cause de leur fluidité et de leurs multiples usages, démontrent toujours l’interdépendance humaine. En matière de cours d’eau transfrontaliers, la Convention de New York inclut explicitement dans son texte l’obligation générale de coopérer comme l’un de ses trois principes fondamentaux. Il nous incombe alors de voir quelle obligation de coopérer les États souverains s’imposent dans leurs pratiques ? Pour répondre à cette question, nous procédons tout d’abord à une étude positiviste du contenu normatif de l’obligation de coopérer. Nous constatons que l’incorporation de la notion de l’obligation de coopérer dans le principe de la souveraineté est une tendance manifeste du droit international qui a évolué du droit de coexistence composé principalement des règles d’abstention, au droit de coopération qui comporte essentiellement des obligations positives de facere, dont la plus représentative est l’obligation de coopérer. Néanmoins, il n’existe pas de modèle unique d’application pour tous les États, chaque bassin disposant de son propre régime coopératif. Pour mesurer l’ampleur des régimes coopératifs, nous étudions cinq paramètres : le champ d’application, les règles substantielles, les règles procédurales, les arrangements institutionnels et le règlement des différends. Quatres modèles de coopération ressortent : le mécanisme consultatif (l’Indus), le mécanisme communicateur (le Mékong), le mécanisme de coordination (le Rhin) et le mécanisme d’action conjointe (le fleuve Sénégal). Pour ce qui est de la Chine, il s’agit de l’État d’amont en voie de développement le plus important dans le monde qui a longtemps été critiqué pour son approche unilatérale dans le développement des eaux transfrontières. Nous ne pouvons pas cependant passer sous silence les pratiques de coopération qu’elle a développées avec ses voisins. Quelle est son interprétation de cette obligation générale de coopérer ? Notre étude des pratiques de la Chine nous aide, en prenant du recul, à mieux comprendre tous les aspects de cette obligation de coopérer en droit international. Afin d’expliquer les raisons qui se cachent derrière son choix de mode de coopération, nous introduisons une analyse constructiviste qui est plus explicative que descriptive. Nous soutenons que ce sont les identités de la Chine qui ont déterminé son choix de coopération en matière de cours d’eau transfrontaliers. Notre étude en vient à la conclusion que même s’il y a des règles généralement reconnues, l’obligation de coopérer reste une règle émergente en droit international coutumier. Ses modes d’application sont en réalité une construction sociale qui évolue et qui peut varier énormément selon les facteurs culturels, historiques ou économiques des États riverains, en d’autres mots, selon les identités de ces États. La Chine est un État d’amont en voie de développement qui continue à insister sur le principe de la souveraineté. Par conséquent, elle opte pour son propre mécanisme consultatif de coopération pour l’utilisation des ressources en eau transfrontalières. Néanmoins, avec l’évolution de ses identités en tant que superpuissance émergente, nous pouvons probablement espérer qu’au lieu de rechercher un pouvoir hégémonique et d’appliquer une stratégie unilatérale sur l’utilisation des ressources en eau transfrontalières, la Chine adoptera une stratégie plus coopérative et plus participative dans l’avenir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’isolement avec ou sans contention (IC) en milieu psychiatrique touche près d’un patient sur quatre au Québec (Dumais, Larue, Drapeau, Ménard, & Giguère-Allard, 2011). Il est pourtant largement documenté que cette pratique porte préjudice aux patients, aux infirmières et à l’organisation (Stewart, Van der Merwe, Bowers, Simpson, & Jones, 2010). Cette mesure posant un problème éthique fait l’objet de politiques visant à la restreindre, voire à l’éliminer. Les études sur l’expérience de l’isolement du patient de même que sur la perception des infirmières identifient le besoin d'un retour sur cet évènement. Plusieurs équipes de chercheurs proposent un retour post-isolement (REPI) intégrant à la fois l’équipe traitante, plus particulièrement les infirmières, et le patient comme intervention afin de diminuer l’incidence de l’IC. Le REPI vise l’échange émotionnel, l’analyse des étapes ayant mené à la prise de décision d’IC et la projection des interventions futures. Le but de cette étude était de développer, implanter et évaluer le REPI auprès des intervenants et des patients d’une unité de soins psychiatriques aigus afin d’améliorer leur expérience de soins. Les questions de recherche étaient : 1) Quel est le contexte d’implantation du REPI? 2) Quels sont les éléments facilitants et les obstacles à l’implantation du REPI selon les patients et les intervenants? 3) Quelle est la perception des patients et des intervenants des modalités et retombées du REPI?; et 4) L’implantation du REPI est-elle associée à une diminution de la prévalence et de la durée des épisodes d’IC? Cette étude de cas instrumentale (Stake, 1995, 2008) était ancrée dans une approche participative. Le cas était celui de l’unité de soins psychiatriques aigus pour premier épisode psychotique où a été implanté le REPI. En premier lieu, le développement du REPI a d’abord fait l’objet d’une documentation du contexte par une immersion dans le milieu (n=56 heures) et des entretiens individuels avec un échantillonnage de convenance (n=3 patients, n=14 intervenants). Un comité d’experts (l’étudiante-chercheuse, six infirmières du milieu et un patient partenaire) a par la suite développé le REPI qui comporte deux volets : avec le patient et en équipe. L’évaluation des retombées a été effectuée par des entretiens individuels (n= 3 patients, n= 12 intervenants) et l’examen de la prévalence et de la durée des IC six mois avant et après l’implantation du REPI. Les données qualitatives ont été examinées selon une analyse thématique (Miles, Huberman, & Saldana, 2014), tandis que les données quantitatives ont fait l’objet de tests descriptifs et non-paramétriques. Les résultats proposent que le contexte d’implantation est défini par des normes implicites et explicites où l’utilisation de l’IC peut générer un cercle vicieux de comportements agressifs nourris par un profond sentiment d’injustice de la part des patients. Ceux-ci ont l’impression qu’ils doivent se conformer aux attentes du personnel et aux règles de l’unité. Les participants ont exprimé le besoin de créer des opportunités pour une communication authentique qui pourrait avoir lieu lors du REPI, bien que sa pratique soit variable d’un intervenant à un autre. Les résultats suggèrent que le principal élément ayant facilité l’implantation du REPI est l’approche participative de l’étude, alors que les obstacles rencontrés relèvent surtout de la complexité de la mise en œuvre du REPI en équipe. Lors du REPI avec le patient, les infirmières ont pu explorer ses sentiments et son point de vue, ce qui a favorisé la reconstruction de la relation thérapeutique. Quant au REPI avec l’équipe de soins, il a été perçu comme une opportunité d’apprentissage, ce qui a permis d’ajuster le plan d’intervention des patients. Suite à l’implantation du REPI, les résultats ont d’ailleurs montré une réduction significative de l’utilisation de l’isolement et du temps passé en isolement. Les résultats de cette thèse soulignent la possibilité d’outrepasser le malaise initial perçu tant par le patient que par l’infirmière en systématisant le REPI. De plus, cette étude met l’accent sur le besoin d’une présence authentique pour atteindre un partage significatif dans la relation thérapeutique, ce qui est la pierre d’assise de la pratique infirmière en santé mentale. Cette étude contribue aux connaissances sur la prévention des comportements agressifs en milieu psychiatrique en documentant le contexte dans lequel se situe l’IC, en proposant un REPI comportant deux volets de REPI et en explorant ses retombées. Nos résultats soutiennent le potentiel du développement d’une prévention tertiaire qui intègre à la fois la perspective des patients et des intervenants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le commerce international est souvent relié au transport maritime. La poursuite des règles uniformes se rapportant à ce dernier avait débuté à la fin du XIXe siècle et a abouti à l’émergence des Règles de La Haye, des Règles de Hambourg et des Règles de Rotterdam. L’exonération du transporteur maritime, qui suscitait des controverses favorisant le développement des règles maritimes internationales, a été réglementée de trois façons différentes dans les trois Règles précitées. La question principale abordée dans la thèse présente est si elles sont suffisamment satisfaisantes. Une autre question, qui se pose s’il est prouvé qu’aucune d’entre elles ne l’est, est quelle serait une meilleure façon. Pour y répondre, deux critères, soit la justice et la clarté, ont été choisis. Les recherches effectuées dans le cadre de la thèse présente visent à donner une évaluation profonde des régimes existants en matière de réglementation de l’exonération du transporteur maritime ainsi que des suggestions d’amélioration à cet égard.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tese (doutorado)—Universidade de Brasília, Instituto de Ciências Sociais, Departamento de Sociologia, 2014.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tese (doutorado)—Universidade de Brasília, Centro de Desenvolvimento Sustentável, 2015.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le graphène est une nanostructure de carbone hybridé sp2 dont les propriétés électroniques et optiques en font un matériau novateur avec un très large potentiel d’application. Cependant, la production à large échelle de ce matériau reste encore un défi et de nombreuses propriétés physiques et chimiques doivent être étudiées plus en profondeur pour mieux les exploiter. La fonctionnalisation covalente est une réaction chimique qui a un impact important dans l’étude de ces propriétés, car celle-ci a pour conséquence une perte de la structure cristalline des carbones sp2. Néanmoins, la réaction a été très peu explorée pour ce qui est du graphène déposé sur des surfaces, car la réactivité chimique de ce dernier est grandement dépendante de l’environnement chimique. Il est donc important d’étudier la fonctionnalisation de ce type de graphène pour bien comprendre à la fois la réactivité chimique et la modification des propriétés électroniques et optiques pour pouvoir exploiter les retombées. D’un autre côté, les bicouches de graphène sont connues pour avoir des propriétés très différentes comparées à la monocouche à cause d’un empilement des structures électroniques, mais la croissance contrôlée de ceux-ci est encore très difficile, car la cinétique de croissance n’est pas encore maîtrisée. Ainsi, ce mémoire de maîtrise va porter sur l’étude de la réactivité chimique du graphène à la fonctionnalisation covalente et de l’étude des propriétés optiques du graphène. Dans un premier temps, nous avons effectué des croissances de graphène en utilisant la technique de dépôt chimique en phase vapeur. Après avoir réussi à obtenir du graphène monocouche, nous faisons varier les paramètres de croissance et nous nous rendons compte que les bicouches apparaissent lorsque le gaz carboné nécessaire à la croissance reste présent durant l’étape de refroidissement. À partir de cette observation, nous proposons un modèle cinétique de croissance des bicouches. Ensuite, nous effectuons une étude approfondie de la fonctionnalisation du graphène monocouche et bicouche. Tout d’abord, nous démontrons qu’il y a une interaction avec le substrat qui inhibe grandement le greffage covalent sur la surface du graphène. Cet effet peut cependant être contré de plusieurs façons différentes : 1) en dopant chimiquement le graphène avec des molécules réductrices, il est possible de modifier le potentiel électrochimique afin de favoriser la réaction; 2) en utilisant un substrat affectant peu les propriétés électroniques du graphène; 3) en utilisant la méthode d’électrogreffage avec une cellule électrochimique, car elle permet une modulation contrôlée du potentiel électrochimique du graphène. De plus, nous nous rendons compte que la réactivité chimique des bicouches est moindre dû à la rigidité de structure due à l’interaction entre les couches. En dernier lieu, nous démontrons la pertinence de la spectroscopie infrarouge pour étudier l’effet de la fonctionnalisation et l’effet des bicouches sur les propriétés optiques du graphène. Nous réussissons à observer des bandes du graphène bicouche dans la région du moyen infrarouge qui dépendent du dopage. Normalement interdites selon les règles de sélection pour la monocouche, ces bandes apparaissent néanmoins lorsque fonctionnalisée et changent grandement en amplitude dépendamment des niveaux de dopage et de fonctionnalisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif du présent mémoire est double. D’une part, il cherche à identifier les facteurs qui permettent au gouvernement canadien et aux peuples autochtones de s’entendre sur des politiques publiques, malgré la persistance d’une logique coloniale. Nous verrons que l’atteinte d’une entente est conditionnelle à la légitimité du processus d’élaboration de la politique publique d’un point de vue autochtone. D’autre part, ce travail invite à penser le processus d’élaboration des politiques publiques comme espace potentiel d’autodétermination. Étant donné la malléabilité des règles qui encadrent l’élaboration des politiques publiques en contexte canadien, le gouvernement – s’il en a la volonté - peut modeler le processus d’élaboration de façon à le rendre plus égalitaire et donc plus légitime d’un point de vue autochtone. Il sera démontré que, dans une optique de changements progressifs, un tel processus d’élaboration peut permettre aux peuples autochtones de regagner une certaine autonomie décisionnelle et ainsi atténuer les rapports de pouvoir inégalitaires. Notre cadre théorique a été construit à l’aide de différents courants analytiques, issus notamment des littératures sur le colonialisme, sur les politiques publiques et sur la légitimité. La comparaison de deux études de cas, soit les processus d’élaboration de l’Accord de Kelowna et du projet de loi C-33, Loi sur le contrôle par les Premières Nations de leur système d’éducation, permettra d’illustrer nos arguments et d’en démontrer l’applicabilité pratique. En somme, nous verrons comment la première étude de cas permet de concevoir l’élaboration des politiques publiques comme espace potentiel d’autodétermination, et comment la deuxième, au contraire, démontre que cette sphère peut encore en être une d’oppression.