797 resultados para Critère de Hilbert-Mumford


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude examine une des difficultés que soulève la résolution du contrat de vente en droit africain des affaires. L'Organisation pour l'Harmonisation en Afrique du Droit des Affaires (OHADA) créée par le Traité du 17 octobre 1993 organise les règles communautaires relatives à la résolution du contrat de vente. Le Livre VIII de l’Acte uniforme OHADA portant sur le Droit commercial Général a été adopté le 15 décembre 2010 et a abrogé l’Acte du 17 avril 1997. Selon l’article 281 de l’Acte uniforme, la résolution du contrat de vente ne survient que lors de l’inexécution totale ou partielle de l’obligation du cocontractant. Notre étude visera à évaluer les conséquences dans le droit de la vente OHADA de la substitution du critère de privation substantielle par celui de la gravité du comportement du débiteur justifiant une résolution unilatérale du contrat. Cette nouvelle position du droit de la vente OHADA se démarque dans une certaine mesure du droit matériel uniforme et rejoint un courant adapté aux impératifs socioéconomiques du commerce tant régional qu’international. En outre la partie lésée devra déterminer la gravité du comportement du débiteur au risque de voir sa demande sanctionnée pour défaut de droit et donner lieu à des dommages intérêts à l’autre partie. En effet, avec pour optique la nécessité de sauvegarder le contrat au nom du principe favor contractus, comment le juge détermine a posteriori si la gravité du comportement du cocontractant est suffisante pour anéantir le contrat? Ce nouveau critère de la gravité du comportement du cocontractant en droit de la vente OHADA vient supplanter le critère de la privation substantielle et fait cohabiter la traditionnelle résolution judiciaire avec celle de la résolution unilatérale dont les contours demeurent incertains. Les cas d’ouvertures liés à la résolution du contrat de vente OHADA pour inexécution des obligations fondamentales ou accessoires seront passés au crible de même que leurs effets sur les parties. Dans une approche comparatiste avec la Convention de Vienne et les règles de codifications privés telles que les Principes UNIDROIT ou du Droit Européen des Contrats il y a lieu de s’interroger sur la mise en œuvre et les conséquences de la résolution du contrat de vente OHADA par l’inexécution de l’obligation d’une des parties due à un manquement essentiel d’une part et à la gravité du comportement du débiteur d’autre part.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La liste des domaines touchés par l’apprentissage machine s’allonge rapidement. Au fur et à mesure que la quantité de données disponibles augmente, le développement d’algorithmes d’apprentissage de plus en plus puissants est crucial. Ce mémoire est constitué de trois parties: d’abord un survol des concepts de bases de l’apprentissage automatique et les détails nécessaires pour l’entraînement de réseaux de neurones, modèles qui se livrent bien à des architectures profondes. Ensuite, le premier article présente une application de l’apprentissage machine aux jeux vidéos, puis une méthode de mesure performance pour ceux-ci en tant que politique de décision. Finalement, le deuxième article présente des résultats théoriques concernant l’entraînement d’architectures profondes nonsupervisées. Les jeux vidéos sont un domaine particulièrement fertile pour l’apprentissage automatique: il estf facile d’accumuler d’importantes quantités de données, et les applications ne manquent pas. La formation d’équipes selon un critère donné est une tˆache commune pour les jeux en lignes. Le premier article compare différents algorithmes d’apprentissage à des réseaux de neurones profonds appliqués à la prédiction de la balance d’un match. Ensuite nous présentons une méthode par simulation pour évaluer les modèles ainsi obtenus utilisés dans le cadre d’une politique de décision en ligne. Dans un deuxième temps nous présentons une nouvelleméthode pour entraîner des modèles génératifs. Des résultats théoriques nous indiquent qu’il est possible d’entraîner par rétropropagation des modèles non-supervisés pouvant générer des échantillons qui suivent la distribution des données. Ceci est un résultat pertinent dans le cadre de la récente littérature scientifique investiguant les propriétés des autoencodeurs comme modèles génératifs. Ces résultats sont supportés avec des expériences qualitatives préliminaires ainsi que quelques résultats quantitatifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans une séquence d'arrêts rendus à partir de 1996, la Cour suprême du Canada établit que les recours pour « atteinte illicite » prévus à l'article 49 de la Charte des droits et libertés de la personne doivent être soumis au régime de responsabilité civile de droit commun. La Cour suprême indique à cette occasion que, pour qu’il y ait atteinte illicite à un droit, la violation de ce droit devra être qualifiée de fautive. Cette qualification pourra être démontrée par « la transgression d’une norme de conduite jugée raisonnable dans les circonstances selon le droit commun » ou, « comme c’est le cas pour certains droits », lorsqu’un comportement transgresse « […] une norme dictée par la Charte elle-même ». Dans le premier cas, la notion de faute absorbe la notion d’illicéité, alors que dans le deuxième cas elle se dissout dans l’illicite (ce qui en fait une faute objective in abstracto). Or, dans ce dernier cas, la Cour suprême du Canada, en 2008, dans l’arrêt Ciment du Saint-Laurent, a indiqué que la faute constitue une obligation de moyens, qui s’évalue selon le critère de la personne prudente et diligente. Il ne peut donc s’agir d’une obligation de résultats. Il serait donc maintenant difficile de concilier cette caractérisation de la faute avec la politique adoptée par la Cour suprême en matière de Charte. Puisque le texte de la Charte contient lui-même les conditions matérielles et formelles dans lesquelles il sera possible de conclure à l’existence d’une atteinte illicite, il serait souhaitable, aux fins d’assurer la cohérence du droit, que la méthode de convergence des recours entre le Code et la Charte soit délaissée afin de reconnaître la pleine autonomie matérielle des recours prévus à la Charte, ce qui, du même coup, aurait pour effet de ne pas dénaturer la notion de faute. De plus, alors que la Cour suprême établissait dans ces arrêts qu’une atteinte illicite ne comporte pas un préjudice en soi, l’auteure soutien que le dommage causé à un droit comporte toujours un préjudice inhérent, que le droit se doit de sanctionner.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Certaines études récentes confirment que les tests de personnalité sont largement utilisés à des fins de sélection dans les organisations nord-américaines et que leur fréquence d’utilisation continue de croître (Boudrias, Pettersen, Longpré, & Plunier, 2008; Rothstein & Goffin, 2006). Or, les résultats des recherches portant sur le lien prévisionnel entre la personnalité et le rendement global au travail sont peu convaincants (Morgeson et al., 2007b; Murphy & Dzieweczynski, 2005). La présente thèse vise à vérifier si une amélioration des liens prédictifs entre la personnalité et le rendement au travail pourrait être obtenue en modifiant la façon d’opérationnaliser les variables prévisionnelles issues des inventaires de personnalité et en précisant les critères à prédire de manière à les rendre plus spécifiques et mieux arrimés. Pour ce faire, la capacité prévisionnelle d’une approche centrée sur le critère, c’est-à-dire l’utilisation de composites de traits de personnalité, est comparée à l’approche traditionnelle centrée sur le prédicteur, dans ce cas-ci, les cinq grands facteurs de personnalité (Big Five). D’autre part, le rendement au travail est opérationnalisé sous l’angle des compétences en emploi, ce qui permet d’en différencier les dimensions et d’augmenter la spécificité des critères. Des hypothèses précisant les facteurs de personnalité qui devraient permettre de prédire chacune des compétences évaluées sont testées. De plus, des hypothèses précisant les traits de personnalité servant à créer les variables composites sont aussi testées. Finalement, une hypothèse portant sur la comparaison de la puissance prévisionnelle des deux approches est mise à l’épreuve. L’échantillon de la recherche est composé de 225 employés occupant divers emplois au sein d’une grande organisation québécoise. Ils ont complété un inventaire de personnalité au travail dans le cadre des processus de sélection de l’organisation. Leur supérieur immédiat a effectué une évaluation de leurs compétences et de leur rendement au moins six (6) mois après leur embauche. Les résultats démontrent que la maîtrise des compétences est mieux prédite par une approche centrée sur le prédicteur (c’est-à-dire les Big Five) que par une approche centrée sur le critère (c’est-à-dire les variables composites). En effet, seules trois hypothèses portant sur le lien entre certains facteurs de personnalité et les compétences se sont avérées partiellement soutenues. Les résultats d’analyses statistiques supplémentaires, réalisées a posteriori afin de mieux comprendre les résultats, laissent supposer la présence de variables modératrices, dont, notamment, les caractéristiques situationnelles. En somme, il nous semble plus probable d’arriver, dans le futur, à trouver une méthode structurée de création des variables composites qui permettrait d’obtenir des liens prévisionnels plus puissants que de découvrir des variables composites qui seraient elles-mêmes généralisables à tous les emplois et à toutes les organisations. Par ailleurs, nous encourageons les praticiens à porter attention à la façon d’utiliser les données de personnalité. Pour le moment, il semble que les facteurs de personnalité permettent de prédire, en partie, le rendement futur en emploi. Or, les preuves empiriques concernant l’efficacité d’autres approches demeurent relativement rares et, surtout, insuffisantes pour guider fidèlement les praticiens à travers les choix nécessaires à leur utilisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: L’arthrose est une maladie fréquente chez le chien. Même si des traitements palliatifs ont prouvé leur efficacité pour soulager les signes cliniques associés, aucun n’a permis de restaurer la structure des cartilages ou la fonction des patients. De nouvelles modalités de traitement sont proposées mais très peu d’évidences existent quant à leur efficacité. Un problème récurrent pour apporter plus d’évidence est le manque d’outils d’évaluation dûment validés. Objectif: Evaluer l’efficacité d’une diète contenant de la moule verte, ainsi que la validité de différentes méthodes pour évaluer les effets de ce traitement sur la condition arthrosique de chiens de propriétaire. Méthodes: Une étude prospective croisée contrôlée en aveugle a été conduite sur 30 chiens de propriétaires. Leur condition était stable et non traitée. Ils ont reçu une diète contrôle pendant 30 jours puis la diète thérapeutique pendant 60 jours. A J0 (inclusion), J30 (fin de la période contrôle) et J90 (fin du traitement), les concentrations plasmatiques en acides gras ω–3 (EPA et DHA), le pic de force verticale (PVF – critère de référence), un questionnaire multifactoriel standardisé (MFQ), et la conductance électrodermique (EDA) ont été mesurés. Deux fois par semaine, les propriétaires remplissaient un questionnaire sur la fonction spécifique à leur animal (CODI). L’activité locomotrice (actimétrie) a été enregistrée en continu sur 7 chiens. Résultats: Aucun effet secondaire n’a été documenté excepté une augmentation du poids des chiens durant la période traitement. La localisation -thoracique ou pelvienne- du membre étudié et le poids ont interagi avec PVF. Les taux d’EPA et DHA ont augmenté durant la période traitement (p=0.026 et p<0.001, respectivement), tout comme PVF corrigé pour l’effet du poids et de la localisation du membre (p=0.003). La validité technique de PVF a été vérifiée. La validité technique et selon-critère du CODI ont été vérifiées. MFQ n’a pas montré d’homogénéité suffisante entre ses différents composants, bien que les résultats du composite convergent partiellement avec PVF. L’EDA n’a pas montré de validité technique suffisante. L’actimétrie a montré une validité technique satisfaisante ainsi que des résultats convergeant avec ceux de PVF. Conclusions: La méthode choisie comme référence a montré un effet bénéfique de la diète testée et sa validité technique a été vérifiée. À la fois, CODI et l’actimétrie ont été validés. La validité d’EDA et de MFQ a été remise en question. L’actimétrie a donné des résultats prometteurs, probablement complémentaires de PVF.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'être humain utilise trois systèmes sensoriels distincts pour réguler le maintien de la station debout: la somesthésie, le système vestibulaire, et le système visuel. Le rôle de la vision dans la régulation posturale demeure peu connu, notamment sa variabilité en fonction de l'âge, du type développemental, et des atteintes neurologiques. Dans notre travail, la régulation posturale induite visuellement a été évaluée chez des participants au développement et vieillissement normaux âgés de 5-85 ans, chez des individus autistes (développement atypique) âgés de 12-33 ans, ainsi que chez des enfants entre 9-18 ans ayant subi un TCC léger. À cet effet, la réactivité posturale des participants en réponse à un tunnel virtuel entièrement immersif, se mouvant à trois niveaux de vélocité, a été mesurée; des conditions contrôles, où le tunnel était statique ou absent, ont été incluses. Les résultats montrent que la réactivité (i.e. instabilité) posturale induite visuellement est plus élevée chez les jeunes enfants; ensuite, elle s'atténue pour rejoindre des valeurs adultes vers 16-19 ans et augmente de façon linéaire en fonction de l'âge après 45 ans jusqu'à redevenir élevée vers 60 ans. De plus, à la plus haute vélocité du tunnel, les plus jeunes participants autistes ont manifesté significativement moins de réactivité posturale comparativement à leurs contrôles; cette différence n'était pas présente chez des participants plus âgés (16-33 ans). Enfin, les enfants ayant subi un TCC léger, et qui étaient initialement modérément symptomatiques, ont montré un niveau plus élevé d'instabilité posturale induite visuellement que les contrôles, et ce jusqu'à 12 semaines post-trauma malgré le fait que la majorité d'entre eux (89%) n'étaient plus symptomatiques à ce stade. En somme, cela suggère la présence d'une importante période de transition dans la maturation des systèmes sous-tendant l'intégration sensorimotrice impliquée dans le contrôle postural vers l'âge de 16 ans, et d'autres changements sensorimoteurs vers l'âge de 60 ans; cette sur-dépendance visuelle pour la régulation posturale chez les enfants et les aînés pourrait guider l'aménagement d'espaces et l'élaboration d'activités ajustés à l'âge des individus. De plus, le fait que l'hypo-réactivité posturale aux informations visuelles chez les autistes dépende des caractéristiques de l'environnement visuel et de l'âge chronologique, affine notre compréhension des anomalies sensorielles propres à l'autisme. Par ailleurs, le fait que les enfants ayant subi un TCC léger montrent des anomalies posturales jusqu'à 3 mois post-trauma, malgré une diminution significative des symptômes rapportés, pourrait être relié à une altération du traitement de l'information visuelle dynamique et pourrait avoir des implications quant à la gestion clinique des patients aux prises avec un TCC léger, puisque la résolution des symptômes est actuellement le principal critère utilisé pour la prise de décision quant au retour aux activités. Enfin, les résultats obtenus chez une population à développement atypique (autisme) et une population avec atteinte neurologique dite transitoire (TCC léger), contribuent non seulement à une meilleure compréhension des mécanismes d'intégration sensorimotrice sous-tendant le contrôle postural mais pourraient aussi servir comme marqueurs sensibles et spécifiques de dysfonction chez ces populations. Mots-clés : posture, équilibre, vision, développement/vieillissement sensorimoteur, autisme, TCC léger symptomatique, réalité virtuelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

On révise les prérequis de géométrie différentielle nécessaires à une première approche de la théorie de la quantification géométrique, c'est-à-dire des notions de base en géométrie symplectique, des notions de groupes et d'algèbres de Lie, d'action d'un groupe de Lie, de G-fibré principal, de connexion, de fibré associé et de structure presque-complexe. Ceci mène à une étude plus approfondie des fibrés en droites hermitiens, dont une condition d'existence de fibré préquantique sur une variété symplectique. Avec ces outils en main, nous commençons ensuite l'étude de la quantification géométrique, étape par étape. Nous introduisons la théorie de la préquantification, i.e. la construction des opérateurs associés à des observables classiques et la construction d'un espace de Hilbert. Des problèmes majeurs font surface lors de l'application concrète de la préquantification : les opérateurs ne sont pas ceux attendus par la première quantification et l'espace de Hilbert formé est trop gros. Une première correction, la polarisation, élimine quelques problèmes, mais limite grandement l'ensemble des observables classiques que l'on peut quantifier. Ce mémoire n'est pas un survol complet de la quantification géométrique, et cela n'est pas son but. Il ne couvre ni la correction métaplectique, ni le noyau BKS. Il est un à-côté de lecture pour ceux qui s'introduisent à la quantification géométrique. D'une part, il introduit des concepts de géométrie différentielle pris pour acquis dans (Woodhouse [21]) et (Sniatycki [18]), i.e. G-fibrés principaux et fibrés associés. Enfin, il rajoute des détails à quelques preuves rapides données dans ces deux dernières références.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les humains communiquent via différents types de canaux: les mots, la voix, les gestes du corps, des émotions, etc. Pour cette raison, un ordinateur doit percevoir ces divers canaux de communication pour pouvoir interagir intelligemment avec les humains, par exemple en faisant usage de microphones et de webcams. Dans cette thèse, nous nous intéressons à déterminer les émotions humaines à partir d’images ou de vidéo de visages afin d’ensuite utiliser ces informations dans différents domaines d’applications. Ce mémoire débute par une brève introduction à l'apprentissage machine en s’attardant aux modèles et algorithmes que nous avons utilisés tels que les perceptrons multicouches, réseaux de neurones à convolution et autoencodeurs. Elle présente ensuite les résultats de l'application de ces modèles sur plusieurs ensembles de données d'expressions et émotions faciales. Nous nous concentrons sur l'étude des différents types d’autoencodeurs (autoencodeur débruitant, autoencodeur contractant, etc) afin de révéler certaines de leurs limitations, comme la possibilité d'obtenir de la coadaptation entre les filtres ou encore d’obtenir une courbe spectrale trop lisse, et étudions de nouvelles idées pour répondre à ces problèmes. Nous proposons également une nouvelle approche pour surmonter une limite des autoencodeurs traditionnellement entrainés de façon purement non-supervisée, c'est-à-dire sans utiliser aucune connaissance de la tâche que nous voulons finalement résoudre (comme la prévision des étiquettes de classe) en développant un nouveau critère d'apprentissage semi-supervisé qui exploite un faible nombre de données étiquetées en combinaison avec une grande quantité de données non-étiquetées afin d'apprendre une représentation adaptée à la tâche de classification, et d'obtenir une meilleure performance de classification. Finalement, nous décrivons le fonctionnement général de notre système de détection d'émotions et proposons de nouvelles idées pouvant mener à de futurs travaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les calculs numériques ont été effectués à l'aide du logiciel SAGE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif de ce mémoire est de comprendre la neutralité axiologique non pas comme une exigence épistémologique, mais plutôt comme un idéal éducationnel. Max Weber propose une science basée sur la description factuelle, de laquelle on exclut la formulation de jugements de valeur. Pour l'auteur, il est préférable de séparer les jugements descriptifs des jugements évaluatifs dans le but de préserver l'autonomie intellectuelle des étudiants. Comme il serait contraire au principe d'autonomie de laisser le professeur influencer et convaincre ses étudiants, de façon partisane, d'adhérer à certaines thèses normatives, Weber propose un mécanisme pour éviter que le professeur n'influence ses étudiants de manière illégitime. Les critiques contemporaines de la neutralité axiologique, en particulier celles de Sen et Putnam, voient dans le critère de neutralité un rejet de l'entrelacement logique des faits et des valeurs. Ils critiquent la supposée subjectivité des valeurs et, ce faisant, défendent une conception enrichie de la science où les valeurs éthiques sont présentes. Weber n'a jamais défendu qu'il était impossible de mener une analyse à la fois descriptive et normative. Seulement, on doit s'interroger sur les lieux où s'exprime la normativité, et s'assurer que toutes les conditions sont présentes pour qu'une discussion normative tende réellement à l'objectivité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs interventions visant à améliorer la santé psychologique au travail reposent sur une conceptualisation pathogénique où celle-ci est représentée par une absence d’états psychologiques négatifs (Randall & Nielsen, 2010). Or, elle représenterait à la fois l’absence d’états négatifs de détresse psychologique au travail et la présence d’états positifs de bien-être psychologique au travail (Gilbert, Dagenais-Desmarais, & Savoie, 2011). Ceci suggère qu’afin de maximiser l’impact des interventions, il serait pertinent d’indiquer aux intervenants des leviers pouvant influencer les volets positifs et négatifs de la santé psychologique au travail. Parmi ces leviers, Gilbert (2009) a identifié les demandes et les ressources au travail. Cependant, les modèles théoriques traitant de l’impact de demandes et de ressources sur des états positifs et négatifs tendent à traiter de ces effets de manière indépendante et aucun ne formule de propositions concernant l’impact potentiel de ces leviers sur un état complet et unifié de santé psychologique au travail (e.g., Job Demand-Control(-Support) de Karasek & Theorell, 1990; Job Demands-Resources de Bakker & Demerouti, 2007). En considérant l’aspect interrelié et distinct de la facette positive et négative de la santé psychologique au travail, la présente thèse vise donc à explorer la dynamique entre les demandes, les ressources et un état complet et unifié de santé psychologique au travail. Pour ce faire, un article théorique et un article empirique sont présentés. L’article théorique intègre différentes théories afin d’apporter un éclairage sur l’incidence des demandes et ressources au travail sur un état complet et unifié de santé psychologique au travail, et d’expliquer simultanément l’influence de ces aspects du travail sur les facettes de bien-être et de détresse au travail. Il avance ainsi que, telles que définies par le modèle Job Demand-Resources (Bakker & Demerouti, 2007), les demandes tendraient a davantage représenter des menaces que des défis et auraient alors des effets néfastes sur un état complet de santé psychologique au travail et ses facettes positifs et négatifs. D’autre part, il est suggéré que lorsque les demandes sont élevées, avoir suffisamment de ressources pour se sentir capable de répondre avec succès aux demandes pourrait amener celles-ci à moins représenter des menaces et davantage représenter des défis. Comparativement à une situation où les ressources sont insuffisantes, cette première situation accroîtrait un état complet de santé psychologique au travail, de même que l’intensité de son volet positif, tandis que l’intensité de son volet négatif serait amoindrie. Enfin, il est suggéré que les ressources au travail faciliteraient la satisfaction des besoins psychologiques fondamentaux, ce qui aurait un effet bénéfique sur un état complet de santé psychologique au travail, de même que sur ses facettes. Pour sa part, l’article empirique vise à explorer empiriquement la dynamique entre les demandes, ressources et un état unifié et complet de santé psychologique au travail. Pour ce faire, deux études utilisant des modélisations par équations structurelles sont effectuées. La première utilise un devis transversal et deux échantillons de 302 et 384 enseignants. Elle montre que les demandes et ressources au travail ont une incidence directe respectivement nocive et bénéfique sur la santé psychologique au travail. Cependant, contrairement à ce qui était attendu, les ressources au travail n’auraient pas d’effet modérateur. Ces résultats sont similaires d’un échantillon à l’autre. La seconde étude utilise un devis longitudinal, deux temps de mesure avec une année d’intervalle et un échantillon de 158 enseignants. Suite à une comparaison des relations de causalité normale, inverse et réciproque; elle démontre que la causalité normale serait le type de relation qui expliquerait le mieux les données. Ce constat vient donc renforcer les résultats de l’étude précédente et suggère qu’une diminution des demandes et une augmentation des ressources s’accompagneraient d’une augmentation de la santé psychologique au travail. En explorant théoriquement et empiriquement la dynamique entre les demandes, les ressources et la santé psychologique au travail, la présente thèse offre des bases théoriques novatrices et des bases empiriques solides pour les recherches traitant de demandes et de ressources au travail qui désire étudier un état complet et unifié de santé psychologique au travail, et considérer l’aspect distinct et interdépendant de ses facettes positives et négatives. En pratique, une telle approche permettrait aux décideurs de plus facilement identifier les leviers sur lesquels il importe d’investir pour maximiser la santé psychologique, car cette dernière serait représentée par un critère unique plutôt que plusieurs critères séparés (Mihalopoulos, Carter, Pirkis, & Vos, 2013).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, je me propose d’analyser la question des limites du langage; d’examiner la place et le rôle de l’indicible dans la philosophie de Wittgenstein. La notion d’indicible suppose un critère pour saisir les limites du langage. Dans le Tractatus, le critère nous est donné par la structure logique de l’image. Or, en laissant tomber cet accord de forme entre le langage et le monde, suggéré par la théorie picturale, l’indicible ne semble plus se montrer dans les écrits postérieurs au Tractatus. Du moins, avec la notion de « jeux de langage », le critère pour saisir les limites du langage n’est plus aussi clairement défini et les règles qui déterminent les usages légitimes du langage ne sont plus aussi strictes. Enfin, en concevant la signification comme « usage », la nature du langage est appréhendée comme le fait d’une forme de vie, et dans une perspective pragmatique, arrimée à une position minimaliste, une conception déflationniste de la vérité peut se développer, évitant ainsi la réification de faits superlatifs associés à l’indicible et à l’ineffabilité des critères sémantiques. Par conséquent, l’indicible et l’ineffable ne seraient plus associés avec une posture mystique à l’égard du réel, et le quiétisme philosophique de Wittgenstein, toujours inspiré par le nihilisme thérapeutique, demeure l’avenue privilégiée pour neutraliser le discours métaphysique et le contraindre définitivement au silence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

“A Shine of Truth in the ‘universal delusional context of reification’ (Theodor W. Adorno)” comprend sept chapitres, un prologue et un épilogue. Chaque partie se construit à deux niveaux : (1) à partir des liens qui se tissent entre les phrases contiguës ; et (2) à partir des liens qui se tissent entre les phrases non contiguës. Les incipit des paragraphes forment l’argument principal de la thèse. Le sujet de la thèse, Schein (apparence, illusion, clarté) est abordé de manière non formaliste, c’est à dire, de manière que la forme donne d’elle-même une idée de la chose : illusion comme contradiction imposée. Bien que le sujet de la thèse soit l’illusion, son but est la vérité. Le Chapitre I présente une dialectique de perspectives (celles de Marx, de Lukács, de Hegel, de Horkheimer et d'Adorno) pour arriver à un critère de vérité, compte tenu du contexte d’aveuglement universel de la réification ; c’est la détermination de la dissolution de l’apparence. Le Chapitre II présente le concept d’apparence esthétique—une apparence réversible qui s’oppose à l’apparence sociale générée par l’industrie de la culture. Le Chapitre III cherche à savoir si la vérité en philosophie et la vérité en art sont deux genres distincts de vérités. Le Chapitre IV détermine si l’appel à la vérité comme immédiateté de l’expression, fait par le mouvement expressionniste du 20e siècle, est nouveau, jugé à l’aune d’un important antécédent à l’expressionisme musical : « Der Dichter spricht » de Robert Schumann. Le Chapitre V se penche sur la question à savoir si le montage inorganique est plus avancé que l’expressionisme. Le Chapitre VI reprend là où Peter Bürger clôt son essai Theorie de l’avant-garde : ce chapitre cherche à savoir à quel point l’oeuvre d’art après le Dada et le Surréalisme correspond au modèle hégélien de la « prose ». Le Chapitre VII soutient que Dichterliebe, op. 48, (1840), est une oeuvre d’art vraie. Trois conclusions résultent de cette analyse musicale détaillée : (1) en exploitant, dans certains passages, une ambigüité dans les règles de l’harmonie qui fait en sorte tous les douze tons sont admis dans l’harmonie, l’Opus 48 anticipe sur Schoenberg—tout en restant une musique tonale ; (2) l’Opus 48, no 1 cache une tonalité secrète : à l'oeil, sa tonalité est soit la majeur, soit fa-dièse mineur, mais une nouvelle analyse dans la napolitaine de do-dièse majeur est proposée ici ; (3) une modulation passagère à la napolitaine dans l’Opus 48, no 12 contient l’autre « moitié » de la cadence interrompue à la fin de l’Opus 48, no 1. Considérés à la lumière de la société fausse, l’Allemagne des années 1930, ces trois aspects anti-organiques témoignent d’une conscience avancée. La seule praxis de vie qu’apporte l’art, selon Adorno, est la remémoration. Mais l’effet social ultime de garder la souffrance vécue en souvenir est non négligeable : l’émancipation universelle.