982 resultados para Logical Clocks


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The rationalizability of a choice function on an arbitrary domain under various coherence properties has received a considerable amount of attention both in the long-established and in the recent literature. Because domain closedness conditions play an important role in much of rational choice theory, we examine the consequences of these requirements on the logical relationships among different versions of rationalizability. It turns out that closedness under intersection does not lead to any results differing from those obtained on arbitrary domains. In contrast, closedness under union allows us to prove an additional implication.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We survey recent axiomatic results in the theory of cost-sharing. In this litterature, a method computes the individual cost shares assigned to the users of a facility for any profile of demands and any monotonic cost function. We discuss two theories taking radically different views of the asymmetries of the cost function. In the full responsibility theory, each agent is accountable for the part of the costs that can be unambiguously separated and attributed to her own demand. In the partial responsibility theory, the asymmetries of the cost function have no bearing on individual cost shares, only the differences in demand levels matter. We describe several invariance and monotonicity properties that reflect both normative and strategic concerns. We uncover a number of logical trade-offs between our axioms, and derive axiomatic characterizations of a handful of intuitive methods: in the full responsibility approach, the Shapley-Shubik, Aumann-Shapley, and subsidyfree serial methods, and in the partial responsibility approach, the cross-subsidizing serial method and the family of quasi-proportional methods.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les employés d’un organisme utilisent souvent un schéma de classification personnel pour organiser les documents électroniques qui sont sous leur contrôle direct, ce qui suggère la difficulté pour d’autres employés de repérer ces documents et la perte possible de documentation pour l’organisme. Aucune étude empirique n’a été menée à ce jour afin de vérifier dans quelle mesure les schémas de classification personnels permettent, ou même facilitent, le repérage des documents électroniques par des tiers, dans le cadre d’un travail collaboratif par exemple, ou lorsqu’il s’agit de reconstituer un dossier. Le premier objectif de notre recherche était de décrire les caractéristiques de schémas de classification personnels utilisés pour organiser et classer des documents administratifs électroniques. Le deuxième objectif consistait à vérifier, dans un environnement contrôlé, les différences sur le plan de l’efficacité du repérage de documents électroniques qui sont fonction du schéma de classification utilisé. Nous voulions vérifier s’il était possible de repérer un document avec la même efficacité, quel que soit le schéma de classification utilisé pour ce faire. Une collecte de données en deux étapes fut réalisée pour atteindre ces objectifs. Nous avons d’abord identifié les caractéristiques structurelles, logiques et sémantiques de 21 schémas de classification utilisés par des employés de l’Université de Montréal pour organiser et classer les documents électroniques qui sont sous leur contrôle direct. Par la suite, nous avons comparé, à partir d'une expérimentation contrôlée, la capacité d’un groupe de 70 répondants à repérer des documents électroniques à l’aide de cinq schémas de classification ayant des caractéristiques structurelles, logiques et sémantiques variées. Trois variables ont été utilisées pour mesurer l’efficacité du repérage : la proportion de documents repérés, le temps moyen requis (en secondes) pour repérer les documents et la proportion de documents repérés dès le premier essai. Les résultats révèlent plusieurs caractéristiques structurelles, logiques et sémantiques communes à une majorité de schémas de classification personnels : macro-structure étendue, structure peu profonde, complexe et déséquilibrée, regroupement par thème, ordre alphabétique des classes, etc. Les résultats des tests d’analyse de la variance révèlent des différences significatives sur le plan de l’efficacité du repérage de documents électroniques qui sont fonction des caractéristiques structurelles, logiques et sémantiques du schéma de classification utilisé. Un schéma de classification caractérisé par une macro-structure peu étendue et une logique basée partiellement sur une division par classes d’activités augmente la probabilité de repérer plus rapidement les documents. Au plan sémantique, une dénomination explicite des classes (par exemple, par utilisation de définitions ou en évitant acronymes et abréviations) augmente la probabilité de succès au repérage. Enfin, un schéma de classification caractérisé par une macro-structure peu étendue, une logique basée partiellement sur une division par classes d’activités et une sémantique qui utilise peu d’abréviations augmente la probabilité de repérer les documents dès le premier essai.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Département de linguistique et de traduction

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Mémoire présenté à la faculté des études supérieures en vue de l'obtention du grade de maîtrise en droit des affaires LLM"

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent mémoire est consacré à l'étude de l'obligation faite à l'État canadien de consulter les autochtones lorsqu'il envisage de prendre des mesures portant atteinte à leurs droits et intérêts. On s'y interroge sur le sens que peut avoir cette obligation, si elle n'inclut pas celle de s'entendre avec les autochtones. Notre étude retrace d'abord l'évolution de l'obligation de consulter dans la jurisprudence de la Cour suprême du Canada, pour se pencher ensuite sur l'élaboration d'un modèle théorique du processus consultatif. En observant la manière dont la jurisprudence relative aux droits ancestraux a donné naissance à l'obligation de consulter, on constate que c'est en s'approchant au plus près de l'idée d'autonomie gouvernementale autochtone - soit en définissant le titre ancestral, droit autochtone à la terre elle-même - que la Cour a senti le besoin de développer la consultation en tant que véritable outil de dialogue entre l'État et les Premières nations. Or, pour assurer la participation réelle des parties au processus de consultation, la Cour a ensuite dû balancer leur rapport de forces, ce qu'elle a fait en admettant le manque de légitimité du pouvoir étatique sur les autochtones. C'est ainsi qu'après avoir donné naissance au processus de consultation, la jurisprudence relative aux droits ancestraux pourrait à son tour être modifiée substantiellement par son entremise. En effet, l'égalité qu'il commande remet en question l'approche culturaliste de la Cour aux droits ancestraux, et pourrait l'amener à refonder ces droits dans le principe plus égalitaire de continuité des ordres juridiques autochtones. Contrairement à l'approche culturaliste actuelle, ce principe fait place à la reconnaissance juridique de l'autonomie gouvernementale autochtone. La logique interne égalitaire du processus de consultation ayant ainsi été exposée, elle fait ensuite l'objet d'une plus ample analyse. On se demande d'abord comment concevoir cette logique sur le plan théorique. Ceci exige d'ancrer la consultation, en tant qu'institution juridique, dans une certaine vision du droit. Nous adoptons ici celle de Lon Fuller, riche de sens pour nos fins. Puis, nous explicitons les principes structurants du processus consultatif. Il appert de cette réflexion que l'effectivité de la consultation dépend de la qualité du dialogue qu'elle engendre entre les parties. Si elle respecte sa morale inhérente, la consultation peut générer une relation morale unique entre les autochtones et l'État canadien. Cette relation de reconnaissance mutuelle est une relation de don.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction. Plusieurs maladies neurodégénératives bénéficieraient de meilleures ap-proches diagnostiques, dont la maladie d’Alzheimer. Celle-ci affecte en particulier les systèmes cholinergiques du SNC, et de nombreuses études d’imagerie ont tenté d’évaluer la dégénérescence de ce système à des fins diagnostiques, à l’aide de ligands radioactifs de diverses composantes du système ACh. En définitive, la plupart de ces études ne se sont pas montrées satisfaisantes. À la recherche de meilleures approches dans ce domaine, nous avons décidé d’évaluer les possibilités offertes par le (-)-[18F]Fluoroethoxy-benzovesamicol ((-)-[18F]FEOBV), un agent émetteur de positons se liant au VAChT de façon spécifique et réversible. Avant d’en arriver à une utilisation humaine cependant, une validation animale en plusieurs étapes s’avère nécessaire, mais celle-ci nous est apparue justifiée à la lumière de résultats d’études préliminaires en TEP chez le rat, qui se sont montrées très prometteuses. Nous nous sommes donc attaqués à la caractérisation du métabolisme de cet agent. Ceci a exigé, dans un premier temps, la mise au point d’une méthode chromatographique d’analyse des métabolites sanguins et, dans un deuxième temps, l’évaluation de ces métabolites et de leur cinétique chez le rat. Ces données permettront ultérieurement, chez l’humain, de procéder à des études quantitatives en TEP. Étude #1: Une fois les paramètres chromatographiques optimisés, le TR du (–)-FEOBV fut établi à 7.92 ± 0.18 minutes. Étude #2 : Le métabolisme in vivo s’est montré très rapide et temporellement variable, mais un seul métabolite hydrophile a été identifié. La fonction d’apport au cerveau du (–)-[18F]FEOBV a pu être établie après correction pour la présence du métabolite détecté. Conclusion. Dans l’ensemble, le (–)-[18F]FEOBV semble très prometteur en tant que marqueur biologique du système cholinergique pré-synaptique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dépression est une maladie chronique, récurrente et potentiellement mortelle qui affecte plus de 20 % de la population à travers le monde. Les mécanismes sous-jacents de la dépression demeurent incompris et la pharmacothérapie actuelle, largement basée sur l’hypothèse monoaminergique, fait preuve d’une efficacité sous optimale et d’une latence thérapeutique élevée. Par conséquent, la recherche est amenée à élaborer de nouveaux traitements pharmacologiques. Pour détecter leur action, il est avant tout nécessaire de développer des outils expérimentaux adéquats. Dans cette optique, notre but a été de mesurer l’anhédonie, un symptôme cardinal de la dépression, chez le rat de laboratoire. L’anhédonie a été définie comme une réduction de la récompense et a été mesurée avec le test de consommation de sucrose et la technique d’autostimulation intracérébrale. En vue d’induire l’anhédonie, nous avons effectué une bulbectomie olfactive, une procédure qui entraîne divers changements biochimiques, cellulaires et comportementaux similaires à ceux de l’état dépressif et qui peuvent être renversés par un traitement antidépresseur chronique. Nos résultats montrent que la bulbectomie olfactive produit également l’anhédonie, reflétée par une réduction durable de la consommation de sucrose et par une réduction de l’efficacité de l’amphétamine dans le test d’autostimulation intracérébrale. Ces effets ont été présents jusqu’à trois à quatre semaines suivant la chirurgie. La bulbectomie olfactive a aussi été associée à une augmentation de l’élément de réponse liant l’AMPc dans le striatum, un index moléculaire associé à l’anhédonie. Ces découvertes suggèrent que l’anhédonie peut être produite et étudiée de façon fiable dans le modèle de bulbectomie olfactive et que le circuit de récompense pourrait constituer une cible cohérente pour de nouvelles drogues en vue du traitement de la dépression.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Plusieurs études ont révélé des problèmes récurrents au niveau de la performance et de la gestion des projets de reconstruction à la suite des catastrophes dans les pays en voie de développement (PEVD). Ces projets doivent faire face à des conditions de vulnérabilité des habitants, engendrées par des facteurs politiques, économiques, sociaux et culturels. Les divers participants - contraints par un accès limité à l’information - sont confrontés à travailler dans un contexte hostile ayant un niveau d’incertitude élevé. Ce niveau d’incertitude augmente les risques du projet de reconstruction, particulièrement le risque d’insatisfaction des usagers. Ce travail vise à mettre en parallèle l’analyse du système organisationnel adopté pour la conduite d’un projet de reconstruction et celle du niveau de satisfaction des usagers. Il émet l’hypothèse suivante: deux facteurs organisationnels influencent largement le niveau de satisfaction de la part des bénéficiaires d’un projet de reconstruction de logements à la suite d’un désastre en PEVD: (i) le niveau de centralisation de la prise de décisions (jumelée au manque d’information) au sein de la Multi-Organisation Temporaire (MOT); et (ii) la capacité de la structure organisationnelle de la MOT d’impliquer la participation active des usagers au niveau de la planification, de la gestion, du financement et du design du projet. Afin d’atteindre cet objectif, une recherche empirique fut menée pour analyser le cas des inondations ayant eu lieu en 2003 dans une ville dans la région du Maghreb. Le niveau de satisfaction des usagers a été déterminé grâce à des indicateurs de transfert de technologie qui se basent sur l’analyse du « Cadre Logique » - une méthode d’évaluation largement utilisée dans le domaine du développement international. Les résultats de la recherche ne visent pas à identifier une relation de cause à effet entre les deux variables étudiées (la structure organisationnelle et la satisfaction des usagers). Cependant, ils mettent en évidence certains principes du montage et de la gestion des projets qui peuvent être mis en place pour l’amélioration des pratiques de reconstruction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les Tableaux de Bord de la Performance ont été acclamés avec raison depuis leur introduction en 1992, mais les intellectuels continuent encore à étudier leurs aspects pragmatiques. Ce papier contribue à la littérature sur les Tableaux de Bord de la Performance, tout d’abord, en offrant une explication logique quant à leur succès et ensuite, en présentant un cadre de travail contextuel de tableaux de bord de la performance pour une structure de gestion hiérarchisée. Le cadre de travail contextuel réforme la perspective d’apprentissage et de croissance du tableau de bord de la performance (i) en effectuant la transition de référence (subjective/objective), et (ii) en reconnaissant que la Perspective d’Apprentissage et de Croissance implique avant tout une incidence de formulation stratégique d’une extra-entité. Le transfert de l’incidence (intra-entité/extra-entité) réconcilie l’évolution de la position de politique de gestion non ordonnée [Contenu: (Contenu: Contexte): Contexte] qu’est la Perspective d’Apprentissage et de Croissance Concomitante. Le cadre de travail supplante également les Perspectives des Tableaux de Bord de la Performances développés par Kaplan et Norton en ajoutant la perspective de politique sociale qui manquait. La perspective manquante implique une transition de référence objective [(position endogène, perspective exogène): (position exogène, perspective exogène)]. De tels signaux de transition [Contenu: (Contenu: Contexte): Contexte] ordonnent l’évolution de la position de politique de gestion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ Le gouvernement du Québec a adopté en novembre 1999 le projet de loi 47, relatif à la Loi concernant les conditions de travail dans certains secteurs de l’industrie du vêtement et modifiant la Loi sur les normes du travail (1999, c. 57). Son entrée en vigueur eut pour effet d’abroger au 30 juin 2000 les quatre (4) décrets sectoriels de convention collective qui régissaient les conditions d’emploi d’approximativement 23 000 travailleurs affectés à la production de vêtements (gant de cuir, chemise pour hommes et garçons, confection pour hommes et pour dames). Cette recherche démontre que bien qu’inscrit dans une logique étatique de dérégulation du travail visant à favoriser la compétitivité, le maintien de normes de substitution aux décrets dans le cas du vêtement québécois ne dérive pas pour autant d’une déréglementation strictement néolibérale. Au plan plus théorique, l’émergence et le sort du régime de conditions d’emploi étudié dévoilent la nature politique du processus d’élaboration des règles salariales, qu’il soit d’origine législative ou contractuelle. Cette dynamique repose sur le caractère mouvant des relations de pouvoir et d’influence des agents engagés dans la régulation institutionnelle, où l’État est appelé à jouer un rôle de catalyseur ─ et non de tiers arbitre indépendant ─ à l’endroit des tensions qui procèdent du rapport salarial et du mode de production au sein duquel il s’inscrit.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis quelques années, la recherche dans le domaine des réseaux maillés sans fil ("Wireless Mesh Network (WMN)" en anglais) suscite un grand intérêt auprès de la communauté des chercheurs en télécommunications. Ceci est dû aux nombreux avantages que la technologie WMN offre, telles que l'installation facile et peu coûteuse, la connectivité fiable et l'interopérabilité flexible avec d'autres réseaux existants (réseaux Wi-Fi, réseaux WiMax, réseaux cellulaires, réseaux de capteurs, etc.). Cependant, plusieurs problèmes restent encore à résoudre comme le passage à l'échelle, la sécurité, la qualité de service (QdS), la gestion des ressources, etc. Ces problèmes persistent pour les WMNs, d'autant plus que le nombre des utilisateurs va en se multipliant. Il faut donc penser à améliorer les protocoles existants ou à en concevoir de nouveaux. L'objectif de notre recherche est de résoudre certaines des limitations rencontrées à l'heure actuelle dans les WMNs et d'améliorer la QdS des applications multimédia temps-réel (par exemple, la voix). Le travail de recherche de cette thèse sera divisé essentiellement en trois principaux volets: le contrôle d‟admission du trafic, la différentiation du trafic et la réaffectation adaptative des canaux lors de la présence du trafic en relève ("handoff" en anglais). Dans le premier volet, nous proposons un mécanisme distribué de contrôle d'admission se basant sur le concept des cliques (une clique correspond à un sous-ensemble de liens logiques qui interfèrent les uns avec les autres) dans un réseau à multiples-sauts, multiples-radios et multiples-canaux, appelé RCAC. Nous proposons en particulier un modèle analytique qui calcule le ratio approprié d'admission du trafic et qui garantit une probabilité de perte de paquets dans le réseau n'excédant pas un seuil prédéfini. Le mécanisme RCAC permet d‟assurer la QdS requise pour les flux entrants, sans dégrader la QdS des flux existants. Il permet aussi d‟assurer la QdS en termes de longueur du délai de bout en bout pour les divers flux. Le deuxième volet traite de la différentiation de services dans le protocole IEEE 802.11s afin de permettre une meilleure QdS, notamment pour les applications avec des contraintes temporelles (par exemple, voix, visioconférence). À cet égard, nous proposons un mécanisme d'ajustement de tranches de temps ("time-slots"), selon la classe de service, ED-MDA (Enhanced Differentiated-Mesh Deterministic Access), combiné à un algorithme efficace de contrôle d'admission EAC (Efficient Admission Control), afin de permettre une utilisation élevée et efficace des ressources. Le mécanisme EAC prend en compte le trafic en relève et lui attribue une priorité supérieure par rapport au nouveau trafic pour minimiser les interruptions de communications en cours. Dans le troisième volet, nous nous intéressons à minimiser le surcoût et le délai de re-routage des utilisateurs mobiles et/ou des applications multimédia en réaffectant les canaux dans les WMNs à Multiples-Radios (MR-WMNs). En premier lieu, nous proposons un modèle d'optimisation qui maximise le débit, améliore l'équité entre utilisateurs et minimise le surcoût dû à la relève des appels. Ce modèle a été résolu par le logiciel CPLEX pour un nombre limité de noeuds. En second lieu, nous élaborons des heuristiques/méta-heuristiques centralisées pour permettre de résoudre ce modèle pour des réseaux de taille réelle. Finalement, nous proposons un algorithme pour réaffecter en temps-réel et de façon prudente les canaux aux interfaces. Cet algorithme a pour objectif de minimiser le surcoût et le délai du re-routage spécialement du trafic dynamique généré par les appels en relève. Ensuite, ce mécanisme est amélioré en prenant en compte l‟équilibrage de la charge entre cliques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

David Hull et Philip Kitcher présentent tous deux une description des sciences qui tient compte autant de l'articulation logique des théories que de leur dynamique sociale. Hull (1988a, 2001) tente de rendre compte du progrès scientifique par le biais d'une analyse sélectionniste, en s'appuyant sur les contingences sociales et les biais individuels en tant que pressions de sélections. Pour lui, un processus de sélection darwinien filtre les théories supérieures des théories inadéquates. Kitcher (1993) présente plutôt le progrès scientifique comme un changement de consensus résultant de processus sociaux et psychologiques qui mènent de manière fiable à la vérité. Les théories sont ainsi filtrées par une dynamique sociale qui sélectionne les théories selon la qualité de leur articulation logique. Kitcher (1988) exprime un doute à l'idée qu'un processus de sélection darwinien du type suggéré par Hull puisse ajouter quoi que ce soit à une explication du processus d'avancement des sciences. Ce mémoire tentera d'établir si cette critique de Kitcher est fondée. Dans cette optique, une analyse détaillée de l’approche de Hull sera nécessaire afin d’examiner comment il justifie le lien qu’il établit entre la pratique scientifique et un processus de sélection. Un contraste sera ensuite fait avec l’approche de Kitcher pour tester la force et la nécessité de ce lien et pour expliquer le désaccord de Kitcher. Cette analyse comparative permettra de préciser les avantages et les désavantages uniques à chacune des approches pour déterminer si une analyse sélectionniste est plus prometteuse qu’une analyse non-sélectionniste pour rendre compte du progrès scientifique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les données sur l'utilisation des médicaments sont généralement recueillies dans la recherche clinique. Pourtant, aucune méthode normalisée pour les catégoriser n’existe, que ce soit pour la description des échantillons ou pour l'étude de l'utilisation des médicaments comme une variable. Cette étude a été conçue pour développer un système de classification simple, sur une base empirique, pour la catégorisation d'utilisation des médicaments. Nous avons utilisé l'analyse factorielle pour réduire le nombre de groupements de médicaments possible. Cette analyse a fait émerger un modèle de constellations de consommation de médicaments qui semble caractériser des groupes cliniques spécifiques. Pour illustrer le potentiel de la technique, nous avons appliqué ce système de classification des échantillons où les troubles du sommeil sont importants: syndrome de fatigue chronique et l'apnée du sommeil. Notre méthode de classification a généré 5 facteurs qui semblent adhérer de façon logique. Ils ont été nommés: Médicaments cardiovasculaire/syndrome métabolique, Médicaments pour le soulagement des symptômes, Médicaments psychotropes, Médicaments préventifs et Médicaments hormonaux. Nos résultats démontrent que le profil des médicaments varie selon l'échantillon clinique. Le profil de médicament associé aux participants apnéiques reflète les conditions de comorbidité connues parmi ce groupe clinique, et le profil de médicament associé au Syndrome de fatigue chronique semble refléter la perception commune de cette condition comme étant un trouble psychogène