506 resultados para analyse sociotechnique
Resumo:
Le but de ce mémoire est d’effectuer une analyse détaillée de ce chapitre de la Critique de la raison pure de Kant à partir de l’idée qu’il présente les « résultats » de la démarche critique menée jusque-là concernant les limites de la connaissance. Le mémoire sera divisé en deux parties. Dans la première partie, nous montrerons que ce chapitre dresse un bilan provisoire et que pour cette raison il soulève deux enjeux : 1 – montrer que les concepts purs de l'entendement – en dépit de leur caractère a priori et de leur origine dans l'entendement pur – ne sont susceptibles d'un usage objectif qu'appliqués aux données de la sensibilité (A 246/B 303 : « L'Analytique transcendantale a donc cet important résultat... ») ; 2 – montrer que, à son tour, la sensibilité est elle-même limitée par l'entendement et qu'elle ne renferme pas la totalité des objets possibles (A 251 : « Tel a été le résultat de toute l'Esthétique transcendantale... »). Dans la seconde partie, nous analyserons les différences entre les deux éditions de la Critique de la raison pure concernant ce chapitre en insistant tout particulièrement sur la distinction faite dans la deuxième édition entre noumène au sens positif et noumène au sens négatif.
Resumo:
La voie de la polarité planaire cellulaire (PCP), aussi connue sous le nom de la voie non-canonique du Frizzled/Dishevelled, contrôle le processus morphogénétique de l'extension convergente (CE) qui est essentiel pour la gastrulation et la formation du tube neural pendant l'embryogenèse. La signalisation du PCP a été récemment associée avec des anomalies du tube neural (ATN) dans des modèles animaux et chez l'humain. Prickle1 est une protéine centrale de la voie PCP, exprimée dans la ligne primitive et le mésoderme pendant l'embryogenèse de la souris. La perte ou le gain de fonction de Prickle1 mène à des mouvements de CE fautifs chez le poisson zèbre et la grenouille. PRICKLE1 interagit directement avec deux autres membres de la voie PCP, Dishevelled et Strabismus/Vang. Dans notre étude, nous avons investigué le rôle de PRICKLE1 dans l'étiologie des ATN dans une cohorte de 810 patients par le re-séquençage de son cadre de lecture et des jonctions exon-intron. Le potentiel pathogénique des mutations ainsi identifiées a été évalué par des méthodes bioinformatiques, suivi par une validation fonctionnelle in vivo dans un système poisson zèbre. Nous avons identifié dans notre cohorte un total de 9 nouvelles mutations dont sept: p.Ile69Thr, p.Asn81His, p.Thr275Met, p.Arg682Cys et p.Ser739Phe, p.Val550Met et p.Asp771Asn qui affectent des acides aminés conservés. Ces mutations ont été prédites in silico d’affecter la fonction de la protéine et sont absentes dans une large cohorte de contrôles de même origine ethnique. La co-injection de ces variantes avec le gène prickle1a de type sauvage chez l’embryon de poisson zèbre a démontré qu’une mutation, p.Arg682Cys, modifie dans un sens négatif le phénotype du défaut de la CE produit par pk1 de type sauvage. Notre étude démontre que PK1 peut agir comme facteur prédisposant pour les ATN chez l’humain et élargit encore plus nos connaissances sur le rôle des gènes de la PCP dans la pathogenèse de ces malformations.
Resumo:
Cette étude aborde le thème de l’utilisation des modèles de mélange de lois pour analyser des données de comportements et d’habiletés cognitives mesurées à plusieurs moments au cours du développement des enfants. L’estimation des mélanges de lois multinormales en utilisant l’algorithme EM est expliquée en détail. Cet algorithme simplifie beaucoup les calculs, car il permet d’estimer les paramètres de chaque groupe séparément, permettant ainsi de modéliser plus facilement la covariance des observations à travers le temps. Ce dernier point est souvent mis de côté dans les analyses de mélanges. Cette étude porte sur les conséquences d’une mauvaise spécification de la covariance sur l’estimation du nombre de groupes formant un mélange. La conséquence principale est la surestimation du nombre de groupes, c’est-à-dire qu’on estime des groupes qui n’existent pas. En particulier, l’hypothèse d’indépendance des observations à travers le temps lorsque ces dernières étaient corrélées résultait en l’estimation de plusieurs groupes qui n’existaient pas. Cette surestimation du nombre de groupes entraîne aussi une surparamétrisation, c’est-à-dire qu’on utilise plus de paramètres qu’il n’est nécessaire pour modéliser les données. Finalement, des modèles de mélanges ont été estimés sur des données de comportements et d’habiletés cognitives. Nous avons estimé les mélanges en supposant d’abord une structure de covariance puis l’indépendance. On se rend compte que dans la plupart des cas l’ajout d’une structure de covariance a pour conséquence d’estimer moins de groupes et les résultats sont plus simples et plus clairs à interpréter.
Resumo:
Les travaux traditionnels sur le crime organisé indiquent que le statut d’un individu déterminerait son succès individuel. Des recherches alternatives sur les réseaux des organisations criminelles et de la réussite criminelle indiquent que le rang est moins important que la croyance générale et que les mesures de positionnement stratégique de réseau sont plus susceptibles de déterminer le succès criminel. Ce mémoire étudie les variations des gains criminels au sein de l’organisation de distribution illicite de stupéfiants des Hells Angels. Son objectif est de distinguer, à l’aide de données de comptabilité autorévélées, les éléments influençant ces différences dans le succès criminel en fonction du positionnement plus stratégique ou vulnérable d’un individu au sein de son réseau. Les résultats révèlent des moyennes de volume d’argent transigé beaucoup plus élevées que ce qui est généralement recensé. La distribution de ces capitaux est largement inégale. La disparité des chances liées à l’association criminelle se retrouve aussi dans la polarisation entre les individus fortement privilégiés et les autres qui ont une capacité de positionnement médiocre. Le croisement entre les positions et l’inégalité des gains présente que le positionnement de l’individu dans son réseau est un meilleur prédicteur de réussite criminelle que toute autre variable contextuelle ou de rang. Enfin et surtout, en contradiction avec la littérature, le fait d’atteindre de haut rang hiérarchique nuirait au succès criminel, les résultats montrant que cet état réduit l’accès au crédit, réduit les quantités de drogue par transaction et augmente le prix de la drogue à l’unité.
Resumo:
L’agent régulateur des temps sociaux de la famille québécoise a été la religion catholique pendant des décennies. Les mouvements d’après-guerre et la Révolution tranquille, ont amené un changement de paradigme avec la laïcisation des institutions et la multiplication des programmes sociaux de l’État-providence. Pour cerner l’importance de ce changement, nous avons utilisé la clef analytique de Léon Gérin pour produire une analyse comparative entre deux familles à deux époques : en 1886 et en 2010. Or, au moment où l’État est de plus en plus présent dans toutes les sphères de la vie de la famille tout en leur laissant une autonomie et une liberté, la population se montre de plus en plus sceptique envers les institutions étatiques. Un fossé s’est créé entre la société officielle, celle du social, des institutions, et la société officieuse, celle de la culture populaire qui agit à partir de l’esprit de corps de son groupe, virtuel ou non. La crise de confiance des gens envers les institutions annonce un nouveau changement de paradigme. La rationalité qui a été le moteur de la modernité fait graduellement place à l’émotionnel et à la valeur du temps présent. Le travail, agent régulateur qui comblait les besoins matériels à la modernité, serait remplacé progressivement par des besoins immatériels devenant l’agent régulateur des temps sociaux de la famille.
Resumo:
L’équilibre économique mondial repose sur une asymétrie structurelle dont les pôles antagonistes principaux sont les États-Unis et l’Asie orientale. À la base de cet axe de tension géographique se trouve la question de la représentation mondiale de la richesse. La domination du dollar permet aux États-Unis un accès disproportionné aux ressources planétaires. Les pays créanciers, dont fait partie la Chine, hésitent à laisser flotter leur monnaie et attaquer l’hégémonie du dollar. Entre temps, les déséquilibres s’intensifient, tout comme les tensions politiques, par l’effet de ce système monétaire qui participe au maintien d’un monde unipolaire. Le système monétaire actuel n’offre aucune perspective endogène quant à la résolution des déséquilibres que son équilibre requiert. Ce mémoire cherche à identifier les stratégies géoéconomiques de la Chine pour se soustraire de l’emprise du dollar.
Resumo:
But : La radiothérapie (RT) est disponible seulement dans les grandes villes au Québec. Les patients atteints de cancer vivant en zone rurale doivent voyager pour obtenir ces soins. Toute proportion gardée, moins de ces patients accèdent à la RT. L’accessibilité serait améliorée en instaurant de petits centres de RT qui dépendraient de la télémédecine (téléRT). Cette étude tente (1) de décrire un modèle (population visée et technologie) réaliste de téléRT; (2) d’en estimer les coûts, comparativement à la situation actuelle où les patients voyagent (itineRT). Méthode : (1) À l’aide de données probantes, le modèle de téléRT a été développé selon des critères de : faisabilité, sécurité, absence de transfert des patients et minimisation du personnel. (2) Les coûts ont été estimés du point de vue du payeur unique en utilisant une méthode publiée qui tient compte des coûts en capitaux, de la main d’oeuvre et des frais généraux. Résultats : (1) Le modèle de téléRT proposé se limiterait aux traitements palliatifs à 250 patients par année. (2) Les coûts sont de 5918$/patient (95% I.C. 4985 à 7095$) pour téléRT comparativement à 4541$/patient (95%I.C. 4351 à 4739$) pour itineRT. Les coûts annuels de téléRT sont de 1,48 M$ (d.s. 0,6 M$), avec une augmentation des coûts nets de seulement 0,54 M$ (d.s. 0,26 M$) comparativement à itineRT. Si on modifiait certaines conditions, le service de téléRT pourrait s’étendre au traitement curatif du cancer de prostate et du sein, à coûts similaires à itineRT. Conclusion : Ce modèle de téléRT pourrait améliorer l’accessibilité et l’équité aux soins, à des coûts modestes.
Resumo:
De nombreuses études concluent que la charge mécanique supportée par le genou, qu’elle soit reliée à l’obésité, aux sports intenses, à une altération biomécanique des structures de l’articulation ou à une exposition à des charges lourdes durant les activités occupationnelles, est considérée comme un facteur de risque important au développement de la gonarthrose. La gonarthrose reliée au travail a été le sujet de nombreuses études et plusieurs d’entre elles ont rapporté une prévalence accrue de la gonarthrose chez les travailleurs de certains domaines en particulier, comme la construction, la pose de plancher, la peinture, l’exploitation minière, l’agriculture et le travail en atelier et en milieu de la santé. Les personnes qui travaillent dans ces métiers sont exposées à des positions ou des activités nuisibles, comme travailler à genoux ou accroupi, monter des escaliers ou des échelles, transporter des changes lourdes et marcher de façon prolongée. Ces gestes surchargent l’articulation du genou, ce qui cause des modifications aux structures de l’articulation du genou ou aux adaptations neuromusculaires de patron de mouvement du genou. Ces modifications structurelles et adaptations neuromusculaires peuvent apporter des changements cinématiques à la marche qui peuvent initier la gonarthrose ou contribuer à sa progression. L’objectif principal de la présente étude était d’analyser l’effet d’une surcharge mécanique sur l’articulation fémoro-tibiale (AF-T) subie au travail lors d’une tâche de marche et comparer le patron cinématique de l’articulation fémoro-tibiale des travailleurs exposés à une surcharge mécanique à celui des travailleurs non exposés. Vingt-quatre travailleurs exposés à une surcharge mécanique et neuf travailleurs non exposés ont participé à l’étude. Les données cinématiques de la marche ont été enregistrées au niveau du genou dans des conditions cliniques en utilisant un système de suivi du mouvement électromagnétique. Les paramètres suivant ont été extraits et utilisés pour la comparaison des groupes : l’angle maximum lors du contact initial, l’angle ii maximum de flexion durant la réponse à la charge, l’angle minimum au moment de l’appui unipodal et l’étendue max-min du cycle. La comparaison des groupes pour les variables cliniques et cinématiques a été effectué par l’utilisation de tests-t bilatéraux (« Student-t tests ») et de tests ANCOVA utilisant le poids et la vitesse comme covariables. Les travailleurs exposés à une surcharge mécanique présentaient un plus grand angle de flexion de l’articulation fémoro-tibiale au contact initial, durant la réponse au chargement et à la phase unipodale et ils ont démontré une étendue d’angle moindre que les travailleurs non exposés. Nous croyons que les données cinématiques de la marche peuvent donner des idées sur les facteurs biomécaniques qui pourraient prédisposer les travailleurs au développement ou à la progression de la gonarthrose. Une meilleure compréhension de ces facteurs pourrait être un premier pas vers le développement d’une intervention plus efficace pour cette population.
Resumo:
Ce mémoire propose une conception naturaliste et normative de l'axiologie scientifique contemporaine, c'est-à-dire des buts de la science et des scientifiques. Nous commençons par présenter le naturalisme en philosophie des sciences, en particulier ses dimensions scientifique, méthodologique et ontologique. Nous discutons le sophisme naturaliste et l'objection de la normativité souvent adressée aux approches naturalistes, principalement à travers le prisme de l'épistémologie naturalisée de Quine (1969). Nous illustrons ensuite ces thèmes - naturalisme, normativité, et axiologie scientifique - au moyen de la théorie de Laudan (1987), qui articule un début de théorie axiologique de la science qui se veut naturaliste et normative. Nous soulignons le caractère insatisfaisant de sa théorie, et proposons une conception plus riche et plus détaillée de l'axiologie scientifique. Nous analysons pour ce faire différents liens entre la science, l'industrie, le gouvernement et la société. Nous dégageons en particulier une tendance axiologique pragmatique de la science contemporaine. Finalement, nous ébauchons un cadre normatif instrumental inspiré de Laudan (1987)pour réfléchir sur l'axiologie scientifique.
Resumo:
Contexte et objectifs. Depuis plusieurs années, la criminalité économique génère des coûts économiques et sociaux importants. Plusieurs acteurs, dont les entreprises privées, se sont mobilisés pour lutter contre ce phénomène. La fraude par carte de débit est un crime économique en expansion contre lequel plusieurs organisations ont entrepris des actions. L’objectif de ce mémoire est d’améliorer les connaissances sur les effets des mesures de prévention situationnelle appliquées dans les succursales d’un commerce de détail et leur impact sur le processus décisionnel des délinquants impliquées dans le clonage de cartes de débit. Méthodologie. Les effets des mesures de prévention mises en place sont évalués à l’aide d’analyses de séries chronologiques interrompues. En complément des analyses statistiques, des entrevues et une analyse documentaire sont effectuées. Les entrevues sont réalisées avec des enquêteurs du service de sécurité de l’entreprise de commerce de détail. L’analyse documentaire est basée sur les rapports d’événement ouverts lors des fraudes par carte de débit. Résultats. Les mesures de prévention ont produit différents effets. Selon la mesure, il fut possible de constater soit une hausse ou une baisse dans le nombre de délits commis. Certaines mesures ont, en outre, provoqué un déplacement spatial, un déplacement dans le choix de la cible, un déplacement dans le type de crime commis et, finalement, un déplacement tactique. Conclusion. Les résultats suggèrent que les mesures de prévention adoptées ont empêché la réalisation des délits associés à la fraude par carte de débit. Par contre, la présence de plusieurs formes de déplacement indique que les fraudeurs se sont adaptés aux mesures de prévention. Afin de documenter adéquatement cette forme de crime et les déplacements générés, d’autres études s’avèrent nécessaires.
Resumo:
Ce mémoire propose une analyse sémio-narrative d’un corpus de dix-neuf contes merveilleux recueillis auprès des conteurs canadiens-français et canadiens-hurons par l’anthropologue Charles-Marius Barbeau, au début du XXe siècle. Après avoir passé en revue les principales théories dans l’approche sémiotique du conte à partir de Vladimir Propp jusqu’à nos jours, nous avons procédé à une étude narrative du corpus selon la méthode du grand folkloriste russe : cela nous a permis d’en montrer la valeur exceptionnelle mais aussi les limites. Nous avons constaté ainsi que le travail sur un corpus inédit peut mener à l’identification de nouveaux éléments dans la structure du conte merveilleux. En poursuivant nos recherches sur les dix-neuf contes recueillis par Barbeau, nous sommes passée du schéma linéaire, syntagmatique de Propp aux modèles logiques de ses continuateurs, particulièrement celui élaboré par Guy Laflèche. Nos analyses ont mis en évidence non seulement le fait que la structure en miroir est un modèle valide auquel une partie des contes merveilleux se plie parfaitement (d’emblée l’exclusivité du schéma de Propp est mise en question, sinon infirmée), mais aussi que tout conte merveilleux est exceptionnellement organisé, structuré (ce qui confirme la théorie de Claude Bremond conformément à laquelle le récit narratif est une alternance de dégradations et d’améliorations). Enfin, la dernière partie du mémoire est une analyse sémio-discursive de notre corpus qui, au lieu d’être une simple accumulation de listes de mots, d’expressions et de figures, tente d’aborder la structure idéologique, grâce à une étude en parallèle d’un conte du corpus et de deux versions littéraires.
Resumo:
Cette étude examine comment différents textes du XVIIIe siècle traitent du roman. L’hypothèse est la suivante : le genre choisi pour parler du roman participe de manière intrinsèque à la critique ou à l’apologie véhiculée dans l’œuvre. Le corpus est composé de quatre textes plus ou moins (re)connus par les historiens de la littérature narrative : De l’Usage des romans (1734) de Lenglet-Dufresnoy, le Voyage merveilleux du Prince Fan-Férédin dans la Romancie (1735) du père Bougeant, De Libris qui vulgò dicuntur Romanenses (1736) du père Porée et les Entretiens sur les romans (1755) du père Jacquin. À l’aide d’une méthode hybride d’analyse générique et d’analyse rhétorique du discours, cette étude s’intéresse aux genres employés par les auteurs du corpus (le traité, le roman, le discours académique et l’entretien) de même qu’à trois thématiques argumentatives reliées au roman (le poison, l’amour et la femme).
Resumo:
Objectif. Analyse qualitative exploratoire du contenu alimentaire et nutritionnel de blogues tenus par des mères québécoises afin d’établir l’importance relative des événements et expériences de vie, des sources d’influence et des systèmes alimentaires personnels des blogueuses sur leurs choix alimentaires. Méthodes. Analyse de contenu effectué à l’aide du modèle conceptuel de Sobal et Bisogni. Le logiciel NVivo fut utilisé afin de codifier toutes les mentions relatives à l’alimentation, la nutrition et les choix alimentaires dans les quatre blogues de mères retenus. Résultats. Les quatre catégories principales du modèle de Sobal et Bisogni se retrouvent dans les blogues. La catégorie influences est celle qui obtient le plus de mentions, sauf pour le blogue tenu par une nutritionniste où les mentions sont réparties également entre influences et système alimentaire personnel. Plusieurs sources d’information en nutrition sont mentionnées, autant de sources formelles qu’informelles. Conclusion. L’analyse des blogues nous permet d’avoir accès à de l’information générée de façon spontanée par les mères et remet en question l’efficacité des messages nutritionnels émanant des professionnels de la santé. Comme les choix alimentaires des mères affectent de façon importante le développement des comportements alimentaires de leurs enfants, il est du rôle des nutritionnistes et autres professionnels de mieux définir leurs messages afin que ceux-ci soient davantage compris et adoptés.
Resumo:
Réalisé en cotutelle avec l'Université Montpellier II
Resumo:
Contexte : La fibrillation auriculaire est commune chez les insuffisants cardiaques. L’efficacité des stratégies de contrôle de la fréquence et du rythme s’équivalent. Nous avons comparé l’impact économique des deux stratégies de traitement chez les patients avec fibrillation auriculaire et insuffisance cardiaque. Méthode : Dans cette sous-étude de l’essai Atrial Fibrillation and Congestive Heart Failure, la consommation de soins de santé des patients Québécois ainsi que leurs coûts ont été quantifiés grâce aux banques de données de la Régie de l’assurance-maladie du Québec et de l’Ontario Case Costing Initiative. Résultats : Trois cent quatre patients ont été inclus, âgés de 68±9 ans, fraction d’éjection de 26±6%. Les caractéristiques de base étaient bien réparties entre le contrôle du rythme (N=149) et de la fréquence (N=155). Les patients soumis au contrôle de la fréquence ont eu moins de procédures cardiovasculaires (146 versus 238, P<0.001) en raison du plus faible nombre de cardioversions et de moindres coûts reliés aux antiarythmiques (48 $±203 versus 1319 $±1058 par patient, P<0.001). Ces différences ont été compensées par un surplus de dépenses dues aux hospitalisations non-cardiovasculaires, aux dispositifs cardiaques implantables et aux médicaments non-cardiovasculaires dans le groupe du contrôle de la fréquence. Au total, les coûts par patient avec les stratégies du contrôle de la fréquence et du rythme s’élèvent à 78 767 $±79 568 et 72 764 $±72 800 (P=0.49). Interprétation : Chez les patients avec fibrillation auriculaire et insuffisance cardiaque, le contrôle de la fréquence est associé avec moins de procédures cardiovasculaires et une pharmacothérapie cardiovasculaire moins coûteuse. Toutefois, les coûts associés aux arythmies représentent moins de la moitié des dépenses de santé et le total des coûts s’équilibre entre les 2 stratégies.