250 resultados para Erreur systématique
Resumo:
Contexte: Bien que plusieurs algorithmes pharmacogénétiques de prédiction de doses de warfarine aient été publiés, peu d’études ont comparé la validité de ces algorithmes en pratique clinique réelle. Objectif: Évaluer trois algorithmes pharmacogénomiques dans une population de patients qui initient un traitement à la warfarine et qui souffrent de fibrillation auriculaire ou de problèmes de valves cardiaques. Analyser la performance des algorithmes de Gage et al., de Michaud et al. ainsi que de l’IWPC quant à la prédiction de la dose de warfarine permettant d’atteindre l’INR thérapeutique. Méthodes: Un devis de cohorte rétrospectif fut utilisé afin d’évaluer la validité des algorithmes chez 605 patients ayant débuté une thérapie de warfarine à l’Institut de Cardiologie de Montréal. Le coefficient de corrélation de Pearson ainsi que l’erreur absolue moyenne ont été utilisés pour évaluer la précision des algorithmes. L’exactitude clinique des prédictions de doses fut évaluée en calculant le nombre de patients pour qui la dose prédite était sous-estimée, idéalement estimée ou surestimée. Enfin, la régression linéaire multiple a été utilisée pour évaluer la validité d’un modèle de prédiction de doses de warfarine obtenu en ajoutant de nouvelles covariables. Résultats : L’algorithme de Gage a obtenu la proportion de variation expliquée la plus élevée (R2 ajusté = 44 %) ainsi que la plus faible erreur absolue moyenne (MAE = 1.41 ± 0.06). De plus, la comparaison des proportions de patients ayant une dose prédite à moins de 20 % de la dose observée a confirmé que l’algorithme de Gage était également le plus performant. Conclusion : Le modèle publié par Gage en 2008 est l’algorithme pharmacogénétique le plus exact dans notre population pour prédire des doses thérapeutiques de warfarine.
Resumo:
Cette recherche vise à décrire 1) les erreurs lexicales commises en production écrite par des élèves francophones de 3e secondaire et 2) le rapport à l’erreur lexicale d’enseignants de français (conception de l’erreur lexicale, pratiques d’évaluation du vocabulaire en production écrite, modes de rétroaction aux erreurs lexicales). Le premier volet de la recherche consiste en une analyse d’erreurs à trois niveaux : 1) une description linguistique des erreurs à l’aide d’une typologie, 2) une évaluation de la gravité des erreurs et 3) une explication de leurs sources possibles. Le corpus analysé est constitué de 300 textes rédigés en classe de français par des élèves de 3e secondaire. L’analyse a révélé 1144 erreurs lexicales. Les plus fréquentes sont les problèmes sémantiques (30%), les erreurs liées aux propriétés morphosyntaxiques des unités lexicales (21%) et l’utilisation de termes familiers (17%). Cette répartition démontre que la moitié des erreurs lexicales sont attribuables à une méconnaissance de propriétés des mots autres que le sens et la forme. L’évaluation de la gravité des erreurs repose sur trois critères : leur acceptation linguistique selon les dictionnaires, leur impact sur la compréhension et leur degré d’intégration à l’usage. Les problèmes liés aux registres de langue sont généralement ceux qui sont considérés comme les moins graves et les erreurs sémantiques représentent la quasi-totalité des erreurs graves. Le troisième axe d’analyse concerne la source des erreurs et fait ressortir trois sources principales : l’influence de la langue orale, la proximité sémantique et la parenté formelle entre le mot utilisé et celui visé. Le second volet de la thèse concerne le rapport des enseignants de français à l’erreur lexicale et repose sur l’analyse de 224 rédactions corrigées ainsi que sur une série de huit entrevues menées avec des enseignants de 3e secondaire. Lors de la correction, les enseignants relèvent surtout les erreurs orthographiques ainsi que celles relevant des propriétés morphosyntaxiques des mots (genre, invariabilité, régime), qu’ils classent parmi les erreurs de grammaire. Les erreurs plus purement lexicales, c’est-à-dire les erreurs sémantiques, l’emploi de termes familiers et les erreurs de collocation, demeurent peu relevées, et les annotations des enseignants concernant ces types d’erreurs sont vagues et peu systématiques, donnant peu de pistes aux élèves pour la correction. L’évaluation du vocabulaire en production écrite est toujours soumise à une appréciation qualitative, qui repose sur l’impression générale des enseignants plutôt que sur des critères précis, le seul indicateur clair étant la répétition. Les explications des enseignants concernant les erreurs lexicales reposent beaucoup sur l’intuition, ce qui témoigne de certaines lacunes dans leur formation en lien avec le vocabulaire. Les enseignants admettent enseigner très peu le vocabulaire en classe au secondaire et expliquent ce choix par le manque de temps et d’outils adéquats. L’enseignement du vocabulaire est toujours subordonné à des tâches d’écriture ou de lecture et vise davantage l’acquisition de mots précis que le développement d’une réelle compétence lexicale.
Resumo:
Problématique : Les femmes travailleuses du sexe (TS) constituent la population le plus à risque d’infection au VIH dans différents pays d’Afrique subsaharienne. Plusieurs interventions y ont ainsi été menées pour réduire le risque d’infection en influant sur les facteurs de risque. Parmi ces interventions, on peut citer la promotion de l’utilisation du préservatif de même que le dépistage et le traitement des infections sexuellement transmissibles (IST). Cependant, certaines composantes sont peu représentées dans ce panel d’interventions offertes aux femmes TS. Le conseil dépistage volontaire pourrait s’avérer une intervention utile de prévention primaire et secondaire pour cette population mais son acceptabilité est mal connue. Par ailleurs, en termes de surveillance de l’épidémie, l’évaluation de la validité de l’auto-rapport d’utilisation du préservatif, indicateur fréquemment utilisé lors d’enquêtes populationnelles serait souhaitable. Enfin, pour ce qui est de la prévention de l’infection dans cette population, l’effet du désir d’enfant sur l’utilisation non systématique du condom avec le principal partenaire régulier non payant est peu connu. Il en est de même pour la prévalence de certaines IST comme le VPH-16 et l’effet combiné de facteurs sociodémographiques, comportementaux et préventifs sur la présence de ces IST. Objectifs : Les objectifs de cette thèse sont 1) de mesurer l’acceptabilité et les conséquences du conseil dépistage volontaire du VIH chez les femmes TS de Conakry en Guinée; 2) d’évaluer la validité de l’auto-rapport de l’utilisation du préservatif dans cette population grâce à un indicateur biologique de présence de sperme, l’antigène spécifique de la prostate (PSA); 3) d’estimer la fréquence d’utilisation systématique du préservatif avec les partenaires clients et non-clients des femmes TS et d’étudier l’importance du désir d’enfant dans l’utilisation non systématique du préservatif avec le principal partenaire régulier non-client et 4) de mesurer la prévalence des IST et du VIH et d’étudier les facteurs sociodémographiques, comportementaux et préventifs qui y sont associés. Méthodologie : Nous avons mené une étude longitudinale dans la ville de Conakry en Guinée auprès de 421 femmes TS recrutées dans trois services de santé adaptés pour elles. Un devis mixte répété un an plus tard a permis de collecter des données quantitatives et qualitatives. Des analyses biologiques de dépistage des IST et du VIH ont été effectuées. Résultats : Le premier article de résultats présenté dans cette thèse montre que l’acceptabilité du conseil dépistage volontaire est élevée chez les femmes TS. En effet, les taux d’acceptation du test, de retour pour la prise de résultats et de notification du statut sérologique avoisinaient les 100%. Cette acceptabilité semblait être le fait d’une perception de risque d’infection élevé, mais aussi d’une pression sociale du milieu prostitutionnel pour effectuer le dépistage et révéler le statut sérologique. Les conséquences négatives au dépistage étaient rares. Le deuxième article montre que l’auto-rapport de l’usage récent du préservatif a une très faible sensibilité lorsque comparé à l’étalon d’or que constitue la PSA. Ainsi, la plupart des personnes chez qui la PSA était retrouvée ne rapportaient aucun rapport non protégé récent. La discordance entre l’auto-rapport d’utilisation récente du préservatif et la présence de PSA était associée à une perception de risque d’infection au VIH élevé. Enfin, la troisième section montre que si l’utilisation systématique du préservatif était très fréquente avec les clients, elle l’est beaucoup moins avec le principal partenaire régulier non-client. Le désir d’enfant de la femme TS contribue de manière significative à l’utilisation non systématique du condom avec ce type de partenaire. Des facteurs sociodémographiques, comportementaux et la coinfection par d’autres IST sont associés à la présence d’IST/VIH, ces dernières étant fréquentes dans la population des femmes TS malgré les nombreuses interventions qui y sont menées. Conclusion : En conclusion, l’on peut dire que la prévention du VIH chez les femmes TS constitue un défi nécessitant des interventions intégrées tenant compte du contexte commercial dans lequel ces interventions sont implantées et des aspirations des femmes TS en matière de reproduction.
Resumo:
Contexte : Les premières implantations PACS (Picture Archiving and Communication System) remontent aux années 80. Le rehaussement récent du PACS au sein d’un centre hospitalier universitaire a permis d’étudier l’introduction d’innovations dans une technologie mature. Objectif : Dans un premier temps, effectuer une revue de la littérature sur les études évaluant la perceptions des utilisateurs de l’implantation des PACS. Deuxièmement, évaluer dans une étude de cas si le niveau d’alignement entre les tâches et la technologie prédit l’utilisation et la perception des bénéfices. Méthodes : Il y a eu une revue systématique de la littérature afin d’identifier les études sur la perception des utilisateurs du PACS. Une adaptation du modèle TTF (Task-Technology-Fit) développé par Goodhue (1995) a servi de base théorique pour l’étude de cas effectuée par questionnaire auto-administré. Résultats : Les modèles recensés dans la revue systématique sont mieux adaptés à des nouvelles implantions PACS qu’à des systèmes matures en évolution. Il y a une corrélation significative entre le niveau de l’alignement, tel que perçu par les utilisateurs, et la perception des bénéfices nets, ainsi que l’utilisation de la technologie. L’étude a démontré un écart entre la perception des utilisateurs et celle des développeurs interviewés. Conclusions : Cette étude supporte la validité du concept alignement tâche-technologie dans l’analyse d’un rehaussement PACS. Il est important de maintenir une interaction soutenue entre développeurs et utilisateurs, qui va audelà de la phase initiale de développement.
Resumo:
L’effet d’encombrement, qui nous empêche d’identifier correctement un stimulus visuel lorsqu’il est entouré de flanqueurs, est omniprésent à travers une grande variété de classes de stimuli. L’excentricité du stimulus cible ainsi que la distance cible-flanqueur constituent des facteurs fondamentaux qui modulent l’effet d’encombrement. La similarité cible-flanqueur semble également contribuer à l’ampleur de l’effet d’encombrement, selon des données obtenues avec des stimuli non-linguistiques. La présente étude a examiné ces trois facteurs en conjonction avec le contenu en fréquences spatiales des stimuli, dans une tâche d’identification de lettres. Nous avons présenté des images filtrées de lettres à des sujets non-dyslexiques exempts de troubles neurologiques, tout en manipulant l’excentricité de la cible ainsi que la similarité cible-flanqueurs (selon des matrices de confusion pré-établies). Quatre types de filtrage de fréquences spatiales ont été utilisés : passe-bas, passe-haut, à large bande et mixte (i.e. élimination des fréquences moyennes, connues comme étant optimales pour l’identification de lettres). Ces conditions étaient appariées en termes d’énergie de contraste. Les sujets devaient identifier la lettre cible le plus rapidement possible en évitant de commettre une erreur. Les résultats démontrent que la similarité cible-flanqueur amplifie l’effet d’encombrement, i.e. l’effet conjoint de distance et d’excentricité. Ceci étend les connaissances sur l’impact de la similarité sur l’encombrement à l’identification visuelle de stimuli linguistiques. De plus, la magnitude de l’effet d’encombrement est plus grande avec le filtre passe-bas, suivit du filtre mixte, du filtre passe-haut et du filtre à large bande, avec différences significatives entre les conditions consécutives. Nous concluons que : 1- les fréquences spatiales moyennes offrent une protection optimale contre l’encombrement en identification de lettres; 2- lorsque les fréquences spatiales moyennes sont absentes du stimulus, les hautes fréquences protègent contre l’encombrement alors que les basses fréquences l’amplifient, probablement par l’entremise de leur impact opposé quant la disponibilité de l’information sur les caractéristiques distinctives des stimul.
Resumo:
Dans ce mémoire nous allons présenter une méthode de diffusion d’erreur originale qui peut reconstruire des images en demi-ton qui plaisent à l’œil. Cette méthode préserve des détails fins et des structures visuellement identifiables présentes dans l’image originale. Nous allons tout d’abord présenter et analyser quelques travaux précédents afin de montrer certains problèmes principaux du rendu en demi-ton, et nous allons expliquer pourquoi nous avons décidé d’utiliser un algorithme de diffusion d’erreur pour résoudre ces problèmes. Puis nous allons présenter la méthode proposée qui est conceptuellement simple et efficace. L’image originale est analysée, et son contenu fréquentiel est détecté. Les composantes principales du contenu fréquentiel (la fréquence, l’orientation et le contraste) sont utilisées comme des indices dans un tableau de recherche afin de modifier la méthode de diffusion d’erreur standard. Le tableau de recherche est établi dans un étape de pré-calcul et la modification est composée par la modulation de seuil et la variation des coefficients de diffusion. Ensuite le système en entier est calibré de façon à ce que ces images reconstruites soient visuellement proches d’images originales (des aplats d’intensité constante, des aplats contenant des ondes sinusoïdales avec des fréquences, des orientations et des constrastes différents). Finalement nous allons comparer et analyser des résultats obtenus par la méthode proposée et des travaux précédents, et démontrer que la méthode proposée est capable de reconstruire des images en demi-ton de haute qualité (qui préservent des structures) avec un traitement de temps très faible.
Resumo:
Cette thèse tente de réfléchir sur l’écriture de Boubacar Boris Diop. Les romans de cet écrivain doivent une grande part de leur originalité à la présence obsédante des discours de la mémoire et de l’histoire. Son esthétique s’inscrit dans une revisitation permanente des récits de l'historiographie. Cette écriture convoque le passé et l'investit comme matériau dans cette exploration des formes du roman. Une telle démarche scripturale semble être la pierre angulaire de cette fiction aux confluences desquelles se rencontrent et s'intègrent systématiquement, aussi bien les genres romanesques hétérogènes de l'oralité (contes, épopées, mythes...), que des disciplines non romanesques. Cette stratégie de construction romanesque traduit, au-delà d'une simple exploration formelle et innovatrice des possibles du roman, une esthétique de distanciation et d'hétérogénéité qui traverse en filigrane l'œuvre de Boubacar Boris Diop. Cette forme d’écriture singularise son esthétique et constitue une rupture épistémologique dans le champ littéraire africain, qui a été souvent caractérisé par des récits linéaires classiques. L’usage de ces discours de l’histoire et de la mémoire, dans l’esthétique romanesque de Boubacar Boris Diop, s’articule d’abord dans une démarche de renouvellement des habitudes dans le champ littéraire africain, et ouvre aussi cette «phase autoréférentielle» (Sob, 2007 : 8) du roman en inscrivant son discours dans la modernité. Ensuite, cette pratique scripturale se construit sur l’élaboration d’un style romanesque particulier, se déployant dans une mise en scène et une parodisation permanentes du fonctionnement et des modalités de l’écriture. Sur fond d’une déconstruction perpétuelle des procédés de composition romanesque, se dessinent les contours d’une esthétique qui promeut et institue l’ambivalence généralisée comme le mode principal de son déploiement. Une telle pratique intertextuelle permet à l’écriture romanesque de se construire en confrontant les discours officiels de l’historiographie en général et l’histoire africaine contemporaine en particulier. En légitimant la déconstruction systématique comme dispositif de la composition romanesque, l’écriture se place dans une dynamique de «soupçon» qui sous-tend l’esthétique romanesque de Boubacar Boris Diop. La présente étude a le dessein de répertorier et d'analyser d'abord l'intégration des discours de l'histoire et de la mémoire, dans leurs manifestations et configurations dans l'œuvre de Diop, et ensuite, d'étudier leurs modalités d'insertion et d'utilisation dans l’élaboration de la fiction. Il s'agira, dans un cadre intertextuel, de voir comment ces discours sont investis et retravaillés par la fiction et, au-delà, d’essayer de repérer les motifs et les modalités discursives qui gouvernent leur usage. Une telle approche nous permettra d’appréhender les dimensions significatives de cette démarche scripturale et de voir éventuellement, s’il existe une poétique de la mémoire chez Boubacar Boris Diop. Les différentes théories sur la fiction, la mémoire et le discours historiographique nous serviront de charpente théorique qui sous-tendra notre thèse.
Resumo:
L’état actuel des travaux ne rend pas compte de l’ampleur des questions philosophiques et des enjeux moraux suscités par l’apparition sur la scène internationale des réfugiés climatiques. Il est pourtant urgent de leur accorder une protection à travers des accords internationaux. Les philosophes qui se sont penchés sur le sujet ont été induits en erreur tant par la multiplicité des termes employés que leur absence de définitions. Ce travail critique la tendance actuelle des militants écologistes à vouloir englober des populations aux problèmes divers sous le terme de réfugié. Banaliser l’emploi du terme de réfugié n’est pas seulement fallacieux mais également dangereux. A terme, les militants se tourneront vers la Convention de Genève pour revendiquer que les populations déplacées soient considérées comme des réfugiés. Or la Convention de Genève n’est pas un outil adéquat pour remédier au sort de ces populations. De plus, on ne peut élargir le statut de réfugié pour inclure ces populations sans risquer de perdre sa crédibilité et son efficience. Suivre la pente qu’emprunte les militants nous mènerait à accorder le même traitement aux réfugiés climatiques et aux réfugiés politiques, ce qui est une erreur. Notre hypothèse est que les habitants des petits pays insulaires à l’inverse des autres populations ont besoin d’un élargissement de la Convention de Genève. Nous arguerons que nous avons des devoirs et des responsabilités envers eux que nous n’avons pas envers les réfugiés politiques. Pour défendre ce point de vue, il faut définir clairement ce qu’est un réfugié climatique et justifier cette appellation. Nous devrons donc confronter la notion de réfugié climatique à d’autres notions concurrentes. Une fois les termes définis, nous envisagerons les enjeux éthiques à travers le prisme des questions de justice globale. Nous verrons que pour déterminer qui devrait remédier au sort des réfugiés climatique, il ne suffit pas de se référer à la responsabilité causale. Cela nous mènera à arguer que bien que séduisant, le principe pollueur-payeur n’est pas un outil adéquat pour guider la réflexion. Nous serons également amenés à nous interroger sur la pertinence d’une institution environnementale globale.
Resumo:
Malgré des années de recherches sur la douleur et les incapacités chroniques, peu de conclusions claires émergent quant aux facteurs de risque les plus pertinents. La majorité des auteurs s’entendent toutefois sur un fait, les troubles musculo-squelettiques et l’adaptation à leurs nombreuses conséquences est un processus complexe, multidimensionnel et déterminé par l’interaction de facteurs biopsychosociaux. Deux articles sont présentés avec comme objectifs généraux d’identifier les déterminants importants de l’ajustement à un trouble musculo-squelettique. Le premier article consiste en une recension des écrits systématique visant à résumer tous les facteurs pronostiques biopsychosociaux de l’ajustement multidimensionnel aux troubles musculo-squelettiques et examinant leur pertinence à déterminer ces divers indicateurs d’ajustement, principalement la participation au travail, les limitations fonctionnelles, la douleur, la qualité de la vie, la détresse psychologique et la rechute. Les 105 études prospectives recensées et correspondant aux critères d’inclusion et d’exclusion ont été analysés et chaque association significative a été résumée. Par la suite, 68 études qui ont inclus des facteurs sociodémographiques, biologiques, psychologiques et sociaux ont été analysées séparément. Leur qualité méthodologique a été évaluée, un niveau d’évidence a par la suite été établi pour chaque association entre les facteurs de risque et les diverses variables de résultats. Les divergences dans ces associations entre les différentes phases de chronicité ont également été identifiées. Un niveau d’évidence élevée a été découvert concernant le rôle des attentes de rétablissement, certaines pratiques de gestion intégrées de l’incapacité, les stratégies d’adaptation (coping), la somatisation, la comorbidité, la durée de l’épisode symptomatique et un niveau modéré d’évidence a été découvert pour les comportements de douleur. Lorsque vient le temps de prédire les divers indicateurs d’ajustement de sujets souffrant de troubles musculo-squelettiques, chacun tend à être associé à des facteurs de risque différents. Peu de différences ont été relevées lorsque les phases de chronicité ont été prises en compte. Ces résultats confirment la nature biopsychosociale de l’ajustement aux troubles musculo-squelettiques bien que les facteurs psychosociaux semblent être prédominants. Le second article est une étude prospective avec un suivi de 2 et 8 mois. Elle a été menée auprès de 62 travailleurs accidentés, principalement en phase de chronicité et prestataires d’indemnités de revenu de la CSST (Commission en Santé et Sécurité du Travail du Québec). L’objectif de cette étude était d’identifier les déterminants de l’engagement actif dans un processus de retour a travail par opposition à l’incapacité chronique, tout en adoptant une approche biopsychosociale. Cet objectif a été poursuivi en faisant l’étude, d’une part, de la pertinence de facteurs de risque ayant déjà fait l’objet d’études mais pour lesquelles aucun consensus n’est atteint quant à leur utilité prédictive et d’autre part, de certains facteurs de risque négligés, voire, même omis de ce domaine de recherche. Suite à des analyses multivariées, le genre, les attentes de rétablissement en terme de capacité à retourner au travail et l’importance du travail ont été identifiés comme des déterminants de l’incapacité chronique liée au travail. Après 8 mois, l’âge, la consolidation médicale, les symptômes traumatiques, le support au travail et l’importance du travail ont été également identifiés comme des déterminants d’incapacité chronique liée au travail. Ces résultats démontrent l’importance d’aborder l’étude de l’incapacité chronique et de la réinsertion professionnelle selon une perspective multidimensionnelle. Ces résultats corroborent également les conclusions de notre recension des écrits, puisque les facteurs psychosociaux ont été identifiés comme étant des déterminants importants dans cette étude.
Resumo:
Ce mémoire présente l’application de la méthode de décomposition en termes de diagrammes aux désintégrations de mésons B vers trois mésons de type pseudos- calaire ne comportant pas de quarks charmés. La décomposition diagrammatique des désintégrations de types B → Kππ, B → KKK ̄, B → KK ̄π et B → πππ est effectuée de façon systématique. Il est démontré que lorsque l’on néglige les dia- grammes d’échanges et d’annihilations, dont les contributions sont estimées être petites, de nouvelles relations apparaissent entre les amplitudes. Ces relations sont de nouveaux tests du modèle standard qui ne peuvent être obtenus que par la méthode diagrammatique. Lorsque les données nécessaires sont disponibles, nous vérifions ces relations et obtenons un bon accord avec les données expérimentales. Nous démontrons également qu’il est possible d’utiliser le secteur B → Kππ pour mesurer la phase faible γ avec une incertitude théorique que nous estimons être de l’ordre de 5%. Les autres secteurs de désintégrations ne permettent d’extraire des phases faibles que si l’on invoque des approximations de précisions inconnues.
Resumo:
La dialectique pluralisme religieux/incertitude religieuse, sur laquelle porte cette thèse, se révèle être un thème majeur dans la pensée de Peter L. Berger, en sociologie des religions et en théologie protestante. Une analyse systématique et détaillée des concepts-clés qui la constituent débouche sur la question des rapports entre sociologie et théologie à laquelle Berger lui-même s’est confronté. Abordée sous l’angle de l’idée du principe protestant, cette question s’est résolue, dès la fin des années 1960, en un certain « mariage » entre son approche de la sociologie de la connaissance et son approche théologique libérale. Les concepts de foi et théologie « inductives », de « voie médiane entre le fondamentalisme et le relativisme », semblent jaillir de cette dialectique et de ce « mariage ». Si néanmoins cette dialectique se retrace dans la pensée de Berger dès ses premières œuvres, la défense d’une via media théologique appliquée à toutes les religions se révèle être la conséquence de l’abandon (dès 1967), de sa posture théologique néo-orthodoxe. Dans cette posture, la dialectique bergérienne s’appliquait à toutes les religions mais laissait la foi chrétienne intouchée et pensée en termes de certitude. Or, une analyse critique de sa pensée permet de situer au moins à trois niveaux un certain nombre de problèmes : le niveau de sa conception de la religion manifestant une ambiguïté; le niveau des rapports entre sociologie et théologie révélant un biais libéral et une absence de contenu religieux concret pour le principe protestant; enfin le niveau de sa critique des quêtes contemporaines de certitudes religieuses, critique dont le fondement sur sa dialectique peut être questionné par des exemples de conception différente de la religion et de la certitude religieuse. Pour ces trois niveaux, l’exemple de la conception de la certitude religieuse par les protestants évangéliques permet au moins une ébauche d’un tel questionnement. Cette conception, surtout dans son idée de l’« assurance du salut», se fonde, dans son approche surnaturelle de la certitude religieuse, sur une adhésion et une confiance fortes quant aux contenus traditionnels de la foi chrétienne. Si les arguments avancés dans cette perspective demeurent discutables, ils semblent assez pertinents puisque la vitalité contemporaine de la religion à l’ère du pluralisme religieux (voir notamment le protestantisme évangélique aux États-Unis) constitue une indication que la validité empirique de la dialectique bergérienne, et la critique qu’elle fonde, sont largement problématiques si l’on tient compte de l’auto-compréhension des groupes religieux eux-mêmes.
Resumo:
Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.
Resumo:
Récemment, un nombre grandissant de jeunes ayant des troubles du comportement ont été intégrés dans les classes régulières. Afin de soutenir cette intégration, plusieurs programmes d’intervention ont émergé et été implantés dans les écoles québécoises. Parmi ces programmes, on retrouve le programme l’Allié, qui se distingue des autres, notamment, par l’utilisation de pairs aidants. Ce cadre d’intervention prometteur soulève cependant certains questionnements sur la possibilité d’influence négative entre les jeunes. L’objectif de l’étude est de décrire, dans une approche comportementale, le processus d'influence entre pairs. Une méthodologie d’observation systématique des interactions sociales est privilégiée. Les résultats indiquent qu’il n’y a pas eu d’influence négative dans les groupes l’Allié. Les comportements perturbateurs ont eu plus de chances de cesser lorsque les participants les ont ignorés, que lorsque les pairs ont réagi à ces comportements. L’ignorance intentionnelle d’un comportement semble donc constituer un processus d’influence important dans les groupes de jeunes.
Rôles et régulation du PI(4,5)P2 dans le remodelage cortical et la morphogénèse cellulaire en mitose
Resumo:
Doctorat réalisé en cotutelle avec le laboratoire de François Payre au Centre de Biologie du Développement à Toulouse, France (Université de Toulouse III - Paul Sabatier)
Resumo:
Cette dissertation propose un nouveau récit des expériences de William Faulkner à Hollywood afin de réévaluer la deuxième moitié de son œuvre de fiction. Dans ses premiers projets de scénarios de films, Faulkner a choisi d’adapter des œuvres de fiction qu’il avait publiées antérieurement. À la lumière de l’utilisation du genre —autant des films que des personnes— par les studios d’Hollywood pour organiser la production et le marketing des films, la fiction de Faulkner apparut soudainement comme perverse et ses représentations de la masculinité comme homoérotiques. Dans les premiers jets de Turn About et de War Birds, Faulkner s’approprie les normes du genre hollywoodien pour nier ces connotations sexuelles. Ses révisions ultérieures révèlent un recul systématique par rapport à la perversité d’Hollywood et au genre du woman’s film, au profit de la performance de la masculinité propre aux war pictures. Ses révisions réimaginent également des matériaux qui sont au cœur de son œuvre de fiction. Quand il se remet à écrire de la fiction, Faulkner répète cette approche narrative dans des nouvelles telles que “Golden Land” et “An Odor of Verbena,” deux récits qui rompent avec les pratiques et le style de ses premières fictions majeures. Les conséquences découlant de cette influence hollywoodienne—une volonté d’éradiquer toute connotation sexuelle, l’adoption authentique plutôt qu’ironique du mélodrame générique, et une rhétorique morale explicitement construite comme une négation d’Hollywood—se manifestent plus tard dans des textes aussi divers que The Reivers, Compson Appendix, ou son discours de réception du Prix Nobel. Vues sous cet angle, les dernières fictions de Faulkner deviennent une composante essentielle de son œuvre, fournissant une base nouvelle pour réexaminer la place des genres narratifs populaires, du genre et de la sexualité dans son cycle de Yoknapatawpha.