730 resultados para Constructivist approaches
Resumo:
L’encéphalopathie hépatique (EH) se développe chez les patients atteints d’une maladie du foie et se caractérise par de nombreuses anomalies neuropsychiatriques. L’insuffisance hépatique aiguë (IHA) se caractérise par une perte progressive de l’état de conscience, par une augmentation rapide de l’œdème cérébral et une augmentation de la pression intracrânienne entraînant une herniation cérébrale et la mort. Plusieurs facteurs sont responsables du développement de l’EH mais depuis une centaine d’années, l’hyperammonémie qui peut atteindre des concentrations de l’ordre de plusieurs millimolaires chez les patients atteints d’IHA aux stades de coma est considérée comme un facteur crucial dans la pathogenèse de l’EH. La présente thèse comprend 4 articles suggérant l’implication de nouveaux mécanismes pathogéniques dans le développement de l’EH et de l’œdème cérébral associés à l’IHA et tente d’expliquer l’effet thérapeutique de l’hypothermie et de la minocycline dans la prévention de l’EH et de l’œdème cérébral: 1. L’IHA induite par dévascularisation hépatique chez le rat se caractérise par une augmentation de la production de cytokines pro-inflammatoires cérébrales (IL-6, IL-1, TNF-). Cette observation constitue la première évidence directe que des mécanismes neuro-inflammatoires jouent une rôle dans la pathogenèse de l’EH et de l’œdème cérébral associés à l’IHA (Chapitre 2.1, articles 1 et 2). 2. L’activation de la microglie telle que mesurée par l’expression de marqueurs spécifiques (OX42, OX-6) coïncide avec le développement de l’encéphalopathie (stade coma) et de l’œdème cérébral et s’accompagne d’une production accrue de cytokines pro-inflammatoires cérébrales (Chapitre 2.1, article 1 et 2). 3. Un stress oxydatif/nitrosatif causé par une augmentation de l’expression de l’oxyde nitrique synthétase et une augmentation de la synthèse d’oxyde nitrique cérébral participe à la pathogénèse des complications neurologiques de l’IHA (Chapitre 2.3, articles 3 et 4). 4. Des traitements anti-inflammatoires tels que l’hypothermie et la minocycline peuvent constituer de nouvelles approches thérapeutiques chez les patients atteints d’IHA (Chapitre 2.1, article 1; Chapitre 2.2, article 2). 5. Les effets bénéfiques de l’hypothermie et de la minocycline sur les complications neurologiques de l’IHA expérimentale s’expliquent, en partie, par une diminution du stress oxydatif/nitrosatif (Chapitre 2.3, article 3; Chapitre 2.4, article 4).
Resumo:
On étudie l’application des algorithmes de décomposition matricielles tel que la Factorisation Matricielle Non-négative (FMN), aux représentations fréquentielles de signaux audio musicaux. Ces algorithmes, dirigés par une fonction d’erreur de reconstruction, apprennent un ensemble de fonctions de base et un ensemble de coef- ficients correspondants qui approximent le signal d’entrée. On compare l’utilisation de trois fonctions d’erreur de reconstruction quand la FMN est appliquée à des gammes monophoniques et harmonisées: moindre carré, divergence Kullback-Leibler, et une mesure de divergence dépendente de la phase, introduite récemment. Des nouvelles méthodes pour interpréter les décompositions résultantes sont présentées et sont comparées aux méthodes utilisées précédemment qui nécessitent des connaissances du domaine acoustique. Finalement, on analyse la capacité de généralisation des fonctions de bases apprises par rapport à trois paramètres musicaux: l’amplitude, la durée et le type d’instrument. Pour ce faire, on introduit deux algorithmes d’étiquetage des fonctions de bases qui performent mieux que l’approche précédente dans la majorité de nos tests, la tâche d’instrument avec audio monophonique étant la seule exception importante.
Resumo:
Cette thèse porte sur l’appropriation de l’Internet et du multimédias dans la population universitaire d’Afrique francophone, en l’an 2001. Elle couvre six pays : le Bénin, le Burkina Faso, le Cameroun, la Côte d’Ivoire, le Mali et le Togo. La recherche porte sur le recensement des centres de recherche démographique en Afrique francophone subsaharienne et sur une enquête auprès des universités de Yaoundé II et de Douala au Cameroun. La problématique de l’accès et de l’usage est centrale dans notre démarche. Elle est traduite dans la question de recherche suivante : « Dans un contexte dominé par les représentations des NTIC comme symboles de modernité et facteurs d’intégration à l’économie mondiale, quelles sont les modalités d’appropriation de ces technologies par les universitaires des institutions de l’enseignement et de la recherche en Afrique considérées dans cette étude ? » Pour aborder le matériel empirique, nous avons opté pour deux approches théoriques : les théories du développement en lien avec les (nouveaux) médias et la sociologie des innovations techniques. Enracinées dans la pensée des Lumières, complétée et affinée par les approches évolutionnistes inspirées de Spencer, le fonctionnalisme d’inspiration parsonienne et l’économie politique axée sur la pensée de W. W. Rostow, les théories du développement ont largement mis à contribution les théories de la communication pour atteindre leur objet. Alors que la crise de la modernité occidentale menace de délégitimer ces paradigmes, les technologies émergentes leur donnent une nouvelle naissance : dans la continuité de la pensée d’Auguste Comte, le développement est désormais pensé en termes d’intégration à un nouveau type de société, la société de l’information. Cette nouvelle promesse eschatologique et cette foi dans la technique comme facteur d’intégration à la société et à l’économie en réseau habitent tous les projets menés sur le continent, que ce soit le NEPAD, le Fond de solidarité numérique, le projet d’ordinateur à 100$ pour les enfants démunis ou le projet panafricain de desserte satellitaire, le RASCOM. Le deuxième volet de notre cadre de référence théorique est axé sur la sociologie des innovations techniques. Nous mobilisons la sociopolitique des usages de Vedel et Vitalis pour ramener la raison critique dans le débat sur le développement du continent africain, dans l’optique de montrer que la prérogative politique assumée par les États a encore sa place, si l’on veut que les ressources numériques servent à satisfaire les demandes sociales et non les seules demandes solvables essentiellement localisées dans les centres urbains. En refusant le déterminisme technique si courant dans la pensée sur le développement, nous voulons montrer que le devenir de la technique n’est pas inscrit dans son essence, comme une ombre portée, mais que l’action des humains, notamment l’action politique, peut infléchir la trajectoire des innovations techniques dans l’optique de servir les aspirations des citoyens. Sur le plan méthodologique, la démarche combine les méthodes quantitatives et les méthodes qualitatives. Les premières nous permettront de mesurer la présence d’Internet et du multimédia dans l’environnement des répondants. Les secondes nous aideront à saisir les représentations développées par les usagers au contact de ces outils. Dans la perspective socioconstructiviste, ces discours sont constitutifs des technologies, dans la mesure où ils sont autant de modalités d’appropriation, de construction sociale de l’usage. Ultimement, l’intégration du langage technique propre aux outils multimédias dans le langage quotidien des usagers traduit le dernier stade de cette appropriation. À travers cette recherche, il est apparu que les usagers sont peu nombreux à utiliser les technologies audiovisuelles dans le contexte professionnel. Quand à l’Internet et aux outils multimédias, leur présence et leurs usages restent limités, l’accès physique n’étant pas encore garanti à tous les répondants de l’étude. Internet suscite de grandes espérances, mais reste, là aussi, largement inaccessible en contexte professionnel, la majorité des usagers se rabattant sur les lieux publics comme les cybercafés pour pallier l’insuffisance des ressources au sein de leurs institutions d’appartenance. Quant aux représentations, elles restent encore largement tributaires des discours politiques et institutionnels dominants, selon lesquels l’avenir sera numérique ou ne sera pas. La thèse va cependant au-delà de ces données pour dessiner la carte numérique actuelle du continent, en intégrant dans la nouvelle donne technologique la montée fulgurante de la téléphonie cellulaire mobile. Il nous est apparu que l’Internet, dont la diffusion sur le continent a été plus que modeste, pourrait largement profiter de l’émergence sur le continent de la culture mobile, que favorise notamment la convergence entre les mini-portables et la téléphonie mobile.
Resumo:
Nous avons mis au point une approche novatrice pour la synthèse d’un matériau de cathode pour les piles lithium-ion basée sur la décomposition thermique de l’urée. Les hydroxydes de métal mixte (NixMnxCo(1-2x)(OH)2) ont été préparés (x = 0.00 à 0.50) et subséquemment utilisés comme précurseurs à la préparation de l’oxyde de métal mixte (LiNixMnxCo(1-2x)O2). Ces matériaux, ainsi que le phosphate de fer lithié (LiFePO4), sont pressentis comme matériaux de cathode commerciaux pour la prochaine génération de piles lithium-ion. Nous avons également développé un nouveau traitement post-synthèse afin d’améliorer la morphologie des hydroxydes. L’originalité de l’approche basée sur la décomposition thermique de l’urée réside dans l’utilisation inédite des hydroxydes comme précurseurs à la préparation d’oxydes de lithium mixtes par l’intermédiaire d’une technique de précipitation uniforme. De plus, nous proposons de nouvelles techniques de traitement s’adressant aux méthodes de synthèses traditionnelles. Les résultats obtenus par ces deux méthodes sont résumés dans deux articles soumis à des revues scientifiques. Tous les matériaux produits lors de cette recherche ont été analysés par diffraction des rayons X (DRX), microscope électronique à balayage (MEB), analyse thermique gravimétrique (ATG) et ont été caractérisés électrochimiquement. La performance électrochimique (nombre de cycles vs capacité) des matériaux de cathode a été conduite en mode galvanostatique.
Resumo:
Thèse de doctorat réalisée en cotutelle avec l'Institut du social et du politique de l'École Normale supérieure de Cachan.
Resumo:
Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Cette recherche porte sur la dimension interprétative de l'intégration européenne et sur son rôle dans la démocratisation au sein des pays postcommunistes. Je focalise mon attention sur la signification pour les gens desdits pays que revêtent la participation politique, la compétence politique, et l’action collective. Cette signification prend forme selon des circonstances spécifiques, agencées par les relations de pouvoir asymétriques avec l’Union européenne (UE). J’examine la littérature sur le rôle de l'intégration européenne dans la démocratisation des pays postcommunistes et je distingue deux paradigmes théoriques principaux : un premier qui met l'accent sur le processus institutionnel, l’autre sur le processus instrumental stratégique. Au sein de ces deux approches, je présente différents auteurs qui voient l'UE soit comme un facteur pro-démocratique, soit comme un facteur antidémocratique dans le contexte postcommuniste de transition politique. Cette recherche ne suit pas théoriquement et méthodologiquement les études contenues dans la revue de la littérature. Plutôt, elle s’appuie sur un modèle théorique inspiré des recherches de McFalls sur la réunification culturelle allemande après 1989. Ce modèle, sans négliger les approches institutionnelles et stratégiques, met l’accent sur d'autres écoles théoriques, interprétatives et constructivistes. Mes conclusions se basent sur les résultats de séjours d'étude dans deux pays postcommunistes : la Bulgarie, membre de l'UE depuis 2007, et la Macédoine, pays-candidat. J’ai recours à des méthodes qualitatives et à des techniques ethnographiques qui triangulent des résultats puisés à des sources multiples et variées pour exposer des trajectoires dynamiques de changement culturel influencées par l'intégration européenne. Les conclusions montrent sous quelles conditions les idéaux-types de changement politique conventionnels, soit institutionnel ou stratégique, représentent des modèles utiles. Je présente aussi leurs limitations. Ma conclusion principale est que l'intégration européenne représente un phénomène complexe dans le monde des significations. C’est un facteur qui est simultanément un amplificateur et un inhibiteur de la culture politique démocratique. Les gens créent des sous-cultures différentes où des interprétations multiples du processus d'intégration européenne mènent à des effets dissemblables sur la participation politique, la compétence et l’action collective. La conversation discursive entre les gens qui composent de telles sous-cultures distinctes peut produire des effets divergents au niveau national. Cette recherche n’est pas une analyse de l’UE comme mécanisme institutionnel ; elle ne pose ainsi pas l’UE comme une institution qui détermine directement le processus de démocratisation postcommuniste. Plutôt, elle s’intéresse au processus d’intégration européenne en tant qu’interaction qui affecte la culture politique au sein des pays postcommunistes, et à la manière dont cette dernière peut agir sur le processus de démocratisation. Mon point d’intérêt central n’est donc pas l’européanisation ou le processus de devenir « comme l’Europe », à moins que l’européanisation ne devienne une composante de la culture politique avec des conséquences sur le comportement politique des acteurs.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Conventional and Reciprocal Approaches to the Forward and Inverse Problems of Electroencephalography
Resumo:
Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.
Resumo:
L’eau a longtemps été considérée comme une ressource commune non susceptible d’appropriation et accessible à tous. De nos jours, toutefois, face à l’inégale répartition de l’eau sur la planète, à l’augmentation constante de la population et à la multiplication des usages qui entraînent la surexploitation et la pollution des ressources hydriques, l’eau prend une valeur nouvelle. L’eau devient de plus en plus un enjeu stratégique, politique et commercial. En conséquence, la redéfinition du statut juridique de l’eau devient un objet de débat important. Ce débat est avant tout un débat rhétorique et une « bataille » idéologique entre des groupes qui soutiennent différentes approches et qui cherchent à obtenir le monopole de la nouvelle réalité et créer ainsi le nouveau droit. Deux grandes approches s’affrontent pour redéfinir la ressource. La première, celle qui envisage l’eau comme un bien économique, soutient que pour éviter les problèmes de gaspillage et de pollution, l’eau doit être soumise aux lois de l’offre et de la demande. La deuxième, celle qui considère l’eau comme une chose commune, non appropriable et hors commerce, soutient que la valeur d’une ressource aussi vitale que l’eau ne peut être établie par les lois du marché puisque cette alternative ne permet pas d’assurer l’accès à l’eau aux plus démunis de la société. Cette approche prône également la reconnaissance d’un droit humain à l’eau. Notre thèse tente de déterminer comment s’effectue le choix du statut juridique de l’eau, et ce, tant au Québec qu’au Mexique. Notre question de recherche est traitée selon une perspective constructiviste en vertu de laquelle le statut juridique de l’eau serait une réalité « construite » et le nouveau droit serait le résultat des luttes, des oppositions et des compromis entre les acteurs sociaux impliqués. Notre terrain d’étude est le Québec et le Mexique. En effet, ce sont des territoires intégrés économiquement par le biais de l’ALENA où l’on observe des variations importantes en termes de ressources, de prélèvements et de consommation. Au Québec, nous analysons le débat qui a eu lieu lors de la Consultation sur la gestion de l’eau au Québec (1999), notamment les discours concernant le statut de l’eau, la gestion publique/privée des services d’eau et l’exportation en vrac de la ressource. Au Mexique, nous analysons les représentations des acteurs sociaux à l’occasion de l’adoption de la Loi des eaux nationales de 1992, notamment les questions qui comportent un lien étroit avec la symbolique de l’eau. Or, nous avons remarqué que le résultat de ces constructions sociales au sein de ces territoires est complètement différent. Au Québec, on a confirmé le statut de l’eau en tant que chose commune, tandis qu’au Mexique, c’est plutôt la symbolique de l’eau en tant que bien économique qui a été adoptée dans la nouvelle législation portant sur l’eau.
Resumo:
La présente recherche a comme sujet la gestion des risques au cœur de la prise de décision en protection de l’enfance. Elle a comme objectif une meilleure compréhension de la pratique à partir de la construction des logiques d’action déployées par les professionnels ainsi que la réflexion sur le sens qu’ils accordent à leurs actions. Le projet est porté par une posture constructiviste : les professionnels « construisent » la situation problématique de l’enfant à protéger tout comme ils construisent la solution envisagée. C’est à partir de la combinaison entre la réflexivité (Schön; Racine; Giddens) et la délibération éthique (Bossé, Morin et Dallaire) que des groupes de discussion impliquant des professionnels de professions et de statuts différents ont été réalisés au Centre jeunesse de l’Estrie. Ces groupes s’inscrivent dans une méthodologie qualitative laissant place aux discours des acteurs et sont accompagnés d’entretiens individuels comme stratégie complémentaire de cueillette de données. Les données ont été explorées à partir d’une analyse de contenu sous trois axes (Van der Maren) : une analyse horizontale (dégager les éléments pertinents à partir d’un cadre de délibération éthique), une analyse verticale (dégager les interactions et les inter-influences dans les groupes de discussion) et une analyse transversale (dégager des noyaux de sens et des logiques d’action à travers les discours). Les résultats permettent d’établir des séquences dans la prise de décision des professionnels à partir desquelles se construisent les logiques d’action. Trois logiques sont dégagées de l’analyse de contenu ⎯ collaborative, délibérative, légaliste ⎯ qui sont appuyées sur plusieurs dimensions regroupées à l’intérieur de trois axes d’intérêt : le rapport au mandat de protection, le rapport à la situation et le rapport au risque. Au-delà des logiques elles-mêmes, les résultats portent également à réfléchir des éléments de processus qui influencent la prise de décision. Ces éléments amènent à explorer et à questionner la posture professionnelle et la conviction, le dialogue et la présence d’espace de traduction ainsi que l’apport de la délibération collective. Au final, la recherche permet de réaffirmer la complexité de la pratique de protection de l’enfance mais elle conduit également à plaider en faveur d’une conscientisation de la pratique. Dégager des logiques d’action procure des clés de réflexivité pour les professionnels les menant à conscientiser leur prise de décision et ainsi accéder
Resumo:
Le Coran et la Sunna (la tradition du prophète Muḥammad) relatée dans les aḥâdîth (les traditions orales du Prophète) représentent la source éternelle d’inspiration et de savoir à laquelle les Musulmans se réfèrent pour agir, réagir et interagir. Par le fait même, tout au long de l’histoire musulmane, ces sources sacrées ont été à la base des relations des Musulmans avec autrui, incluant les Chrétiens. Les trois éléments majeurs de différenciation entre l’islam et le christianisme sont : la nature divine de Jésus, la trinité ainsi que la crucifixion et la mort de Jésus sur la croix. La position tranchée du Coran quant aux deux premiers points ne laisse place à aucun débat académique. Cependant, l’ambiguïté du texte coranique quant à la crucifixion de Jésus et sa mort a favorisé de nombreux débats entre mufassirûn (les exégètes du Coran). Cette thèse est une analyse textuelle des deux passages coraniques qui traitent de cette troisième différence. Pour cette étude textuelle et intertextuelle, les tafâsîr (interprétations du Coran) de huit mufassirûn appartenant à différentes madhâhib (écoles d’interprétation) et périodes de l’histoire des relations musulmanes-chrétiennes sont utilisés en combinaison avec certaines approches et méthodes récentes telles que : historico-critique et critique rédactionnelle. De plus, trois nouvelles théories développées dans la thèse enrichissent les outils herméneutiques de la recherche : la « théorie des cinq couches de sens », la « théorie des messages coraniques doubles » et la « théorie de la nature humaine tripartite ». À la lumière de ces théories et méthodes, il apparaît que l’ambiguïté coranique au sujet de la crucifixion et de la mort de Jésus est une invitation claire de la part du Coran incitant les Musulmans et les Chrétiens à vivre avec cette ambiguïté insoluble. La conclusion de cette thèse contribue directement à de meilleures relations musulmanes-chrétiennes, renforçant l’appel coranique (Coran 3:64, 103) à ces deux communautés leurs demandant de se cramponner aux points communs majeurs, d’intégrer leurs différences mineures et de consacrer leurs énergies pour une vie harmonieuse entre eux et laisser le reste dans les mains du Dieu qu’ils ont en commun.
Resumo:
Contexte: L'obésité chez les jeunes représente aujourd’hui un problème de santé publique à l’échelle mondiale. Afin d’identifier des cibles potentielles pour des stratégies populationnelles de prévention, les liens entre les caractéristiques du voisinage, l’obésité chez les jeunes et les habitudes de vie font de plus en plus l’objet d’études. Cependant, la recherche à ce jour comporte plusieurs incohérences. But: L’objectif général de cette thèse est d’étudier la contribution de différentes caractéristiques du voisinage relativement à l’obésité chez les jeunes et les habitudes de vie qui y sont associées. Les objectifs spécifiques consistent à: 1) Examiner les associations entre la présence de différents commerces d’alimentation dans les voisinages résidentiels et scolaires des enfants et leurs habitudes alimentaires; 2) Examiner comment l’exposition à certaines caractéristiques du voisinage résidentiel détermine l’obésité au niveau familial (chez le jeune, la mère et le père), ainsi que l’obésité individuelle pour chaque membre de la famille; 3) Identifier des combinaisons de facteurs de risque individuels, familiaux et du voisinage résidentiel qui prédisent le mieux l’obésité chez les jeunes, et déterminer si ces profils de facteurs de risque prédisent aussi un changement dans l’obésité après un suivi de deux ans. Méthodes: Les données proviennent de l’étude QUALITY, une cohorte québécoise de 630 jeunes, âgés de 8-10 ans au temps 1, avec une histoire d’obésité parentale. Les voisinages de 512 participants habitant la Région métropolitaine de Montréal ont été caractérisés à l’aide de : 1) données spatiales provenant du recensement et de bases de données administratives, calculées pour des zones tampons à partir du réseau routier et centrées sur le lieu de la résidence et de l’école; et 2) des observations menées par des évaluateurs dans le voisinage résidentiel. Les mesures du voisinage étudiées se rapportent aux caractéristiques de l’environnement bâti, social et alimentaire. L’obésité a été estimée aux temps 1 et 2 à l’aide de l’indice de masse corporelle (IMC) calculé à partir du poids et de la taille mesurés. Les habitudes alimentaires ont été mesurées au temps 1 à l'aide de trois rappels alimentaires. Les analyses effectuées comprennent, entres autres, des équations d'estimation généralisées, des régressions multiniveaux et des analyses prédictives basées sur des arbres de décision. Résultats: Les résultats démontrent la présence d’associations avec l’obésité chez les jeunes et les habitudes alimentaires pour certaines caractéristiques du voisinage. En particulier, la présence de dépanneurs et de restaurants-minutes dans le voisinage résidentiel et scolaire est associée avec de moins bonnes habitudes alimentaires. La présence accrue de trafic routier, ainsi qu’un faible niveau de prestige et d’urbanisation dans le voisinage résidentiel sont associés à l’obésité familiale. Enfin, les résultats montrent qu’habiter un voisinage obésogène, caractérisé par une défavorisation socioéconomique, la présence de moins de parcs et de plus de dépanneurs, prédit l'obésité chez les jeunes lorsque combiné à la présence de facteurs de risque individuels et familiaux. Conclusion: Cette thèse contribue aux écrits sur les voisinages et l’obésité chez les jeunes en considérant à la fois l'influence potentielle du voisinage résidentiel et scolaire ainsi que l’influence de l’environnement familial, en utilisant des méthodes objectives pour caractériser le voisinage et en utilisant des méthodes statistiques novatrices. Les résultats appuient en outre la notion que les efforts de prévention de l'obésité doivent cibler les multiples facteurs de risque de l'obésité chez les jeunes dans les environnements bâtis, sociaux et familiaux de ces jeunes.