997 resultados para second coming
Resumo:
Chez diverses espèces animales, les informations sensorielles peuvent déclencher la locomotion. Ceci nécessite l’intégration des informations sensorielles par le système nerveux central. Chez la lamproie, les réseaux locomoteurs spinaux sont activés et contrôlés par les cellules réticulospinales (RS), système descendant le plus important. Ces cellules reçoivent des informations variées provenant notamment de la périphérie. Une fois activées par une brève stimulation cutanée d’intensité suffisante, les cellules RS produisent des dépolarisations soutenues de durées variées impliquant des propriétés intrinsèques calcium-dépendantes et associées à l’induction de la nage de fuite. Au cours de ce doctorat, nous avons voulu savoir si les afférences synaptiques ont une influence sur la durée des dépolarisations soutenues et si l’ensemble des cellules RS partagent des propriétés d’intégration similaires, impliquant possiblement les réserves de calcium internes. Dans un premier temps, nous montrons pour la première fois qu’en plus de dépendre des propriétés intrinsèques des cellules réticulospinales, les dépolarisations soutenues dépendent des afférences excitatrices glutamatergiques, incluant les afférences spinales, pour perdurer pendant de longues périodes de temps. Les afférences cutanées ne participent pas au maintien des dépolarisations soutenues et les afférences inhibitrices glycinergique et GABAergiques ne sont pas suffisantes pour les arrêter. Dans un deuxième temps, nous montrons que suite à une stimulation cutanée, l’ensemble des cellules RS localisées dans les quatre noyaux réticulés possèdent un patron d’activation similaire et elles peuvent toutes produire des dépolarisations soutenues dont le maintien ne dépend pas des réserves de calcium internes. Enfin, les résultats obtenus durant ce doctorat ont permis de mieux comprendre les mécanismes cellulaires par lesquels l’ensemble des cellules RS intègrent une brève information sensorielle et la transforment en une réponse soutenue associée à une commande motrice.
Resumo:
La thérapie génique représente l'un des défis de la médecine des prochaines décennies dont la réussite dépend de la capacité d'acheminer l'ADN thérapeutique jusqu'à sa cible. Des structures non virales ont été envisagées, dont le chitosane, polymère cationique qui se combine facilement à l’ADN. Une fois le complexe formé, l’ADN est protégé des nucléases qui le dégradent. Le premier objectif de l'étude est de synthétiser et ensuite évaluer différentes nanoparticules de chitosane et choisir la mieux adaptée pour une efficacité de transfection sélective in vitro dans les cellules carcinomes épidermoïdes (KB). Le deuxième objectif de l'étude est d'examiner in vivo les effets protecteurs du gène de l'IL-1Ra (bloqueur naturel de la cytokine inflammatoire, l’Interleukine-1β) complexé aux nanoparticules de chitosane sélectionnées dans un modèle d'arthrite induite par un adjuvant (AIA) chez le rat. Les nanoparticules varient par le poids moléculaire du chitosane (5, 25 et 50 kDa), et la présence ou l’absence de l’acide folique (FA). Des mesures macroscopiques de l’inflammation seront évaluées ainsi que des mesures de concentrations de l’Interleukine-1β, Prostaglandine E2 et IL-1Ra humaine secrétés dans le sérum. Les nanoparticules Chitosane-ADN en présence de l’acide folique et avec du chitosane de poids moléculaire de 25 kDa, permettent une meilleure transfection in vitro. Les effets protecteurs des nanoparticules contenant le gène thérapeutique étaient évidents suite à la détection de l’IL-1Ra dans le sérum, la baisse d'expressions des facteurs inflammatoires, l’Interleukine-1 et la Prostaglandine-E2 ainsi que la diminution macroscopique de l’inflammation. Le but de cette étude est de développer notre méthode de thérapie génique non virale pour des applications cliniques pour traiter l’arthrite rhumatoïde et d’autres maladies humaines.
Resumo:
La présente thèse a pour objectif d’étudier le rôle des facteurs cognitifs (traitement phonologique et visuoattentionnel et mémoire lexicale orthographique) dans l’acquisition des connaissances orthographiques implicites et explicites. Afin d’examiner les liens entre les différents facteurs cognitifs et les connaissances orthographiques, une étude longitudinale a été réalisée à l’aide d’un échantillon de 338 enfants suivis de la maternelle 5 ans à la fin de la deuxième année du primaire. À la fin de la maternelle, les enfants ont été évalués à l’aide d’une épreuve d’orthographe approchée et d’épreuves évaluant les facteurs cognitifs en jeu dans l’apprentissage du langage écrit (traitement phonologique, traitement visuoattentionnel et mémoire à court et à long terme). Les connaissances lexicales orthographiques explicites de ces mêmes enfants ont été évaluées en fin de première et de deuxième années. Le premier article de cette thèse rapporte les données d’une étude réalisée auprès des enfants scolarisés en maternelle 5 ans. Cette étude vise l’établissement d’un lien entre, d’une part, la capacité de traitement phonologique, visuoattentionnel et de mémoire lexicale orthographique et, d’autre part, les connaissances orthographiques implicites des enfants qui n’ont pas encore eu d’enseignement formel de l’écriture. Les résultats indiquent que, contrairement à ce qui a été longtemps avancé, la capacité de traitement phonologique n’est pas le seul facteur cognitif à intervenir, puisque la capacité de mémoire lexicale orthographique à long terme ainsi que la capacité visuoattentionnelle contribuent de façon importante et indépendante à l’acquisition des connaissances orthographiques implicites des enfants de la maternelle 5 ans. La mémoire lexicale orthographique est même le facteur qui apporte la plus forte contribution. La deuxième étude de cette thèse vise à déterminer, parmi les facteurs cognitifs évalués en maternelle, celui ou ceux qui permettent de prédire les connaissances orthographiques explicites ultérieures, c'est-à-dire celles de première et de deuxième années du primaire. Les résultats de cette deuxième étude indiquent que les préalables nécessaires à l’acquisition des connaissances orthographiques lexicales sont les capacités de traitement phonologique ainsi que les capacités de la mémoire à court et à long terme. La troisième étude de cette thèse a pour but de mettre en lumière le rôle prédictif que joue le niveau des connaissances orthographiques des enfants de maternelle quant au niveau ultérieur de leurs connaissances orthographiques en première et deuxième années, en lien avec les capacités cognitives qui sous-tendent l’apprentissage du langage écrit, en particulier le traitement phonologique, le traitement visuoattentionnel et la mémoire lexicale orthographique. Les résultats de cette dernière étude permettent de montrer que, parmi les facteurs évalués en maternelle, le niveau des connaissances orthographiques implicites apporte une contribution unique à l’ensemble du niveau des connaissances orthographiques ultérieures. L’influence des connaissances orthographiques précoces sur l’acquisition ultérieure n’est pas surprenante. En effet, la première étude avait montré que le niveau de ces connaissances est fonction non seulement de la capacité de mémoire orthographique lexicale mais également de la capacité de traitement phonologique et visuottentionnel. Les résultats issus de ces trois études présentent un intérêt non négligeable dans la compréhension de l’acquisition du langage écrit. En effet, ces recherches ont permis de montrer qu’avant même l’apprentissage formel de l’écrit, l’enfant témoigne de connaissances implicites non négligeables sur la langue écrite et que c’est à partir de ces connaissances que s’élaboreront ses connaissances explicites ultérieures. Ces connaissances sont tributaires de multiples facteurs parmi lesquels la capacité de mémoire lexicale orthographique, facteur cognitif dont la contribution n’avait pas été démontrée jusqu’à présent. Les résultats de cette recherche montrent qu’il est possible d’envisager des outils de dépistage précoce qui permettront d’identifier les enfants à risque de présenter des difficultés spécifiques d’apprentissage du langage écrit. Ce dépistage permettrait de mettre en place des interventions mieux ciblées et précoces, ce qui réduirait ainsi l’impact des difficultés sur les apprentissages scolaires.
Resumo:
Le diabète est une maladie métabolique qui se caractérise par une résistance à l’insuline des tissus périphériques et par une incapacité des cellules β pancréatiques à sécréter les niveaux d’insuline appropriés afin de compenser pour cette résistance. Pour mieux comprendre les mécanismes déficients dans les cellules β des patients diabétiques, il est nécessaire de comprendre et de définir les mécanismes impliqués dans le contrôle de la sécrétion d’insuline en réponse au glucose. Dans les cellules β pancréatiques, le métabolisme du glucose conduit à la production de facteurs de couplage métabolique, comme l’ATP, nécessaires à la régulation de l’exocytose des vésicules d’insuline. Le mécanisme par lequel la production de l’ATP par le métabolisme oxydatif du glucose déclenche l’exocytose des vésicules d’insuline est bien décrit dans la littérature. Cependant, il ne peut à lui seul réguler adéquatement la sécrétion d’insuline. Le malonyl-CoA et le NADPH sont deux autres facteurs de couplage métaboliques qui ont été suggérés afin de relier le métabolisme du glucose à la régulation de la sécrétion d’insuline. Les mécanismes impliqués demeurent cependant à être caractérisés. Le but de la présente thèse était de déterminer l’implication des navettes du pyruvate, découlant du métabolisme mitochondrial du glucose, dans la régulation de la sécrétion d’insuline. Dans les cellules β, les navettes du pyruvate découlent de la combinaison des processus d’anaplérose et de cataplérose et permettent la transduction des signaux métaboliques provenant du métabolisme du glucose. Dans une première étude, nous nous sommes intéressés au rôle de la navette pyruvate/citrate dans la régulation de la sécrétion d’insuline en réponse au glucose, puisque cette navette conduit à la production dans le cytoplasme de deux facteurs de couplage métabolique, soit le malonyl-CoA et le NADPH. De plus, la navette pyruvate/citrate favorise le flux métabolique à travers la glycolyse en réoxydation le NADH. Une étude effectuée précédemment dans notre laboratoire avait suggéré la présence de cette navette dans les cellules β pancréatique. Afin de tester notre hypothèse, nous avons ciblé trois étapes de cette navette dans la lignée cellulaire β pancréatique INS 832/13, soit la sortie du citrate de la mitochondrie et l’activité de l’ATP-citrate lyase (ACL) et l’enzyme malique (MEc), deux enzymes clés de la navette pyruvate/citrate. L’inhibition de chacune de ces étapes par l’utilisation d’un inhibiteur pharmacologique ou de la technologie des ARN interférant a corrélé avec une réduction significative de la sécrétion d’insuline en réponse au glucose. Les résultats obtenus suggèrent que la navette pyruvate/citrate joue un rôle critique dans la régulation de la sécrétion d’insuline en réponse au glucose. Parallèlement à notre étude, deux autres groupes de recherche ont suggéré que les navettes pyruvate/malate et pyruvate/isocitrate/α-cétoglutarate étaient aussi importantes pour la sécrétion d’insuline en réponse au glucose. Ainsi, trois navettes découlant du métabolisme mitochondrial du glucose pourraient être impliquées dans le contrôle de la sécrétion d’insuline. Le point commun de ces trois navettes est la production dans le cytoplasme du NADPH, un facteur de couplage métabolique possiblement très important pour la sécrétion d’insuline. Dans les navettes pyruvate/malate et pyruvate/citrate, le NADPH est formé par MEc, alors que l’isocitrate déshydrogénase (IDHc) est responsable de la production du NADPH dans la navette pyruvate/isocitrate/α-cétoglutarate. Dans notre première étude, nous avions démontré l’importance de l’expression de ME pour la sécrétion adéquate d’insuline en réponse au glucose. Dans notre deuxième étude, nous avons testé l’implication de IDHc dans les mécanismes de régulation de la sécrétion d’insuline en réponse au glucose. La diminution de l’expression de IDHc dans les INS 832/13 a stimulé la sécrétion d’insuline en réponse au glucose par un mécanisme indépendant de la production de l’ATP par le métabolisme oxydatif du glucose. Ce résultat a ensuite été confirmé dans les cellules dispersées des îlots pancréatiques de rat. Nous avons aussi observé dans notre modèle que l’incorporation du glucose en acides gras était augmentée, suggérant que la diminution de l’activité de IDHc favorise la redirection du métabolisme de l’isocitrate à travers la navette pyruvate/citrate. Un mécanisme de compensation à travers la navette pyruvate/citrate pourrait ainsi expliquer la stimulation de la sécrétion d’insuline observée en réponse à la diminution de l’expression de IDHc. Les travaux effectués dans cette deuxième étude remettent en question l’implication de l’activité de IDHc, et de la navette pyruvate/isocitrate/α-cétoglutarate, dans la transduction des signaux métaboliques reliant le métabolisme du glucose à la sécrétion d’insuline. La navette pyruvate/citrate est la seule des navettes du pyruvate à conduire à la production du malonyl-CoA dans le cytoplasme des cellules β. Le malonyl-CoA régule le métabolisme des acides gras en inhibant la carnitine palmitoyl transférase 1, l’enzyme limitante dans l’oxydation des acides gras. Ainsi, l’élévation des niveaux de malonyl-CoA en réponse au glucose entraîne une redirection du métabolisme des acides gras vers les processus d’estérification puis de lipolyse. Plus précisément, les acides gras sont métabolisés à travers le cycle des triglycérides/acides gras libres (qui combinent les voies métaboliques d’estérification et de lipolyse), afin de produire des molécules lipidiques signalétiques nécessaires à la modulation de la sécrétion d’insuline. Des études effectuées précédemment dans notre laboratoire ont démontré que l’activité lipolytique de HSL (de l’anglais hormone-sensitive lipase) était importante, mais non suffisante, pour la régulation de la sécrétion d’insuline. Dans une étude complémentaire, nous nous sommes intéressés au rôle d’une autre lipase, soit ATGL (de l’anglais adipose triglyceride lipase), dans la régulation de la sécrétion d’insuline en réponse au glucose et aux acides gras. Nous avons démontré que ATGL est exprimé dans les cellules β pancréatiques et que son activité contribue significativement à la lipolyse. Une réduction de son expression dans les cellules INS 832/13 par RNA interférant ou son absence dans les îlots pancréatiques de souris déficientes en ATGL a conduit à une réduction de la sécrétion d’insuline en réponse au glucose en présence ou en absence d’acides gras. Ces résultats appuient l’hypothèse que la lipolyse est une composante importante de la régulation de la sécrétion d’insuline dans les cellules β pancréatiques. En conclusion, les résultats obtenus dans cette thèse suggèrent que la navette pyruvate/citrate est importante pour la régulation de la sécrétion d’insuline en réponse au glucose. Ce mécanisme impliquerait la production du NADPH et du malonyl-CoA dans le cytoplasme en fonction du métabolisme du glucose. Cependant, nos travaux remettent en question l’implication de la navette pyruvate/isocitrate/α-cétoglutarate dans la régulation de la sécrétion d’insuline. Le rôle exact de IDHc dans ce processus demeure cependant à être déterminé. Finalement, nos travaux ont aussi démontré un rôle pour ATGL et la lipolyse dans les mécanismes de couplage métabolique régulant la sécrétion d’insuline.
Resumo:
Cette thèse est composée de trois essais liés à la conception de mécanisme et aux enchères. Dans le premier essai j'étudie la conception de mécanismes bayésiens efficaces dans des environnements où les fonctions d'utilité des agents dépendent de l'alternative choisie même lorsque ceux-ci ne participent pas au mécanisme. En plus d'une règle d'attribution et d'une règle de paiement le planificateur peut proférer des menaces afin d'inciter les agents à participer au mécanisme et de maximiser son propre surplus; Le planificateur peut présumer du type d'un agent qui ne participe pas. Je prouve que la solution du problème de conception peut être trouvée par un choix max-min des types présumés et des menaces. J'applique ceci à la conception d'une enchère multiple efficace lorsque la possession du bien par un acheteur a des externalités négatives sur les autres acheteurs. Le deuxième essai considère la règle du juste retour employée par l'agence spatiale européenne (ESA). Elle assure à chaque état membre un retour proportionnel à sa contribution, sous forme de contrats attribués à des sociétés venant de cet état. La règle du juste retour est en conflit avec le principe de la libre concurrence puisque des contrats ne sont pas nécessairement attribués aux sociétés qui font les offres les plus basses. Ceci a soulevé des discussions sur l'utilisation de cette règle: les grands états ayant des programmes spatiaux nationaux forts, voient sa stricte utilisation comme un obstacle à la compétitivité et à la rentabilité. Apriori cette règle semble plus coûteuse à l'agence que les enchères traditionnelles. Nous prouvons au contraire qu'une implémentation appropriée de la règle du juste retour peut la rendre moins coûteuse que des enchères traditionnelles de libre concurrence. Nous considérons le cas de l'information complète où les niveaux de technologie des firmes sont de notoriété publique, et le cas de l'information incomplète où les sociétés observent en privée leurs coûts de production. Enfin, dans le troisième essai je dérive un mécanisme optimal d'appel d'offre dans un environnement où un acheteur d'articles hétérogènes fait face a de potentiels fournisseurs de différents groupes, et est contraint de choisir une liste de gagnants qui est compatible avec des quotas assignés aux différents groupes. La règle optimale d'attribution consiste à assigner des niveaux de priorité aux fournisseurs sur la base des coûts individuels qu'ils rapportent au décideur. La manière dont ces niveaux de priorité sont déterminés est subjective mais connue de tous avant le déroulement de l'appel d'offre. Les différents coûts rapportés induisent des scores pour chaque liste potentielle de gagnant. Les articles sont alors achetés à la liste ayant les meilleurs scores, s'il n'est pas plus grand que la valeur de l'acheteur. Je montre également qu'en général il n'est pas optimal d'acheter les articles par des enchères séparées.
Resumo:
La fertilisation phosphatée est très répandue dans les pratiques agricoles Nord-Américaines. Bien que généralement très efficace pour augmenter la production végétale, son utilisation peut engendrer certaines contaminations environnementales. Afin de diminuer ce problème, plusieurs pratiques de gestion sont envisagées. Parmi celles-ci, on retrouve l’intéressante possibilité de manipuler la flore microbienne car cette dernière est reconnue pour son implication dans bons nombres de processus fondamentaux liés à la fertilité du sol. Cette étude a démontré que lors d’essais en champs, la forme de fertilisant ajouté au sol ainsi que la dose de phosphore (P) appliquée avaient un impact sur la distribution des microorganismes dans les différentes parcelles. Une première expérience menée sur une culture de luzerne en prairie semi-aride a montré que les échantillons provenant de parcelles ayant reçu différentes doses de P présentaient des différences significatives dans leurs communautés bactériennes et fongiques. La communauté de CMA est restée similaire entre les différents traitements. Une deuxième expérience fut menée pendant trois saisons consécutives afin de déterminer l’effet de différentes formes de fertilisation organiques et minérale ajustées selon une dose unique de P sur les populations bactériennes et fongiques d’une culture intensive de maïs en rotation avec du soja. Les résultats des analyses ont montrés que les populations varient selon le type de fertilisation reçu et que les changements sont indépendants du type de végétaux cultivé. Par contre, les populations microbiennes subissent une variation plus marquée au cours de la saison de culture. La technique de DGGE a permis d’observer les changements frappant la diversité microbienne du sol mais n’a permis d’identifier qu’une faible proportion des organismes en cause. Parallèlement à cette deuxième étude, une seconde expérience au même site fut menée sur la communauté de champignons mycorhiziens à arbuscules (CMA) puisqu’il s’agit d’organismes vivant en symbiose mutualiste avec la majorité des plantes et favorisant la nutrition de même que l’augmentation de la résistance aux stress de l’hôte. Ceci permit d’identifier et de comparer les différents CMA présents dans des échantillons de sol et de racines de maïs et soja. Contrairement aux bactéries et aux champignons en général, les CMA présentaient une diversité très stable lors des différents traitements. Par contre, au cours des trois années expérimentales, il a été noté que certains ribotypes étaient significativement plus liés au sol ou aux racines. Finalement, l’ensemble de l’étude a démontré que la fertilisation phosphatée affecte la structure des communautés microbiennes du sol dans les systèmes évalués. Cependant, lors de chaque expérience, la date d’échantillonnage jouait également un rôle prépondérant sur la distribution des organismes. Plusieurs paramètres du sol furent aussi mesurés et ils présentaient aussi une variation au cours de la saison. L’ensemble des interactions possibles entre ces différents paramètres qui, dans certains cas, variaient selon le traitement appliqué, aurait alors probablement plus d’impact sur la biodiversité microbienne que la seule fertilisation.
Resumo:
La complexité de l’étude des neuropathies héréditaires provient de leur hétérogénéité clinique et génétique et de la diversité des fibres composant les nerfs périphériques. Cette complexité se reflète dans les nombreuses classifications différentes. Les neuropathies héréditaires se classifient entre autres selon leur mode de transmission et leur atteinte sensitive, autonomique et motrice. Les neuropathies héréditaires sensitives et autonomiques (NHSA) se présentent avec une perte de la sensation distale aux membres, accompagnée d’autres manifestations selon le type de NHSA. L’étude des NHSA est facilitée lorsqu’il existe des grappes de familles originaires de régions du Québec où des effets fondateurs pour des maladies récessives ont déjà été identifiés. Nous avons recruté une grande famille canadienne-française originaire de Paspébiac dans la Baie-des-Chaleurs dans laquelle nous avons identifié quatre cas atteints d’une neuropathie héréditaire sensitive avec rétinite pigmentaire et ataxie (NHSRPA). Nous avons émis l’hypothèse que nous étions en présence d’une nouvelle forme de neuropathie héréditaire sensitive récessive à effet fondateur. Afin d’identifier la position chromosomique du gène muté responsable de la NHSRPA, nous avons tout d’abord complété un criblage du génome en génotypant des marqueurs microsatellites «single tandem repeat» (STR) sur des individus clés et nous avons ensuite procédé à une analyse de liaison génétique paramétrique. Ces études nous ont permis de lier cette famille au chromosome 1 et de définir un premier intervalle candidat de 6,7 Mb. Grâce à un génotypage de marqueurs «single nucleotide polymorphism» (SNP), nous avons réduit l’intervalle candidat à 5,3 Mb au locus 1q32,2-q32,3. Cette région contient 44 gènes candidats. Une revue plus fine de la littérature a fait ressortir qu’une famille espagnole et une américaine de souche hollandaise souffrant de la même maladie avaient déjà été liées au même locus. L’origine possiblement basque de notre famille gaspésienne nous a poussé à comparer l’haplotype porteur avec celui de la famille espagnole qui, quoi que gitane, provient du pays basque espagnol. Ces travaux ont démontré le partage d’une région de 203 kb. Afin de rétrécir davantage notre intervalle candidat, nous avons comparé les haplotypes des cas entre les deux familles et nous avons identifié un dernier intervalle candidat de 60 SNP au locus 1q32,3. Cette région ne contient que quatre gènes candidats dont le plus intéressant est le gène «activating transcription factor» (ATF3). À ce jour, aucune mutation n’a été trouvée dans le gène ATF3 et les gènes FAM71A, BATF3 et NSL1. Des expériences supplémentaires sont nécessaires afin d’identifier le gène muté responsable de la NHSRPA.
Resumo:
L’architecture au sens strict, qui renvoie à la construction, n’est pas indépendante des déterminations mentales, des images et des valeurs esthétiques, comme références, amenées par divers champs d’intérêt au problème du sens. Elle est, de par ce fait, un objet d’interprétation. Ce qu’on appelle communément « signification architecturale », est un univers vaste dans lequel sont constellées des constructions hypothétiques. En ce qui nous concerne, il s’agit non seulement de mouler la signification architecturale selon un cadre et des matières spécifiques de référence, mais aussi, de voir de près la relation de cette question avec l’attitude de perception de l’homme. Dans l’étude de la signification architecturale, on ne peut donc se détacher du problème de la perception. Au fond, notre travail montrera leur interaction, les moyens de sa mise en œuvre et ce qui est en jeu selon les pratiques théoriques qui la commandent. En posant la question de l’origine de l’acte de perception, qui n’est ni un simple acte de voir, ni un acte contemplatif, mais une forme d’interaction active avec la forme architecturale ou la forme d’art en général, on trouve dans les écrits de l’historien Christian Norberg-Schulz deux types de travaux, et donc deux types de réponses dont nous pouvons d’emblée souligner le caractère antinomique l’une par rapport à l’autre. C’est qu’il traite, dans le premier livre qu’il a écrit, Intentions in architecture (1962), connu dans sa version française sous le titre Système logique de l’architecture (1974, ci-après SLA), de l’expression architecturale et des modes de vie en société comme un continuum, défendant ainsi une approche culturelle de la question en jeu : la signification architecturale et ses temporalités. SLA désigne et représente un système théorique influencé, à bien des égards, par les travaux de l’épistémologie de Jean Piaget et par les contributions de la sémiotique au développement de l’étude de la signification architecturale. Le second type de réponse sur l’origine de l’acte de perception que formule Norberg-Schulz, basé sur sur les réflexions du philosophe Martin Heidegger, se rapporte à un terrain d’étude qui se situe à la dérive de la revendication du fondement social et culturel du langage architectural. Il lie, plus précisément, l’étude de la signification à l’étude de l’être. Reconnaissant ainsi la primauté, voire la prééminence, d’une recherche ontologique, qui consiste à soutenir les questionnements sur l’être en tant qu’être, il devrait amener avec régularité, à partir de son livre Existence, Space and Architecture (1971), des questions sur le fondement universel et historique de l’expression architecturale. Aux deux mouvements théoriques caractéristiques de ses écrits correspond le mouvement que prend la construction de notre thèse que nous séparons en deux parties. La première partie sera ainsi consacrée à l’étude de SLA avec l’objectif de déceler les ambiguïtés qui entourent le cadre de son élaboration et à montrer les types de legs que son auteur laisse à la théorie architecturale. Notre étude va montrer l’aspect controversé de ce livre, lié aux influences qu’exerce la pragmatique sur l’étude de la signification. Il s’agit dans cette première partie de présenter les modèles théoriques dont il débat et de les mettre en relation avec les différentes échelles qui y sont proposées pour l’étude du langage architectural, notamment avec l’échelle sociale. Celle-ci implique l’étude de la fonctionnalité de l’architecture et des moyens de recherche sur la typologie de la forme architecturale et sur sa schématisation. Notre approche critique de cet ouvrage prend le point de vue de la recherche historique chez Manfredo Tafuri. La seconde partie de notre thèse porte, elle, sur les fondements de l’intérêt chez Norberg-Schulz à partager avec Heidegger la question de l’Être qui contribuent à fonder une forme d’investigation existentielle sur la signification architecturale et du problème de la perception . L’éclairage de ces fondements exige, toutefois, de montrer l’enracinement de la question de l’Être dans l’essence de la pratique herméneutique chez Heidegger, mais aussi chez H. G. Gadamer, dont se réclame aussi directement Norberg-Schulz, et de dévoiler, par conséquent, la primauté établie de l’image comme champ permettant d’instaurer la question de l’Être au sein de la recherche architecturale. Sa recherche conséquente sur des valeurs esthétiques transculturelles a ainsi permis de réduire les échelles d’étude de la signification à l’unique échelle d’étude de l’Être. C’est en empruntant cette direction que Norberg-Schulz constitue, au fond, suivant Heidegger, une approche qui a pour tâche d’aborder l’« habiter » et le « bâtir » à titre de solutions au problème existentiel de l’Être. Notre étude révèle, cependant, une interaction entre la question de l’Être et la critique de la technique moderne par laquelle l’architecture est directement concernée, centrée sur son attrait le plus marquant : la reproductibilité des formes. Entre les écrits de Norberg-Schulz et les analyses spécifiques de Heidegger sur le problème de l’art, il existe un contexte de rupture avec le langage de la théorie qu’il s’agit pour nous de dégager et de ramener aux exigences du travail herméneutique, une approche que nous avons nous-même adoptée. Notre méthode est donc essentiellement qualitative. Elle s’inspire notamment des méthodes d’interprétation, de là aussi notre recours à un corpus constitué des travaux de Gilles Deleuze et de Jacques Derrida ainsi qu’à d’autres travaux associés à ce type d’analyse. Notre recherche demeure cependant attentive à des questions d’ordre épistémologique concernant la relation entre la discipline architecturale et les sciences qui se prêtent à l’étude du langage architectural. Notre thèse propose non seulement une compréhension approfondie des réflexions de Norberg-Schulz, mais aussi une démonstration de l’incompatibilité de la phénoménologie de Heidegger et des sciences du langage, notamment la sémiotique.
Resumo:
De nous jours, les modèles se référant aux comportements individuels représentent la pensée dominante pour comprendre les choix alimentaires dans le domaine de la nutrition en santé publique. Ces modèles conceptualisent les choix alimentaires comme un comportement de consommation décidé de façon rationnelle par des individus, en réponse aux multiples déterminants personnels et environnementaux. Même si ces modèles sont utiles pour décrire les déterminants des comportements individuels d’alimentation, ils ne peuvent expliquer les choix alimentaires en tant que processus social façonné en fonction des individus et des lieux, dans des contextes diversifiés. Cette thèse élabore le Cadre Conceptuel sur la Pratique des Choix Alimentaires afin d’explorer les choix alimentaires comme phénomène social. En utilisant le concept de pratique sociale, les choix alimentaires des individus symbolisent une relation récursive entre la structure sociale et l’agence. Ce cadre conceptuel nous donne un moyen d’identifier les choix alimentaires comme des activités sociales modelées sur la vie de tous les jours et la constituant. Il offre des concepts pour identifier la manière dont les structures sociales renforcent les activités routinières menant aux choix alimentaires. La structure sociale est examinée en utilisant les règles et les ressources de Giddens et est opérationnalisée de la façon suivante : systèmes de significations partagées, normes sociales, ressources matérielles et ressources d'autorité qui permettent ou empêchent les choix alimentaires désirés. Les résultats empiriques de deux études présentées dans cette thèse appuient la proposition que les choix alimentaires sont des pratiques sociales. La première étude examine les pratiques de choix alimentaires au sein des familles. Nous avons identifié les choix alimentaires comme cinq activités routinières distinctes intégrées dans la vie familiale de tous les jours à partir d’analyses réalisées sur les activités d’alimentation habituelles de 20 familles avec de jeunes enfants. Notre seconde étude a élaboré les règles et les ressources des pratiques alimentaires à partir des familles de l’étude. Ensuite, nous avons analysé la façon dont les règles et les ressources pouvaient expliquer les pratiques de choix alimentaires qui sont renforcées ou limitées au sein des familles lors de la routine spécifique à la préparation des repas et de la collation. Les ressources matérielles et d'autorité suffisantes ont permis d’expliquer les pratiques de choix alimentaires qui étaient facilitées, alors que les défis pouvaient être compris comme etant reliés à des ressources limitées. Les règles pouvaient empêcher ou faciliter les pratiques de choix alimentaires par l’entremise de normes ou de significations associées à la préparation de repas. Les données empiriques provenant de cette thèse appuient les choix alimentaires comme étant des activités routinières qui sont structurées socialement et qui caractérisent les familles. Selon la théorie de la structuration de Giddens, les pratiques routinières qui persistent dans le temps forment les institutions sociales. Ainsi, les pratiques routinières de choix alimentaires façonnent les styles d’habitudes alimentaires familiales et contribuent par ailleurs à la constitution des familles elles-mêmes. Cette compréhension identifie de nouvelles directions concernant la façon dont les choix alimentaires sont conceptualisés en santé publique. Les programmes de promotion de la santé destinés à améliorer la nutrition sont des stratégies clés pour prévenir les maladies chroniques et pour améliorer la santé populationnelle. Les choix alimentaires peuvent être abordés comme des activités partagées qui décrivent des groupes sociaux et qui sont socialement structurés par des règles et des ressources présentes dans les contextes de pratiques de choix alimentaires.
Resumo:
Ce mémoire contient un article ayant été soumis à la Revue de Psychoéducation. Cet article a été rédigé avec comme co-auteur Michel Janosz
Resumo:
À partir du projet d’écriture d’une chronique que Céline met en avant lorsqu’il parle de son œuvre dans l’après-guerre, ce mémoire examine l’hypothèse selon laquelle le genre des chroniques médiévales fait, dans Nord, l’objet d’une réécriture permanente et déterminante pour la version de la Seconde Guerre mondiale de Céline. La notion d’horizon d’attente de Jauss permet d’abord de démontrer comment Nord reconstruit le discours testimonial et l’éthos de la vérité qui fondent la légitimité de chroniqueurs comme Villehardouin ou Clari afin d’accréditer une version illégitime des événements de 39-45. Au récit magnifié de la « Libération », Céline oppose en effet une chronique de l’épuration et un témoignage sur la vie quotidienne dans l’Allemagne de 1944. Idéologiquement nationalistes, les chroniques médiévales forment une lignée de la francité à partir de laquelle Céline crée une fiction politique passéiste qui projette sur les événements de 39-45 la géopolitique d’une Europe médiévale afin de cautionner les partis pris d’extrême droite de l’auteur. Par ailleurs, Nord accentue la propension autobiographique de certaines chroniques et la confond avec une lignée de mémorialistes disgraciés. Ceux-ci lui fournissent le plaidoyer pro domo qui orchestre toute la rhétorique d’autojustification de l’écrivain dans l’après-guerre : s’autoproclamer victime de l’histoire afin de justifier a posteriori les pamphlets antisémites et ainsi s’exonérer de tout aveu de culpabilité. Enfin, Céline qualifie Nord de « roman » par référence à la part d’affabulation des chroniqueurs. Pour représenter l’histoire en une Apocalypse advenue sans justice divine et sans héros, Nord procède en effet à une réactivation des genres fictionnels comme la légende, l’épique et le chevaleresque qui s’entremêlaient à l’histoire dans les Chroniques de Froissart. Cette réécriture entre fabula et historia est donc d’abord une création de romancier qui, dans le contexte de crise de la fiction de l’après-guerre, procède à un épuisement du roman par l’histoire.
Resumo:
L’application aux civils du concept de « sortie de guerre » offre aux historiens de nouvelles pistes de recherche. Bien que la mobilisation culturelle de l’enfance dans la Grande Guerre ait fait l’objet de plusieurs études depuis les dernières années, le processus de démobilisation reste, quant à lui, peu exploré. Ce mémoire s’intéressera donc à la « sortie de guerre » chez les enfants français, à travers des sources inédites : des lettres adressées au président des États-Unis, Woodrow Wilson, à la fin de 1918. L’analyse met en lumière la perception des enfants sur la paix, la guerre, les Américains, et les changements de leur quotidien depuis l’armistice. Après une première partie historiographique, le deuxième chapitre portera sur la représentation de Wilson, des Américains et de la paix. Dans le dernier chapitre seront analysés le quotidien des enfants dans les mois suivant l’armistice, les représentations de la guerre et le processus de démobilisation. Fin 1918, la guerre tient encore beaucoup de place dans les propos des enfants et peu de signes de démobilisation émergent de leurs lettres. Ainsi, le président américain est représenté comme le sauveur de la France et le grand vainqueur de la guerre plutôt qu’en apôtre de la paix. Le sujet principal des lettres porte ainsi sur la reconnaissance et la gratitude des enfants envers le président et les États-Unis pour leur participation à la guerre et pour l’aide à la victoire. Les valeurs et le passé communs entre les deux pays alliés, exploités par la propagande de guerre, sont soulignés par les enfants. La fin de la guerre commence à peine à se faire ressentir dans le quotidien des enfants. La période est marquée par les célébrations de la victoire. De plus, la peur tend à s’atténuer avec la fin des violences de guerre et des nouveaux deuils. Les perturbations de la guerre demeurent cependant chez plusieurs enfants, particulièrement chez les réfugiés et les orphelins de guerre : la pauvreté, les séparations familiales et les privations alimentaires en affectent ainsi plusieurs. La perpétuation de ce climat de guerre influence la démobilisation des enfants, qui manifestent leur patriotisme et leur haine de l’ennemi. Les représentations de l’ennemi et des combattants du temps de la guerre prévalent donc encore, mais les enfants expriment néanmoins leur lassitude du conflit et leur désir d’un rapide retour à la normale.
Resumo:
L’augmentation du nombre d’usagers de l’Internet a entraîné une croissance exponentielle dans les tables de routage. Cette taille prévoit l’atteinte d’un million de préfixes dans les prochaines années. De même, les routeurs au cœur de l’Internet peuvent facilement atteindre plusieurs centaines de connexions BGP simultanées avec des routeurs voisins. Dans une architecture classique des routeurs, le protocole BGP s’exécute comme une entité unique au sein du routeur. Cette architecture comporte deux inconvénients majeurs : l’extensibilité (scalabilité) et la fiabilité. D’un côté, la scalabilité de BGP est mesurable en termes de nombre de connexions et aussi par la taille maximale de la table de routage que l’interface de contrôle puisse supporter. De l’autre côté, la fiabilité est un sujet critique dans les routeurs au cœur de l’Internet. Si l’instance BGP s’arrête, toutes les connexions seront perdues et le nouvel état de la table de routage sera propagé tout au long de l’Internet dans un délai de convergence non trivial. Malgré la haute fiabilité des routeurs au cœur de l’Internet, leur résilience aux pannes est augmentée considérablement et celle-ci est implantée dans la majorité des cas via une redondance passive qui peut limiter la scalabilité du routeur. Dans cette thèse, on traite les deux inconvénients en proposant une nouvelle approche distribuée de BGP pour augmenter sa scalabilité ainsi que sa fiabilité sans changer la sémantique du protocole. L’architecture distribuée de BGP proposée dans la première contribution est faite pour satisfaire les deux contraintes : scalabilité et fiabilité. Ceci est accompli en exploitant adéquatement le parallélisme et la distribution des modules de BGP sur plusieurs cartes de contrôle. Dans cette contribution, les fonctionnalités de BGP sont divisées selon le paradigme « maître-esclave » et le RIB (Routing Information Base) est dupliqué sur plusieurs cartes de contrôle. Dans la deuxième contribution, on traite la tolérance aux pannes dans l’architecture élaborée dans la première contribution en proposant un mécanisme qui augmente la fiabilité. De plus, nous prouvons analytiquement dans cette contribution qu’en adoptant une telle architecture distribuée, la disponibilité de BGP sera augmentée considérablement versus une architecture monolithique. Dans la troisième contribution, on propose une méthode de partitionnement de la table de routage que nous avons appelé DRTP pour diviser la table de BGP sur plusieurs cartes de contrôle. Cette contribution vise à augmenter la scalabilité de la table de routage et la parallélisation de l’algorithme de recherche (Best Match Prefix) en partitionnant la table de routage sur plusieurs nœuds physiquement distribués.
Resumo:
Dans les pays africains en général et au Niger en particulier, l’ordinateur commence à trouver sa place au sein de l’école. Ce processus d’intégration pédagogique des technologies de l’information et de la communication est fortement dépendant des paramètres technologiques, pédagogiques et humains. Réussir ce processus, c’est connaitre les jugements et les attitudes des acteurs de cette école vis-à-vis de ces technologies. À partir des représentations sociales, nous pouvons connaître la manière de penser, de s'approprier, d'interpréter la réalité quotidienne d’un groupe d’individus vis-à-vis d’un objet, en l’occurrence ici, les TIC. Le premier objectif de notre recherche est de connaitre les représentations sociales que les enseignants du secondaire ont de l’ordinateur. Pour cela, nous avons mené une investigation auprès de vingt enseignants. À l’issue des entrevues, nous avons identifié des représentations sociales sur les attitudes des enseignants à l’égard de l’ordinateur, sur les risques de l’ordinateur à l’école et enfin sur les avantages de l’ordinateur à l’école. L’ensemble de ces représentations sociales met en évidence une attitude positive des enseignants vis-à-vis de l’ordinateur à l’école même si pour certains enseignants, l’ordinateur est un outil qui favorise la démotivation des élèves et qui est vu comme un concurrent potentiel. Notre second objectif est de connaître les représentations sociales des TIC chez des élèves. Cinquante élèves provenant de deux écoles ont constitué la population de notre étude. Après avoir soumis les entretiens recueillis à une analyse de contenu, nous sommes parvenu à des résultats qui mettent en évidence des représentations sociales sur les connaissances des TIC et sur son utilisation dans le cadre de l’apprentissage. Notre recherche devait aussi déterminer si les représentations sociales étaient fonction de la formation aux TIC. Les résultats du test d’hypothèse du Khi-carré montrent que la formation aux TIC n’influence pas l’émergence des représentations sociales. Le troisième objectif de notre recherche porte sur la construction d’une échelle de mesure des représentations sociales des TIC chez des élèves. Après avoir été élaborée l’échelle de mesure a été administrée à 265 élèves de deux lycées. Les résultats de l’analyse factorielle exploratoire montrent que l’échelle a une assez bonne cohérence interne. L’ensemble des résultats garantit la validité et la fidélité de l’échelle. L’ensemble des résultats montre que, bien que son utilisation soit très récente dans les écoles nigériennes, des représentations sociales ont été engendrées à l’endroit des TIC. Les contenus de ces représentations montrent des attitudes favorables aux TIC dans l’apprentissage.
Resumo:
Le vieillissement de la population canadienne prévisible dans les prochaines années entrainera d’importants changements au point de vue social. L’un d’eux est l’augmentation fulgurante du nombre d’aînés en état d’incapacité. Utilisant le modèle de microsimulation LifePaths, cette recherche compare deux projections, ayant des méthodologies différentes, du nombre d’individus en incapacité de 65 ans et plus vivant en ménage privé en 2031. La première méthode utilise le module d’incapacité de LifePaths pour générer les individus en incapacité tandis que la seconde méthode utilise plutôt une régression logistique ordonnée pour les obtenir. Les projections du nombre d’individus en état d’incapacité des deux méthodes nous permettent une comparaison entre ces résultats. Suite à l’élaboration de tableaux et de graphiques permettant de tracer un portait de la situation, cette recherche essaie de démystifier les sources possibles à l’origine de ces différences. Les résultats montrent d’importantes différences entre les projections, spécifiquement pour les individus en état d’incapacité sévère. De plus, lorsqu’on s’intéresse aux variables d’intérêts, on remarque que les différences de projections d’effectifs sont importantes chez les hommes et les gens mariés. Par contre, lorsque les proportions sont analysées, c’est plutôt le groupe d’âges 80 ans et plus ainsi que les projections pour la province du Québec qui créent problème. Ces différences sont attribuables aux caractéristiques d’un modèle de microsimulation, aux populations de départ ainsi qu’aux paramètres définis. Les résultats démontrés dans cette recherche mettent en garde sur les travaux étudiant le nombre d’individus en incapacité dans le futur. Nos deux méthodes ayant des résultats différents, nous ne pouvons pas conclure avec certitude quelle sera la situation dans le futur.