999 resultados para Paramètres fondamentaux
Resumo:
L’Éducation Pour Tous mobilise la communauté internationale et les gouvernements depuis 1990. Cet engagement global renouvelé en 2000 sous l’auspice de l’UNESCO puis des Nations-Unies, porte notamment sur un objectif de base : l’universalisation de la scolarisation primaire complète pour tous les enfants d’âge scolaire à l’horizon de 2015. Plusieurs études sur la réalisation de cet objectif montrent que les pays en développement sont les plus à risque et que les progrès accomplis dans la plupart de ces pays, pourraient être plus importants si la pratique du redoublement faisait davantage l’objet de régulation et de contrôle. Cela contribuerait à améliorer la réussite scolaire et accroître la rétention des élèves au sein des systèmes éducatifs. La pratique du redoublement est en effet une tradition dans plusieurs systèmes éducatifs. Elle est particulièrement prépondérante dans certains groupes de pays ou régions, notamment en Afrique francophone au sud du Sahara. Dans ces pays, le PASEC - Programme d’Analyse des Systèmes Éducatifs de la CONFEMEN (Conférence des Ministres de l’Éducation Nationale des pays ayant le français en partage) - œuvre à améliorer l’accès à une éducation de qualité pour tous, par exemple, en informant les politiques sur la situation nationale du redoublement. Cette recherche sur le redoublement, la réussite scolaire et l’objectif de la Scolarisation Primaire Universelle (SPU) privilégie la dimension pédagogique, l’analyse empirique et étudie le cas du Sénégal. Elle présente et discute les indicateurs internationaux de suivi de l’objectif de la SPU, fait le point de l’état des connaissances sur le redoublement et la réussite scolaire et montre le défi que représente la réalisation de l’objectif de la SPU notamment dans les pays francophones d’Afrique sub-Saharienne. Exploitant les données existantes de l’enquête longitudinale de suivi de cohorte du PASEC au Sénégal entre 1995 et 2000, cette recherche examine le parcours scolaire des élèves en vue de la réalisation de l’objectif de la SPU. L’examen effectué combine des approches d’analyse transversale et longitudinale du redoublement et des apprentissages par rapport aux caractéristiques personnelles, familiales et scolaires de l’élève. Les résultats d’analyse montrent des variabilités, notamment par rapport aux caractéristiques personnelles de l’élève et à celles de sa classe et de son milieu de scolarisation. L’analyse longitudinale du redoublement s’est appuyée sur le diagramme de flux scolaire et a permis de produire un ensemble d’indicateurs d’efficacité interne du système éducatif du Sénégal. Pour la cohorte étudiée, du fait de l’importance des redoublements et des abandons scolaires, il faut en moyenne 9,4 années de scolarité pour que l’élève progresse du deuxième au sixième (dernier) grade du primaire. Seulement 39% de l’effectif de la cohorte survivent au dernier grade ce qui suggère que si cette tendance se maintenait, le Sénégal serait à risque de ne pas réaliser l’objectif de la SPU. Une évaluation de la situation courante à partir de données plus récentes serait requise. Le diagramme de flux scolaire constitue un outil de planification de l’éducation et représente de ce fait un important levier aux mains des autorités politiques pour agir sur les paramètres du système éducatif (paramètres liés à la qualité de l’éducation, à l’efficacité interne, etc.) afin de répondre à des objectifs spécifiques ou d’étapes pouvant conduire, par exemple, à la réalisation de l’objectif de la SPU.
Resumo:
L’hypertrophie du ventricule gauche (HVG) est un processus adaptif et compensatoire qui se développe conséquemment à l’hypertension artérielle pour s’opposer à l’élévation chronique de la pression artérielle. L’HVG est caractérisée par une hypertrophie des cardiomyocytes suite à l’augmentation de la synthèse d’ADN, une prolifération des fibroblastes, une augmentation du dépôt de collagène et une altération de la matrice extracellulaire (MEC). Ces changements génèrent des troubles de relaxation et mènent au dysfonctionnement diastolique, ce qui diminue la performance cardiaque. La suractivité du système nerveux sympathique (SNS) joue un rôle essentiel dans le développement de l’hypertension artérielle et de l’HVG à cause de la libération excessive des catécholamines et de leurs effets sur la sécrétion des cytokines pro-inflammatoires et sur les différentes voies de signalisation hypertrophiques et prolifératives. Le traitement antihypertenseur avec de la moxonidine, un composé sympatholytique d’action centrale, permet une régression de l’HVG suite à une réduction soutenue de la synthèse d'ADN et d’une stimulation transitoire de la fragmentation de l'ADN qui se produit au début du traitement. En raison de l’interaction entre l’HVG, les cytokines inflammatoires, le SNS et leurs effets sur les protéines de signalisation hypertrophiques, l’objectif de cette étude est de détecter dans un modèle animal d’hypertension artérielle et d’HVG, les différentes voies de signalisation associées à la régression de l’HVG et à la performance cardiaque. Des rats spontanément hypertendus (SHR, 12 semaines) ont reçu de la moxonidine à 0, 100 et 400 µg/kg/h, pour une période de 1 et 4 semaines, via des mini-pompes osmotiques implantées d’une façon sous-cutanée. Après 4 semaines de traitement, la performance cardiaque a été mesurée par écho-doppler. Les rats ont ensuite été euthanasiés, le sang a été recueilli pour mesurer les concentrations des cytokines plasmatiques et les cœurs ont été prélevés pour la détermination histologique du dépôt de collagène et de l'expression des protéines de signalisation dans le ventricule gauche. Le traitement de 4 semaines n’a eu aucun effet sur les paramètres systoliques mais a permis d’améliorer les paramètres diastoliques ainsi que la performance cardiaque globale. Par rapport au véhicule, la moxonidine (400 µg/kg/h) a permis d’augmenter transitoirement la concentration plasmatique de l’IL-1β après une semaine et de réduire la masse ventriculaire gauche. De même, on a observé une diminution du dépôt de collagène et des concentrations plasmatiques des cytokines IL-6 et TNF-α, ainsi qu’une diminution de la phosphorylation de p38 et d’Akt dans le ventricule gauche après 1 et 4 semaines de traitement, et cela avec une réduction de la pression artérielle et de la fréquence cardiaque. Fait intéressant, les effets anti-hypertrophiques, anti-fibrotiques et anti-inflammatoires de la moxonidine ont pu être observés avec la dose sous-hypotensive (100 µg/kg/h). Ces résultats suggèrent des effets cardiovasculaires bénéfiques de la moxonidine associés à une amélioration de la performance cardiaque, une régulation de l'inflammation en diminuant les niveaux plasmatiques des cytokines pro-inflammatoires ainsi qu’en inhibant la MAPK p38 et Akt, et nous permettent de suggérer que, outre l'inhibition du SNS, moxonidine peut agir sur des sites périphériques.
Resumo:
L’ischémie aigüe (restriction de la perfusion suite à l’infarctus du myocarde) induit des changements majeurs des propriétés électrophysiologique du tissu ventriculaire. Dans la zone ischémique, on observe une augmentation du potassium extracellulaire qui provoque l’élévation du potentiel membranaire et induit un "courant de lésion" circulant entre la zone affectée et saine. Le manque d’oxygène modifie le métabolisme des cellules et diminue la production d’ATP, ce qui entraîne l’ouverture de canaux potassique ATP-dépendant. La tachycardie, la fibrillation ventriculaire et la mort subite sont des conséquences possibles de l’ischémie. Cependant les mécanismes responsables de ces complications ne sont pas clairement établis. La création de foyer ectopique (automaticité), constitue une hypothèse intéressante expliquant la création de ses arythmies. Nous étudions l’effet de l’ischémie sur l’automaticité à l’aide d’un modèle mathématique de la cellule ventriculaire humaine (Ten Tusscher, 2006) et d’une analyse exhaustive des bifurcations en fonction de trois paramètres : la concentration de potassium extracellulaire, le "courant de lésion" et l’ouverture de canaux potassiques ATP-dépendant. Dans ce modèle, nous trouvons que seule la présence du courant de lésion peut entrainer une activité automatique. Les changements de potassium extracellulaire et du courant potassique ATP-dépendant altèrent toutefois la structure de bifurcation.
Resumo:
Thèse réalisée dans le cadre d'une cotutelle entre l'Université de Montréal et l'Université d'Auvergne en France
Resumo:
Les liposomes sont des structures sphériques formés par l'auto-assemblage de molécules amphiphiles sous forme d'une bicouche. Cette bicouche sépare le volume intérieur du liposome du milieu extérieur, de la même manière que les membranes cellulaires. Les liposomes sont donc des modèles de membranes cellulaires et sont formulés pour étudier les processus biologiques qui font intervenir la membrane (transport de molécules à travers la membrane, effets des charges en surface, interactions entre la matrice lipidique et d'autres molécules, etc.). Parce qu'ils peuvent encapsuler une solution aqueuse en leur volume intérieur, ils sont aussi utilisés aujourd'hui comme nanovecteurs de principes actifs. Nous avons formulé des liposomes non-phospholipidiques riches en stérol que nous avons appelés stérosomes. Ces stérosomes sont composés d'environ 30 % d'amphiphiles monoalkylés et d'environ 70 % de stérols (cholestérol, Chol, et/ou sulfate de cholestérol, Schol). Quand certaines conditions sont respectées, ces mélanges sont capables de former une phase liquide ordonnée (Lo) pour donner, par extrusion, des vésicules unilamellaires. Certaines de ces nouvelles formulations ont été fonctionnalisées de manière à libérer leur contenu en réponse à un stimulus externe. En incorporant des acides gras dérivés de l’acide palmitique possédant différents pKa, nous avons pu contrôler le pH auquel la libération débute. Un modèle mathématique a été proposé afin de cerner les paramètres régissant leur comportement de libération. En incorporant un amphiphile sensible à la lumière (un dérivé de l’azobenzène), les liposomes formés semblent répondre à une radiation lumineuse. Pour ce système, il serait probablement nécessaire de tracer le diagramme de phase du mélange afin de contrôler la photo-libération de l’agent encapsulé. Nous avons aussi formulé des liposomes contenant un amphiphile cationique (le chlorure de cétylpyridinium). En tant que nanovecteurs, ces stérosomes montrent un potentiel intéressant pour la libération passive ou contrôlée de principes actifs. Pour ces systèmes, nous avons développé un modèle pour déterminer l’orientation des différentes molécules dans la bicouche. La formation de ces nouveaux systèmes a aussi apporté de nouvelles connaissances dans le domaine des interactions détergents-lipides. Aux nombreux effets du cholestérol (Chol) sur les systèmes biologiques, il faut ajouter maintenant que les stérols sont aussi capables de forcer les amphiphiles monoalkylés à former des bicouches. Cette nouvelle propriété peut avoir des répercussions sur notre compréhension du fonctionnement des systèmes biologiques. Enfin, les amphiphiles monoalkylés peuvent interagir avec la membrane et avoir des répercussions importantes sur son fonctionnement. Par exemple, l'effet antibactérien de détergents est supposé être dû à leur insertion dans la membrane. Cette insertion est régie par l'affinité existant entre le détergent et cette dernière. Dans ce cadre, nous avons voulu développer une nouvelle méthode permettant d'étudier ces affinités. Nous avons choisi la spectroscopie Raman exaltée de surface (SERS) pour sa sensibilité. Les hypothèses permettant de déterminer cette constante d’affinité se basent sur l’incapacité du détergent à exalter le signal SERS lorsque le détergent est inséré dans la membrane. Les résultats ont été comparés à ceux obtenus par titration calorimétrique isotherme (ITC). Les résultats ont montré des différences. Ces différences ont été discutées.
Resumo:
Résumé L’objectif de cette étude était de déterminer les effets de la source de sélénium sur les concentrations de Se et de GSH-Px des vaches de boucherie (n =33) et leurs veaux et sur des paramètres immunitaires des veaux. Deux groupes de vaches ont reçu 3 mg/j/animal de Se organique ou inorganique dans le minéral. Le troisième groupe n'a pas été supplémenté en Se et leurs veaux ont été divisés en deux sous-groupes, l’un des deux a reçu une injection de sélénite de sodium (0,087 mg/Kg) à la naissance. Le Se et la GSH-Px ont été respectivement mesurés par HPLC-UV et par cinétique enzymatique. La phagocytose, la flambée respiratoire et le ratio CD4:CD8ont été évalués par des kits commerciaux et les IgG totales ont été mesurés par immunodiffusion radiale. La supplémentation de Se a augmenté significativement le Se sérique et colostral (P<0,02) et la GSH-Px(P≤0,04) pour les vaches et leurs veaux avec un effet significativement plus élevé pour le Se organique. Le Se du lait a augmenté de façon significative uniquement avec la source organique du Se (P≤0,0007). L’injection du Se chez les veaux a permis une augmentation significative mais temporaire (P<0,0001) du Se sérique. La supplémentation en Se n’a pas influencé les paramètres immunitaires mesurés (P>0,01, non significatif après correction de Bonferroni). Nous concluons que la supplémentation en Se améliore le niveau du Se colostral, lacté et sérique ainsi que la GSH-Px pour les vaches et leurs veaux sans effet sur les paramètres immunitaires mesurés des veaux. Mots clés: Sélénium, veaux de boucherie, phagocytose, flambée respiratoire, anticorps, ratio CD4:CD8, GSH-Px.
Resumo:
Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.
Resumo:
Outre les facteurs métaboliques et hémodynamiques, l’inflammation est actuellement considérée comme un facteur pathogénique potentiel de la néphropathie diabétique (ND), pouvant contribuer à l’initiation et à la progression de la maladie. Les mécanismes menant au développement de l’inflammation rénale dans la ND sont encore peu connus, bien qu’une augmentation d’activité des systèmes rénine angiotensine (RAS) et de l’endothéline (ET) semble y contribuer. L’objectif général de cette étude mono-centre, à double aveugle, randomisée et incluant un groupe placebo était de démontrer que l’inhibition simultanée du RAS et du système de l’ET chez des patients avec ND induisait des effets rénoprotecteurs et anti-inflammatoires supérieurs à ceux observés par blocage du RAS seul. L’objectif spécifique de notre étude était d’évaluer la possibilité que l’administration d’un bloqueur des récepteurs de l’ET-1, le bosentan, à des patients atteints de ND et traités par bloqueurs des récepteurs de l’angiotensine II (BRA), réduisait, chez ces derniers, la protéinurie et les marqueurs inflammatoires systémiques et rénaux. Ce travail constitue un rapport d’un cas clinique et illustre les résultats obtenus suite à l’administration pendant 16 semaines du bosentan chez un patient diabétique de type 2 avec néphropathie clinique traité au long cours par BRA. Le protocole de recherche comprenait 6 visites médicales à 4 semaines d’intervalle, la première visite (V1) correspondant au recrutement du patient, la deuxième visite (V2) constituant le temps 0 de l’étude et la dernière visite (V6) représentant la fin de l’étude. Des échantillons de sang et d’urine étaient prélevés à 3 reprises soit à V2, V4 c’est-à-dire 8 semaines après le début du traitement et à V6 soit 16 semaines après le début du traitement pour mesure des taux sériques et urinaires de divers facteurs pro-inflammatoires incluant l’ET-1, le facteur de nécrose tumorale alpha (TNF-α), l’interleukine-6 (IL-6), le facteur chémoattractant des monocytes-1 (MCP-1), la molécule d’adhésion intracellulaire-1 (ICAM-1), la molécule d’adhésion vasculaire-1 (VCAM-1) et la protéine C-réactive (CRP). Un profil lipidique était aussi déterminé au début et à la fin de l’étude. La fonction rénale était mesurée aux visites V1, V2, V4 et V6 par détermination du taux de filtration glomérulaire (TFG) et de l’excrétion urinaire d’albumine (UAE). Des tests biochimiques de routine étaient aussi faits à chaque visite. La corrélation entre les paramètres inflammatoires et rénaux sous étude et la filtration glomérulaire était enfin déterminée. Nos résultats chez ce sujet ont démontré que le bosentan réduisait l’UAE de 32 % et 35% aux semaines 8 et 16, et ce, sans affecter la pression artérielle ou la filtration glomérulaire. L'effet anti-protéinurique du bosentan était associé à une réduction des concentrations urinaires de VCAM-1, ICAM-1, IL-6, TNF-α et d’ET-1 ainsi qu’à une diminution des concentrations sériques de TNF-α. Le changement dans la protéinurie était corrélé de manière positive avec les changements des niveaux urinaires de VCAM-1 (r=0.86), ICAM-1 (r=0.88), ET-1 (r=0.94), et du TNF-α (r=0.96) ainsi qu’avec les changements des niveaux sériques de TNF-α (r=0.98). Ces données suggèrent que l’inhibition du système de l’ET induit dans la ND des effets rénoprotecteurs additifs à ceux observés par blocage du RAS seul. Ils supportent le concept que l’activation du système de l’ET au niveau rénal, par ses effets inflammatoires, puisse jouer un rôle important dans la pathogenèse de la ND. L’effet anti-inflammatoire et anti-protéinurique du bosentan constitue une découverte intéressante susceptible d’engendrer dans le futur une alternative thérapeutique et préventive dans la prise en charge de la ND.
Resumo:
À l’image des théories de la bande dessinée imprimée, la BD numérique est elle aussi accaparée par les analyses formalistes, dont la plus connue, celle de Scott McCloud, est critiquable, car elle réduit le média à un langage. Or, les mutations provoquées par la remédiation numérique ne sont pas uniquement formelles : l’expérience du lecteur, de l’auteur, et le rapport qu’ils entretiennent ensemble sont modifiés. Ce nouveau rapport influence le contenu des œuvres : on ne raconte pas la même chose dans le livre que sur Internet. L’autobiographie en BD, courant qui a explosé dans l’édition indépendante des années 1990, puis a été largement repris par les blogueurs, permet d’observer les différences de contenus et d’approches véhiculées par le livre et le numérique. Le dispositif du blogue propose un outil de liberté d’expression et de réflexion, mais les paramètres de son exécution (immédiateté, interactivité, désir de popularité, etc.) peuvent détourner cet objectif. Ainsi, beaucoup d’auteurs de blogues n’ont pas produit une autobiographie singulière, mais ont reproduit un courant de pensée existant (en exposant une libido fortement orientée vers la consommation) ainsi qu’un genre codifié, au sein duquel les autobiographies deviennent uniformes. Pour qualifier leurs blogues, on ne peut pas vraiment parler d’autobiographies, car ils ne mettent pas en scène un passé rétrospectif. Il s’agirait davantage de journaux intimes dont l’intimité est communiquée (ou publicisée) plutôt qu’expérimentée. Ce à quoi ces blogues ressemblent finalement le plus, c’est à une sorte de télé-réalité, une « bédé-réalité ».
Resumo:
Plusieurs travaux de recherche indiquent que des personnes âgées peuvent vivre des situations d’exclusion sociale en raison de leur âge. Celles qui reçoivent des soins palliatifs peuvent de plus être affectées par des situations d’exclusion parce qu’elles sont malades et mourantes. On constate que leur accès à ce type de soins est limité et que certaines pratiques banalisent leur expérience de fin de vie et qu’elles tiennent difficilement compte des particularités du vieillissement. À partir d’une analyse secondaire qualitative de six entrevues, menées auprès de travailleuses sociales, ce mémoire vise à comprendre en quoi leurs pratiques de soins palliatifs gérontologiques engendrent des situations d’exclusion sociale ou encore, comment elles peuvent les éloigner. En plus de contribuer au savoir pratique, ce mémoire rend compte de la diversité des représentations dans ce contexte de pratique et leur influence sur l’intervention. Ainsi, des représentations positives envers les personnes âgées, de même que des pratiques qui considèrent les différenciations individuelles, éloignent des risques d’exclusion. Toutefois, quelques-uns des principes fondamentaux de l’approche des soins palliatifs et des modèles d’accompagnement peuvent contribuer à produire des situations d’exclusion. Ce mémoire identifie, par ailleurs, un ensemble de conditions, relevant ou non de l’exclusion sociale, liées à différents contextes, aux personnes soignées et la leur famille ainsi qu’aux travailleurs sociaux, qui peuvent nuire à l’intervention, ou encore, favoriser des pratiques inclusives. Il termine par quelques pistes d’action susceptibles de promouvoir l’inclusion sociale des personnes âgées en soins palliatifs.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Dans le domaine des neurosciences computationnelles, l'hypothèse a été émise que le système visuel, depuis la rétine et jusqu'au cortex visuel primaire au moins, ajuste continuellement un modèle probabiliste avec des variables latentes, à son flux de perceptions. Ni le modèle exact, ni la méthode exacte utilisée pour l'ajustement ne sont connus, mais les algorithmes existants qui permettent l'ajustement de tels modèles ont besoin de faire une estimation conditionnelle des variables latentes. Cela nous peut nous aider à comprendre pourquoi le système visuel pourrait ajuster un tel modèle; si le modèle est approprié, ces estimé conditionnels peuvent aussi former une excellente représentation, qui permettent d'analyser le contenu sémantique des images perçues. Le travail présenté ici utilise la performance en classification d'images (discrimination entre des types d'objets communs) comme base pour comparer des modèles du système visuel, et des algorithmes pour ajuster ces modèles (vus comme des densités de probabilité) à des images. Cette thèse (a) montre que des modèles basés sur les cellules complexes de l'aire visuelle V1 généralisent mieux à partir d'exemples d'entraînement étiquetés que les réseaux de neurones conventionnels, dont les unités cachées sont plus semblables aux cellules simples de V1; (b) présente une nouvelle interprétation des modèles du système visuels basés sur des cellules complexes, comme distributions de probabilités, ainsi que de nouveaux algorithmes pour les ajuster à des données; et (c) montre que ces modèles forment des représentations qui sont meilleures pour la classification d'images, après avoir été entraînés comme des modèles de probabilités. Deux innovations techniques additionnelles, qui ont rendu ce travail possible, sont également décrites : un algorithme de recherche aléatoire pour sélectionner des hyper-paramètres, et un compilateur pour des expressions mathématiques matricielles, qui peut optimiser ces expressions pour processeur central (CPU) et graphique (GPU).
Resumo:
La conception heideggérienne du « cercle de la compréhension » exposée aux §§ 31 et 32 de Sein und Zeit est bien connue et a souvent été analysée, notamment par Hans-Georg Gadamer dans Vérité et méthode (1960) et Jean Greisch dans son commentaire de Sein und Zeit (1994). Mais on a trop peu vu que la théorie du cercle herméneutique déterminait aussi la conception heideggérienne de la philosophie. Notre recherche s’efforcera de le montrer et d’expliquer pourquoi il en est ainsi. Au plan de la méthodologie, nous proposerons, en nous inspirant des commentateurs les plus autorisés (Greisch, Gadamer, Courtine, et al.), un commentaire serré des §§ 31 et 32 de Sein und Zeit, sans oublier le § 63 où Heidegger souligne lui-même la « situation herméneutique » de sa propre enquête, ni le § 68 où se trouve mise en évidence la dimension temporelle du cercle de la compréhension. Nous tâcherons ensuite de montrer en quoi ce cercle affecte la conception heideggérienne de la philosophie telle que présentée au § 7 de Sein und Zeit et dans d’autres textes de Heidegger tels que Les problèmes fondamentaux de la phénoménologie (GA 24).
Resumo:
Dans les pays africains en général et au Niger en particulier, l’ordinateur commence à trouver sa place au sein de l’école. Ce processus d’intégration pédagogique des technologies de l’information et de la communication est fortement dépendant des paramètres technologiques, pédagogiques et humains. Réussir ce processus, c’est connaitre les jugements et les attitudes des acteurs de cette école vis-à-vis de ces technologies. À partir des représentations sociales, nous pouvons connaître la manière de penser, de s'approprier, d'interpréter la réalité quotidienne d’un groupe d’individus vis-à-vis d’un objet, en l’occurrence ici, les TIC. Le premier objectif de notre recherche est de connaitre les représentations sociales que les enseignants du secondaire ont de l’ordinateur. Pour cela, nous avons mené une investigation auprès de vingt enseignants. À l’issue des entrevues, nous avons identifié des représentations sociales sur les attitudes des enseignants à l’égard de l’ordinateur, sur les risques de l’ordinateur à l’école et enfin sur les avantages de l’ordinateur à l’école. L’ensemble de ces représentations sociales met en évidence une attitude positive des enseignants vis-à-vis de l’ordinateur à l’école même si pour certains enseignants, l’ordinateur est un outil qui favorise la démotivation des élèves et qui est vu comme un concurrent potentiel. Notre second objectif est de connaître les représentations sociales des TIC chez des élèves. Cinquante élèves provenant de deux écoles ont constitué la population de notre étude. Après avoir soumis les entretiens recueillis à une analyse de contenu, nous sommes parvenu à des résultats qui mettent en évidence des représentations sociales sur les connaissances des TIC et sur son utilisation dans le cadre de l’apprentissage. Notre recherche devait aussi déterminer si les représentations sociales étaient fonction de la formation aux TIC. Les résultats du test d’hypothèse du Khi-carré montrent que la formation aux TIC n’influence pas l’émergence des représentations sociales. Le troisième objectif de notre recherche porte sur la construction d’une échelle de mesure des représentations sociales des TIC chez des élèves. Après avoir été élaborée l’échelle de mesure a été administrée à 265 élèves de deux lycées. Les résultats de l’analyse factorielle exploratoire montrent que l’échelle a une assez bonne cohérence interne. L’ensemble des résultats garantit la validité et la fidélité de l’échelle. L’ensemble des résultats montre que, bien que son utilisation soit très récente dans les écoles nigériennes, des représentations sociales ont été engendrées à l’endroit des TIC. Les contenus de ces représentations montrent des attitudes favorables aux TIC dans l’apprentissage.
Resumo:
Le LiFePO4 est un matériau prometteur pour les cathodes des batteries au lithium. Il possède une bonne stabilité à haute température et les précurseurs utilisés pour la synthèse sont peu couteux. Malheureusement, sa faible conductivité nuit aux performances électrochimiques. Le fait de diminuer la taille des particules ou d’enrober les particules d’une couche de carbone permet d’augmenter la conductivité. Nous avons utilisé une nouvelle méthode appelée « synthèse par voie fondue » pour synthétiser le LiFePO4. Cette synthèse donne des gros cristaux et aucune impureté n’est détectée par analyse Rayon-X. En revanche, la synthèse de LiXFePO4 donne un mélange de LiFePO4 pur et d’impureté à base de lithium ou de fer selon l’excès de fer ou de lithium utilisé. La taille des particules de LiFePO4 est réduite à l’aide d’un broyeur planétaire et plusieurs paramètres de broyage sont étudiés. Une couche de carbone est ensuite déposée sur la surface des particules broyées par un traitement thermique sur le LiFePO4 avec du -lactose. L’influence de plusieurs paramètres comme la température du traitement thermique ou la durée du chauffage sont étudiés. Ces expériences sont réalisées avec un appareil d’analyse thermogravimétrique (ATG) qui donne la quantité de chaleur ainsi que la variation de masse durant le chauffage de l’échantillon. Ce nouveau chauffage pour la couche de carbone donne des échantillons dont les performances électrochimiques sont similaires à celles obtenues précédemment avec la méthode de chauffage pour la couche de carbone utilisant le four tubulaire.