936 resultados para formation des enseignants aux TIC
Resumo:
Dans quelle mesure la montée de la reddition de comptes et de l’évaluation en éducation est-elle significative d’un déclin de la confiance de l’Etat, des administrateurs scolaires et des usagers dans la capacité des organisations scolaires à remplir correctement leurs missions ? N’est-elle pas également symptômatique d’une perte de confiance à l’égard des enseignants et de leur professionnalisme? Nous traiterons ces questions en proposant une réflexion à partir des théories de la confiance en sciences sociales. Nous distinguerons en particulier les théories qui s’interrogent sur les conditions de confiance dans les transactions économiques et celles qui raisonnent la confiance « politique » dans les institutions. Nous argumentons que les dispositifs d’accountability tendent surtout à réduire l’incertitude des clients/managers quant aux risques d’opportunisme et d’opacité des opérateurs scolaires. Il s’agit de favoriser la bonne marche « du marché » ou de « l’organisation productive » scolaire, au risque d’une perte d’autonomie professionnelle des enseignants et sans pour autant que l’Ecole ne redevienne une institution politique «digne de confiance ».
Resumo:
Depuis une quinzaine d’années, on assiste en Belgique francophone au développement d’une politique d’évaluation externe des écoles. Notre étude analyse la réception de cette politique par les acteurs locaux (directeurs et enseignants d’écoles primaires) et intermédiaires (inspecteurs) et montre comment les outils de régulation basés sur les connaissances mis en place par ces acteurs affectent la réception et la légitimité de la politique d’évaluation dans son ensemble. À l’aide de la sociologie de la traduction (Callon & Latour) et de la théorie néoinstitutionnaliste, nous comparons deux modes de construction et de mise en oeuvre de cette politique dans deux zones d’inspection. Dans la première, le dispositif repose pour l’essentiel sur la bureaucratie, tandis que dans la seconde la politique est construite par un réseau d’acteurs locaux et intermédiaires. Nous montrons que 1) les rôles et les stratégies des acteurs intermédiaires diffèrent considérablement ; 2) les différences constatées dans la construction de la politique d’évaluation (co-construction des outils par un réseau d’acteurs intermédiaires d’un côté, mise en oeuvre hiérarchique et bureaucratique de l’autre) sont liées aux différents effets des outils de régulation sur les pratiques des enseignants et sur la légitimité de cette politique.
Resumo:
L’étude des polymorphismes et des aspects multifactoriels des déterminants de la santé suscite un engouement majeur envers la recherche populationnelle en génétique et génomique. Cette méthode de recherche requiert cependant la collecte et l’analyse d’un nombre élevé d’échantillons biologiques et de données associées, ce qui stimule le développement des biobanques. Ces biobanques, composées des données personnelles et de santé de milliers de participants, constituent désormais une ressource essentielle permettant l’étude de l’étiologie des maladies complexes et multifactorielles, tout en augmentant la rapidité et la fiabilité des résultats de recherche. Afin d’optimiser l’utilisation de ces ressources, les chercheurs combinent maintenant les informations contenues dans différentes biobanques de manière à créer virtuellement des mégacohortes de sujets. Cependant, tout partage de données à des fins de recherche internationale est dépendant de la possibilité, à la fois légale et éthique, d’utiliser ces données aux fins pressenties. Le droit d’utiliser les données personnelles, médicales et génétiques de participants dans le cadre de recherches internationales est soumis à un ensemble complexe et exhaustif d’exigences légales et éthiques. Cette complexité est exacerbée lorsque les participants sont décédés. Fondée sur une révision de l’interprétation individualiste du concept de consentement éclairé, ainsi qu’une perspective constructiviste des concepts de confiance et d’autonomie, cette thèse se situe au carrefour de la recherche, du droit et de l’éthique, et a pour objectif de proposer un modèle promouvant l’harmonisation éthique et juridique des données aux fins de recherches internationales en génétique.
Resumo:
Notre système visuel extrait d'ordinaire l'information en basses fréquences spatiales (FS) avant celles en hautes FS. L'information globale extraite tôt peut ainsi activer des hypothèses sur l'identité de l'objet et guider l'extraction d'information plus fine spécifique par la suite. Dans les troubles du spectre autistique (TSA), toutefois, la perception des FS est atypique. De plus, la perception des individus atteints de TSA semble être moins influencée par leurs a priori et connaissances antérieures. Dans l'étude décrite dans le corps de ce mémoire, nous avions pour but de vérifier si l'a priori de traiter l'information des basses aux hautes FS était présent chez les individus atteints de TSA. Nous avons comparé le décours temporel de l'utilisation des FS chez des sujets neurotypiques et atteints de TSA en échantillonnant aléatoirement et exhaustivement l'espace temps x FS. Les sujets neurotypiques extrayaient les basses FS avant les plus hautes: nous avons ainsi pu répliquer le résultat de plusieurs études antérieures, tout en le caractérisant avec plus de précision que jamais auparavant. Les sujets atteints de TSA, quant à eux, extrayaient toutes les FS utiles, basses et hautes, dès le début, indiquant qu'ils ne possédaient pas l'a priori présent chez les neurotypiques. Il semblerait ainsi que les individus atteints de TSA extraient les FS de manière purement ascendante, l'extraction n'étant pas guidée par l'activation d'hypothèses.
Resumo:
Une taxonomie révisée et une connaissance des limites d’espèces demeurent toujours importantes dans les points chauds en biodiversité comme les Antilles où de nombreuses espèces endémiques sont retrouvées. Des limites d’espèces divergentes impliquent un différent nombre d’espèces retrouvées dans un écosystème, ce qui peut exercer une influence sur les décisions prises face aux enjeux de conservation. Les genres Gesneria et Rhytidophyllum qui forment les principaux représentants de la famille des Gesneriaceae dans les Antilles comprennent plusieurs taxons aux limites d’espèces ambigües et quelques espèces qui ont des sous-espèces reconnues. C’est le cas de Gesneria viridiflora (Decne.) Kuntze qui comprend quatre sous-espèces géographiquement isolées et qui présentent des caractères végétatifs et reproducteurs similaires et variables. Une délimitation d’espèces approfondie de ce complexe d’espèce est effectuée ici à partir d’une approche de taxonomie intégrative considérant des données morphologiques, génétiques et bioclimatiques. Les données morphologiques quantitatives et qualitatives obtenues à partir de spécimens d’herbier sont utilisées pour délimiter des groupes morphologiques à l’aide d’une analyse en coordonnées principales. Ces groupes sont ensuite testés à l’aide de séquences d’ADN de quatre régions nucléaires en utilisant une méthode bayesienne basée sur la théorie de la coalescence. Finalement, les occurrences et les valeurs de variables de température et de précipitation qui y prévalent sont utilisées dans une analyse en composantes principales bioclimatique pour comparer les groupes délimités morphologiquement et génétiquement. Les résultats de l’analyse morphologique multivariée supportent la distinction entre les groupes formés par les sous-espèces actuellement reconnues de G. viridiflora. Les résultats, incluant des données génétiques, suggèrent une distinction jusqu’ici insoupçonnée des populations du Massif de la Hotte au sud-ouest d’Haïti qui sont génétiquement plus rapprochées des populations de Cuba que de celles d’Hispaniola. Bioclimatiquement, les groupes délimités par les analyses morphologiques et génétiques sont distincts. L’approche de taxonomie intégrative a permis de distinguer cinq espèces distinctes plutôt que les quatre sous-espèces acceptées jusqu’à aujourd’hui. Ces espèces sont : G. acrochordonanthe, G. quisqueyana, G. sintenisii, G. sylvicola et G. viridiflora. Une carte de distribution géographique, un tableau de la nouvelle taxonomie applicable et une clé d’identification des espèces sont présentés. La nouvelle taxonomie déterminée dans cette étude démontre un endémisme insoupçonné dans plusieurs régions du point chaud en biodiversité des Antilles et souligne l’importance d’investiguer les limites d’espèces dans les groupes diversifiés comprenant des taxons aux limites d’espèces incomprises.
Resumo:
Les dinoflagellés sont des eucaryotes unicellulaires retrouvés dans la plupart des écosystèmes aquatiques du globe. Ces organismes amènent une contribution substantielle à la production primaire des océans, soit en tant que membre du phytoplancton, soit en tant que symbiontes des anthozoaires formant les récifs coralliens. Malheureusement, ce rôle écologique majeur est souvent négligé face à la capacité de certaines espèces de dinoflagellés à former des fleurs d'eau, parfois d'étendue et de durée spectaculaires. Ces floraisons d'algues, communément appelées "marées rouges", peuvent avoir de graves conséquences sur les écosystèmes côtiers, sur les industries de la pêche et du tourisme, ainsi que sur la santé humaine. Un des facteurs souvent corrélé avec la formation des fleurs d'eau est une augmentation dans la concentration de nutriments, notamment l’azote et le phosphore. Le nitrate est un des composants principaux retrouvés dans les eaux de ruissellement agricoles, mais également la forme d'azote bioaccessible la plus abondante dans les écosystèmes marins. Ainsi, l'agriculture humaine a contribué à magnifier significativement les problèmes associés aux marées rouges au niveau mondial. Cependant, la pollution ne peut pas expliquer à elle seule la formation et la persistance des fleurs d'eau, qui impliquent plusieurs facteurs biotiques et abiotiques. Il est particulièrement difficile d'évaluer l'importance relative qu'ont les ajouts de nitrate par rapport à ces autres facteurs, parce que le métabolisme du nitrate chez les dinoflagellés est largement méconnu. Le but principal de cette thèse vise à remédier à cette lacune. J'ai choisi Lingulodinium polyedrum comme modèle pour l'étude du métabolisme du nitrate, parce que ce dinoflagellé est facilement cultivable en laboratoire et qu'une étude transcriptomique a récemment fourni une liste de gènes pratiquement complète pour cette espèce. Il est également intéressant que certaines composantes moléculaires de la voie du nitrate chez cet organisme soient sous contrôle circadien. Ainsi, dans ce projet, j'ai utilisé des analyses physiologiques, biochimiques, transcriptomiques et bioinformatiques pour enrichir nos connaissances sur le métabolisme du nitrate des dinoflagellés et nous permettre de mieux apprécier le rôle de l'horloge circadienne dans la régulation de cette importante voie métabolique primaire. Je me suis tout d'abord penché sur les cas particuliers où des floraisons de dinoflagellés sont observées dans des conditions de carence en azote. Cette idée peut sembler contreintuitive, parce que l'ajout de nitrate plutôt que son épuisement dans le milieu est généralement associé aux floraisons d'algues. Cependant, j’ai découvert que lorsque du nitrate était ajouté à des cultures initialement carencées ou enrichies en azote, celles qui s'étaient acclimatées au stress d'azote arrivaient à survivre près de deux mois à haute densité cellulaire, alors que les cellules qui n'étaient pas acclimatées mourraient après deux semaines. En condition de carence d'azote sévère, les cellules arrivaient à survivre un peu plus de deux semaines et ce, en arrêtant leur cycle cellulaire et en diminuant leur activité photosynthétique. L’incapacité pour ces cellules carencées à synthétiser de nouveaux acides aminés dans un contexte où la photosynthèse était toujours active a mené à l’accumulation de carbone réduit sous forme de granules d’amidon et corps lipidiques. Curieusement, ces deux réserves de carbone se trouvaient à des pôles opposés de la cellule, suggérant un rôle fonctionnel à cette polarisation. La deuxième contribution de ma thèse fut d’identifier et de caractériser les premiers transporteurs de nitrate chez les dinoflagellés. J'ai découvert que Lingulodinium ne possédait que très peu de transporteurs comparativement à ce qui est observé chez les plantes et j'ai suggéré que seuls les membres de la famille des transporteurs de nitrate de haute affinité 2 (NRT2) étaient réellement impliqués dans le transport du nitrate. Le principal transporteur chez Lingulodinium était exprimé constitutivement, suggérant que l’acquisition du nitrate chez ce dinoflagellé se fondait majoritairement sur un système constitutif plutôt qu’inductible. Enfin, j'ai démontré que l'acquisition du nitrate chez Lingulodinium était régulée par la lumière et non par l'horloge circadienne, tel qu'il avait été proposé dans une étude antérieure. Finalement, j’ai utilisé une approche RNA-seq pour vérifier si certains transcrits de composantes impliquées dans le métabolisme du nitrate de Lingulodinium étaient sous contrôle circadien. Non seulement ai-je découvert qu’il n’y avait aucune variation journalière dans les niveaux des transcrits impliqués dans le métabolisme du nitrate, j’ai aussi constaté qu’il n’y avait aucune variation journalière pour n’importe quel ARN du transcriptome de Lingulodinium. Cette découverte a démontré que l’horloge de ce dinoflagellé n'avait pas besoin de transcription rythmique pour générer des rythmes physiologiques comme observé chez les autres eukaryotes.
Resumo:
Alors que les activités anthropiques font basculer de nombreux écosystèmes vers des régimes fonctionnels différents, la résilience des systèmes socio-écologiques devient un problème pressant. Des acteurs locaux, impliqués dans une grande diversité de groupes — allant d’initiatives locales et indépendantes à de grandes institutions formelles — peuvent agir sur ces questions en collaborant au développement, à la promotion ou à l’implantation de pratiques plus en accord avec ce que l’environnement peut fournir. De ces collaborations répétées émergent des réseaux complexes, et il a été montré que la topologie de ces réseaux peut améliorer la résilience des systèmes socio-écologiques (SSÉ) auxquels ils participent. La topologie des réseaux d’acteurs favorisant la résilience de leur SSÉ est caractérisée par une combinaison de plusieurs facteurs : la structure doit être modulaire afin d’aider les différents groupes à développer et proposer des solutions à la fois plus innovantes (en réduisant l’homogénéisation du réseau), et plus proches de leurs intérêts propres ; elle doit être bien connectée et facilement synchronisable afin de faciliter les consensus, d’augmenter le capital social, ainsi que la capacité d’apprentissage ; enfin, elle doit être robuste, afin d’éviter que les deux premières caractéristiques ne souffrent du retrait volontaire ou de la mise à l’écart de certains acteurs. Ces caractéristiques, qui sont relativement intuitives à la fois conceptuellement et dans leur application mathématique, sont souvent employées séparément pour analyser les qualités structurales de réseaux d’acteurs empiriques. Cependant, certaines sont, par nature, incompatibles entre elles. Par exemple, le degré de modularité d’un réseau ne peut pas augmenter au même rythme que sa connectivité, et cette dernière ne peut pas être améliorée tout en améliorant sa robustesse. Cet obstacle rend difficile la création d’une mesure globale, car le niveau auquel le réseau des acteurs contribue à améliorer la résilience du SSÉ ne peut pas être la simple addition des caractéristiques citées, mais plutôt le résultat d’un compromis subtil entre celles-ci. Le travail présenté ici a pour objectifs (1), d’explorer les compromis entre ces caractéristiques ; (2) de proposer une mesure du degré auquel un réseau empirique d’acteurs contribue à la résilience de son SSÉ ; et (3) d’analyser un réseau empirique à la lumière, entre autres, de ces qualités structurales. Cette thèse s’articule autour d’une introduction et de quatre chapitres numérotés de 2 à 5. Le chapitre 2 est une revue de la littérature sur la résilience des SSÉ. Il identifie une série de caractéristiques structurales (ainsi que les mesures de réseaux qui leur correspondent) liées à l’amélioration de la résilience dans les SSÉ. Le chapitre 3 est une étude de cas sur la péninsule d’Eyre, une région rurale d’Australie-Méridionale où l’occupation du sol, ainsi que les changements climatiques, contribuent à l’érosion de la biodiversité. Pour cette étude de cas, des travaux de terrain ont été effectués en 2010 et 2011 durant lesquels une série d’entrevues a permis de créer une liste des acteurs de la cogestion de la biodiversité sur la péninsule. Les données collectées ont été utilisées pour le développement d’un questionnaire en ligne permettant de documenter les interactions entre ces acteurs. Ces deux étapes ont permis la reconstitution d’un réseau pondéré et dirigé de 129 acteurs individuels et 1180 relations. Le chapitre 4 décrit une méthodologie pour mesurer le degré auquel un réseau d’acteurs participe à la résilience du SSÉ dans lequel il est inclus. La méthode s’articule en deux étapes : premièrement, un algorithme d’optimisation (recuit simulé) est utilisé pour fabriquer un archétype semi-aléatoire correspondant à un compromis entre des niveaux élevés de modularité, de connectivité et de robustesse. Deuxièmement, un réseau empirique (comme celui de la péninsule d’Eyre) est comparé au réseau archétypique par le biais d’une mesure de distance structurelle. Plus la distance est courte, et plus le réseau empirique est proche de sa configuration optimale. La cinquième et dernier chapitre est une amélioration de l’algorithme de recuit simulé utilisé dans le chapitre 4. Comme il est d’usage pour ce genre d’algorithmes, le recuit simulé utilisé projetait les dimensions du problème multiobjectif dans une seule dimension (sous la forme d’une moyenne pondérée). Si cette technique donne de très bons résultats ponctuellement, elle n’autorise la production que d’une seule solution parmi la multitude de compromis possibles entre les différents objectifs. Afin de mieux explorer ces compromis, nous proposons un algorithme de recuit simulé multiobjectifs qui, plutôt que d’optimiser une seule solution, optimise une surface multidimensionnelle de solutions. Cette étude, qui se concentre sur la partie sociale des systèmes socio-écologiques, améliore notre compréhension des structures actorielles qui contribuent à la résilience des SSÉ. Elle montre que si certaines caractéristiques profitables à la résilience sont incompatibles (modularité et connectivité, ou — dans une moindre mesure — connectivité et robustesse), d’autres sont plus facilement conciliables (connectivité et synchronisabilité, ou — dans une moindre mesure — modularité et robustesse). Elle fournit également une méthode intuitive pour mesurer quantitativement des réseaux d’acteurs empiriques, et ouvre ainsi la voie vers, par exemple, des comparaisons d’études de cas, ou des suivis — dans le temps — de réseaux d’acteurs. De plus, cette thèse inclut une étude de cas qui fait la lumière sur l’importance de certains groupes institutionnels pour la coordination des collaborations et des échanges de connaissances entre des acteurs aux intérêts potentiellement divergents.
Resumo:
Contexte La connectomique, ou la cartographie des connexions neuronales, est un champ de recherche des neurosciences évoluant rapidement, promettant des avancées majeures en ce qui concerne la compréhension du fonctionnement cérébral. La formation de circuits neuronaux en réponse à des stimuli environnementaux est une propriété émergente du cerveau. Cependant, la connaissance que nous avons de la nature précise de ces réseaux est encore limitée. Au niveau du cortex visuel, qui est l’aire cérébrale la plus étudiée, la manière dont les informations se transmettent de neurone en neurone est une question qui reste encore inexplorée. Cela nous invite à étudier l’émergence des microcircuits en réponse aux stimuli visuels. Autrement dit, comment l’interaction entre un stimulus et une assemblée cellulaire est-elle mise en place et modulée? Méthodes En réponse à la présentation de grilles sinusoïdales en mouvement, des ensembles neuronaux ont été enregistrés dans la couche II/III (aire 17) du cortex visuel primaire de chats anesthésiés, à l’aide de multi-électrodes en tungstène. Des corrélations croisées ont été effectuées entre l’activité de chacun des neurones enregistrés simultanément pour mettre en évidence les liens fonctionnels de quasi-synchronie (fenêtre de ± 5 ms sur les corrélogrammes croisés corrigés). Ces liens fonctionnels dévoilés indiquent des connexions synaptiques putatives entre les neurones. Par la suite, les histogrammes peri-stimulus (PSTH) des neurones ont été comparés afin de mettre en évidence la collaboration synergique temporelle dans les réseaux fonctionnels révélés. Enfin, des spectrogrammes dépendants du taux de décharges entre neurones ou stimulus-dépendants ont été calculés pour observer les oscillations gamma dans les microcircuits émergents. Un indice de corrélation (Rsc) a également été calculé pour les neurones connectés et non connectés. Résultats Les neurones liés fonctionnellement ont une activité accrue durant une période de 50 ms contrairement aux neurones fonctionnellement non connectés. Cela suggère que les connexions entre neurones mènent à une synergie de leur inter-excitabilité. En outre, l’analyse du spectrogramme dépendant du taux de décharge entre neurones révèle que les neurones connectés ont une plus forte activité gamma que les neurones non connectés durant une fenêtre d’opportunité de 50ms. L’activité gamma de basse-fréquence (20-40 Hz) a été associée aux neurones à décharge régulière (RS) et l’activité de haute fréquence (60-80 Hz) aux neurones à décharge rapide (FS). Aussi, les neurones fonctionnellement connectés ont systématiquement un Rsc plus élevé que les neurones non connectés. Finalement, l’analyse des corrélogrammes croisés révèle que dans une assemblée neuronale, le réseau fonctionnel change selon l’orientation de la grille. Nous démontrons ainsi que l’intensité des relations fonctionnelles dépend de l’orientation de la grille sinusoïdale. Cette relation nous a amené à proposer l’hypothèse suivante : outre la sélectivité des neurones aux caractères spécifiques du stimulus, il y a aussi une sélectivité du connectome. En bref, les réseaux fonctionnels «signature » sont activés dans une assemblée qui est strictement associée à l’orientation présentée et plus généralement aux propriétés des stimuli. Conclusion Cette étude souligne le fait que l’assemblée cellulaire, plutôt que le neurone, est l'unité fonctionnelle fondamentale du cerveau. Cela dilue l'importance du travail isolé de chaque neurone, c’est à dire le paradigme classique du taux de décharge qui a été traditionnellement utilisé pour étudier l'encodage des stimuli. Cette étude contribue aussi à faire avancer le débat sur les oscillations gamma, en ce qu'elles surviennent systématiquement entre neurones connectés dans les assemblées, en conséquence d’un ajout de cohérence. Bien que la taille des assemblées enregistrées soit relativement faible, cette étude suggère néanmoins une intrigante spécificité fonctionnelle entre neurones interagissant dans une assemblée en réponse à une stimulation visuelle. Cette étude peut être considérée comme une prémisse à la modélisation informatique à grande échelle de connectomes fonctionnels.
Resumo:
Dans quelle mesure la montée de la reddition de comptes et de l’évaluation en éducation est-elle significative d’un déclin de la confiance de l’Etat, des administrateurs scolaires et des usagers dans la capacité des organisations scolaires à remplir correctement leurs missions ? N’est-elle pas également symptômatique d’une perte de confiance à l’égard des enseignants et de leur professionnalisme? Nous traiterons ces questions en proposant une réflexion à partir des théories de la confiance en sciences sociales. Nous distinguerons en particulier les théories qui s’interrogent sur les conditions de confiance dans les transactions économiques et celles qui raisonnent la confiance « politique » dans les institutions. Nous argumentons que les dispositifs d’accountability tendent surtout à réduire l’incertitude des clients/managers quant aux risques d’opportunisme et d’opacité des opérateurs scolaires. Il s’agit de favoriser la bonne marche « du marché » ou de « l’organisation productive » scolaire, au risque d’une perte d’autonomie professionnelle des enseignants et sans pour autant que l’Ecole ne redevienne une institution politique «digne de confiance ».
Resumo:
Depuis une quinzaine d’années, on assiste en Belgique francophone au développement d’une politique d’évaluation externe des écoles. Notre étude analyse la réception de cette politique par les acteurs locaux (directeurs et enseignants d’écoles primaires) et intermédiaires (inspecteurs) et montre comment les outils de régulation basés sur les connaissances mis en place par ces acteurs affectent la réception et la légitimité de la politique d’évaluation dans son ensemble. À l’aide de la sociologie de la traduction (Callon & Latour) et de la théorie néoinstitutionnaliste, nous comparons deux modes de construction et de mise en oeuvre de cette politique dans deux zones d’inspection. Dans la première, le dispositif repose pour l’essentiel sur la bureaucratie, tandis que dans la seconde la politique est construite par un réseau d’acteurs locaux et intermédiaires. Nous montrons que 1) les rôles et les stratégies des acteurs intermédiaires diffèrent considérablement ; 2) les différences constatées dans la construction de la politique d’évaluation (co-construction des outils par un réseau d’acteurs intermédiaires d’un côté, mise en oeuvre hiérarchique et bureaucratique de l’autre) sont liées aux différents effets des outils de régulation sur les pratiques des enseignants et sur la légitimité de cette politique.
Resumo:
L’étude du “brigandage lusitanien” a donné lieu à une importante activité de recherche depuis la fin du XIXe siècle. Pour autant, et malgré une inflexion progressive de l’historiographie moderne vers une approche plus nuancée de l’origine du phénomène, le problème de la terre reste encore aujourd’hui au centre des préoccupations de nombre d’historiens et archéologiques. À partir d’une discussion serrée des principaux passages de Tite-Live, Diodore et surtout Appien, relatifs à la relation que d’aucuns ont voulu établir entre manque et/ou pauvreté de la terre et développement du brigandage chez les Lusitaniens, il est proposé une critique de l’interprétation socio-économique.
Resumo:
Les algèbres de Temperley-Lieb originales, aussi dites régulières, apparaissent dans de nombreux modèles statistiques sur réseau en deux dimensions: les modèles d'Ising, de Potts, des dimères, celui de Fortuin-Kasteleyn, etc. L'espace d'Hilbert de l'hamiltonien quantique correspondant à chacun de ces modèles est un module pour cette algèbre et la théorie de ses représentations peut être utilisée afin de faciliter la décomposition de l'espace en blocs; la diagonalisation de l'hamiltonien s'en trouve alors grandement simplifiée. L'algèbre de Temperley-Lieb diluée joue un rôle similaire pour des modèles statistiques dilués, par exemple un modèle sur réseau où certains sites peuvent être vides; ses représentations peuvent alors être utilisées pour simplifier l'analyse du modèle comme pour le cas original. Or ceci requiert une connaissance des modules de cette algèbre et de leur structure; un premier article donne une liste complète des modules projectifs indécomposables de l'algèbre diluée et un second les utilise afin de construire une liste complète de tous les modules indécomposables des algèbres originale et diluée. La structure des modules est décrite en termes de facteurs de composition et par leurs groupes d'homomorphismes. Le produit de fusion sur l'algèbre de Temperley-Lieb originale permet de «multiplier» ensemble deux modules sur cette algèbre pour en obtenir un autre. Il a été montré que ce produit pouvait servir dans la diagonalisation d'hamiltoniens et, selon certaines conjectures, il pourrait également être utilisé pour étudier le comportement de modèles sur réseaux dans la limite continue. Un troisième article construit une généralisation du produit de fusion pour les algèbres diluées, puis présente une méthode pour le calculer. Le produit de fusion est alors calculé pour les classes de modules indécomposables les plus communes pour les deux familles, originale et diluée, ce qui vient ajouter à la liste incomplète des produits de fusion déjà calculés par d'autres chercheurs pour la famille originale. Finalement, il s'avère que les algèbres de Temperley-Lieb peuvent être associées à une catégorie monoïdale tressée, dont la structure est compatible avec le produit de fusion décrit ci-dessus. Le quatrième article calcule explicitement ce tressage, d'abord sur la catégorie des algèbres, puis sur la catégorie des modules sur ces algèbres. Il montre également comment ce tressage permet d'obtenir des solutions aux équations de Yang-Baxter, qui peuvent alors être utilisées afin de construire des modèles intégrables sur réseaux.
Resumo:
Les petites molécules de type p à bandes interdites étroites sont de plus en plus perçues comme des remplaçantes possibles aux polymères semi-conducteurs actuellement utilisés conjointement avec des dérivés de fullerènes de type n, dans les cellules photovoltaïques organiques (OPV). Par contre, ces petites molécules tendent à cristalliser facilement lors de leur application en couches minces et forment difficilement des films homogènes appropriés. Des dispositifs OPV de type hétérojonction de masse ont été réalisés en ajoutant différentes espèces de polymères semi-conducteurs ou isolants, agissant comme matrices permettant de rectifier les inhomogénéités des films actifs et d’augmenter les performances des cellules photovoltaïques. Des polymères aux masses molaires spécifiques ont été synthétisés par réaction de Wittig en contrôlant précisément les ratios molaires des monomères et de la base utilisée. L’effet de la variation des masses molaires en fonction des morphologies de films minces obtenus et des performances des diodes organiques électroluminescentes reliées, a également été étudié. La microscopie électronique en transmission (MET) ou à balayage (MEB) a été employée en complément de la microscopie à force atomique (AFM) pour suivre l’évolution de la morphologie des films organiques minces. Une nouvelle méthode rapide de préparation des films pour l’imagerie MET sur substrats de silicium est également présentée et comparée à d’autres méthodes d’extraction. Motivé par le prix élevé et la rareté des métaux utilisés dans les substrats d’oxyde d’indium dopé à l’étain (ITO), le développement d’une nouvelle méthode de recyclage eco-responsable des substrats utilisés dans ces études est également présenté.
Resumo:
La mise en œuvre d’activités de prévention de la consommation de substances psychoactives (SPA) (tabac, alcool et cannabis) en milieu scolaire est une stratégie couramment utilisée pour rejoindre un grand nombre de jeunes. Ces activités s’inspirent, soit de programmes existant, soit d’innovations dictées par le contexte d’implantation ou l’existence de données de recherche. Dans un cas comme dans l’autre, l’évaluation de ces programmes représente la meilleure voie pour mesurer leur efficacité et/ou connaître comment ceux-ci sont implantés. C’est cet impératif qui a motivé une commission scolaire du Québec a recommandé l’évaluation de l’Intervention en Réseau (IR), un programme développé en vue de retarder l’âge d’initiation et de réduire la consommation problématique de SPA chez les élèves. Ce programme adopte une approche novatrice avec pour principal animateur un intervenant pivot (IP) qui assure le suivi des élèves de la 5e année du primaire jusqu’en 3e secondaire. Inspiré des modèles en prévention de la santé et de l’Approche École en santé (AES), le rôle de l’IP ici se démarque de ceux-ci. Certes, il est l’interface entre les différents acteurs impliqués et les élèves mais dans le cadre du programme IR, l’IP est intégré dans les écoles primaires et secondaires qu’il dessert. C’est cet intervenant qui assure la mobilisation des autres acteurs pour la mise en œuvre des activités. Cette thèse vise à rendre compte de ce processus d’évaluation ainsi que des résultats obtenus. L’approche d’évaluation en est une de type participatif et collaboratif avec des données quantitatives et qualitatives recueillies par le biais de questionnaires, d’entrevues, de groupes de discussion, d’un journal de bord et de notes de réunions. Les données ont été analysées dans le cadre de trois articles dont le premier concerne l’étude d’évaluabilité (ÉÉ) du programme. Les participants de cette ÉÉ sont des acteurs-clés du programme (N=13) rencontrés en entrevues. Une analyse documentaire (rapports et journal de bord) a également été effectuée. Cette ÉÉ a permis de clarifier les intentions des initiateurs du programme et les objectifs poursuivis par ces derniers. Elle a également permis de rendre la théorie du programme plus explicite et de développer le modèle logique, deux éléments qui ont facilité les opérations d’évaluation qui ont suivi. Le deuxième article porte sur l’évaluation des processus en utilisant la théorie de l’acteur-réseau (TAR) à travers ses quatre moments du processus de traduction des innovations (la problématisation, l’intéressement, l’enrôlement et la mobilisation des alliés), l’analyse des controverses et du rôle des acteurs humains et non-humains. Après l’analyse des données obtenues par entrevues auprès de 19 informateurs-clés, les résultats montrent que les phases d’implantation du programme passent effectivement par les quatre moments de la TAR, que la gestion des controverses par la négociation et le soutien était nécessaire pour la mobilisation de certains acteurs humains. Cette évaluation des processus a également permis de mettre en évidence le rôle des acteurs non-humains dans le processus d’implantation du programme. Le dernier article concerne une évaluation combinée des effets (volet quantitatif) et des processus (volet qualitatif) du programme. Pour le volet quantitatif, un devis quasi-expérimental a été adopté et les données ont été colligées de façon longitudinale par questionnaires auprès de 901 élèves de 5e et 6e année du primaire et leurs enseignants de 2010 à 2014. L’analyse des données ont montré que le programme n’a pas eu d’effets sur l’accessibilité et les risques perçus, l’usage problématique d’alcool et la polyconsommation (alcool et cannabis) chez les participants. Par contre, les résultats suggèrent que le programme pourrait favoriser la réduction du niveau de consommation et retarder l’âge d’initiation à l’alcool et au cannabis. Ils suggèrent également un effet potentiellement positif du programme sur l’intoxication à l’alcool chez les élèves. Quant au volet qualitatif, il a été réalisé à l’aide d’entrevues avec les intervenants (N=17), de groupes de discussion avec des élèves du secondaire (N=10) et d’une analyse documentaire. Les résultats montrent que le programme bénéficie d’un préjugé favorable de la part des différents acteurs ayant participé à l’évaluation et est bien acceptée par ces derniers. Cependant, le roulement fréquent de personnel et le grand nombre d’écoles à suivre peuvent constituer des obstacles à la bonne marche du programme. En revanche, le leadership et le soutien des directions d’écoles, la collaboration des enseignants, les qualités de l’IP et la flexibilité de la mise en œuvre sont identifiés comme des éléments ayant contribué au succès du programme. Les résultats et leur implication pour les programmes et l’évaluation sont discutés. Enfin, un plan de transfert des connaissances issues de la recherche évaluative est proposé.
Resumo:
Cette étude a pour but de mettre en contexte la thèse de la modernisation psychique de Daniel Lerner, de faire une analyse interne de l’ouvrage et d’étudier sa réception par les sociologues de l’époque. Comme démarche de recherche, dans un premier temps, nous replacerons l’ouvrage dans la situation historique des deux premières décennies de la guerre froide (les années 50 et 60). Ce faisant, nous tenterons de comprendre la logique de la politique de développement des États-Unis à l’endroit des pays en voie de développement et la place des recherches universitaires dans la politique coloniale américaine. L’approche du développement exogène a largement inspiré les politiques étrangères des pays occidentaux et leurs efforts pour lancer le développement des pays plus nécessiteux. C’est pour cela que Lerner se concentre sur l’effet des médias américains, et surtout du Voice of America, pour analyser le rôle que ceux-ci jouent dans le processus de transformation de la personnalité. Pour aborder cette étape de la recherche, nous devrons comprendre davantage le contexte de l’ouvrage et mieux analyser la relation entre les facteurs externes et les éléments internes qui ont influencé la formation de l’ouvrage. Dans un deuxième temps, nous étudierons l’ouvrage de Lerner et nous discuterons des différents aspects relatifs aux changements sociaux que l’ouvrage a examinés. Dans notre analyse de l’ouvrage, nous critiquerons divers aspects de la pensée sociologique de Lerner et sa manière d’interpréter les faits sociaux et les statistiques. Dans un troisième temps, nous réviserons la réception de l’ouvrage par la communauté scientifique de son époque pour obtenir une large vision de la place de l’oeuvre dans l’histoire de la pensée sociologique américaine du développement. Nous établirons une catégorisation des recensions de l’ouvrage portant sur l’approche sociologique de Lerner et nous mettrons ces recensions dans l’éclairage des champs de recherches universitaires américaines. Nous nous concentrerons sur la réception de cette théorie chez les sociologues de l’époque pour comprendre la dialectique entre la thèse qui y est défendue et la société. Ce faisant, nous éviterons de nous éloigner de la sociologie comme étant la discipline de l’étude des liens sociaux et des interactions symboliques et nous éviterons de réduire notre démarche sociologique à une simple étude historique des idées. En gros, nous discuterons de la vision sociologique de l’auteur, de la façon dont son ouvrage a été formé au fil du temps et comment il a été influencé par l’esprit de son époque. De plus, nous verrons comment l’écrivain s’est nourri des théories sociologiques et à quel point il a influencé la pensée sociologique de son temps. Tout cela, en parallèle à l’analyse interne de l’ouvrage, nous permettra de saisir la place de «The Passing of Traditional Society» dans la pensée sociologique américaine. Cette recherche nous aidera à mieux comprendre la vision américaine de l’empathie en tant qu’un élément modernisateur, par rapport à la question du développement dans le contexte historique de l’époque. Cette compréhension nous mènera à approfondir notre analyse des programmes de développement des États-Unis dans le monde en voie du développement. Cette étude nous amènera aussi à élargir notre vision quant aux idées construites et formées dans leur contexte historique (en général) et à découvrir comment la communauté scientifique reste toujours en parti prisonnière de son contexte historique. Cette étude nous permettra de mieux voir les idées (le texte) en relation avec la société, ce qui est vital pour ne pas tomber dans la réduction des idées seulement au texte ou seulement au contexte. En outre, elle nous aidera à comprendre davantage la façon dont la société intervient dans la formation des idées et comment en retour les idées influencent la société.