968 resultados para théorie des transcendantaux
Resumo:
L'analyse de la situation financière de l'entreprise sert à la prise de décision pour les parties intéressées à l'intérieur de l'entreprise, soit le gestionnaire et parfois le propriétaire et les autres qui se trouvent à l'extérieur, tels l'investisseur, le ministère du revenu, le banquier et le consultant. Dépendamment de l'utilisateur, l'information disponible n'est pas la même. L'investisseur, le banquier et le ministère du revenu doivent analyser l'entreprise à partir des données comptables publiées. Mais, les états financiers cachent parfois certaines réalités, tel un exercice financier ne représentant pas la saisonnalité des activités. De même les stocks de fin d'exercice ne représentent pas nécessairement le niveau du stock moyen. Les échéances de paiement surviennent peut-être au début plutôt qu'uniformément au cours de l'exercice. La signature de contrats importants pourra avoir des répercussions qu'au cours de l'exercice suivant. L'information interne seule peut répondre à ces questions. De plus, le résultat net publié dans les états financiers renferme certaines lacunes dont l'analyste doit tenir compte : 1- L'amortissement et l'évaluation des comptes-clients comportent une bonne part de subjectivité; 2- L'existence de plusieurs méthodes d'évaluation des stocks amène des problèmes de comparabilité, surtout lorsque ces postes ont une relative importance; 3- La dépréciation monétaire non prise en compte dans les états financiers diminue la comparabilité d'un exercice à l'autre et n'assure pas la préservation du patrimoine. Ainsi, les dividendes peuvent être versés au-delà de ce qu'il serait prudent de verser pour assurer la capacité de fonctionnement; 4- En période de prospérité, l'entreprise tentera de minimiser son bénéfice comptable afin de diminuer sa charge fiscale alors qu'en période de déficit, elle tentera de maximiser son bénéfice comptable pour rassurer les propriétaires et les prêteurs; 5- L'inflation accentue les difficultés de comparaison. Il faudra donc tenir compte de l'inflation pour apprécier l'évolution réelle du résultat; 6- La comparaison avec plusieurs entreprises est quelque peu biaisée dû au choix des pratiques comptables exercées sur plusieurs postes. Les critères de comparaison devront donc être le moins possible dépendants de choix de pratiques comptables. Malgré l'existence de ces déformations comptables, les états financiers demeurent une source importante d'informations. Mais les forces et les faiblesses de l'entreprise s'en trouvent plus ou moins cachées. Comme le gestionnaire et le consultant ont accès aux données non publiées par l'entreprise, les résultats des activités et les données sur la qualité de la gestion interne peuvent donc être plus détaillés, et plus proches de la réalité. L'information publique, ne permet que de détecter les grandes lignes de la situation financière de l'entreprise. Les ouvrages en finance ne traitent que très peu de ces facteurs internes et du lien entre l'information interne et l'information externe. Le but de notre étude a été de créer un modèle de diagnostic de la situation financière, dans un premier temps, issu de la théorie et reposant sur les données externes et internes à l'entreprise. Dans un deuxième temps, nous avons construit un modèle plus complet qui tienne compte des interrelations des postes des états financiers et de l'interprétation faite par les praticiens, et dont la théorie ne fait pas état. L'intégration des connaissances des praticiens au modèle théorique initial et l'utilisation des données internes à l'entreprise, devraient permettre de porter un diagnostic plus éclairé de la situation financière de l'entreprise.
Resumo:
La recherche qui a été effectuée dans le présent document, porte sur l'écart appliqué par les banques aux swaps de taux d'intérêt. Les éléments hors-bilan des banques dont fait partie les swaps de taux d'intérêt ont connu ces dernières années une croissance très importante, à cause principalement d'une volatilité des taux d'intérêt élevée. Nous avons choisi d'analyser l'écart bancaire sur les swaps de taux d'intérêt dans le but d'identifier la nature des relations qui existent entre lui et certains facteurs pertinents. Étant donné que dans la littérature financière il n'y a aucune étude empirique relative à ce sujet, et qu'il y a un manque d'informations théoriques adéquates en ce qui concerne la forme des relations analysées, nous avons effectué ce travail dans une perspective exploratoire. Les facteurs pertinents retenus sont le taux des acceptations bancaires, la volatilité de ce taux, mesurée par l'écart-type des observations des trente derniers jours, la pente de la courbe de rendement, et l'échéance du swap. La période d'étude va du 17/02/89 au 11/02/91 et compte 493 observations; elle a été subdivisée en quatre sous-périodes chronologiques égales. Ainsi chacune des analyses a-t-elle été effectuée de deux façons ; d'abord sur l'ensemble de l'échantillon et ensuite dans les sous-périodes. Deux types de swaps ont été considérés : les swaps de trois ans d'échéance et les swaps de cinq ans d'échéance. Les résultats de l'analyse des données sont les suivants : Dans une large mesure, il est plausible d'affirmer que l'écart bancaire sur les swaps de taux d'intérêt est une fonction négative du taux des acceptations bancaires. Mais cette relation est plus évidente lorsque le taux des acceptations bancaires est élevé que lorsqu'il est plus faible. Il est également soutenable d'affirmer que l'écart bancaire est une fonction positive de la volatilité des taux d'intérêt ainsi que de la pente de la courbe de rendement. L'écart bancaire augmente avec une augmentation de l'échéance du swap; néanmoins la relation entre les deux n'est pas une relation linéaire, c'est-à-dire de proportionnalité. Les résultats obtenus sont en général concordants avec la théorie économique et financière et leurs implications pratiques peuvent être utiles aussi bien pour la banque que pour les entreprises clientes.
Resumo:
Résumé : II existe une tension inhérente au sein de la relation en cours de développement entre un vendeur et un acheteur. Le vendeur craint que l'acheteur lui fasse perdre son temps et l'acheteur, lui, doute de l'honnêteté du vendeur. Tous deux s'interrogent sur le niveau de confiance et de coopération à accorder à l'autre. Il est possible, après tout, que le vendeur soit à l'affût de la moindre faiblesse de l'acheteur pour profiter de la situation et s'enrichir à ses dépens, ou, vice-versa, que l'acheteur cherche à profiter du vendeur. La présente thèse examine les tensions entre vendeurs et acheteurs en ayant recours à la théorie enracinée élargie, qui comprend une série de boucles investigatrices formées de revues des écrits scientifiques et de cueillettes de données qualitatives et quantitatives. Elle cherche à démontrer que la prédation perçue (l'impression que l'autre abuse de nous de manière coordonnée) affecte négativement la bonne entente entre les parties prenantes de la transaction. La thèse suggère aussi que le phénomène de prédation existe dans toutes les sphères d'activités humaines, y compris dans le domaine juridique. Le modèle PARDU (prédateur-proie) initialement développé pour discuter du phénomène de prédation débouche, au fil de la recherche, sur le modèle OPERA et la grille MESLY®, qui offrent des applications pratiques pour mieux gérer la prédation informationnelle.||Abstract : There is an inherent tension between a seller and a buyer as their relationship progresses towards closing the deal. The salesperson fears that the buyer wastes his time, which he could otherwise spend towards real potential buyers. The buyer questions the sincerity of the salesperson. Both evaluate the amount of trust and coopération they should invest in the relationship. It is possible, after ail, that the salesperson wants to take advantage of every weakness he detects in the buyer in order to guarantee the sale, and it is equally possible that the buyer tries to fool the salesperson, with false credit information for example. This thesis examines tensions that exist between salespeople and buyers by using an extended version of grounded theory, by which date is collected and analysed both qualitatively and quantitatively. It demonstrates that perceived prédation reduces considerably the quality of the relationship. The thesis suggests that the phenomenon of prédation exists in every sphere of human activity, including in the légal system. The PARDU Model (predator-prey) initially developed to discuss the phenomenon of predation evolves, as the research progresses, towards the OPERA Model and the MESLY® grid, which offer pratical tools to better manage informational predation.
Resumo:
Cette thèse analyse les rappeurs afro-québécois des communautés de Limoilou (Limoilou Starz) et leurs amis de Montcalm comme des acteurs qui s’approprient des éléments identitaires, de lutte sociale et de survie économique, issus des problématiques globales et américaines du hip-hop, au service de leurs défis particuliers. Les divers mérites des luttes menées au moyen de leur art sont acquis par des formes spécifiques de capital. Ainsi les moyens utilisés par les rappeurs sont principalement les paroles de chansons, les prises de parole publique, dans les médias et sur scène, les campagnes d’affichage, l’utilisation des réseaux numériques, l’entreprise économique autonome (photographie, vidéographie, gestion des artistes, vente de vêtements). Ces moyens spécifiques se rattachent à d’autres principes et actions non explicités et sociohistoriquement ancrés. À partir d’une enquête ethnographique menée auprès de 31 participants dans la ville de Québec, j’utilise le concept de « réception différenciée » (Hall, 1980; Morley, 1980) pour décrire le processus de résistance des différents pratiquants et entrepreneurs de la musique aux dominations provenant de groupes divers. Trois principaux groupes de domination sont examinés : les agents d’institutions étatiques (comme les policiers du Service de Police de la Ville de Québec), les agents d’entreprises privées (comme les patrons de grandes boites de nuit et les propriétaires de labels musicaux indépendants) et les groupes et individus du milieu hip-hop, à travers leurs stratégies d’intimidation. La théorie « émergente » ou emergent-fit (Guillemette, 2006; Guillemette et Luckerhoff, 2009) permet d’entrevoir la musique hip-hop en amont comme une structure multidimensionnelle (sociale, identitaire, politique et économique) et intersectionnelle (intersection de plusieurs catégories interreliées, relatives au lieu de résidence, à la race et aux capacités économiques), et en aval comme un champ musical (Bourdieu, 1976 et 1989; Rimmer, 2010) renégocié. Cette structure a pris forme et s’est transformée grâce aux dispositions mentales et physiques (habitus) des acteurs étudiés. Les résultats de cette recherche montrent que certains rappeurs et leurs autres collègues artistes hip-hop— ainsi que quelques entrepreneurs— résistent à plusieurs sortes de domination. D’autres encore acceptent ces dominations sous forme d’idéologies, même en le reconnaissant explicitement. Par contre, une infime partie des acteurs étudiés les rejettent complètement. Ainsi, l’appropriation multidimensionnelle et intersectionnelle des sens dominants à travers le hip-hop mène à plusieurs formes de lecture de la domination et de la résistance.
Resumo:
Cette recherche, effectuée à l'automne 1987, auprès d'élèves en difficulté d'apprentissage au niveau collégial avait comme objectif principal de vérifier si les élèves qui avaient eu un suivi-intervention de groupe auraient respecté leurs conditions (contrats) plus que les élèves qui n'ont pas eu de suivi-intervention au cours de cette même période. Une approche de type expérientiel basée sur la théorie du double axe a été utilisée pour structurer l'apprentissage cognitif et affectif des élèves choisis. L'idée maîtresse de cette approche s'inspire d'auteurs américains, dont les concepts ont été repris par Limoges au Québec. Enfin une méthodologie utilisant la prise de conscience (affective et cognitive) a été employée pour stimuler l'expérience des participants en les aidant à nommer et à verbaliser ce qu'ils ont symbolisé au cours de l'expérience de groupe. Élèves ayant abandonné ou échoué la moitié ou plus de leurs cours à l'hiver 1987 (article 33). Les élèves avaient à signer un contrat stipulant le nombre de cours à réussir. Deux groupes d'élèves ont été choisis pour faire l'expérience i.e. le groupe expérimental. Les élèves qui n'ont eu aucune consultation individuelle ou de groupe formeront le groupe contrôle. Le groupe expérimental a été rencontré cinq fois durant la session et la durée des rencontres de groupe était de trois heures. Chacune des rencontres incluait des activités et des discussions autour d'une situation pédagogique insatisfaisante que vivaient les participants. De plus, chaque élève du groupe expérimental avait à faire des exercices d'intégration cognitive après chacune des rencontres et ce, autour des thèmes suivants: - réactions face au programme, - qu'est-ce que j'ai aimé? - qu'est-ce que je n'ai pas aimé? - ce que je retiens, - ce qui se dégage, - les apprentissages, les prises de conscience, - les sentiments, les craintes, les empêchements ... Pour sa part, le groupe contrôle n'a pas fait ces activités . Pour conclure, on a remarqué que les élèves qui ont eu un suivi-intervention ont respecté leur contrat dans une proportion nettement plus grande. En effet, le taux d'amélioration s'élève à 116% suite à cette intervention de groupe.
Resumo:
Grâce à l'élaboration de sa théorie opératoire du développement cognitif, Jean Piaget fut, sans contredit, l'un des auteurs les plus écoutés dans ce domaine. Il a mis en lumière une série de stades du développement cognitif allant du niveau sensori-moteur en passant par le niveau des opérations concrètes pour finalement aboutir à celui des opérations formelles qui obéissent à des lois précises de construction (Piaget, 1964). Parmi celles-ci, Piaget affirme l'universalité du développement de ces stades en ce sens que tous les sujets passent par la même séquence. Il s'est très peu intéressé aux différences inter-individuelles. Ce qui explique que la très grande majorité de ses travaux ont portés sur l'observation de sujets normaux (Inhelder, 1963). Ce fut donc d'autres chercheurs qui ont tenté d'appliquer la pensée piagétienne à des catégories précises de sujets. Dans cette veine, la présente recherche s'intéresse à l'application de cette pensée aux déficients profonds. C'est là un moyen utile de tester l'universalité de la séquence de développement proposée par Piaget. Le relevé de documentation sur cette question proposée par Klein et Safford (1977) permet de constater qu'il est relativement aisé de trouver des recherches s’intéressant à l'étude du fonctionnement cognitif des déficients mentaux légers atteignant la période des opérations concrètes mais qu'il est beaucoup plus difficile d'en trouver qui s'attardent au fonctionnement cognitif des déficients profonds. Il est pourtant possible d'en trouver quelques-unes (Ciccheti et Sroufe, 1976; Inhelder, 1963; Kahn, 1976; Lambert et Vanderlinden, 1977; Rogers, 1977; Silverstein et al., 1975; Wohlueter et Sindberg, 1975; Woodward, 1959). Les résultats divergent. De plus, une analyse approfondie des méthodologies utilisées suffit à convaincre que le débat demeure ouvert sur cette question. Des améliorations méthodologiques sont apportées dans cette recherche. La présente étude analyse donc le fonctionnement sensori-moteur des déficients profonds en le comparant à celui de sujets normaux de même âge mental qu'eux. Les déficients mentaux sont divisés en deux groupes selon qu'il y ait ou non présence de trouble lésionnel. Tous les sujets font face aux items de l'échelle de la poursuite visuelle et de la permanence de l'objet ainsi que celle des relations entre les objets dans l'espace construits par Uzgiris et Hunt (1975). Les résultats sont ensuite tour à tour présentés et interprétés.
Resumo:
Cette recherche de type pré-expérimental a pour objectif de comparer les perceptions d’auto-efficacité chez des étudiants d'ordre collégial qui ont assisté à un cours théorique sur un problème prioritaire de santé, d'une part, en utilisant un enseignement théorique magistral (ETM), et d'autre part, en utilisant un enseignement assisté par ordinateur (EAO). L'hypothèse de recherche suggère une augmentation significative des perceptions d'auto-efficacité chez les étudiants ayant reçu un EAO comparativement aux étudiants qui ont reçu un ETM. Dans cette étude, la théorie de l'apprentissage social et des perceptions d'auto-efficacité de Bandura (1971,1986), est utilisée comme cadre de référence. L'échantillonnage des sujets de cette recherche est composé d'étudiants de deuxième année inscrits au programme de soins infirmiers du Collège de Sherbrooke. Les données ont été recueillies à l'aide d'un instrument de mesure élaboré selon le Task-Associated Self-Perception Charting et développé par Kingery, Ballard, Pruitt et Hurley (1992). Les résultats ont démontré qu'il existait une différence significative entre les perceptions d'autoefficacité suite à un ETM et un EAO chez les mêmes sujets. Contrairement à l'hypothèse de cette étude, les étudiants ont exprimé qu'ils considéraient avoir une meilleure perception de leur auto-efficacité suite à un ETM. Par contre, l'analyse des résultats de cette recherche nous fournit les éléments qui laissent présager la pertinence de l'utilisation de l'EAO comme stratégie d'enseignement dans le but de motiver les étudiants en regard de leurs apprentissages.
Resumo:
Notre recherche traite de la résolution de problèmes (R.P.) et du transfert des connaissances acquises au cours "Théories de l'apprentissage" chez des étudiants de baccalauréat en enseignement au préscolaire et primaire. L'objet de cette recherche est de vérifier si l'apprentissage par résolution de problèmes facilite le passage de la théorie à la pratique. Pour ce faire, nous avons mené une expérimentation auprès de deux groupes d'étudiants; l'un témoin, l'autre expérimental. Pour le groupe témoin, le professeur a utilisé sa méthode d'enseignement habituelle, l'enseignement thématique. Le groupe expérimental a reçu pour sa part un enseignement par résolution de problèmes. On a administré à chacun des groupes un prétest et un post-test. Les analyses statistiques n'ont pas montré de différence significative entre les deux groupes. Par contre, on observe des tendances chez les sujets du groupe expérimental à performer davantage à certains items au post-test.
Resumo:
La majorité des situations dans lesquelles l'enfant fait ses apprentissages requièrent l'activité de lecture. Au-delà, des mots, au-delà de la simple perception physique du langage, Smith (1977) décrit la structure profonde du langage comme la signification que le lecteur donne à un texte, en plus du sens propre du texte lui-même. Pour le lecteur, le sens d'un texte comprend l'information qu'il en extrait, en plus de certaines informations qu'il en infère. En d'autres mots, le sens correspond aux réponses que le lecteur obtient à ses questions cognitives. En conséquence, la structure profonde de la langue se présente réellement comme le processus par lequel le discours est produit et compris. Elle se trouve à la fois dans la tête de l'individu et dans le texte; elle fait partie de la théorie du monde du lecteur. […]La présente recherche s'inscrit dans le modèle constructiviste de la compréhension en lecture. Son objectif propre est de donner des indices sur le développement des habiletés en compréhension chez des élèves de deuxième et quatrième années de l'école primaire. Peu de recherches s'y sont intéressées. On utilisera un protocole de recherche de type factoriel 2*2*2*2 (2 types de structures de textes * 2 niveaux de complexité des textes * 2 niveaux scolaires * 2 ordres de présentation des textes).
Resumo:
La seigneurie de Saint-Augustin de Maur, communément appelée la « seigneurie des pauvres », est propriété des pauvres de l’Hôtel-Dieu de Québec de 1734 à 1868. Achetée après adjudication (mise aux enchères) avec l’argent des pauvres par leurs dépositaires, les Augustines de l’Hôtel-Dieu de Québec, la seigneurie est mise en valeur avec succès par ces dernières malgré les contraintes physiques que leur impose la clôture perpétuelle. Les pauvres sont les seigneurs de Maur en théorie, mais ils ne le sont pas en pratique puisqu’ils sont une personne morale n’ayant pas la capacité de gérer des biens. C’est une hospitalière (la dépositaire des pauvres) qui assure le rôle de seigneuresse en concédant des terres, en tenant les registres de compte et en engageant les procureurs, meuniers et fermiers. La propriété des pauvres n’étant que théorique, les religieuses sont, dans les faits, les véritables seigneuresses de Saint-Augustin. Pour arriver à gérer le fief de Maur correctement, les Augustines se font conseiller par leurs « amis », par le clergé canadien, par les administrateurs coloniaux et par des procureurs, et elles mettent en place des outils seigneuriaux comme des plans de la seigneurie, des papiers-terriers et des censiers, ce qui leur permet d’atténuer les limites du cloître et de gérer Saint-Augustin aussi minutieusement que les seigneurs masculins du Canada le font pour leurs fiefs (Séminaire de Québec, Sulpiciens et Jésuites). Bien que le cloître restreigne la surveillance et le prélèvement des droits seigneuriaux des Augustines, le régime seigneurial se durcit au XVIIIe siècle à Saint-Augustin. Les Augustines savent réclamer leur dû par un sens aigu des affaires, mais elles n’ont d’autres choix, en toute circonstance, que d’avoir confiance en leurs régisseurs, ce qui n’est pas toujours garant de succès.
Resumo:
Cette thèse porte sur l’agir professionnel d’enseignants dans la gestion des difficultés “ordinaires” d’apprentissage, notamment à travers les gestes professionnels qu’ils peuvent mobiliser pour aider les élèves à les surmonter. L’originalité de cette étude réside dans sa capacité à documenter, à l’appui d’assises conceptuelles pertinentes, le “paradigme manquant” (Roiné, 2014) dans les analyses actuelles sur les difficultés d’apprentissage, tout en se démarquant des approches dites pathologisantes. En d’autres termes, elle s’efforce de déplacer le centre de gravité de l’interprétation des difficultés d’apprentissage vers la sphère pédagogique et didactique tout en œuvrant à la définition d’un agir spécifique dans le cadre de la classe. Au sein de cette approche, qui se veut psychopédagogique (Benoît, 2005), les difficultés d’apprentissage sont considérées comme normales et inhérentes à l’apprentissage, ce qui met l’agir enseignant au centre des solutions à envisager. En cherchant à documenter la manière dont ce type de difficultés peut être pris en compte dans le cadre même de la classe, nous avons défini la notion de difficultés “ordinaires” d’apprentissage et mobilisé le concept d’agir professionnel (Jorro, 2004, 2006a ; Jorro et Crocé-Spinelli, 2010). Ce dernier s’articule autour de quatre gestes professionnels (les gestes langagiers, les gestes de mise en scène des savoirs, les gestes éthiques et les gestes d’ajustement dans la situation). Nous avons inscrit notre démarche dans le cadre de la théorie historique-culturelle proposée par Vygotski (1997, 2016) dans la mesure où le concept de zone de développement le plus proche contient en soi, à notre sens, la notion de difficulté, d’une part, et d’accompagnement (agir) de la part de l’enseignant, d’autre part. À l’instar d’autres travaux portant sur l’agir professionnel d’enseignants, la présente recherche, portant sur une étude de cas (Savoie-Zajc, 2011), permet de poser quelques hypothèses signifiantes quant à l’impact des gestes professionnels mobilisés par un enseignant pour intervenir auprès d’élèves éprouvant des difficultés “ordinaires” d’apprentissage en contexte de classe. Cette étude tend à montrer aux acteurs de l’éducation que l’agir enseignant peut détenir tout le potentiel nécessaire au développement d’une approche psychopédagogique visant à intervenir dans la gestion des difficultés “ordinaires” d’apprentissage, sans qu’il soit systématiquement nécessaire d’externaliser leur prise en charge ou de recourir aux professionnels du soin (Morel, 2014).
Resumo:
Le présent essai explique la conception d’un dispositif d’autoformation visant à améliorer le développement de la compétence de mise à jour continue des savoirs chez les étudiantes et les étudiants du programme Techniques d’intégration multimédia. L’idée de ce dispositif prend racine dans des préoccupations en lien avec le développement des compétences du 21e siècle et la mise en place de plans de littératie numérique à travers le monde afin de relever les compétences chez la citoyenne et le citoyen à qui on demande de s’adapter, apprendre et maîtriser les changements de manière rapide et efficiente (OCDE, 2000). La littératie numérique regroupe les compétences associées aux savoir-faire reliés à l’utilisation des technologies, mais aussi aux savoir-être nécessaires à leur utilisation critique et éthique, en plus de savoir-apprendre nécessaires à une utilisation innovante et créative de ces mêmes technologies. C’est ce savoir apprendre qui nous intéresse particulièrement dans le contexte où les étudiantes et les étudiants du programme Techniques d’intégration multimédia sont confrontés à des exigences élevées et constantes de mise à jour continue de leurs savoirs. Le cadre de référence de notre essai permet d’identifier les compétences et les habiletés qui sont en lien avec le développement de la compétence de mise à jour continue des savoirs dans quatre plans de littératie numérique internationaux et nationaux, dont Le profil TIC des étudiants du collégial proposé par le Réseau REPTIC (2015). Nous étayons ensuite la définition de la mise à jour continue des savoirs grâce aux travaux fondateurs de Knoles (1975), Straka (1997a), Carré (1997), Long (1988), Foucher (2000) et Tremblay (2003) qui s’intéressent aux concepts de l’« apprentissage autodirigé » et de l’« autoformation ». De ces deux concepts, nous dégageons trois dimensions principales à considérer afin d’améliorer le développement de la mise à jour continue des savoirs: la dimension sociale, la dimension psychologique et la dimension pédagogique. Premièrement, pour la dimension sociale, nous référons aux enjeux contemporains du développement de la littératie numérique et au concept de sujet social apprenant supporté par les travaux de Roger (2010) et de Piguet (2013). Deuxièmement, la dimension psychologique renvoie aux aspects motivationnels appuyés par la théorie de l’autodétermination de Deci et Ryan (2000) et aux aspects volitionnels supportés par la théorie de l’autorégulation de Zimmerman (1989). Finalement, pour la dimension pédagogique nous présentons la théorie du socioconstructivisme, la perspective pédagogique du connectivisme (Siemens, 2005) et la classification des stratégies d’apprentissage proposée par Boulet, Savoie-Zajc et Chevrier (1996). Nous poursuivons notre réflexion théorique en considérant divers modes d’apprentissage à l’aide des outils du Web 2.0 dont les blogues, les communautés et l’apprentissage en réseau. Nous concluons notre cadre de référence par la présentation du système d’apprentissage de Paquette (2002), du modèle des sept piliers de l’autoformation de Carré (1992, 2005) auxquels nous superposons les recommandations de Debon (2002) et finalement la présentation du modèle d’ingénierie pédagogique ADDIE de Lebrun (2007), tous quatre utiles à l’application d’un processus systémique de développement de notre dispositif d’autoformation. Notre recherche développement s’inscrit dans un paradigme interprétatif avec une méthodologie qualitative. Les collectes de données ont été effectuées auprès d’étudiantes et d’étudiants du programme Techniques d’intégration multimédia. Ces participantes et participants volontaires ont été utiles à la tenue d’un groupe de discussion en cours d’implantation et d’un questionnaire électronique utile à l’évaluation du dispositif d’autoformation. À la lumière de nos résultats, nous pensons que notre dispositif d’autoformation permet d’atteindre son objectif d’améliorer le développement de la compétence de mise à jour continue des savoirs des étudiantes et des étudiants du programme Techniques d’intégration multimédia. L’interprétation de nos résultats permet d’affirmer que notre dispositif d’autoformation, conçu par l’application d’un processus systémique fidèle aux constats dégagés par notre cadre de référence, permet de couvrir les trois dimensions que nous avons identifiées comme essentielles à l’autoformation, soit la dimension sociale, la dimension psychologique et la dimension pédagogique, mais surtout de confirmer leur réelle importance dans le développement de la compétence de la mise à jour continue des savoirs. Tel que nous le présentons dans notre cadre de référence, nous constatons que la dimension sociale déclenche les processus motivationnels et volitionnels qui sont propres à la dimension psychologique de l’apprentissage autodirigé ou de l’autoformation. Nous sommes à même de constater qu’il existe en effet un lien entre la dimension sociale et la théorie de la motivation autodéterminée qui accorde une importance aux facteurs sociaux qui facilitent la motivation en répondant à des besoins psychologiques fondamentaux. De plus, nous constatons que les outils développés dans le cadre de notre essai, tels que le plan de travail et le rapport de temps, jouent un rôle d’autorégulation crucial pour les étudiantes et les étudiants dans leur processus de surveillance et d’ajustement cognitif tel par la fixation d’objectifs, l’auto-évaluation, l’ajustement stratégique de ses méthodes d’apprentissage et la gestion du temps qu’ils permettent. Nous pensons que notre essai présente des retombées pour le programme Techniques d’intégration multimédia principalement en lien avec des pistes concrètes d’amélioration de la compétence de mise à jour continue des savoirs pour les étudiantes et les étudiants du programme et le développement d’une expertise dans l’application rigoureuse d’une ingénierie pédagogique pour le développement futur de différents dispositifs d’apprentissage. Nous identifions deux perspectives de recherches futures en lien avec notre essai. Premièrement, nous pensons qu’il serait intéressant d’explorer la capacité heuristique de l’apprentissage en réseau dans une perspective sociale, psychologique et pédagogique de l’autoformation, à l’instar des travaux de Henri et Jeunesse (2013). Deuxièmement, nous pensons qu’il serait intéressant d’améliorer le développement de la littératie numérique sous ses aspects de créativité et d’innovation dans un contexte où notre programme d’enseignement outille nos étudiantes et nos étudiants à une utilisation experte des technologies, leur permettant ainsi de mettre ces compétences à contribution dans une exploitation créative et innovante des technologies.
Resumo:
Une taxonomie révisée et une connaissance des limites d’espèces demeurent toujours importantes dans les points chauds en biodiversité comme les Antilles où de nombreuses espèces endémiques sont retrouvées. Des limites d’espèces divergentes impliquent un différent nombre d’espèces retrouvées dans un écosystème, ce qui peut exercer une influence sur les décisions prises face aux enjeux de conservation. Les genres Gesneria et Rhytidophyllum qui forment les principaux représentants de la famille des Gesneriaceae dans les Antilles comprennent plusieurs taxons aux limites d’espèces ambigües et quelques espèces qui ont des sous-espèces reconnues. C’est le cas de Gesneria viridiflora (Decne.) Kuntze qui comprend quatre sous-espèces géographiquement isolées et qui présentent des caractères végétatifs et reproducteurs similaires et variables. Une délimitation d’espèces approfondie de ce complexe d’espèce est effectuée ici à partir d’une approche de taxonomie intégrative considérant des données morphologiques, génétiques et bioclimatiques. Les données morphologiques quantitatives et qualitatives obtenues à partir de spécimens d’herbier sont utilisées pour délimiter des groupes morphologiques à l’aide d’une analyse en coordonnées principales. Ces groupes sont ensuite testés à l’aide de séquences d’ADN de quatre régions nucléaires en utilisant une méthode bayesienne basée sur la théorie de la coalescence. Finalement, les occurrences et les valeurs de variables de température et de précipitation qui y prévalent sont utilisées dans une analyse en composantes principales bioclimatique pour comparer les groupes délimités morphologiquement et génétiquement. Les résultats de l’analyse morphologique multivariée supportent la distinction entre les groupes formés par les sous-espèces actuellement reconnues de G. viridiflora. Les résultats, incluant des données génétiques, suggèrent une distinction jusqu’ici insoupçonnée des populations du Massif de la Hotte au sud-ouest d’Haïti qui sont génétiquement plus rapprochées des populations de Cuba que de celles d’Hispaniola. Bioclimatiquement, les groupes délimités par les analyses morphologiques et génétiques sont distincts. L’approche de taxonomie intégrative a permis de distinguer cinq espèces distinctes plutôt que les quatre sous-espèces acceptées jusqu’à aujourd’hui. Ces espèces sont : G. acrochordonanthe, G. quisqueyana, G. sintenisii, G. sylvicola et G. viridiflora. Une carte de distribution géographique, un tableau de la nouvelle taxonomie applicable et une clé d’identification des espèces sont présentés. La nouvelle taxonomie déterminée dans cette étude démontre un endémisme insoupçonné dans plusieurs régions du point chaud en biodiversité des Antilles et souligne l’importance d’investiguer les limites d’espèces dans les groupes diversifiés comprenant des taxons aux limites d’espèces incomprises.
Resumo:
Dix années après le décès d’Haroldo de Campos, il n’existe pas encore à ce jour d’études exhaustives sur la théorie de la traduction du poète, critique et traducteur littéraire brésilien. Dans la présente thèse, nous examinons de manière critique une affirmation d’Haroldo de Campos à l’effet qu’il aurait été influencé par le philosophe allemand Max Bense. Nous tentons de retracer dans les textes publiés d’Haroldo de Campos quand et comment ce dernier a été initié aux thèses du concepteur de l’esthétique de l’information. Pour parvenir à évaluer la nature et la valeur de cette influence nous avons passé en revue l’ensemble des textes, c’est-à-dire des monographies, des essais, des articles de journaux ou tout autre type de source de référence, afin de questionner la pertinence de l’affirmation d’Haroldo de Campos. Diverses hypothèses sont examinées, à partir de la visite de Décio Pignatari à Ulm, jusqu’à l’analyse d’une allocution d’Elisabeth Walther-Bense sur le rapport qui existait entre Haroldo de Campos et son feu mari, Max Bense. Au terme de notre investigation, nous devons constater que les textes théoriques d’Haroldo de Campos sont insuffisants en soi pour que l’on puisse expliquer comment s’est opérée et articulé le rapport entre ces deux ténors de la poésie concrète.
Resumo:
Le but de cette thèse est d’explorer le potentiel sismique des étoiles naines blanches pulsantes, et en particulier celles à atmosphères riches en hydrogène, les étoiles ZZ Ceti. La technique d’astérosismologie exploite l’information contenue dans les modes normaux de vibration qui peuvent être excités lors de phases particulières de l’évolution d’une étoile. Ces modes modulent le flux émergent de l’étoile pulsante et se manifestent principalement en termes de variations lumineuses multi-périodiques. L’astérosismologie consiste donc à examiner la luminosité d’étoiles pulsantes en fonction du temps, afin d’en extraire les périodes, les amplitudes apparentes, ainsi que les phases relatives des modes de pulsation détectés, en utilisant des méthodes standards de traitement de signal, telles que des techniques de Fourier. L’étape suivante consiste à comparer les périodes de pulsation observées avec des périodes générées par un modèle stellaire en cherchant l’accord optimal avec un modèle physique reconstituant le plus fidèlement possible l’étoile pulsante. Afin d’assurer une recherche optimale dans l’espace des paramètres, il est nécessaire d’avoir de bons modèles physiques, un algorithme d’optimisation de comparaison de périodes efficace, et une puissance de calcul considérable. Les périodes des modes de pulsation de modèles stellaires de naines blanches peuvent être généralement calculées de manière précise et fiable sur la base de la théorie linéaire des pulsations stellaires dans sa version adiabatique. Afin de définir dans son ensemble un modèle statique de naine blanche propre à l’analyse astérosismologique, il est nécessaire de spécifier la gravité de surface, la température effective, ainsi que différents paramètres décrivant la disposition en couche de l’enveloppe. En utilisant parallèlement les informations obtenues de manière indépendante (température effective et gravité de surface) par la méthode spectroscopique, il devient possible de vérifier la validité de la solution obtenue et de restreindre de manière remarquable l’espace des paramètres. L’exercice astérosismologique, s’il est réussi, mène donc à la détermination précise des paramètres de la structure globale de l’étoile pulsante et fournit de l’information unique sur sa structure interne et l’état de sa phase évolutive. On présente dans cette thèse l’analyse complète réussie, de l’extraction des fréquences à la solution sismique, de quatre étoiles naines blanches pulsantes. Il a été possible de déterminer les paramètres structuraux de ces étoiles et de les comparer remarquablement à toutes les contraintes indépendantes disponibles dans la littérature, mais aussi d’inférer sur la dynamique interne et de reconstruire le profil de rotation interne. Dans un premier temps, on analyse le duo d’étoiles ZZ Ceti, GD 165 et Ross 548, afin de comprendre les différences entre leurs propriétés de pulsation, malgré le fait qu’elles soient des étoiles similaires en tout point, spectroscopiquement parlant. L’analyse sismique révèle des structures internes différentes, et dévoile la sensibilité de certains modes de pulsation à la composition interne du noyau de l’étoile. Afin de palier à cette sensibilité, nouvellement découverte, et de rivaliser avec les données de qualité exceptionnelle que nous fournissent les missions spatiales Kepler et Kepler2, on développe une nouvelle paramétrisation des profils chimiques dans le coeur, et on valide la robustesse de notre technique et de nos modèles par de nombreux tests. Avec en main la nouvelle paramétrisation du noyau, on décroche enfin le ”Saint Graal” de l’astérosismologie, en étant capable de reproduire pour la première fois les périodes observées à la précision des observations, dans le cas de l’étude sismique des étoiles KIC 08626021 et de GD 1212.