41 resultados para Théorie des algorithmes
Resumo:
Cette étude qualitative a pour objectif de comprendre comment les interventions verbales des apprenantes et apprenants contribuent à la résolution effective des tâches linguistiques orales dans une classe d'anglais langue seconde selon la théorie Vygotskienne. La recherche a montré que les apprenantes et apprenants passent un temps considérable à discuter les énoncés ainsi que de la meilleure façon de résoudre les tâches linguistiques orales. Or, la recension des écrits a révélé que peu d'études ont tenté de comprendre ce que font les apprenantes et apprenants quand ils sont appelés à résoudre des tâches orales. Dans notre étude nous avons donc essayé de jeter la lumière sur ce phénomène. Les interactions verbales de 10 apprenantes et apprenants ont été enregistrées pendant la résolution de tâches linguistiques orales dans une classe d'anglais langue seconde de l'université de Sherbrooke. Pour analyser les données, nous avons utilisé des éléments de trois méthodes d'analyse, notamment la méthode microgénétique de Vygotsky, l'analyse interactionnelle et l'analyse des conversations. Les résultats ont révélé que les apprenantes et apprenants utilisent un nombre important de stratégies afin de mieux comprendre et résoudre les tâches linguistiques orales de façon efficace. Ils recourent notamment à leur langue maternelle, la répétition et la co-construction de phrases. La discussion de ces résultats a montré que la meilleure compréhension des stratégies utilisées par les apprenantes et apprenants ainsi que comment celle-ci [i.e. celles-ci] sont utilisées pourrait contribuer positivement à l'amélioration des techniques d'enseignement par tâches des langues secondes.
Resumo:
La tradition lexicographique de langue française opère, en théorie, une séparation stricte entre noms communs et noms propres. Or, dans les faits, cette séparation touche surtout les noms propres de lieux et de personnes. En effet, l'observation des articles du vocabulaire politique révèle un nombre important de noms propres d'une autre nature dans les pages de dictionnaires, comme des noms propres d'institutions, de partis politiques ou d'événements et de périodes historiques. Qui plus est, ces noms propres reçoivent souvent un traitement lexicographique comparable à celui des noms communs. Toutefois, ce traitement n'a pas encore fait l'objet d'une étude approfondie. Afin de faire la lumière sur le traitement lexicographique des noms propres du vocabulaire politique, nous avons procédé à une analyse de ces noms propres à travers quatre dictionnaires généraux de langue française : Le Nouveau Petit Robert 2007 (version électronique), Le Petit Larousse Illustré 2007 (version électronique), le Dictionnaire du français Plus - À l'intention des francophones d'Amérique (1988) et le Dictionnaire québécois d'aujourd'hui (1992). Nous avons d'abord mis sur pied une typologie des noms propres du vocabulaire politique susceptibles d'être définis dans les dictionnaires généraux de langue française; puis nous avons relevé ces noms propres dans les dictionnaires à l'étude. Il ressort de ce relevé que le nombre de noms propres du vocabulaire politique dans les dictionnaires est assez élevé pour nécessiter une caractérisation de la pratique lexicographique les entourant. En outre, la description du vocabulaire politique passe par une description de certains types de noms propres en plus des mots du lexique commun. Nous nous sommes penchée sur la manière dont sont présentés les noms propres dans les dictionnaires, pour conclure que leur intégration et leur identification n'obéissent pas à une méthode systématique.La majuscule initiale n'est pas systématiquement utilisée pour les noms propres de même type.La nomenclature des noms propres à inclure dans le dictionnaire de langue à été étudiée à travers l'exemple des noms de partis politiques.La méthode servant à dresser cette nomenclature devrait se baser sur l'observation d'un corpus (fréquence) et l'importance dans un système socioculturel de référence - pour les noms de partis politiques, les noms des partis représentés dans les instances officielles devraient être décrits dans les dictionnaires généraux. Nous avons ensuite analysé les catégories de noms propres les plus représentées dans notre corpus d'articles du vocabulaire politique (les noms propres d'événements et de périodes historiques, les noms de partis politiques, dont les sigles, et les noms propres d'institutions). À la suite de cette analyse, nous proposons une liste d'éléments que le traitement lexicographique devrait inclure afin de permettre une circonscription efficace du référent (c'est-à-dire les traits distinctifs que devrait contenir une définition suffisante pour ces types de noms propres). Un point commun à toutes les catégories concerne l'explicitation du contexte référentiel : en contexte francophone particulièrement, le lieu doit être précisé par le traitement lexicographique. L'étude se termine par une analyse de l'arrimage entre noms propres et lexique commun dans les dictionnaires où ils sont intégrés dans un même ouvrage (PLI) ou dans une même nomenclature ( Dictionnaire Hachette, Dixel ). Nous arrivons à la conclusion que ces particularités dictionnairiques n'ont pas pour l'instant permis de corriger certaines faiblesses dans l'intégration des noms propres du vocabulaire politique, surtout en ce qui a trait à leur présence (nomenclature) et à leur traitement en terme de définition suffisante.
Resumo:
Au Québec, le programme d'éthique et culture religieuse a influencé les pratiques éducatives des enseignants. (Conseil supérieur de l'éducation, 2003, 2009; Deniger, 2004; Gouvernement du Québec, 1999, 2005). Les réactions lors de son implantation ont stimulé cette analyse sous l'aspect politique, idéologique, organisationnel et pédagogique. Nous cherchions à connaître et comprendre comment les titulaires du primaire se représentent le processus d'implantation du programme ÉCR. Notre méthodologie exploratoire qualitative se fonde sur quatorze entrevues semidirigées dans 4 régions du Québec. Sans être en mesure de généraliser, nos travaux font tout de même ressortir le processus d'implantation d'une innovation scolaire. (Bonami et ai, 1996 ; Cros, 2001). De plus, notre recherche fournit une réflexion sur les facteurs facilitant ou non l'implantation d'un programme scolaire. En effet, la théorie de l'ingénierie de formation, facilite l'analyse des conditions les plus pertinentes à la mise en place d'un changement d'envergure au sein d'une organisation.
Resumo:
Ce mémoire s’intéresse à l’endettement des gouvernements et aux facteurs historiques qui en sont les causes. L’analyse utilise des données historiques des cinquante États américains afin d’explorer l’influence de différents facteurs d’ordre économique, politique et institutionnel sur l’accumulation de la dette publique. Alors que la littérature met de l’avant l’impact des facteurs économiques, politiques et institutionnels dans la détermination de l’endettement public, la contrainte budgétaire du gouvernement fait ressortir la relation entre le stock de dette publique courant et les déficits passés. Cette relation est au cœur de la question de recherche abordée par le mémoire : quel est le rôle des facteurs économiques, politiques et institutionnels historiques dans l’accumulation de dette publique? Comment estimer leur poids respectif? Afin de répondre à ces questions, l’analyse empirique intègre des variables explicatives économiques, politiques et institutionnelles ayant une composante historique. De plus, elle accorde une attention particulière aux facteurs institutionnels en utilisant différentes sources de données et des caractérisations plus ou moins détaillées pour modéliser les règles budgétaires et les limites d’endettement. Par ailleurs, la méthodologie empirique tient compte de la question de l’endogénéité potentielle des institutions fiscales. Les résultats de l’analyse économétrique confirment l’importance des facteurs économiques. Dans le cas des variables politiques, ils infirment la théorie selon laquelle les gouvernements divisés s’endettent davantage, mais confirment que l’appartenance politique des gouverneurs a un effet certain sur le poids de la dette publique. Ils indiquent également que l’indice historique d’alternance des partis politiques est important, l’alternance plus fréquente étant associée à une légère diminution de l’endettement. L’instabilité politique n’alimenterait donc pas nécessairement l’endettement public, ce qui suggère qu’il est possible qu’une plus forte compétition électorale puisse avoir un effet positif sur la rigueur budgétaire dans un système à deux partis politiques. De façon générale, les effets estimés des variables institutionnelles impliquent qu’elles ne sont que peu efficaces à limiter l’endettement des États.
Resumo:
Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.
Resumo:
Les étudiants de première année de licence de l’Université Catholique de Lille (UCL) constituent une population à part. D’une part, ils sont inscrits dans l’enseignement supérieur privé associatif, qui constitue une part minoritaire, mais croissante du paysage de l’enseignement supérieur français. D’autre part, leurs caractéristiques socio-économiques et leurs antécédents scolaires ne semblent pas suffisants pour expliquer leur taux de réussite plus élevé que l’ensemble des étudiants de première année de licence. Or, dans les pays occidentaux, les taux d’échecs observés en première année d’université ont généré une large littérature scientifique cherchant à mieux comprendre quelles caractéristiques étaient en mesure d’expliquer l’échec ou la réussite étudiante. Parmi les pistes proposées, l’étude des caractéristiques motivationnelles semble prometteuse. Nous nous sommes donc demandé quelles étaient les caractéristiques motivationnelles, que nous avons appelées profils, des étudiants de première année de licence de l’UCL. Pour répondre à cette question, nous avons essayé de savoir si les activités pédagogiques proposées habituellement en première année pouvaient se révéler un élément déterminant au niveau de la motivation. Le contexte de l’UCL, misant fortement sur l’innovation pédagogique pour l’avenir, rend cet éclairage particulièrement intéressant pour les responsables pédagogiques et les enseignants. Mais la particularité du système d’accès au supérieur et la spécificité de l’enseignement supérieur privé associatif nous ont également amené à questionner la motivation à effectuer des études de ces étudiants. En effet, il est difficile de s’imaginer mesurer la motivation dans une activité pédagogique sans tenir compte des motivations à s’engager dans les études de manière générale. Nous nous sommes appuyés sur un cadre de référence original empruntant à la fois à la théorie de l’autodétermination (Deci et Ryan, 1985) et de la dynamique motivationnelle au sein d’une activité pédagogique (Viau, 2009). Si l’objectif général est d’établir les profils motivationnels des étudiants de première année de licence de l’UCL, nous nous sommes demandé quelles caractéristiques personnelles (âge, sexe, origine sociale, antécédents scolaires, discipline, type d’établissement, choix et type de sélection) significatives influencent les profils motivationnels. Les résultats de l’étude portant sur 457 étudiants montrent une motivation très élevée envers les études, soutenue par des motifs à la fois intrinsèques et extrinsèques, pourtant opposés selon la théorie de l’autodétermination. Les étudiants montrent une motivation élevée envers les travaux dirigés qui allient théorie et pratique mais aussi envers les activités pédagogiques avec lesquelles ils sont familiers. Les étudiants de faculté sont motivés envers les cours magistraux et moins envers les projets, ce qui est l’inverse des étudiants en école. Notons que le résultat le plus original provient de l’étude des caractéristiques faisant varier les profils. En effet, aucune des caractéristiques personnelles étudiées ne fait varier les profils à l’exception des disciplines et du type d’établissement (école ou faculté) où sont observées des variations statistiques. En outre, au sein d’une même discipline, les différences existent en fonction du type d’établissement. Autrement dit, des facteurs contextuels propres aux établissements ou à la culture disciplinaire sont à l’origine des différents profils motivationnels. Ces conclusions renforcent le rôle de l’institution et des facteurs environnementaux propres aux établissements dans les niveaux de motivation des étudiants. Notre recherche donne également des données importantes aux acteurs de terrain en contact direct avec les étudiants.
Resumo:
Cette thèse par articles s’intéresse au cycle intergénérationnel de la victimisation sexuelle dans l’enfance. Un premier article a pour objectif de faire état des connaissances scientifiques actuelles sur le cycle intergénérationnel de la victimisation sexuelle dans l’enfance et propose un premier modèle explicatif basé sur la théorie du trauma. L’objectif du deuxième article est d’identifier, sur la base de ce modèle, les facteurs maternels qui sont associés à la continuité intergénérationnelle de la victimisation sexuelle dans l’enfance auprès de mères la population générale. Un groupe de 45 mères victimes d’ASE et ayant au moins un enfant agressé sexuellement est comparé à un groupe de 116 mères victimes d’ASE, mais pour lesquelles aucun de leur enfant n’a été agressé sexuellement avant l’âge de 18 ans. L'analyse de régression logistique montre que la présence des symptômes de l’état de stress posttraumatique, le fait d’avoir subi de la violence conjugale dans la dernière année et le fait d’avoir été agressée sexuellement pour la première fois avant l’âge de six ans ou à l’adolescence prédisent l’appartenance des mères au groupe de continuité intergénérationnelle. Le troisième article vise à comparer le profil psychosocial d’enfants agressés sexuellement et de leur mère, selon que celle-ci rapporte ou non une ASE, et ce, auprès de 87 dyades mère-enfant recevant des services sociaux québécois. Les 44 mères (51 %) rapportant avoir été victimes d’ASE sont comparées aux 43 mères d’enfants agressés sexuellement qui ne rapportent pas d’antécédent d’ASE. Les résultats des analyses de régression logistique montrent que les mères ayant elles-mêmes été victimes d’ASE rapportent un score plus élevé d’autres formes de mauvais traitements dans leur enfance, une plus grande prévalence à vie de troubles d’abus d’alcool, de dysthymie et de trouble panique. Comparés aux enfants pour qui leur mère n’a pas été agressée sexuellement, ceux dont la mère rapporte aussi une ASE sont plus susceptibles de présenter des problèmes de comportement d’intensité clinique et d’avoir été agressés par une personne de confiance. La discussion met en lumière les apports scientifiques des résultats de cette thèse et aborde les enjeux méthodologiques que soulève l’étude du cycle intergénérationnel de la victimisation sexuelle dans l’enfance. Les avenues de recherche que suggèrent les résultats de cette thèse sont aussi discutées et des recommandations sont formulées concernant l’intervention auprès des victimes d’ASE.
Resumo:
Le dimensionnement basé sur la performance (DBP), dans une approche déterministe, caractérise les objectifs de performance par rapport aux niveaux de performance souhaités. Les objectifs de performance sont alors associés à l'état d'endommagement et au niveau de risque sismique établis. Malgré cette approche rationnelle, son application est encore difficile. De ce fait, des outils fiables pour la capture de l'évolution, de la distribution et de la quantification de l'endommagement sont nécessaires. De plus, tous les phénomènes liés à la non-linéarité (matériaux et déformations) doivent également être pris en considération. Ainsi, cette recherche montre comment la mécanique de l'endommagement pourrait contribuer à résoudre cette problématique avec une adaptation de la théorie du champ de compression modifiée et d'autres théories complémentaires. La formulation proposée adaptée pour des charges monotones, cycliques et de type pushover permet de considérer les effets non linéaires liés au cisaillement couplé avec les mécanismes de flexion et de charge axiale. Cette formulation est spécialement appliquée à l'analyse non linéaire des éléments structuraux en béton soumis aux effets de cisaillement non égligeables. Cette nouvelle approche mise en œuvre dans EfiCoS (programme d'éléments finis basé sur la mécanique de l'endommagement), y compris les critères de modélisation, sont également présentés ici. Des calibrations de cette nouvelle approche en comparant les prédictions avec des données expérimentales ont été réalisées pour les murs de refend en béton armé ainsi que pour des poutres et des piliers de pont où les effets de cisaillement doivent être pris en considération. Cette nouvelle version améliorée du logiciel EFiCoS a démontrée être capable d'évaluer avec précision les paramètres associés à la performance globale tels que les déplacements, la résistance du système, les effets liés à la réponse cyclique et la quantification, l'évolution et la distribution de l'endommagement. Des résultats remarquables ont également été obtenus en référence à la détection appropriée des états limites d'ingénierie tels que la fissuration, les déformations unitaires, l'éclatement de l'enrobage, l'écrasement du noyau, la plastification locale des barres d'armature et la dégradation du système, entre autres. Comme un outil pratique d'application du DBP, des relations entre les indices d'endommagement prédits et les niveaux de performance ont été obtenus et exprimés sous forme de graphiques et de tableaux. Ces graphiques ont été développés en fonction du déplacement relatif et de la ductilité de déplacement. Un tableau particulier a été développé pour relier les états limites d'ingénierie, l'endommagement, le déplacement relatif et les niveaux de performance traditionnels. Les résultats ont démontré une excellente correspondance avec les données expérimentales, faisant de la formulation proposée et de la nouvelle version d'EfiCoS des outils puissants pour l'application de la méthodologie du DBP, dans une approche déterministe.
Resumo:
En observant, en étudiant, en décrivant un processus de formation dans sa dimension écoformative, hétéroformative et autoformative lors d'une expérience d'insertion professionnelle, il devient possible de déterminer lequel de ces trois pôles de formation apporte la contribution la plus grande à cette expérience. Aussi, cela permet de découvrir comment la connaissance du processus tripolaire de formation peur influencer, améliorer, faciliter la période de l'insertion professionnelle. L'objectif général de la recherche est de comprendre le processus tripolaire de formation lors d'une expérience d'insertion professionnelle et ce, en décrivant la contribution à la formation de chacun des pôles de la théorie tripolaire de formation et en évaluant le poids de chacun de ces pôles lors de l'expérience d'insertion professionnelle. L'expérience d'insertion professionnelle étudiée est celle du passage de la fonction d'enseignante du primaire à celle de conseillère au développement vécue par l'auteur de cet essai. Cette étude s'est réalisée dans le cadre d'une recherche de développement profesionnel dont le but visé est une plus grande compréhension de l'objet de la recherche soit le processus tripolaire de formation lors de l'expérience d'insertion professionnelle. Pour ce faire, le discours utilisé est herméneutique.
Resumo:
La séparation du contrôle et du financement de l'entreprise, mise en lumière par Berle et Means dans les années 1930, allait remettre en question la théorie micro-économique de la firme, plus précisément l'hypothèse néoclassique de la maximisation des profits. L'argument central résumant la pensée de Berle & Means (1932) est que lorsque la propriété de la firme est diffuse, particulièrement dans les cas où il y a un grand nombre d'actionnaires minoritaires, les dirigeants vont employer les ressources de manière à satisfaire leurs ambitions plutôt que de maximiser la richesse des actionnaires. Ainsi, selon la théorie de l'agence, les gestionnaires (les agents) pourraient avoir d'autres buts que la maximisation de l'avoir des actionnaires (le principal). Il est également vrai, que pour diverses raisons, les actionnaires ont d'autres visées que la maximisation des profits, les actionnaires, par exemple, pourraient être averses au risque…
Resumo:
L'analyse de la situation financière de l'entreprise sert à la prise de décision pour les parties intéressées à l'intérieur de l'entreprise, soit le gestionnaire et parfois le propriétaire et les autres qui se trouvent à l'extérieur, tels l'investisseur, le ministère du revenu, le banquier et le consultant. Dépendamment de l'utilisateur, l'information disponible n'est pas la même. L'investisseur, le banquier et le ministère du revenu doivent analyser l'entreprise à partir des données comptables publiées. Mais, les états financiers cachent parfois certaines réalités, tel un exercice financier ne représentant pas la saisonnalité des activités. De même les stocks de fin d'exercice ne représentent pas nécessairement le niveau du stock moyen. Les échéances de paiement surviennent peut-être au début plutôt qu'uniformément au cours de l'exercice. La signature de contrats importants pourra avoir des répercussions qu'au cours de l'exercice suivant. L'information interne seule peut répondre à ces questions. De plus, le résultat net publié dans les états financiers renferme certaines lacunes dont l'analyste doit tenir compte : 1- L'amortissement et l'évaluation des comptes-clients comportent une bonne part de subjectivité; 2- L'existence de plusieurs méthodes d'évaluation des stocks amène des problèmes de comparabilité, surtout lorsque ces postes ont une relative importance; 3- La dépréciation monétaire non prise en compte dans les états financiers diminue la comparabilité d'un exercice à l'autre et n'assure pas la préservation du patrimoine. Ainsi, les dividendes peuvent être versés au-delà de ce qu'il serait prudent de verser pour assurer la capacité de fonctionnement; 4- En période de prospérité, l'entreprise tentera de minimiser son bénéfice comptable afin de diminuer sa charge fiscale alors qu'en période de déficit, elle tentera de maximiser son bénéfice comptable pour rassurer les propriétaires et les prêteurs; 5- L'inflation accentue les difficultés de comparaison. Il faudra donc tenir compte de l'inflation pour apprécier l'évolution réelle du résultat; 6- La comparaison avec plusieurs entreprises est quelque peu biaisée dû au choix des pratiques comptables exercées sur plusieurs postes. Les critères de comparaison devront donc être le moins possible dépendants de choix de pratiques comptables. Malgré l'existence de ces déformations comptables, les états financiers demeurent une source importante d'informations. Mais les forces et les faiblesses de l'entreprise s'en trouvent plus ou moins cachées. Comme le gestionnaire et le consultant ont accès aux données non publiées par l'entreprise, les résultats des activités et les données sur la qualité de la gestion interne peuvent donc être plus détaillés, et plus proches de la réalité. L'information publique, ne permet que de détecter les grandes lignes de la situation financière de l'entreprise. Les ouvrages en finance ne traitent que très peu de ces facteurs internes et du lien entre l'information interne et l'information externe. Le but de notre étude a été de créer un modèle de diagnostic de la situation financière, dans un premier temps, issu de la théorie et reposant sur les données externes et internes à l'entreprise. Dans un deuxième temps, nous avons construit un modèle plus complet qui tienne compte des interrelations des postes des états financiers et de l'interprétation faite par les praticiens, et dont la théorie ne fait pas état. L'intégration des connaissances des praticiens au modèle théorique initial et l'utilisation des données internes à l'entreprise, devraient permettre de porter un diagnostic plus éclairé de la situation financière de l'entreprise.
Resumo:
La recherche qui a été effectuée dans le présent document, porte sur l'écart appliqué par les banques aux swaps de taux d'intérêt. Les éléments hors-bilan des banques dont fait partie les swaps de taux d'intérêt ont connu ces dernières années une croissance très importante, à cause principalement d'une volatilité des taux d'intérêt élevée. Nous avons choisi d'analyser l'écart bancaire sur les swaps de taux d'intérêt dans le but d'identifier la nature des relations qui existent entre lui et certains facteurs pertinents. Étant donné que dans la littérature financière il n'y a aucune étude empirique relative à ce sujet, et qu'il y a un manque d'informations théoriques adéquates en ce qui concerne la forme des relations analysées, nous avons effectué ce travail dans une perspective exploratoire. Les facteurs pertinents retenus sont le taux des acceptations bancaires, la volatilité de ce taux, mesurée par l'écart-type des observations des trente derniers jours, la pente de la courbe de rendement, et l'échéance du swap. La période d'étude va du 17/02/89 au 11/02/91 et compte 493 observations; elle a été subdivisée en quatre sous-périodes chronologiques égales. Ainsi chacune des analyses a-t-elle été effectuée de deux façons ; d'abord sur l'ensemble de l'échantillon et ensuite dans les sous-périodes. Deux types de swaps ont été considérés : les swaps de trois ans d'échéance et les swaps de cinq ans d'échéance. Les résultats de l'analyse des données sont les suivants : Dans une large mesure, il est plausible d'affirmer que l'écart bancaire sur les swaps de taux d'intérêt est une fonction négative du taux des acceptations bancaires. Mais cette relation est plus évidente lorsque le taux des acceptations bancaires est élevé que lorsqu'il est plus faible. Il est également soutenable d'affirmer que l'écart bancaire est une fonction positive de la volatilité des taux d'intérêt ainsi que de la pente de la courbe de rendement. L'écart bancaire augmente avec une augmentation de l'échéance du swap; néanmoins la relation entre les deux n'est pas une relation linéaire, c'est-à-dire de proportionnalité. Les résultats obtenus sont en général concordants avec la théorie économique et financière et leurs implications pratiques peuvent être utiles aussi bien pour la banque que pour les entreprises clientes.
Resumo:
Résumé : II existe une tension inhérente au sein de la relation en cours de développement entre un vendeur et un acheteur. Le vendeur craint que l'acheteur lui fasse perdre son temps et l'acheteur, lui, doute de l'honnêteté du vendeur. Tous deux s'interrogent sur le niveau de confiance et de coopération à accorder à l'autre. Il est possible, après tout, que le vendeur soit à l'affût de la moindre faiblesse de l'acheteur pour profiter de la situation et s'enrichir à ses dépens, ou, vice-versa, que l'acheteur cherche à profiter du vendeur. La présente thèse examine les tensions entre vendeurs et acheteurs en ayant recours à la théorie enracinée élargie, qui comprend une série de boucles investigatrices formées de revues des écrits scientifiques et de cueillettes de données qualitatives et quantitatives. Elle cherche à démontrer que la prédation perçue (l'impression que l'autre abuse de nous de manière coordonnée) affecte négativement la bonne entente entre les parties prenantes de la transaction. La thèse suggère aussi que le phénomène de prédation existe dans toutes les sphères d'activités humaines, y compris dans le domaine juridique. Le modèle PARDU (prédateur-proie) initialement développé pour discuter du phénomène de prédation débouche, au fil de la recherche, sur le modèle OPERA et la grille MESLY®, qui offrent des applications pratiques pour mieux gérer la prédation informationnelle.||Abstract : There is an inherent tension between a seller and a buyer as their relationship progresses towards closing the deal. The salesperson fears that the buyer wastes his time, which he could otherwise spend towards real potential buyers. The buyer questions the sincerity of the salesperson. Both evaluate the amount of trust and coopération they should invest in the relationship. It is possible, after ail, that the salesperson wants to take advantage of every weakness he detects in the buyer in order to guarantee the sale, and it is equally possible that the buyer tries to fool the salesperson, with false credit information for example. This thesis examines tensions that exist between salespeople and buyers by using an extended version of grounded theory, by which date is collected and analysed both qualitatively and quantitatively. It demonstrates that perceived prédation reduces considerably the quality of the relationship. The thesis suggests that the phenomenon of prédation exists in every sphere of human activity, including in the légal system. The PARDU Model (predator-prey) initially developed to discuss the phenomenon of predation evolves, as the research progresses, towards the OPERA Model and the MESLY® grid, which offer pratical tools to better manage informational predation.
Resumo:
Cette recherche, effectuée à l'automne 1987, auprès d'élèves en difficulté d'apprentissage au niveau collégial avait comme objectif principal de vérifier si les élèves qui avaient eu un suivi-intervention de groupe auraient respecté leurs conditions (contrats) plus que les élèves qui n'ont pas eu de suivi-intervention au cours de cette même période. Une approche de type expérientiel basée sur la théorie du double axe a été utilisée pour structurer l'apprentissage cognitif et affectif des élèves choisis. L'idée maîtresse de cette approche s'inspire d'auteurs américains, dont les concepts ont été repris par Limoges au Québec. Enfin une méthodologie utilisant la prise de conscience (affective et cognitive) a été employée pour stimuler l'expérience des participants en les aidant à nommer et à verbaliser ce qu'ils ont symbolisé au cours de l'expérience de groupe. Élèves ayant abandonné ou échoué la moitié ou plus de leurs cours à l'hiver 1987 (article 33). Les élèves avaient à signer un contrat stipulant le nombre de cours à réussir. Deux groupes d'élèves ont été choisis pour faire l'expérience i.e. le groupe expérimental. Les élèves qui n'ont eu aucune consultation individuelle ou de groupe formeront le groupe contrôle. Le groupe expérimental a été rencontré cinq fois durant la session et la durée des rencontres de groupe était de trois heures. Chacune des rencontres incluait des activités et des discussions autour d'une situation pédagogique insatisfaisante que vivaient les participants. De plus, chaque élève du groupe expérimental avait à faire des exercices d'intégration cognitive après chacune des rencontres et ce, autour des thèmes suivants: - réactions face au programme, - qu'est-ce que j'ai aimé? - qu'est-ce que je n'ai pas aimé? - ce que je retiens, - ce qui se dégage, - les apprentissages, les prises de conscience, - les sentiments, les craintes, les empêchements ... Pour sa part, le groupe contrôle n'a pas fait ces activités . Pour conclure, on a remarqué que les élèves qui ont eu un suivi-intervention ont respecté leur contrat dans une proportion nettement plus grande. En effet, le taux d'amélioration s'élève à 116% suite à cette intervention de groupe.
Resumo:
Grâce à l'élaboration de sa théorie opératoire du développement cognitif, Jean Piaget fut, sans contredit, l'un des auteurs les plus écoutés dans ce domaine. Il a mis en lumière une série de stades du développement cognitif allant du niveau sensori-moteur en passant par le niveau des opérations concrètes pour finalement aboutir à celui des opérations formelles qui obéissent à des lois précises de construction (Piaget, 1964). Parmi celles-ci, Piaget affirme l'universalité du développement de ces stades en ce sens que tous les sujets passent par la même séquence. Il s'est très peu intéressé aux différences inter-individuelles. Ce qui explique que la très grande majorité de ses travaux ont portés sur l'observation de sujets normaux (Inhelder, 1963). Ce fut donc d'autres chercheurs qui ont tenté d'appliquer la pensée piagétienne à des catégories précises de sujets. Dans cette veine, la présente recherche s'intéresse à l'application de cette pensée aux déficients profonds. C'est là un moyen utile de tester l'universalité de la séquence de développement proposée par Piaget. Le relevé de documentation sur cette question proposée par Klein et Safford (1977) permet de constater qu'il est relativement aisé de trouver des recherches s’intéressant à l'étude du fonctionnement cognitif des déficients mentaux légers atteignant la période des opérations concrètes mais qu'il est beaucoup plus difficile d'en trouver qui s'attardent au fonctionnement cognitif des déficients profonds. Il est pourtant possible d'en trouver quelques-unes (Ciccheti et Sroufe, 1976; Inhelder, 1963; Kahn, 1976; Lambert et Vanderlinden, 1977; Rogers, 1977; Silverstein et al., 1975; Wohlueter et Sindberg, 1975; Woodward, 1959). Les résultats divergent. De plus, une analyse approfondie des méthodologies utilisées suffit à convaincre que le débat demeure ouvert sur cette question. Des améliorations méthodologiques sont apportées dans cette recherche. La présente étude analyse donc le fonctionnement sensori-moteur des déficients profonds en le comparant à celui de sujets normaux de même âge mental qu'eux. Les déficients mentaux sont divisés en deux groupes selon qu'il y ait ou non présence de trouble lésionnel. Tous les sujets font face aux items de l'échelle de la poursuite visuelle et de la permanence de l'objet ainsi que celle des relations entre les objets dans l'espace construits par Uzgiris et Hunt (1975). Les résultats sont ensuite tour à tour présentés et interprétés.