50 resultados para Modèle de Langue
Resumo:
Les services rendus par la nature sont ébranlés par les activités économiques humaines, ce qui invite l’économie à changer de paradigme. L’économie circulaire dont découle la symbiose industrielle, comporte des espoirs de transition. Dans le cadre de l’essai, c’est la symbiose qui dévoilera ses propres pistes de mutation, par son modèle d’affaires. Celui-ci permet de détecter et de créer de la valeur dans les entreprises. Il existe plusieurs angles pour dévoiler le modèle d’affaires, mais c’est la perspective du système d’activité qui est sélectionnée. L’objectif principal de l’essai est d’explorer cette perspective, en l’appliquant sur une symbiose industrielle québécoise, soit celle du Centre local de développement de Brome-Missisquoi. Cette perspective est systémique et s’avère pertinente dans le contexte d’une symbiose. Puisque le modèle d’affaires permet de constater comment s’organise la symbiose pour créer de la valeur, le premier sous objectif est d’analyser celle-ci. En découle une étude comparative soulevant ses facteurs de succès et d’entrave. Les expériences de symbioses sont multiples et différenciées, mais certaines constantes peuvent être dégagées. Puisque son développement prend du temps, la mobilisation des acteurs comporte des défis. L’analyse de la rentabilité de la symbiose et de sa gouvernance peut outiller les intervenants pour faciliter son déploiement. Les retombées de la symbiose industrielle de Brome-Missisquoi sont positives. Afin de maintenir l’intérêt des participants et d’impulser la symbiose vers la pérennité, des recommandations sont formulées. Il est recommandé d’augmenter la diversité de ses parties prenantes de la symbiose, encadré par une réflexion stratégique co construite. La résilience de la symbiose en sera renforcie. Il importe de revenir sur la vision des membres et de développer leur compréhension du concept. Enfin, il est recommandé d’améliorer l’ancrage de la symbiose sur son territoire, en se greffant aux organisations déjà existantes, mais actuellement absentes du membariat. Des témoignages soulèvent des changements de pratiques notables chez certaines parties prenantes, ce qui semble indiquer que les symbioses industrielles favorisent le changement de paradigme.
Resumo:
Au Canada, les avalanches constituent le géorisque le plus dangereux en période hivernale. On enregistre annuellement d’importants coûts économiques et sociaux associés aux impacts de ce phénomène naturel. Par exemple, la fermeture de routes en cas de risque d’avalanche est estimée à 5 millions de dollars (Jamieson et Stethem, 2002). La prévision des avalanches est, de nos jours, la meilleure méthode afin d’éviter ces coûts. Au Canada, cela s’effectue de façon ponctuelle à l’aide de méthodes manuelles tel que le test de compression (CAA, 2014). Les modèles de simulation du couvert neigeux permettent d’étendre les prévisions à l’ensemble d’une région et ainsi, atteindre certains lieux difficilement accessibles pour l’homme. On tente actuellement d’adapter le modèle SNOWPACK aux conditions canadiennes et plusieurs études ont eu pour but d’améliorer les simulations produites par celui-ci. Cette étude vise donc également l’amélioration des simulations par l’intégration des paramètres de végétation. L’objectif de l’étude est de paramétrer, pour la première fois, le module de végétation de SNOWPACK avec les données récoltées dans la réserve faunique des Chic-Chocs. Nous pourrons ainsi évaluer l’impact de la végétation sur la modélisation du couvert nival. Nous avons donc, lors de sorties de terrain, recueillis les données de neige et de végétation au niveau de quatre sites d’étude. Nous avons par la suite réalisé les simulations avec SNOWPACK et comparer les résultats des simulations avec et sans végétation aux données de terrain. L’étude nous révèle que le modèle diminue la quantité de neige au sol ainsi que la densité du manteau neigeux en présence de végétation. De plus nous avons pu constater que l’inclusion du module de végétation permet d’obtenir des données qui se rapprochent davantage de ce qui a été observé sur le terrain.
Resumo:
Résumé: L’Institut pour l'étude de la neige et des avalanches en Suisse (SLF) a développé SNOWPACK, un modèle thermodynamique multi-couches de neige permettant de simuler les propriétés géophysiques du manteau neigeux (densité, température, taille de grain, teneur en eau, etc.) à partir desquelles un indice de stabilité est calculé. Il a été démontré qu’un ajustement de la microstructure serait nécessaire pour une implantation au Canada. L'objectif principal de la présente étude est de permettre au modèle SNOWPACK de modéliser de manière plus réaliste la taille de grain de neige et ainsi obtenir une prédiction plus précise de la stabilité du manteau neigeux à l’aide de l’indice basé sur la taille de grain, le Structural Stability Index (SSI). Pour ce faire, l’erreur modélisée (biais) par le modèle a été analysée à l’aide de données précises sur le terrain de la taille de grain à l’aide de l’instrument IRIS (InfraRed Integrated Sphere). Les données ont été recueillies durant l’hiver 2014 à deux sites différents au Canada : parc National des Glaciers, en Colombie-Britannique ainsi qu’au parc National de Jasper. Le site de Fidelity était généralement soumis à un métamorphisme à l'équilibre tandis que celui de Jasper à un métamorphisme cinétique plus prononcé. Sur chacun des sites, la stratigraphie des profils de densités ainsi des profils de taille de grain (IRIS) ont été complétés. Les profils de Fidelity ont été complétés avec des mesures de micropénétromètre (SMP). L’analyse des profils de densité a démontré une bonne concordance avec les densités modélisées (R[indice supérieur 2]=0.76) et donc la résistance simulée pour le SSI a été jugée adéquate. Les couches d’instabilités prédites par SNOWPACK ont été identifiées à l’aide de la variation de la résistance dans les mesures de SMP. L’analyse de la taille de grain optique a révélé une surestimation systématique du modèle ce qui est en accord avec la littérature. L’erreur de taille de grain optique dans un environnement à l’équilibre était assez constante tandis que l’erreur en milieux cinétique était plus variable. Finalement, une approche orientée sur le type de climat représenterait le meilleur moyen pour effectuer une correction de la taille de grain pour une évaluation de la stabilité au Canada.
Resumo:
L’encéphalopathie néonatale (EN) affecte plus de 0.8% des nouveau-nés à terme et est la deuxième cause d’handicap neurologique durant l’enfance. Le traitement des enfants atteints d’EN consiste en une prise en charge symptomatique et en l’hypothermie (HT). Néanmoins, plus de 50% des patients traités par HT gardent des séquelles neurologiques majeures. Les données provenant du Canadian Cerebral Palsy Registry montrent que l’HT prévient seulement 4% des cas de paralysie cérébrale (PC). Le fait que l’HT ait des effets neuroprotecteurs chez certains nouveau-nés, mais pas chez tous les nouveau-nés atteints d’EN n’est pas encore totalement élucidé. Il a été rapporté que les nouveau-nés exposés à l’inflammation (sepsis néonatal, infections placentaires) et à l’hypoxie-ischémie (HI) semblent avoir moins d’effets bénéfiques de l’HT que ceux qui ont été seulement exposés à l’HI. Des études précliniques ont établi que l’HT avait des effets neuroprotecteurs dans les cas d’encéphalopathies hypoxique-ischémiques chez les nouveau-nés à terme ou peu prématurés (plus de 35 semaines d’âge gestationnel). Cependant, peu d’études ont investigué les effets de l’HT lorsque l’EN résulte de la combinaison d’HI et d’infection/inflammation, alors qu’il s’agit du scénario pathophysiologique le plus fréquemment rencontré chez les nouveau-nés humains atteints d’EN. Ceci nous a amené à tester les effets neuroprotecteurs de l’HT dans un modèle animal (rat) d’EN induite par l’inflammation et l’HI. Des ratons Lewis au jour postnatal 12 sont injectés avec du lipopolysaccharide (LPS) d’E.coli afin de recréer l’inflammation, puis sont soumis à l’ischémie (ligature de la carotide commune droite) et à l’hypoxie (8% O[indice inférieur 2], 1h30). Les ratons sont ensuite traités ou non par l’HT (32 ± 0.5°C, 4 h). L‘étendue des lésions cérébrales ainsi que les cascades inflammatoires et oxydatives ont été étudiées. Nos résultats montrent que l’HT prévient l’étendue des lésions dans la composante de pénombre ischémique (néocortex et hippocampe). Cet effet neuroprotecteur est indépendant d’un effet anti-inflammatoire cérébral de l’HT portant sur le système de l’interleukine-1. Nos données indiquent que l’HT module l’expression des enzymes responsables de l’élimination des réactifs de l’oxygène (ROS). En conclusion, nos résultats montrent que l'HT a des effets neuroprotecteurs dans un modèle d’EN induite par l’exposition combinée au LPS et à l’HI. Ce projet devrait ouvrir des perspectives translationnelles pour prévenir la PC au-delà de l'hypothermie seule, comme par exemple celle visant à tester le bénéfice de la combinaison thérapeutique d’HT jointe au blocage de cytokines pro-inflammatoires.
Resumo:
Cette recherche de développement est née d'une préoccupation au sujet du manque d'intérêt d'un grand nombre de garçons pour la lecture. Le problème est complexe et, si les interventions sur le terrain sont nombreuses et variées, il nous semblait qu'il manquait un fil conducteur pour les unifier et partant de là, pour garantir leur efficacité. C'est de là qu'est née la proposition d'un modèle de médiation en lecture, modèle basé sur la compétence professionnelle de l'enseignant, à la fois passeur culturel et lecteur, et suscitant le désir (motivation) et le plaisir de lire de l'élève masculin du primaire.
Resumo:
Abstract: This study was designed to validate a constructivist learning framework, herein referred to as Accessible Immersion Metrics (AIM), for second language acquisition (SLA) as well as to compare two delivery methods of the same framework. The AIM framework was originally developed in 2009 and is proposed as a “How to” guide for the application of constructivist learning principles to the second language classroom. Piloted in 2010 at Champlain College St-Lambert, the AIM model allows for language learning to occur, free of a fixed schedule, to be socially constructive through the use of task-based assessments and relevant to the learner’s life experience by focusing on the students’ needs rather than on course content.||Résumé : Cette étude a été principalement conçu pour valider un cadre d'apprentissage constructiviste, ci-après dénommé Accessible Immersion Metrics - AIM, pour l'acquisition d'une langue seconde - SLA. Le cadre de l'AIM est proposé comme un mode d'emploi pour l'application des principes constructivistes à l'apprentissage d’une langue seconde. Créé en 2009 par l'auteur, et piloté en 2010 au Collège Champlain St-Lambert, le modèle de l'AIM permet l'apprentissage des langues à se produire, sans horaire fixe et socialement constructive grâce à l'utilisation des évaluations alignées basées sur des tâches pertinentes à l'expérience de vie de l'étudiant en se concentrant sur les besoins des élèves plutôt que sur le contenu des cours.
Resumo:
L'hypothèse sous-jacente au modèle de marché de SHARPE(1964) est que les actifs ont une tendance à évoluer ensemble seulement à cause du lien commun qu'ils ont avec le marché. Depuis lors, quelques recherches ont permis de découvrir qu'il y a d'autres facteurs qui influencent le mouvement des prix des actifs financiers. Notamment, KING(1963), MEYERS(1973), FARRELL(1970,74,77), LIVINGSTON(1977) et ARNOTT(1980) ont cerné quelques-uns de ces autres facteurs. ROLL et ROSS(1976) ont spécifié un modèle général qui tient compte de facteurs importants dans les marchés financiers. Cependant, les tests empiriques sur l'A.P.T. (arbitrage pricing theory) effectués par CHEN, ROLL et ROSS(1986) n'ont pas donné de résultats probants. L'objectif de cette étude sera d'étudier le comportement des sous-indices de la Bourse de Toronto pour créer un modèle multifacteurs selon la méthodologie de James L. FARRELL. En bref, on étudie les comportements des actifs financiers par l'utilisation de procédures de regroupements statistiques pour former quelques indices supplémentaires au modèle de marché de SHARPE(1964).
Resumo:
L'objet de ce mémoire est de mesurer l'efficacité des programmes d'aide aux employés (PAE). Dans un deuxième temps, nous cherchons à identifier les facteurs explicatifs du succès des PAE. Nous avons conceptualisé ces interrogations autour d'un modèle théorique qui découpe le concept de succès des PAE en trois variables dépendantes soit, la résolution de la situation problématique, la satisfaction des usagers envers le PAE et l'amélioration de la performance au travail grâce et à la suite des consultations au PAE. De même, nous avons identifié quatre groupes de variables indépendantes susceptibles d'expliquer les variations dans le succès des PAE soit: le profil des usagers, les caractéristiques de la situation problématique, les caractéristiques de la consultation et finalement les caractéristiques de l'organisation à laquelle appartiennent les usagers. Pour évaluer ce modèle et afin de répondre à ces interrogations nous avons sondé par questionnaire vingt-deux usagers cliniques d'un PAE externe. L'échantillon était composé majoritairement de femmes âgées entre 30 et 49 ans, travaillant principalement dans des emplois professionnels. L'analyse quantitative des réponses nous a permis de conclure que généralement le PAE est assez efficace pour résoudre les situations problématiques vécues par ses usagers. Les résultats tendent aussi à montrer que les usagers du PAE sont très satisfaits des services dispensés. Il ressort finalement que, grâce aux consultations au PAE, l'impact négatif de la situation problématique sur la performance au travail de l'usager disparaît et même qu'en moyenne la performance au travail s'améliore légèrement. Suite aux analyses bi-variées, nous pouvons identifier certains facteurs explicatifs du succès des PAE. Les principales variables pour lesquelles le succès des PAE variait significativement étaient le sexe, l'âge, la catégorie d'emploi, le type de difficultés, l'urgence de la situation problématique, le motif de cessation des services, la taille de l'entreprise et la présence ou non d'un syndicat dans l'entreprise du répondant.
Resumo:
L'Université Bishop's de Lennoxville est née d'un défi de l'anglicanisme de s'implanter dans une région colonisée par des Américains dans une province en majeure partie francophone. Troisième plus ancienne université du Québec, Bishop's célèbrera en décembre de cette année 1993, son 150 ième anniversaire. Bien qu'elle soit petite, avec un effectif de seulement 2000 étudiants, Bishop's quand même réussît à attirer des étudiants non seulement du Québec mais de toutes les autres provinces ainsi que de l'étranger. Le cas de Bishop's est unique étant donné qu'elle est la seule université anglophone du Québec établie dans une région rurale. De plus, n'offrant que des programmes de premier cycle, elle perd le pouvoir d'attraction des programmes de deuxième et troisième cycles ainsi que celui des facultés des professions libérales telles que le droit, le génie ou la médecine. Les responsables de l'université s'interrogent sur les raisons qui aujourd'hui amènent un étudiant à choisir Bishop's plutôt qu'une autre université pour entreprendre ses études. Leur problème n'est pas autant d'augmenter le nombre total d'étudiants inscrits que surtout celui de changer la composition du corps estudiantin afin qu'un plus grand pourcentage provienne de la province du Québec. Conscients de l'énorme potentiel que représente le marché francophone, ils voudraient tout en maintenant la participation présente des anglophones du Québec, développer des stratégies qui leur permettront d'attirer un plus grand nombre d'étudiants francophones. Les mesures prises par l'administration durant les deux dernières années académiques ont été d'accorder des proportions de plus en plus importantes du budget de recrutement aux cegeps francophones. Confrontés à notre tour à ce problème, nous avons décidé de le résoudre d'une manière plus globale et plus approfondie. Une revue préliminaire de la littérature s'est avérée insuffisante. La recherche dans ce domaine foisonne en études de préférences visant surtout à faire des prévisions au sujet des admissions futures dans le but d'attirer le plus de candidats possible sans se soucier de l'origine régionale, ethnique ou linguistique des étudiants. Afin d'attirer tel groupe d'étudiants plutôt qu'un autre, les responsables devraient tout d'abord enquêter sur les attributs d'une université qui sont importants pour chaque groupe et déterminer si ces attributs diffèrent d'un groupe à un autre. C'est pour cette raison que nous avons mené auprès des étudiants de Bishop's une étude de préférences afin de trouver le message qui doit être véhiculé lors des activités de recrutement. De plus, comme mentionné plus haut, les responsables consacrent une partie du budget à ces activités. Apporter un changement au corps étudiant devient par conséquent un problème de gestion des efforts de recrutement. Nous avons pour cela développé un modèle basé sur une fonction de réponse visant à établir une relation entre les demandes d'inscriptions et différentes autres variables telles que le potentiel du marché, les sommes allouées au recrutement, la distance qui sépare la région d'origine de Bishop's, et enfin un effet de langue qui différencierait la réponse des francophones de celle des anglophones. Ce modèle permet d'élaborer une règle de répartition du budget relativement facile à mettre en oeuvre et qui aiderait les responsables à optimiser la composition du corps étudiant.
Resumo:
Les gestionnaires des ventes peuvent se servir de modèles de décision pour répartir de façon optimale les ressources marketing entre les produits et territoires. Ces modèles sont des équations mathématiques qui représentent la façon dont les ventes réagissent aux efforts marketing et peuvent être calibrés à partir de données objectives ou subjectives. Little (1971) affirme que les données subjectives sont plus efficaces parce qu'elles contiennent toute l'expérience des gestionnaires. À partir des recommandations de Little, Lodish (1971) a développé le modèle CALLPLAN afin d'aider les gestionnaires à répartir le temps de visites des représentants entre les clients ou les produits, de façon à maximiser les profits de l'entreprise. Pour calibrer ce modèle, les utilisateurs doivent utiliser les cinq données suivantes : les ventes prévues si aucune visite n'est effectuée, les ventes prévues avec une réduction de 50% des visites actuellement effectuées, les ventes actuelles, les ventes prévues si le nombre de visites est augmenté de 50% et les ventes prévues en effectuant un nombre infiniment grand de visites. Nous avons constaté que les modèles de répartition se basent tous sur les mêmes données pour estimer les paramètres des fonctions de réponse des ventes et que la valeur de ces données n'a jamais été évaluée empiriquement. Cette étude visait donc à évaluer la valeur des données subjectives utilisées dans la procédure d'estimation des paramètres du modèle CALLPLAN. À l'aide de simulations de jugements sur ordinateur, nous avons vérifié si la procédure d'estimation, telle que proposée par Lodish, peut être améliorée. Nous avons trouvé en essayant différentes combinaisons de cinq points, qu'effectivement la combinaison de Lodish n'est pas la meilleure pour estimer adéquatement les paramètres du modèle CALLPLAN. Quand la fonction de réponse des ventes est à priori en forme de S, les points utilisés devraient être les suivants ; les ventes prévues si aucune visite n'est effectuée (min), les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué (max), les ventes prévues avec le nombre de visites qui correspond au point d'inflexion (P.l.) de la fonction de réponse et les ventes prévues avec le nombre de visites qui correspond à la mi-distance du point d'inflexion et du niveau de ressource min. Quand la fonction de réponse est à priori concave, la combinaison de points utilisée devrait être ; les ventes prévues si aucune visite n'est effectuée, les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué, les ventes prévues en réduisant au quart le nombre de visites actuellement effectué et les ventes prévues en diminuant de 50% le nombre de visite actuellement utilisé. Nous avons également observé que les jugements concernant les ventes minimales et les ventes maximales influencent grandement les estimés. Nous avons donc trouvé un moyen d'atténuer leur impact en calculant des estimés moyens générés par les jugements individuels d'un groupe déjugés.
Resumo:
Comme les emplois disponibles sont, depuis une dizaine d'années, de plus en plus difficiles à "détecter" et cette tendance risque fort de se poursuivre au cours des années à venir, l'insertion professionnelle constitue sans aucun doute l'un des problèmes de l'heure de notre société. C'est un problème auquel tous les chercheurs d'emploi doivent faire face et en particulier ceux et celles qui, comme les immigrants, les individus peu scolarisés, les accidentés du travail, les femmes au foyer et les chômeurs de longue durée, etc., sont moins outillés pour se tailler une place sur le marché du travail. Dans un contexte où il est souvent urgent pour ces clientèles de se trouver du travail pour subvenir à leurs besoins de base, le professionnel d'orientation est amené à se poser la question suivante: "Par rapport à l'environnement, qu'est-ce qu'il est essentiel pour ces gens de connaître afin de faciliter leur insertion professionnelle?
Resumo:
On parle de plus en plus d'insertion professionnelle difficile. Les taux de chômage augmentent et cela implique une grande demande d'aide de la part des chercheurs d'emploi. Les ressources humaines pour répondre à leurs besoins sont débordées et doivent donner des services efficaces dans un court laps de temps. Le problème qui se pose alors, c'est de savoir comment faire une évaluation, un diagnostic ajusté de la situation du chercheur d'emploi, qui répond à la fois à ses besoins et à ses difficultés d'insertion, qui respecte son environnement, ses choix et qui s'adapte au contexte de notre société? Ce qui nous préoccupe donc ici, c'est de savoir comment mesurer l'employabilité d'un individu. Dans le premier chapitre nous définirons ce qu'est l'employabilité. Et nous ferons le point sur les réalités du marché du travail. Nous ferons aussi une analyse de certains instruments de mesure d'employabilité déjà existants et nous présenterons un modèle théorique d'intervention en employabilité nouveau et à jour pouvant répondre au besoin d'un instrument de mesure, le Trèfle chanceux de Limoges. Dans le deuxième chapitre, nous verrons l'instrument de mesure de l'employabilité que nous jugeons le plus avancé; "Copilote insertion" de Clavier. Dans un souci de répondre au besoin de posséder un instrument de mesure d'employabilité, nous allons utiliser Copilote insertion afin de vérifier la taxonomie du Trèfle chanceux. Dans le troisième chapitre, nous vous proposons un jeu bâti sur le modèle du Trèfle Chanceux; L'emploi à la Carte, que nous comparerons, par la suite, à Copilote insertion pour en faire ressortir les différences et similarités. C'est dans le quatrième et dernier chapitre que vous pourrez retrouver des recommandations afin d'amorcer la construction d'un instrument intégrant Copilote insertion et le Trèfle chanceux, tout en respectant les priorités des deux auteurs.
Resumo:
Le travail occupe une place très importante dans la société industrialisée, ce concept est en constante évolution. Au cours des dernières décennies, le travail a connu deux révolutions importantes. La première fût celle de l'agriculture, la deuxième industrielle. Nous vivons présentement une troisième révolution, celle de la technologie. Le virage technologique amène des changements considérables sur le marché du travail aux plans économique, social et personnel. Depuis les trente dernières années, la technologie connaît des progrès immenses et ce, de façon soutenue et de plus en plus rapide. Plusieurs professions ont disparu, d'autres sont appelées à disparaître et la plupart subiront d'importantes modifications à cause de l'implantation de la nouvelle technologie. Par exemple, la secrétaire est passée de la machine à écrire manuelle conventionnelle à l'électrique, dorénavant, elle fait du traitement de texte sur ordinateur; presque tout son travail est informatisé. Elle aura à utiliser, dans les prochaines années, des appareils dont le plus haut degré de sophistication n'a pas été atteint. Les architectes et les ingénieurs ont troqué leur table à dessins pour l'ordinateur qui réalise leurs plans et croquis en deux fois moins de temps. Les tailleurs ne coupent plus les tissus avec des ciseaux mais avec des lasers ce qui apporte plus de précision et rapidité. Les exemples de ce type se comptent par milliers maintenant et l'avancement technologique progresse rapidement. Nous retrouvons ces traces partout même dans nos foyers (magnétoscopes, jeux vidéos, ordinateurs, fours à micro-ondes, etc.).
Resumo:
«Supervision pédagogique, examens ministériels, resserrement des programmes (...) sont à la mode du jour du système éducatif québécois». De tous les éléments de ce système, le cégep semble davantage visé. On le presse de rendre des comptes sur la qualité de ses enseignements. Qu'il suffise de rappeler à ce sujet l'impact qu'a eu dans les collèges et dans le public québécois en général, l'avènement médiatique provoqué par la parution du premier palmarès des cégeps dans la revue Actualités. Presque quotidiennement, les journaux nous entretiennent des problèmes que soulèvent les cégeps. Tout encore récemment le président du Conseil de la jeunesse ne craignait pas d'affirmer dans le journal La Presse, «que les collèges sont incapables de s'autocritiquer et de s'auto-évaluer et n'ont de comptes à rendre à personne». Il n'en fallait pas davantage pour que le Ministère de l'enseignement supérieur et de la science convoque une Commission parlementaire sur l'enseignement collégial pour l'automne 1992. Il existe pourtant au cégep de nombreux lieux où s'exerce la supervision. C'est le cas par exemple des plans de cours que les professeurs sont tenus de rédiger à chaque début de session d'enseignement pour leurs groupes d'étudiants. Cette opération renferme en elle-même plusieurs étapes qui nécessitent diverses interventions de supervision de direction et d'assistance. […]
Resumo:
Notre commission scolaire a vécu une période difficile pendant laquelle quelques crises se sont déroulées durant les trois (3) dernières années, Si nous utilisons le mot crise, c'est qu'il implique une réaction massive des directeurs d'école face à un geste ou une action posée par le directeur général. Très brièvement, nous exposerons, dans les lignes qui vont suivre, ce qui a déclenché chacune des crises. La première de ces crises concerne l'évaluation du personnel de direction, devant les commissaires, par le directeur général. Étant donné que, ni le C.R.T., ni aucun des directeurs d'école n'avait été, à tout le moins, informé, la réaction des directeurs d'école fut très vive. Qui plus est, personne ne savait que le directeur général l'avait évalué. Un autre geste qui fut posé par le directeur général fut de bonifier, devant les commissaires, la conclusion d'un rapport d'une psychologue, lequel rapport affirmait, dans sa conclusion, que le niveau intellectuel de certains directeurs d'école était peut-être de l'ordre de la déficience. Encore une fois, la réaction des directeurs d'école fut assez véhémente. Un troisième geste posé par le directeur réussit à susciter l'ire des directeurs d'école. Eh fait, trois postes furent ouverts à la commission scolaire. la politique de gestion de l'école prévoit que le concours doit être ouvert è l'interne en tout premier lieu et que, si personne ne peut convenir, le dit concours s'ouvre à l'externe. Le directeur général a ouvert le concours à l'interne et à l'externe simultanément et les trois postes furent confiés par des gens de l'extérieur.