90 resultados para Modèle théorique
Resumo:
Abstract : Since at least the 1980's, a growing number of companies have set up an ethics or a compliance program within their organization. However, in the field of study of business management, there is a paucity of research studies concerning these management systems. This observation warranted the present investigation of one company's compliance program. Compliance programs are set up so that individuals working within an organization observe the laws and regulations which pertain to their work. This study used a constructivist grounded theory methodology to examine the process by which a specific compliance program, that of Siemens Canada Limited, was implemented throughout its organization. In conformity with this methodology, instead of proceeding with the investigation in accordance to a particular theoretical framework, the study established a number of theoretical constructs used strictly as reference points. The study's research question was stated as: what are the characteristics of the process by which Siemens' compliance program integrated itself into the existing organizational structure and gained employee acceptance? Data consisted of documents produced by the company and of interviews done with twenty-four managers working for Siemens Canada Limited. The researcher used QSR-Nvivo computer assisted software to code transcripts and to help with analyzing interviews and documents. Triangulation was done by using a number of analysis techniques and by constantly comparing findings with extant theory. A descriptive model of the implementation process grounded in the experience of participants and in the contents of the documents emerged from the data. The process was called "Remolding"; remolding being the core category having emerged. This main process consisted of two sub-processes identified as "embedding" and "appraising." The investigation was able to provide a detailed account of the appraising process. It identified that employees appraised the compliance program according to three facets: the impact of the program on the employee's daily activities, the relationship employees have with the local compliance organization, and the relationship employees have with the corporate ethics identity. The study suggests that a company who is entertaining the idea of implementing a compliance program should consider all three facets. In particular, it suggests that any company interested in designing and implementing a compliance program should pay particular attention to its corporate ethics identity. This is because employee's acceptance of the program is influenced by their comparison of the company's ethics identity to their local ethics identity. Implications of the study suggest that personnel responsible for the development and organizational support of a compliance program should understand the appraisal process by which employees build their relationship with the program. The originality of this study is that it points emphatically that companies must pay special attention in developing a corporate ethics identify which is coherent, well documented and well explained.
Resumo:
Depuis 2010, le modèle Réponse à l'intervention (RàI) est de plus en plus prescrit dans les cadres de référence en orthopédagogie des commissions scolaires du Québec (Boudreau et Allard, 2015). D'abord, pour identifier les élèves susceptibles de présenter un trouble d'apprentissage et, parallèlement, pour organiser des services adaptés aux besoins des élèves en difficulté d'apprentissage incluant ceux intégrés à la classe ordinaire. Ce modèle, validé par la recherche s’opérationnalise, entre autres, par l'approche résolution de problème et celle par protocole standardisé (Fuchs et Fuchs, 2007; Marshall, 2010). Ces approches permettent de préciser la pratique pédagogique et orthopédagogique en déterminant puis hiérarchisant les modalités d'intervention et d'évaluation auprès des élèves ciblés en intensification. Or, ce modèle ne définit pas, à l’heure actuelle, la structure collaborative devant être déployée entre l’orthopédagogue et l’enseignant, deux acteurs importants impliqués dans ce modèle d’identification des troubles d'apprentissage (Barnes et Harlacher, 2008), ce qui nous amène à nous intéresser aux pratiques de collaboration entre l'enseignant et l'orthopédagogue dans un contexte d'implantation du modèle RàI. Dans le cadre de ce mémoire, nous visons ainsi à mieux documenter et définir les pratiques de collaboration entre l'enseignant et l'orthopédagogue dans un tel contexte. Pour ce faire, des entretiens semi-dirigés ont été menés afin d'identifier les pratiques de collaboration utilisées, et dégager celles considérées comme exclusives, communes ou conflictuelles. Au total, 30 thèmes ont été identifiés et 85 pratiques sont réparties dans les différents niveaux du modèle RàI.
Resumo:
Le caribou de Peary est l’unité désignable du caribou la plus septentrionale ; sa population a chuté d’environ 70% au cours des trois dernières générations. Le Comité sur la situation des espèces en péril au Canada (COSEPAC) identifie les conditions difficiles d’accès à la nourriture à travers le couvert nival comme le facteur le plus influant contribuant à ce déclin. Cette étude se concentre sur l’établissement d’un outil spatial de caractérisation des conditions nivales pour l’accès à la nourriture du caribou de Peary dans le Nord canadien, utilisant des simulations du couvert nival générées avec le logiciel suisse SNOWPACK à partir des données du Modèle Régional Climatique Canadien. Le cycle de vie du caribou de Peary a été divisé en trois périodes critiques : la période de mise bas et de migration printanière (avril – juin), celle d’abondance de nourriture et de rut (juillet – octobre) et celle de migration automnale et de survie des jeunes caribous (novembre – mars). Les conditions nivales sont analysées et les simulations du couvert nival comparées aux comptes insulaires de caribous de Peary pour identifier un paramètre nival qui agirait comme prédicateur des conditions d’accès à la nourriture et expliquerait les fluctuations des comptes de caribous. Cette analyse conclue que ces comptes sont affectés par des densités de neige au-dessus de 300 kg/m³. Un outil logiciel cartographiant à une échelle régionale (dans l’archipel arctique canadien) les conditions d’accès à la nourriture possiblement favorables et non favorables basées sur la neige est proposé. Des exemples spécifiques de sorties sont données pour montrer l’utilité de l’outil, en cartographiant les pixels selon l’épaisseur cumulée de neige au-dessus de densités de 300 kg/m³, où des épaisseurs cumulées au-dessus de 7000 cm par hiver sont considérées comme non favorables pour le caribou de Peary.
Resumo:
Les services rendus par la nature sont ébranlés par les activités économiques humaines, ce qui invite l’économie à changer de paradigme. L’économie circulaire dont découle la symbiose industrielle, comporte des espoirs de transition. Dans le cadre de l’essai, c’est la symbiose qui dévoilera ses propres pistes de mutation, par son modèle d’affaires. Celui-ci permet de détecter et de créer de la valeur dans les entreprises. Il existe plusieurs angles pour dévoiler le modèle d’affaires, mais c’est la perspective du système d’activité qui est sélectionnée. L’objectif principal de l’essai est d’explorer cette perspective, en l’appliquant sur une symbiose industrielle québécoise, soit celle du Centre local de développement de Brome-Missisquoi. Cette perspective est systémique et s’avère pertinente dans le contexte d’une symbiose. Puisque le modèle d’affaires permet de constater comment s’organise la symbiose pour créer de la valeur, le premier sous objectif est d’analyser celle-ci. En découle une étude comparative soulevant ses facteurs de succès et d’entrave. Les expériences de symbioses sont multiples et différenciées, mais certaines constantes peuvent être dégagées. Puisque son développement prend du temps, la mobilisation des acteurs comporte des défis. L’analyse de la rentabilité de la symbiose et de sa gouvernance peut outiller les intervenants pour faciliter son déploiement. Les retombées de la symbiose industrielle de Brome-Missisquoi sont positives. Afin de maintenir l’intérêt des participants et d’impulser la symbiose vers la pérennité, des recommandations sont formulées. Il est recommandé d’augmenter la diversité de ses parties prenantes de la symbiose, encadré par une réflexion stratégique co construite. La résilience de la symbiose en sera renforcie. Il importe de revenir sur la vision des membres et de développer leur compréhension du concept. Enfin, il est recommandé d’améliorer l’ancrage de la symbiose sur son territoire, en se greffant aux organisations déjà existantes, mais actuellement absentes du membariat. Des témoignages soulèvent des changements de pratiques notables chez certaines parties prenantes, ce qui semble indiquer que les symbioses industrielles favorisent le changement de paradigme.
Resumo:
Au Canada, les avalanches constituent le géorisque le plus dangereux en période hivernale. On enregistre annuellement d’importants coûts économiques et sociaux associés aux impacts de ce phénomène naturel. Par exemple, la fermeture de routes en cas de risque d’avalanche est estimée à 5 millions de dollars (Jamieson et Stethem, 2002). La prévision des avalanches est, de nos jours, la meilleure méthode afin d’éviter ces coûts. Au Canada, cela s’effectue de façon ponctuelle à l’aide de méthodes manuelles tel que le test de compression (CAA, 2014). Les modèles de simulation du couvert neigeux permettent d’étendre les prévisions à l’ensemble d’une région et ainsi, atteindre certains lieux difficilement accessibles pour l’homme. On tente actuellement d’adapter le modèle SNOWPACK aux conditions canadiennes et plusieurs études ont eu pour but d’améliorer les simulations produites par celui-ci. Cette étude vise donc également l’amélioration des simulations par l’intégration des paramètres de végétation. L’objectif de l’étude est de paramétrer, pour la première fois, le module de végétation de SNOWPACK avec les données récoltées dans la réserve faunique des Chic-Chocs. Nous pourrons ainsi évaluer l’impact de la végétation sur la modélisation du couvert nival. Nous avons donc, lors de sorties de terrain, recueillis les données de neige et de végétation au niveau de quatre sites d’étude. Nous avons par la suite réalisé les simulations avec SNOWPACK et comparer les résultats des simulations avec et sans végétation aux données de terrain. L’étude nous révèle que le modèle diminue la quantité de neige au sol ainsi que la densité du manteau neigeux en présence de végétation. De plus nous avons pu constater que l’inclusion du module de végétation permet d’obtenir des données qui se rapprochent davantage de ce qui a été observé sur le terrain.
Resumo:
Résumé: L’Institut pour l'étude de la neige et des avalanches en Suisse (SLF) a développé SNOWPACK, un modèle thermodynamique multi-couches de neige permettant de simuler les propriétés géophysiques du manteau neigeux (densité, température, taille de grain, teneur en eau, etc.) à partir desquelles un indice de stabilité est calculé. Il a été démontré qu’un ajustement de la microstructure serait nécessaire pour une implantation au Canada. L'objectif principal de la présente étude est de permettre au modèle SNOWPACK de modéliser de manière plus réaliste la taille de grain de neige et ainsi obtenir une prédiction plus précise de la stabilité du manteau neigeux à l’aide de l’indice basé sur la taille de grain, le Structural Stability Index (SSI). Pour ce faire, l’erreur modélisée (biais) par le modèle a été analysée à l’aide de données précises sur le terrain de la taille de grain à l’aide de l’instrument IRIS (InfraRed Integrated Sphere). Les données ont été recueillies durant l’hiver 2014 à deux sites différents au Canada : parc National des Glaciers, en Colombie-Britannique ainsi qu’au parc National de Jasper. Le site de Fidelity était généralement soumis à un métamorphisme à l'équilibre tandis que celui de Jasper à un métamorphisme cinétique plus prononcé. Sur chacun des sites, la stratigraphie des profils de densités ainsi des profils de taille de grain (IRIS) ont été complétés. Les profils de Fidelity ont été complétés avec des mesures de micropénétromètre (SMP). L’analyse des profils de densité a démontré une bonne concordance avec les densités modélisées (R[indice supérieur 2]=0.76) et donc la résistance simulée pour le SSI a été jugée adéquate. Les couches d’instabilités prédites par SNOWPACK ont été identifiées à l’aide de la variation de la résistance dans les mesures de SMP. L’analyse de la taille de grain optique a révélé une surestimation systématique du modèle ce qui est en accord avec la littérature. L’erreur de taille de grain optique dans un environnement à l’équilibre était assez constante tandis que l’erreur en milieux cinétique était plus variable. Finalement, une approche orientée sur le type de climat représenterait le meilleur moyen pour effectuer une correction de la taille de grain pour une évaluation de la stabilité au Canada.
Resumo:
L’encéphalopathie néonatale (EN) affecte plus de 0.8% des nouveau-nés à terme et est la deuxième cause d’handicap neurologique durant l’enfance. Le traitement des enfants atteints d’EN consiste en une prise en charge symptomatique et en l’hypothermie (HT). Néanmoins, plus de 50% des patients traités par HT gardent des séquelles neurologiques majeures. Les données provenant du Canadian Cerebral Palsy Registry montrent que l’HT prévient seulement 4% des cas de paralysie cérébrale (PC). Le fait que l’HT ait des effets neuroprotecteurs chez certains nouveau-nés, mais pas chez tous les nouveau-nés atteints d’EN n’est pas encore totalement élucidé. Il a été rapporté que les nouveau-nés exposés à l’inflammation (sepsis néonatal, infections placentaires) et à l’hypoxie-ischémie (HI) semblent avoir moins d’effets bénéfiques de l’HT que ceux qui ont été seulement exposés à l’HI. Des études précliniques ont établi que l’HT avait des effets neuroprotecteurs dans les cas d’encéphalopathies hypoxique-ischémiques chez les nouveau-nés à terme ou peu prématurés (plus de 35 semaines d’âge gestationnel). Cependant, peu d’études ont investigué les effets de l’HT lorsque l’EN résulte de la combinaison d’HI et d’infection/inflammation, alors qu’il s’agit du scénario pathophysiologique le plus fréquemment rencontré chez les nouveau-nés humains atteints d’EN. Ceci nous a amené à tester les effets neuroprotecteurs de l’HT dans un modèle animal (rat) d’EN induite par l’inflammation et l’HI. Des ratons Lewis au jour postnatal 12 sont injectés avec du lipopolysaccharide (LPS) d’E.coli afin de recréer l’inflammation, puis sont soumis à l’ischémie (ligature de la carotide commune droite) et à l’hypoxie (8% O[indice inférieur 2], 1h30). Les ratons sont ensuite traités ou non par l’HT (32 ± 0.5°C, 4 h). L‘étendue des lésions cérébrales ainsi que les cascades inflammatoires et oxydatives ont été étudiées. Nos résultats montrent que l’HT prévient l’étendue des lésions dans la composante de pénombre ischémique (néocortex et hippocampe). Cet effet neuroprotecteur est indépendant d’un effet anti-inflammatoire cérébral de l’HT portant sur le système de l’interleukine-1. Nos données indiquent que l’HT module l’expression des enzymes responsables de l’élimination des réactifs de l’oxygène (ROS). En conclusion, nos résultats montrent que l'HT a des effets neuroprotecteurs dans un modèle d’EN induite par l’exposition combinée au LPS et à l’HI. Ce projet devrait ouvrir des perspectives translationnelles pour prévenir la PC au-delà de l'hypothermie seule, comme par exemple celle visant à tester le bénéfice de la combinaison thérapeutique d’HT jointe au blocage de cytokines pro-inflammatoires.
Resumo:
Cette recherche de développement est née d'une préoccupation au sujet du manque d'intérêt d'un grand nombre de garçons pour la lecture. Le problème est complexe et, si les interventions sur le terrain sont nombreuses et variées, il nous semblait qu'il manquait un fil conducteur pour les unifier et partant de là, pour garantir leur efficacité. C'est de là qu'est née la proposition d'un modèle de médiation en lecture, modèle basé sur la compétence professionnelle de l'enseignant, à la fois passeur culturel et lecteur, et suscitant le désir (motivation) et le plaisir de lire de l'élève masculin du primaire.
Resumo:
L'hypothèse sous-jacente au modèle de marché de SHARPE(1964) est que les actifs ont une tendance à évoluer ensemble seulement à cause du lien commun qu'ils ont avec le marché. Depuis lors, quelques recherches ont permis de découvrir qu'il y a d'autres facteurs qui influencent le mouvement des prix des actifs financiers. Notamment, KING(1963), MEYERS(1973), FARRELL(1970,74,77), LIVINGSTON(1977) et ARNOTT(1980) ont cerné quelques-uns de ces autres facteurs. ROLL et ROSS(1976) ont spécifié un modèle général qui tient compte de facteurs importants dans les marchés financiers. Cependant, les tests empiriques sur l'A.P.T. (arbitrage pricing theory) effectués par CHEN, ROLL et ROSS(1986) n'ont pas donné de résultats probants. L'objectif de cette étude sera d'étudier le comportement des sous-indices de la Bourse de Toronto pour créer un modèle multifacteurs selon la méthodologie de James L. FARRELL. En bref, on étudie les comportements des actifs financiers par l'utilisation de procédures de regroupements statistiques pour former quelques indices supplémentaires au modèle de marché de SHARPE(1964).
Resumo:
Ce mémoire présente une version dividende du Capital Asset Pricing Model (CAPM). Selon le modèle développé ici, il existe une relation à l'équilibre entre le rendement en dividendes et le risque systématique. Cette relation est linéaire et négative et peut-être dérivée dans un monde avec ou sans impôt. Une application de ce modèle est possible lorsqu'on évalue la valeur théorique d'une action ordinaire à l'aide du taux net d'actualisation. Au total, le test empirique indique qu'il y a une concordance observable entre les implications majeures du modèle et les faits.
Resumo:
Les gestionnaires des ventes peuvent se servir de modèles de décision pour répartir de façon optimale les ressources marketing entre les produits et territoires. Ces modèles sont des équations mathématiques qui représentent la façon dont les ventes réagissent aux efforts marketing et peuvent être calibrés à partir de données objectives ou subjectives. Little (1971) affirme que les données subjectives sont plus efficaces parce qu'elles contiennent toute l'expérience des gestionnaires. À partir des recommandations de Little, Lodish (1971) a développé le modèle CALLPLAN afin d'aider les gestionnaires à répartir le temps de visites des représentants entre les clients ou les produits, de façon à maximiser les profits de l'entreprise. Pour calibrer ce modèle, les utilisateurs doivent utiliser les cinq données suivantes : les ventes prévues si aucune visite n'est effectuée, les ventes prévues avec une réduction de 50% des visites actuellement effectuées, les ventes actuelles, les ventes prévues si le nombre de visites est augmenté de 50% et les ventes prévues en effectuant un nombre infiniment grand de visites. Nous avons constaté que les modèles de répartition se basent tous sur les mêmes données pour estimer les paramètres des fonctions de réponse des ventes et que la valeur de ces données n'a jamais été évaluée empiriquement. Cette étude visait donc à évaluer la valeur des données subjectives utilisées dans la procédure d'estimation des paramètres du modèle CALLPLAN. À l'aide de simulations de jugements sur ordinateur, nous avons vérifié si la procédure d'estimation, telle que proposée par Lodish, peut être améliorée. Nous avons trouvé en essayant différentes combinaisons de cinq points, qu'effectivement la combinaison de Lodish n'est pas la meilleure pour estimer adéquatement les paramètres du modèle CALLPLAN. Quand la fonction de réponse des ventes est à priori en forme de S, les points utilisés devraient être les suivants ; les ventes prévues si aucune visite n'est effectuée (min), les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué (max), les ventes prévues avec le nombre de visites qui correspond au point d'inflexion (P.l.) de la fonction de réponse et les ventes prévues avec le nombre de visites qui correspond à la mi-distance du point d'inflexion et du niveau de ressource min. Quand la fonction de réponse est à priori concave, la combinaison de points utilisée devrait être ; les ventes prévues si aucune visite n'est effectuée, les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué, les ventes prévues en réduisant au quart le nombre de visites actuellement effectué et les ventes prévues en diminuant de 50% le nombre de visite actuellement utilisé. Nous avons également observé que les jugements concernant les ventes minimales et les ventes maximales influencent grandement les estimés. Nous avons donc trouvé un moyen d'atténuer leur impact en calculant des estimés moyens générés par les jugements individuels d'un groupe déjugés.
Resumo:
Comme les emplois disponibles sont, depuis une dizaine d'années, de plus en plus difficiles à "détecter" et cette tendance risque fort de se poursuivre au cours des années à venir, l'insertion professionnelle constitue sans aucun doute l'un des problèmes de l'heure de notre société. C'est un problème auquel tous les chercheurs d'emploi doivent faire face et en particulier ceux et celles qui, comme les immigrants, les individus peu scolarisés, les accidentés du travail, les femmes au foyer et les chômeurs de longue durée, etc., sont moins outillés pour se tailler une place sur le marché du travail. Dans un contexte où il est souvent urgent pour ces clientèles de se trouver du travail pour subvenir à leurs besoins de base, le professionnel d'orientation est amené à se poser la question suivante: "Par rapport à l'environnement, qu'est-ce qu'il est essentiel pour ces gens de connaître afin de faciliter leur insertion professionnelle?
Resumo:
Le travail occupe une place très importante dans la société industrialisée, ce concept est en constante évolution. Au cours des dernières décennies, le travail a connu deux révolutions importantes. La première fût celle de l'agriculture, la deuxième industrielle. Nous vivons présentement une troisième révolution, celle de la technologie. Le virage technologique amène des changements considérables sur le marché du travail aux plans économique, social et personnel. Depuis les trente dernières années, la technologie connaît des progrès immenses et ce, de façon soutenue et de plus en plus rapide. Plusieurs professions ont disparu, d'autres sont appelées à disparaître et la plupart subiront d'importantes modifications à cause de l'implantation de la nouvelle technologie. Par exemple, la secrétaire est passée de la machine à écrire manuelle conventionnelle à l'électrique, dorénavant, elle fait du traitement de texte sur ordinateur; presque tout son travail est informatisé. Elle aura à utiliser, dans les prochaines années, des appareils dont le plus haut degré de sophistication n'a pas été atteint. Les architectes et les ingénieurs ont troqué leur table à dessins pour l'ordinateur qui réalise leurs plans et croquis en deux fois moins de temps. Les tailleurs ne coupent plus les tissus avec des ciseaux mais avec des lasers ce qui apporte plus de précision et rapidité. Les exemples de ce type se comptent par milliers maintenant et l'avancement technologique progresse rapidement. Nous retrouvons ces traces partout même dans nos foyers (magnétoscopes, jeux vidéos, ordinateurs, fours à micro-ondes, etc.).
Resumo:
La population dont il est question ici, soit celle des personnes aveugles devenues-sourdes a perdu, tardivement, un sens essentiel à la communication; sans l'ouïe, elle est confinée à un monde de silence et d'isolement auquel elle n'est pas préparée. Elle se trouve dépourvue de moyens de communication, d'où l'urgence de mettre en oeuvre un programme pour rétablir une communication fonctionnelle dans ses activités de la vie quotidienne. La langue des signes québécoise (LSQ) constituant pour ces personnes une langue seconde, son apprentissage se révèle complexe, aussi, notre mobile est clair et délimité : restaurer une communication déficiente à l'aide d'un code de signes fonctionnels tout en favorisant la possibilité ultérieure d'acquérir la LSQ, s'il y a lieu. Pour cette raison, les signes sont choisis à même le répertoire de la LSQ et ils le sont selon des critères d'utilité, d'iconicité et d'ergonomie. Suite à l'étude de ces critères, des constituants andragogiques seront analysés, ce qui permettra l'élaboration d'un code de communication fonctionnelle.
Resumo:
La réalité scolaire au Québec est un sujet d'actualité depuis quelques temps. En effet, on observe une préoccupation de plus en plus grande à remettre en question le fonctionnement scolaire lorsque l'on regarde les chiffres de décrochage scolaire au secondaire: quatre Québécois sur dix quittent aujourd'hui l'école sans diplôme d'études secondaires (Gruda, 1991). Phlegar (1987) identifie différents facteurs qui amènent les adolescents à délaisser l'école, lesquels se situent à quatre niveaux: académique, scolaire et social, familial et personnel. Selon l'auteure, dès l'entrée scolaire, nous pouvons observer certaines de ces caractéristiques chez les enfants. Pour favoriser une expérience de succès et ainsi développer une motivation à apprendre dans un cadre formel d'enseignement, quand peut-on dire alors qu'un enfant est prêt à intégrer l'école? Le ministre de l'éducation du Québec, monsieur Michel Pagé (Montpetit, 1991), considère l'importance de l'âge chronologique pour déterminer le temps propice à l'entrée scolaire selon un document préparé en 1988 par la Direction des études économiques et démographiques du ministère de l’Éducation. D'après cette recherche interne, l'enfant jeune (celui qui a commencé jeune sa scolarité par dérogation scolaire ou celui dont l'anniversaire se situe entre le premier juillet et le 30 septembre) démontre plus de probabilité de reprendre une année scolaire au primaire et la première année du secondaire que les autres enfants. Toujours selon cette étude, Gagnon (1991) rapporte que les enfants qui entrent à l'école à six ans précis (les enfants jeunes) seraient plus nombreux à persévérer. Malgré cette donnée, le ministre a envisagé l'éventualité de retarder l'entrée scolaire des enfants et de mettre la date d'admission au 31 mai plutôt qu'au 30 septembre comme c'est le cas actuellement (Projet, 1991; Lessard, 1991). Ce dernier considère, en effet, qu'un retard d'un an dans l'entrée à l'école de ces enfants contribuerait à réduire le nombre d'élèves qui redoublent de même que le nombre de ceux qui décrochent du système plus tard. Mais cette étude interne démontre aussi qu'il n'y a aucune relation entre le mois de naissance et la probabilité d'accéder au diplôme d'études secondaires. Ce désir de changement entraîne beaucoup de réactions dans le milieu éducatif, certaines favorables et d'autres non. M. Pagé, devant ces réactions, a ouvert la porte à la possibilité d'utiliser une formule d'évaluation individuelle pour les cas limites. Ce que la Fédération des Commissions Scolaires du Québec (F.C.S.Q.) et la Centrale de l'enseignement du Québec (C.E.Q.) qualifient d'utopie. L'âge d'admission est pour la F.C.S.Q. le seul critère objectif d'admission (1991). Nous remarquons donc que ce débat est principalement centré sur un critère unique de sélection concernant l'entrée scolaire: l'âge chronologique. Mais en existe-t-il d'autres? Ainsi, à partir de l'existence de différentes positions fermes des instances concernées par la formation académique des enfants et des modalités qui régissent l'entrée scolaire, cet essai a pour objectif l'identification des prédicteurs de réussite scolaire pour les enfants à leur entrée au primaire. Qu'il s'agisse d'enfants qui ont des risques de troubles d'apprentissage en lecture (Fedoruk, 1989), d'enfants qui sont doués et qui bénéficieraient d'une dérogation scolaire pour l'âge d'admission (Proctor,Black & Feldhusen, 1986; Proctor, Feldhusen & Black, 1988), ou des enfants qui répondent au critère chronologique d'admission scolaire (Phlegar, 1987), tous ces chercheurs s'entendent pour dire que les performances académiques sont influencées par différents facteurs qui concernent l'enfant et le milieu d'appartenance. De plus, les Gouverneurs et le Président américain adoptaient en février 1990 une série d'objectifs nationaux concernant l'éducation pour l'an 2000 aux États-Unis dont le premier étant que tous les enfants soient prêts à apprendre à leur entrée scolaire primaire (Haycock, 1991). L'équipe de recherche chargée de développer cet objectif (Prince, 1992) considère, dans ses recommandations qu'un système d'évaluation doit comprendre plusieurs dimensions s'intégrant dans les cinq sphères de développement de l'enfant (physique, socio-affectif, style d'apprentissage, langage, cognitions et connaissances) et son environnement (parents et professeurs). Et c'est justement ce que notre étude veut établir. Nous verrons, dans un premier temps, la nature du problème ainsi que l'objectif de la recherche et le cadre théorique qui servent de charpente à la compréhension de cet objet d'étude. Viendront ensuite l'identification du modèle de recension des écrits utilisé suivi des informations concernant la recherche des études scientifiques. Nous ferons ensuite le résumé et l'analyse des recherches primaires retenues en tenant compte des qualités méthodologiques et métrologiques. Nous synthétiserons ces informations pour retenir les résultats valides afin de faire le point sur les résultats disponibles à ce jour. Nous terminerons avec une discussion sur la pertinence des résultats, les limites de l'étude de même que des suggestions concernant de futurs domaines d'investigation.