991 resultados para Modèle familial


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Familial amyloid polyneuropathy (FAP) or paramiloidosis is an autosomal dominant neurodegenerative disease with onset on adult age that is characterized by mutated protein deposition in the form of amyloid substance. FAP is due to a point alteration in the transthyretin (TTR) gene and until now more than 100 amyloidogenic mutations have been described in TTR gene. FAP shows a wide variation in age-at-onset (AO) (19-82 years, in Portuguese cases) and the V30M mutation often runs through several generation of asymptomatic carriers, before expressing in a proband, but the protective effect disappear in a single generation, with offspring of late-onset cases having early onset. V30M mutation does not explain alone the symptoms and AO variability of the disease observed in the same family. Our aim in this study was to identify genetic factors associated with AO variability and reduced penetrance which can have important clinical implications. To accomplish this we genotyped 230 individuals, using a directautomated sequencing approach in order to identify possible genetic modifiers within the TTR locus. After genotyping, we assessed a putative association of the SNPs found with AO and an intensive in silico analysis was performed in order to understand a possible regulation of gene expression. Although we did not find any significant association between SNPs and AO, we found very interesting and unreported results in the in silico analysis since we observed some alterations in the mechanism of splicing, transcription factors binding and miRNAs binding. All of these mechanisms when altered can lead to dysregulation of gene expression, which can have an impact in AO and phenotypic variability. These putative mechanisms of regulation of gene expression within the TTR gene could be used in the future as potential therapeutical targets, and could improve genetic counselling and follow-up of mutation carriers.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les services rendus par la nature sont ébranlés par les activités économiques humaines, ce qui invite l’économie à changer de paradigme. L’économie circulaire dont découle la symbiose industrielle, comporte des espoirs de transition. Dans le cadre de l’essai, c’est la symbiose qui dévoilera ses propres pistes de mutation, par son modèle d’affaires. Celui-ci permet de détecter et de créer de la valeur dans les entreprises. Il existe plusieurs angles pour dévoiler le modèle d’affaires, mais c’est la perspective du système d’activité qui est sélectionnée. L’objectif principal de l’essai est d’explorer cette perspective, en l’appliquant sur une symbiose industrielle québécoise, soit celle du Centre local de développement de Brome-Missisquoi. Cette perspective est systémique et s’avère pertinente dans le contexte d’une symbiose. Puisque le modèle d’affaires permet de constater comment s’organise la symbiose pour créer de la valeur, le premier sous objectif est d’analyser celle-ci. En découle une étude comparative soulevant ses facteurs de succès et d’entrave. Les expériences de symbioses sont multiples et différenciées, mais certaines constantes peuvent être dégagées. Puisque son développement prend du temps, la mobilisation des acteurs comporte des défis. L’analyse de la rentabilité de la symbiose et de sa gouvernance peut outiller les intervenants pour faciliter son déploiement. Les retombées de la symbiose industrielle de Brome-Missisquoi sont positives. Afin de maintenir l’intérêt des participants et d’impulser la symbiose vers la pérennité, des recommandations sont formulées. Il est recommandé d’augmenter la diversité de ses parties prenantes de la symbiose, encadré par une réflexion stratégique co construite. La résilience de la symbiose en sera renforcie. Il importe de revenir sur la vision des membres et de développer leur compréhension du concept. Enfin, il est recommandé d’améliorer l’ancrage de la symbiose sur son territoire, en se greffant aux organisations déjà existantes, mais actuellement absentes du membariat. Des témoignages soulèvent des changements de pratiques notables chez certaines parties prenantes, ce qui semble indiquer que les symbioses industrielles favorisent le changement de paradigme.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Au Canada, les avalanches constituent le géorisque le plus dangereux en période hivernale. On enregistre annuellement d’importants coûts économiques et sociaux associés aux impacts de ce phénomène naturel. Par exemple, la fermeture de routes en cas de risque d’avalanche est estimée à 5 millions de dollars (Jamieson et Stethem, 2002). La prévision des avalanches est, de nos jours, la meilleure méthode afin d’éviter ces coûts. Au Canada, cela s’effectue de façon ponctuelle à l’aide de méthodes manuelles tel que le test de compression (CAA, 2014). Les modèles de simulation du couvert neigeux permettent d’étendre les prévisions à l’ensemble d’une région et ainsi, atteindre certains lieux difficilement accessibles pour l’homme. On tente actuellement d’adapter le modèle SNOWPACK aux conditions canadiennes et plusieurs études ont eu pour but d’améliorer les simulations produites par celui-ci. Cette étude vise donc également l’amélioration des simulations par l’intégration des paramètres de végétation. L’objectif de l’étude est de paramétrer, pour la première fois, le module de végétation de SNOWPACK avec les données récoltées dans la réserve faunique des Chic-Chocs. Nous pourrons ainsi évaluer l’impact de la végétation sur la modélisation du couvert nival. Nous avons donc, lors de sorties de terrain, recueillis les données de neige et de végétation au niveau de quatre sites d’étude. Nous avons par la suite réalisé les simulations avec SNOWPACK et comparer les résultats des simulations avec et sans végétation aux données de terrain. L’étude nous révèle que le modèle diminue la quantité de neige au sol ainsi que la densité du manteau neigeux en présence de végétation. De plus nous avons pu constater que l’inclusion du module de végétation permet d’obtenir des données qui se rapprochent davantage de ce qui a été observé sur le terrain.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé: L’Institut pour l'étude de la neige et des avalanches en Suisse (SLF) a développé SNOWPACK, un modèle thermodynamique multi-couches de neige permettant de simuler les propriétés géophysiques du manteau neigeux (densité, température, taille de grain, teneur en eau, etc.) à partir desquelles un indice de stabilité est calculé. Il a été démontré qu’un ajustement de la microstructure serait nécessaire pour une implantation au Canada. L'objectif principal de la présente étude est de permettre au modèle SNOWPACK de modéliser de manière plus réaliste la taille de grain de neige et ainsi obtenir une prédiction plus précise de la stabilité du manteau neigeux à l’aide de l’indice basé sur la taille de grain, le Structural Stability Index (SSI). Pour ce faire, l’erreur modélisée (biais) par le modèle a été analysée à l’aide de données précises sur le terrain de la taille de grain à l’aide de l’instrument IRIS (InfraRed Integrated Sphere). Les données ont été recueillies durant l’hiver 2014 à deux sites différents au Canada : parc National des Glaciers, en Colombie-Britannique ainsi qu’au parc National de Jasper. Le site de Fidelity était généralement soumis à un métamorphisme à l'équilibre tandis que celui de Jasper à un métamorphisme cinétique plus prononcé. Sur chacun des sites, la stratigraphie des profils de densités ainsi des profils de taille de grain (IRIS) ont été complétés. Les profils de Fidelity ont été complétés avec des mesures de micropénétromètre (SMP). L’analyse des profils de densité a démontré une bonne concordance avec les densités modélisées (R[indice supérieur 2]=0.76) et donc la résistance simulée pour le SSI a été jugée adéquate. Les couches d’instabilités prédites par SNOWPACK ont été identifiées à l’aide de la variation de la résistance dans les mesures de SMP. L’analyse de la taille de grain optique a révélé une surestimation systématique du modèle ce qui est en accord avec la littérature. L’erreur de taille de grain optique dans un environnement à l’équilibre était assez constante tandis que l’erreur en milieux cinétique était plus variable. Finalement, une approche orientée sur le type de climat représenterait le meilleur moyen pour effectuer une correction de la taille de grain pour une évaluation de la stabilité au Canada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’encéphalopathie néonatale (EN) affecte plus de 0.8% des nouveau-nés à terme et est la deuxième cause d’handicap neurologique durant l’enfance. Le traitement des enfants atteints d’EN consiste en une prise en charge symptomatique et en l’hypothermie (HT). Néanmoins, plus de 50% des patients traités par HT gardent des séquelles neurologiques majeures. Les données provenant du Canadian Cerebral Palsy Registry montrent que l’HT prévient seulement 4% des cas de paralysie cérébrale (PC). Le fait que l’HT ait des effets neuroprotecteurs chez certains nouveau-nés, mais pas chez tous les nouveau-nés atteints d’EN n’est pas encore totalement élucidé. Il a été rapporté que les nouveau-nés exposés à l’inflammation (sepsis néonatal, infections placentaires) et à l’hypoxie-ischémie (HI) semblent avoir moins d’effets bénéfiques de l’HT que ceux qui ont été seulement exposés à l’HI. Des études précliniques ont établi que l’HT avait des effets neuroprotecteurs dans les cas d’encéphalopathies hypoxique-ischémiques chez les nouveau-nés à terme ou peu prématurés (plus de 35 semaines d’âge gestationnel). Cependant, peu d’études ont investigué les effets de l’HT lorsque l’EN résulte de la combinaison d’HI et d’infection/inflammation, alors qu’il s’agit du scénario pathophysiologique le plus fréquemment rencontré chez les nouveau-nés humains atteints d’EN. Ceci nous a amené à tester les effets neuroprotecteurs de l’HT dans un modèle animal (rat) d’EN induite par l’inflammation et l’HI. Des ratons Lewis au jour postnatal 12 sont injectés avec du lipopolysaccharide (LPS) d’E.coli afin de recréer l’inflammation, puis sont soumis à l’ischémie (ligature de la carotide commune droite) et à l’hypoxie (8% O[indice inférieur 2], 1h30). Les ratons sont ensuite traités ou non par l’HT (32 ± 0.5°C, 4 h). L‘étendue des lésions cérébrales ainsi que les cascades inflammatoires et oxydatives ont été étudiées. Nos résultats montrent que l’HT prévient l’étendue des lésions dans la composante de pénombre ischémique (néocortex et hippocampe). Cet effet neuroprotecteur est indépendant d’un effet anti-inflammatoire cérébral de l’HT portant sur le système de l’interleukine-1. Nos données indiquent que l’HT module l’expression des enzymes responsables de l’élimination des réactifs de l’oxygène (ROS). En conclusion, nos résultats montrent que l'HT a des effets neuroprotecteurs dans un modèle d’EN induite par l’exposition combinée au LPS et à l’HI. Ce projet devrait ouvrir des perspectives translationnelles pour prévenir la PC au-delà de l'hypothermie seule, comme par exemple celle visant à tester le bénéfice de la combinaison thérapeutique d’HT jointe au blocage de cytokines pro-inflammatoires.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Thesis (Master's)--University of Washington, 2016-08

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette recherche de développement est née d'une préoccupation au sujet du manque d'intérêt d'un grand nombre de garçons pour la lecture. Le problème est complexe et, si les interventions sur le terrain sont nombreuses et variées, il nous semblait qu'il manquait un fil conducteur pour les unifier et partant de là, pour garantir leur efficacité. C'est de là qu'est née la proposition d'un modèle de médiation en lecture, modèle basé sur la compétence professionnelle de l'enseignant, à la fois passeur culturel et lecteur, et suscitant le désir (motivation) et le plaisir de lire de l'élève masculin du primaire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'hypothèse sous-jacente au modèle de marché de SHARPE(1964) est que les actifs ont une tendance à évoluer ensemble seulement à cause du lien commun qu'ils ont avec le marché. Depuis lors, quelques recherches ont permis de découvrir qu'il y a d'autres facteurs qui influencent le mouvement des prix des actifs financiers. Notamment, KING(1963), MEYERS(1973), FARRELL(1970,74,77), LIVINGSTON(1977) et ARNOTT(1980) ont cerné quelques-uns de ces autres facteurs. ROLL et ROSS(1976) ont spécifié un modèle général qui tient compte de facteurs importants dans les marchés financiers. Cependant, les tests empiriques sur l'A.P.T. (arbitrage pricing theory) effectués par CHEN, ROLL et ROSS(1986) n'ont pas donné de résultats probants. L'objectif de cette étude sera d'étudier le comportement des sous-indices de la Bourse de Toronto pour créer un modèle multifacteurs selon la méthodologie de James L. FARRELL. En bref, on étudie les comportements des actifs financiers par l'utilisation de procédures de regroupements statistiques pour former quelques indices supplémentaires au modèle de marché de SHARPE(1964).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'objet de ce mémoire est de mesurer l'efficacité des programmes d'aide aux employés (PAE). Dans un deuxième temps, nous cherchons à identifier les facteurs explicatifs du succès des PAE. Nous avons conceptualisé ces interrogations autour d'un modèle théorique qui découpe le concept de succès des PAE en trois variables dépendantes soit, la résolution de la situation problématique, la satisfaction des usagers envers le PAE et l'amélioration de la performance au travail grâce et à la suite des consultations au PAE. De même, nous avons identifié quatre groupes de variables indépendantes susceptibles d'expliquer les variations dans le succès des PAE soit: le profil des usagers, les caractéristiques de la situation problématique, les caractéristiques de la consultation et finalement les caractéristiques de l'organisation à laquelle appartiennent les usagers. Pour évaluer ce modèle et afin de répondre à ces interrogations nous avons sondé par questionnaire vingt-deux usagers cliniques d'un PAE externe. L'échantillon était composé majoritairement de femmes âgées entre 30 et 49 ans, travaillant principalement dans des emplois professionnels. L'analyse quantitative des réponses nous a permis de conclure que généralement le PAE est assez efficace pour résoudre les situations problématiques vécues par ses usagers. Les résultats tendent aussi à montrer que les usagers du PAE sont très satisfaits des services dispensés. Il ressort finalement que, grâce aux consultations au PAE, l'impact négatif de la situation problématique sur la performance au travail de l'usager disparaît et même qu'en moyenne la performance au travail s'améliore légèrement. Suite aux analyses bi-variées, nous pouvons identifier certains facteurs explicatifs du succès des PAE. Les principales variables pour lesquelles le succès des PAE variait significativement étaient le sexe, l'âge, la catégorie d'emploi, le type de difficultés, l'urgence de la situation problématique, le motif de cessation des services, la taille de l'entreprise et la présence ou non d'un syndicat dans l'entreprise du répondant.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les gestionnaires des ventes peuvent se servir de modèles de décision pour répartir de façon optimale les ressources marketing entre les produits et territoires. Ces modèles sont des équations mathématiques qui représentent la façon dont les ventes réagissent aux efforts marketing et peuvent être calibrés à partir de données objectives ou subjectives. Little (1971) affirme que les données subjectives sont plus efficaces parce qu'elles contiennent toute l'expérience des gestionnaires. À partir des recommandations de Little, Lodish (1971) a développé le modèle CALLPLAN afin d'aider les gestionnaires à répartir le temps de visites des représentants entre les clients ou les produits, de façon à maximiser les profits de l'entreprise. Pour calibrer ce modèle, les utilisateurs doivent utiliser les cinq données suivantes : les ventes prévues si aucune visite n'est effectuée, les ventes prévues avec une réduction de 50% des visites actuellement effectuées, les ventes actuelles, les ventes prévues si le nombre de visites est augmenté de 50% et les ventes prévues en effectuant un nombre infiniment grand de visites. Nous avons constaté que les modèles de répartition se basent tous sur les mêmes données pour estimer les paramètres des fonctions de réponse des ventes et que la valeur de ces données n'a jamais été évaluée empiriquement. Cette étude visait donc à évaluer la valeur des données subjectives utilisées dans la procédure d'estimation des paramètres du modèle CALLPLAN. À l'aide de simulations de jugements sur ordinateur, nous avons vérifié si la procédure d'estimation, telle que proposée par Lodish, peut être améliorée. Nous avons trouvé en essayant différentes combinaisons de cinq points, qu'effectivement la combinaison de Lodish n'est pas la meilleure pour estimer adéquatement les paramètres du modèle CALLPLAN. Quand la fonction de réponse des ventes est à priori en forme de S, les points utilisés devraient être les suivants ; les ventes prévues si aucune visite n'est effectuée (min), les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué (max), les ventes prévues avec le nombre de visites qui correspond au point d'inflexion (P.l.) de la fonction de réponse et les ventes prévues avec le nombre de visites qui correspond à la mi-distance du point d'inflexion et du niveau de ressource min. Quand la fonction de réponse est à priori concave, la combinaison de points utilisée devrait être ; les ventes prévues si aucune visite n'est effectuée, les ventes actuelles, les ventes prévues si un nombre infiniment grand de visites est effectué, les ventes prévues en réduisant au quart le nombre de visites actuellement effectué et les ventes prévues en diminuant de 50% le nombre de visite actuellement utilisé. Nous avons également observé que les jugements concernant les ventes minimales et les ventes maximales influencent grandement les estimés. Nous avons donc trouvé un moyen d'atténuer leur impact en calculant des estimés moyens générés par les jugements individuels d'un groupe déjugés.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Comme les emplois disponibles sont, depuis une dizaine d'années, de plus en plus difficiles à "détecter" et cette tendance risque fort de se poursuivre au cours des années à venir, l'insertion professionnelle constitue sans aucun doute l'un des problèmes de l'heure de notre société. C'est un problème auquel tous les chercheurs d'emploi doivent faire face et en particulier ceux et celles qui, comme les immigrants, les individus peu scolarisés, les accidentés du travail, les femmes au foyer et les chômeurs de longue durée, etc., sont moins outillés pour se tailler une place sur le marché du travail. Dans un contexte où il est souvent urgent pour ces clientèles de se trouver du travail pour subvenir à leurs besoins de base, le professionnel d'orientation est amené à se poser la question suivante: "Par rapport à l'environnement, qu'est-ce qu'il est essentiel pour ces gens de connaître afin de faciliter leur insertion professionnelle?

Relevância:

20.00% 20.00%

Publicador:

Resumo:

On parle de plus en plus d'insertion professionnelle difficile. Les taux de chômage augmentent et cela implique une grande demande d'aide de la part des chercheurs d'emploi. Les ressources humaines pour répondre à leurs besoins sont débordées et doivent donner des services efficaces dans un court laps de temps. Le problème qui se pose alors, c'est de savoir comment faire une évaluation, un diagnostic ajusté de la situation du chercheur d'emploi, qui répond à la fois à ses besoins et à ses difficultés d'insertion, qui respecte son environnement, ses choix et qui s'adapte au contexte de notre société? Ce qui nous préoccupe donc ici, c'est de savoir comment mesurer l'employabilité d'un individu. Dans le premier chapitre nous définirons ce qu'est l'employabilité. Et nous ferons le point sur les réalités du marché du travail. Nous ferons aussi une analyse de certains instruments de mesure d'employabilité déjà existants et nous présenterons un modèle théorique d'intervention en employabilité nouveau et à jour pouvant répondre au besoin d'un instrument de mesure, le Trèfle chanceux de Limoges. Dans le deuxième chapitre, nous verrons l'instrument de mesure de l'employabilité que nous jugeons le plus avancé; "Copilote insertion" de Clavier. Dans un souci de répondre au besoin de posséder un instrument de mesure d'employabilité, nous allons utiliser Copilote insertion afin de vérifier la taxonomie du Trèfle chanceux. Dans le troisième chapitre, nous vous proposons un jeu bâti sur le modèle du Trèfle Chanceux; L'emploi à la Carte, que nous comparerons, par la suite, à Copilote insertion pour en faire ressortir les différences et similarités. C'est dans le quatrième et dernier chapitre que vous pourrez retrouver des recommandations afin d'amorcer la construction d'un instrument intégrant Copilote insertion et le Trèfle chanceux, tout en respectant les priorités des deux auteurs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le travail occupe une place très importante dans la société industrialisée, ce concept est en constante évolution. Au cours des dernières décennies, le travail a connu deux révolutions importantes. La première fût celle de l'agriculture, la deuxième industrielle. Nous vivons présentement une troisième révolution, celle de la technologie. Le virage technologique amène des changements considérables sur le marché du travail aux plans économique, social et personnel. Depuis les trente dernières années, la technologie connaît des progrès immenses et ce, de façon soutenue et de plus en plus rapide. Plusieurs professions ont disparu, d'autres sont appelées à disparaître et la plupart subiront d'importantes modifications à cause de l'implantation de la nouvelle technologie. Par exemple, la secrétaire est passée de la machine à écrire manuelle conventionnelle à l'électrique, dorénavant, elle fait du traitement de texte sur ordinateur; presque tout son travail est informatisé. Elle aura à utiliser, dans les prochaines années, des appareils dont le plus haut degré de sophistication n'a pas été atteint. Les architectes et les ingénieurs ont troqué leur table à dessins pour l'ordinateur qui réalise leurs plans et croquis en deux fois moins de temps. Les tailleurs ne coupent plus les tissus avec des ciseaux mais avec des lasers ce qui apporte plus de précision et rapidité. Les exemples de ce type se comptent par milliers maintenant et l'avancement technologique progresse rapidement. Nous retrouvons ces traces partout même dans nos foyers (magnétoscopes, jeux vidéos, ordinateurs, fours à micro-ondes, etc.).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La réalité scolaire au Québec est un sujet d'actualité depuis quelques temps. En effet, on observe une préoccupation de plus en plus grande à remettre en question le fonctionnement scolaire lorsque l'on regarde les chiffres de décrochage scolaire au secondaire: quatre Québécois sur dix quittent aujourd'hui l'école sans diplôme d'études secondaires (Gruda, 1991). Phlegar (1987) identifie différents facteurs qui amènent les adolescents à délaisser l'école, lesquels se situent à quatre niveaux: académique, scolaire et social, familial et personnel. Selon l'auteure, dès l'entrée scolaire, nous pouvons observer certaines de ces caractéristiques chez les enfants. Pour favoriser une expérience de succès et ainsi développer une motivation à apprendre dans un cadre formel d'enseignement, quand peut-on dire alors qu'un enfant est prêt à intégrer l'école? Le ministre de l'éducation du Québec, monsieur Michel Pagé (Montpetit, 1991), considère l'importance de l'âge chronologique pour déterminer le temps propice à l'entrée scolaire selon un document préparé en 1988 par la Direction des études économiques et démographiques du ministère de l’Éducation. D'après cette recherche interne, l'enfant jeune (celui qui a commencé jeune sa scolarité par dérogation scolaire ou celui dont l'anniversaire se situe entre le premier juillet et le 30 septembre) démontre plus de probabilité de reprendre une année scolaire au primaire et la première année du secondaire que les autres enfants. Toujours selon cette étude, Gagnon (1991) rapporte que les enfants qui entrent à l'école à six ans précis (les enfants jeunes) seraient plus nombreux à persévérer. Malgré cette donnée, le ministre a envisagé l'éventualité de retarder l'entrée scolaire des enfants et de mettre la date d'admission au 31 mai plutôt qu'au 30 septembre comme c'est le cas actuellement (Projet, 1991; Lessard, 1991). Ce dernier considère, en effet, qu'un retard d'un an dans l'entrée à l'école de ces enfants contribuerait à réduire le nombre d'élèves qui redoublent de même que le nombre de ceux qui décrochent du système plus tard. Mais cette étude interne démontre aussi qu'il n'y a aucune relation entre le mois de naissance et la probabilité d'accéder au diplôme d'études secondaires. Ce désir de changement entraîne beaucoup de réactions dans le milieu éducatif, certaines favorables et d'autres non. M. Pagé, devant ces réactions, a ouvert la porte à la possibilité d'utiliser une formule d'évaluation individuelle pour les cas limites. Ce que la Fédération des Commissions Scolaires du Québec (F.C.S.Q.) et la Centrale de l'enseignement du Québec (C.E.Q.) qualifient d'utopie. L'âge d'admission est pour la F.C.S.Q. le seul critère objectif d'admission (1991). Nous remarquons donc que ce débat est principalement centré sur un critère unique de sélection concernant l'entrée scolaire: l'âge chronologique. Mais en existe-t-il d'autres? Ainsi, à partir de l'existence de différentes positions fermes des instances concernées par la formation académique des enfants et des modalités qui régissent l'entrée scolaire, cet essai a pour objectif l'identification des prédicteurs de réussite scolaire pour les enfants à leur entrée au primaire. Qu'il s'agisse d'enfants qui ont des risques de troubles d'apprentissage en lecture (Fedoruk, 1989), d'enfants qui sont doués et qui bénéficieraient d'une dérogation scolaire pour l'âge d'admission (Proctor,Black & Feldhusen, 1986; Proctor, Feldhusen & Black, 1988), ou des enfants qui répondent au critère chronologique d'admission scolaire (Phlegar, 1987), tous ces chercheurs s'entendent pour dire que les performances académiques sont influencées par différents facteurs qui concernent l'enfant et le milieu d'appartenance. De plus, les Gouverneurs et le Président américain adoptaient en février 1990 une série d'objectifs nationaux concernant l'éducation pour l'an 2000 aux États-Unis dont le premier étant que tous les enfants soient prêts à apprendre à leur entrée scolaire primaire (Haycock, 1991). L'équipe de recherche chargée de développer cet objectif (Prince, 1992) considère, dans ses recommandations qu'un système d'évaluation doit comprendre plusieurs dimensions s'intégrant dans les cinq sphères de développement de l'enfant (physique, socio-affectif, style d'apprentissage, langage, cognitions et connaissances) et son environnement (parents et professeurs). Et c'est justement ce que notre étude veut établir. Nous verrons, dans un premier temps, la nature du problème ainsi que l'objectif de la recherche et le cadre théorique qui servent de charpente à la compréhension de cet objet d'étude. Viendront ensuite l'identification du modèle de recension des écrits utilisé suivi des informations concernant la recherche des études scientifiques. Nous ferons ensuite le résumé et l'analyse des recherches primaires retenues en tenant compte des qualités méthodologiques et métrologiques. Nous synthétiserons ces informations pour retenir les résultats valides afin de faire le point sur les résultats disponibles à ce jour. Nous terminerons avec une discussion sur la pertinence des résultats, les limites de l'étude de même que des suggestions concernant de futurs domaines d'investigation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

«Supervision pédagogique, examens ministériels, resserrement des programmes (...) sont à la mode du jour du système éducatif québécois». De tous les éléments de ce système, le cégep semble davantage visé. On le presse de rendre des comptes sur la qualité de ses enseignements. Qu'il suffise de rappeler à ce sujet l'impact qu'a eu dans les collèges et dans le public québécois en général, l'avènement médiatique provoqué par la parution du premier palmarès des cégeps dans la revue Actualités. Presque quotidiennement, les journaux nous entretiennent des problèmes que soulèvent les cégeps. Tout encore récemment le président du Conseil de la jeunesse ne craignait pas d'affirmer dans le journal La Presse, «que les collèges sont incapables de s'autocritiquer et de s'auto-évaluer et n'ont de comptes à rendre à personne». Il n'en fallait pas davantage pour que le Ministère de l'enseignement supérieur et de la science convoque une Commission parlementaire sur l'enseignement collégial pour l'automne 1992. Il existe pourtant au cégep de nombreux lieux où s'exerce la supervision. C'est le cas par exemple des plans de cours que les professeurs sont tenus de rédiger à chaque début de session d'enseignement pour leurs groupes d'étudiants. Cette opération renferme en elle-même plusieurs étapes qui nécessitent diverses interventions de supervision de direction et d'assistance. […]