994 resultados para écriture taille zéro
Resumo:
In this work NiO/3mol% Y2O3-ZrO2 (3YSZ) and NiO/8mol% Y2O3-ZrO2 (8YSZ) hollow fibers were prepared by phase-inversion. The effect of different kinds of YSZ (3YSZ and 8YSZ) on the porosity, electrical conductivity, shrinkage and flexural strength of the hollow fibers were systematically evaluated. When compared with Ni-8YSZ the porosity and shrinkage of Ni-3YSZ hollow fibers increases while the electrical conductivity decreases, while at the same time also exhibiting enhanced flexural strength. Single cells with Ni-3YSZ and Ni-8YSZ hollow fibers as the supported anode were successfully fabricated showing maximum power densities of 0.53 and 0.67Wcm-2 at 800°C, respectively. Furthermore, in order to improve the cell performance, a Ni-8YSZ anode functional layer was added between the electrolyte and Ni-YSZ hollow fiber. Here enhanced peak power densities of 0.79 and 0.73Wcm-2 were achieved at 800°C for single cells with Ni-3YSZ and Ni-8YSZ hollow fibers, respectively.
Resumo:
Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.
Resumo:
Après une période où la valeur des quotas laitiers a été en forte croissance au Québec, un plafond à cette valeur a été fixé à compter de 2007. Ce plafond a eu pour effet de limiter l’offre de quota sur le marché et la croissance de la taille des entreprises laitières québécoises. Cette situation soulève un questionnement sur l’efficience économique, le blocage de la croissance des entreprises les empêchant de bénéficier d’économies de taille, si bien entendu il en existe. En conséquence, cette étude s’intéresse aux économies de taille en production laitière en Amérique du Nord. Les économies de taille des entreprises ont été mesurées à l’aide d’une régression linéaire multiple à partir de certains indicateurs de coût monétaire et non monétaire. Cette analyse comprend quatre strates de taille formées à partir d’un échantillon non aléatoire de 847 entreprises du Québec, de l’État de New York et de la Californie, ainsi qu’à partir d’un groupe d’entreprises efficientes (groupe de tête). Les résultats démontrent l’existence d’économies de taille principalement au niveau des coûts fixes et plus particulièrement des coûts fixes non monétaires. Ils révèlent aussi que les deux indicateurs où l’effet des économies de taille est le plus important sont le coût du travail non rémunéré et l’amortissement. Par ailleurs, lorsque la taille d’une entreprise augmente, les économies de taille supplémentaires réalisées deviennent de moins en moins importantes. Enfin, les résultats indiquent qu’il existe des déséconomies de taille au niveau des coûts d’alimentation. Les résultats obtenus au niveau du groupe de tête vont dans le même sens. Ils confirment également qu’il est possible pour les grandes entreprises efficientes de réaliser des économies de taille pour la plupart des indicateurs de coût. Toutefois, les économies additionnelles que ces entreprises peuvent réaliser sont moins importantes que celles obtenues par les petites entreprises efficientes. Mots clés : Agriculture, production laitière, Amérique du Nord, économies de taille, efficience économique, régression linéaire.
Resumo:
Résumé: L’Institut pour l'étude de la neige et des avalanches en Suisse (SLF) a développé SNOWPACK, un modèle thermodynamique multi-couches de neige permettant de simuler les propriétés géophysiques du manteau neigeux (densité, température, taille de grain, teneur en eau, etc.) à partir desquelles un indice de stabilité est calculé. Il a été démontré qu’un ajustement de la microstructure serait nécessaire pour une implantation au Canada. L'objectif principal de la présente étude est de permettre au modèle SNOWPACK de modéliser de manière plus réaliste la taille de grain de neige et ainsi obtenir une prédiction plus précise de la stabilité du manteau neigeux à l’aide de l’indice basé sur la taille de grain, le Structural Stability Index (SSI). Pour ce faire, l’erreur modélisée (biais) par le modèle a été analysée à l’aide de données précises sur le terrain de la taille de grain à l’aide de l’instrument IRIS (InfraRed Integrated Sphere). Les données ont été recueillies durant l’hiver 2014 à deux sites différents au Canada : parc National des Glaciers, en Colombie-Britannique ainsi qu’au parc National de Jasper. Le site de Fidelity était généralement soumis à un métamorphisme à l'équilibre tandis que celui de Jasper à un métamorphisme cinétique plus prononcé. Sur chacun des sites, la stratigraphie des profils de densités ainsi des profils de taille de grain (IRIS) ont été complétés. Les profils de Fidelity ont été complétés avec des mesures de micropénétromètre (SMP). L’analyse des profils de densité a démontré une bonne concordance avec les densités modélisées (R[indice supérieur 2]=0.76) et donc la résistance simulée pour le SSI a été jugée adéquate. Les couches d’instabilités prédites par SNOWPACK ont été identifiées à l’aide de la variation de la résistance dans les mesures de SMP. L’analyse de la taille de grain optique a révélé une surestimation systématique du modèle ce qui est en accord avec la littérature. L’erreur de taille de grain optique dans un environnement à l’équilibre était assez constante tandis que l’erreur en milieux cinétique était plus variable. Finalement, une approche orientée sur le type de climat représenterait le meilleur moyen pour effectuer une correction de la taille de grain pour une évaluation de la stabilité au Canada.
Resumo:
De nombreuses populations migratrices sont actuellement en déclin. Les changements climatiques entrainent des modifications dans les habitats des espèces migratrices et la phénologie des processus naturels, lesquels se répercutent sur la migration, une période critique pour ces espèces. Comprendre comment les variables environnementales et climatiques affectent la phénologie et les patrons de migration est donc crucial. Ma thèse s’intéresse à l’impact du climat, des ressources alimentaires et de la compétition sur les migrations printanières et automnales des caribous migrateurs, Rangifer tarandus, des troupeaux Rivière-George (TRG) et Rivière-aux-Feuilles (TRF) du Nord-du-Québec et du Labrador. Le premier volet de ma thèse propose une approche objective, basée sur la détection des changements dans la structure des déplacements saisonniers, pour identifier les dates de départ et arrivée en migration. Validée à l’aide de trajets simulés, elle a été appliquée aux migrations printanières et automnales de femelles caribous. Le second volet porte sur l’impact des conditions environnementales sur la phénologie des migrations de printemps et d’automne. Il montre que la phénologie de la migration est principalement affectée par les conditions climatiques rencontrées lors de la migration, les conditions d’enneigement affectant notamment les coûts des déplacements. Au printemps, les caribous subissent des conditions défavorables lorsque la fonte des neiges est précoce. À l’automne, ils semblent ajuster leurs déplacements et migrent plus vite quand la neige débute tôt pour limiter les coûts de déplacement dans une neige profonde. Le troisième volet porte sur les patrons de migration à l’automne et montre que ceux-ci sont affectés essentiellement par une compétition intra- et inter-troupeaux pour les aires d’hivernages. Les caribous du TRG répondent à une augmentation de la compétition sur les aires les plus proches de l’aire de mise bas, liée à une taille de population élevée, en migrant préférentiellement vers les aires les plus éloignées. L’utilisation des aires hivernales par les caribous du TRF est, quant à elle, contrainte par la présence et l’abondance du TRG, cette contrainte diminuant à mesure que le TRG décline et abandonne les migrations vers les aires d’hivernages communes aux deux troupeaux. Cette thèse améliore notre compréhension de l’influence des facteurs environnementaux sur la phénologie et les patrons de migration du caribou migrateur. Ces connaissances sont très utiles pour comprendre l’impact des changements climatiques et établir les plans de conservation pour les espèces migratrices.
Resumo:
Dándole un nuevo significado al tópico de la ciudad muerta, especialmente productivo en la literatura de fin de siglo, Sorj Chalandon configura, en Le qua-trième mur, una poética del saqueo que hace de la ciudad devastada un espacio de creación, al mismo tiempo novelesco y trágico, donde reinventar el género de la tumba.
Resumo:
En traitement du signal audio, les plosives sont des sons de parole très importants au regard de l’intelligibilité et de la qualité. Les plosives sont cependant difficiles à modéliser à l’aide des techniques usuelles (prédiction linéaire et codage par transformée), à cause de leur dynamique propre importante et à cause de leur nature non prédictible. Cette étude présente un exemple de système complet capable de détecter, segmenter, et altérer les plosives dans un flux de parole. Ce système est utilisé afin de vérifier la validité de l’hypothèse suivante : La phase d’éclatement (de burst) des plosives peut être mise à zéro, de façon perceptuellement équivalente. L’impact sur la qualité subjective de cette transformation est évalué sur une banque de phrases enregistrées. Les résultats de cette altération hautement destructive des signaux tendent à montrer que l’impact perceptuel est mineur. Les implications de ces résultats pour le codage de la parole sont abordées.
Resumo:
National audience
Resumo:
Cette thèse se compose de trois articles sur les politiques budgétaires et monétaires optimales. Dans le premier article, J'étudie la détermination conjointe de la politique budgétaire et monétaire optimale dans un cadre néo-keynésien avec les marchés du travail frictionnels, de la monnaie et avec distortion des taux d'imposition du revenu du travail. Dans le premier article, je trouve que lorsque le pouvoir de négociation des travailleurs est faible, la politique Ramsey-optimale appelle à un taux optimal d'inflation annuel significativement plus élevé, au-delà de 9.5%, qui est aussi très volatile, au-delà de 7.4%. Le gouvernement Ramsey utilise l'inflation pour induire des fluctuations efficaces dans les marchés du travail, malgré le fait que l'évolution des prix est coûteuse et malgré la présence de la fiscalité du travail variant dans le temps. Les résultats quantitatifs montrent clairement que le planificateur s'appuie plus fortement sur l'inflation, pas sur l'impôts, pour lisser les distorsions dans l'économie au cours du cycle économique. En effet, il ya un compromis tout à fait clair entre le taux optimal de l'inflation et sa volatilité et le taux d'impôt sur le revenu optimal et sa variabilité. Le plus faible est le degré de rigidité des prix, le plus élevé sont le taux d'inflation optimal et la volatilité de l'inflation et le plus faible sont le taux d'impôt optimal sur le revenu et la volatilité de l'impôt sur le revenu. Pour dix fois plus petit degré de rigidité des prix, le taux d'inflation optimal et sa volatilité augmentent remarquablement, plus de 58% et 10%, respectivement, et le taux d'impôt optimal sur le revenu et sa volatilité déclinent de façon spectaculaire. Ces résultats sont d'une grande importance étant donné que dans les modèles frictionnels du marché du travail sans politique budgétaire et monnaie, ou dans les Nouveaux cadres keynésien même avec un riche éventail de rigidités réelles et nominales et un minuscule degré de rigidité des prix, la stabilité des prix semble être l'objectif central de la politique monétaire optimale. En l'absence de politique budgétaire et la demande de monnaie, le taux d'inflation optimal tombe très proche de zéro, avec une volatilité environ 97 pour cent moins, compatible avec la littérature. Dans le deuxième article, je montre comment les résultats quantitatifs impliquent que le pouvoir de négociation des travailleurs et les coûts de l'aide sociale de règles monétaires sont liées négativement. Autrement dit, le plus faible est le pouvoir de négociation des travailleurs, le plus grand sont les coûts sociaux des règles de politique monétaire. Toutefois, dans un contraste saisissant par rapport à la littérature, les règles qui régissent à la production et à l'étroitesse du marché du travail entraînent des coûts de bien-être considérablement plus faible que la règle de ciblage de l'inflation. C'est en particulier le cas pour la règle qui répond à l'étroitesse du marché du travail. Les coûts de l'aide sociale aussi baisse remarquablement en augmentant la taille du coefficient de production dans les règles monétaires. Mes résultats indiquent qu'en augmentant le pouvoir de négociation du travailleur au niveau Hosios ou plus, les coûts de l'aide sociale des trois règles monétaires diminuent significativement et la réponse à la production ou à la étroitesse du marché du travail n'entraîne plus une baisse des coûts de bien-être moindre que la règle de ciblage de l'inflation, qui est en ligne avec la littérature existante. Dans le troisième article, je montre d'abord que la règle Friedman dans un modèle monétaire avec une contrainte de type cash-in-advance pour les entreprises n’est pas optimale lorsque le gouvernement pour financer ses dépenses a accès à des taxes à distorsion sur la consommation. Je soutiens donc que, la règle Friedman en présence de ces taxes à distorsion est optimale si nous supposons un modèle avec travaie raw-efficace où seule le travaie raw est soumis à la contrainte de type cash-in-advance et la fonction d'utilité est homothétique dans deux types de main-d'oeuvre et séparable dans la consommation. Lorsque la fonction de production présente des rendements constants à l'échelle, contrairement au modèle des produits de trésorerie de crédit que les prix de ces deux produits sont les mêmes, la règle Friedman est optimal même lorsque les taux de salaire sont différents. Si la fonction de production des rendements d'échelle croissant ou decroissant, pour avoir l'optimalité de la règle Friedman, les taux de salaire doivent être égales.
Resumo:
Cet ouvrage scientifique constitue les Actes du Symposium international sur la litéracie à l’école / International Symposium for Educational Literacy (SILE/ISEL), qui s’est tenu en août 2015 au Canada (Jouvence, Québec). L’objectif de ce symposium est de rassembler, à l’échelle internationale, des chercheurs de différentes disciplines (éducation, psychologie, linguistique, littérature) et de la santé qui s’intéressent à la réussite en lecture-écriture des élèves en maternelle et au primaire.
Resumo:
Résumé : Cette étude examine l'impact de la taille et de la gradation de particules sur les corrélations théoriques et empiriques existantes les plus connues entre la résistance au cisaillement et le comportement dilatatant des matériaux granulaires en condition de déformation plane et en compression triaxiale drainée. À cette fin, 276 tests de cisaillements symétriques directs et 35 tests de compressions triaxiales drainées ont été menés sur des échantillons composés de billes de basalte (particules rondes), et de sables constitués de particules angulaires (sable de Péribonka et sable d'Eastmain) sur une échelle de 63 µm à 2000 µm afin d'évaluer leur résistance au cisaillement et leur comportement de dilatance sur une vaste échelle de pressions normales et de densités relatives initiales. Premièrement, la fiabilité et l'applicabilité des limites de mesure à l’aide de tests physiques de cisaillements symétriques directs dans l'interprétation de la résistance au cisaillement frictionnel en déformation plane des matériaux granulaires ont été discutées et confirmées par l'usage du code informatique DEM, SiGran. L'accent a été particulièrement mis sur la validation du modèle DEM au moyen de comparaison des résultats des simulations DEM avec leurs équivalents physiques à une échelle macro. Les résultats virtuels DSA sont abordés du point de vue de la coaxialité entre les principales tensions et les principales directions des paliers de pression ainsi que de la déviation de la direction d'extension nulle à partir de la direction horizontale. Les résultats numériques fournissent également des données quantitatives sur les différentes formes d'énergie consommées durant le cisaillement confirmées par d'autres résultats physiques et numériques publiés. Sur la base des postulats précédents, un examen minutieux des résultats des essais de cisaillements directs et de données issues de la littérature a été accompli afin d'évaluer la fiabilité des formules empiriques bien connues de Bolton et Collins et al. avec leurs constantes couramment employées en condition de déformation plane. L'étude montre qu'une application des relations empiriques de force-dilatation de cisaillement avec les constantes proposées par Bolton (1986) et Collins et al. (1992) aux sables ayant une distribution de taille de particules différente peut conduire à surestimer leurs valeurs en terme de force de cisaillement. Dans cette étude, les coefficients des équations de Bolton et Collins et al. ont donc été ajustée afin de prendre en compte les caractéristiques des particules, en particulier le diamètre médian, D50. De manière analogue, les effets microstructuraux imposés par la géométrie interne des particules (par exemple la taille, la forme et la gradation des particules) sur la relation tension-dilatation très connue, celle de Rowe (1962), et son ajustement empirique en condition triaxiale drainée ont été examinés dans cette étude. Une comparaison des prédictions des formules proposées avec les données de force de cisaillement issues de la littérature fournit de nombreuses preuves en faveur des contraintes mises en place au sein des relations existantes de force-dilatation de cisaillement en condition de déformation plane et triaxiale. Ces comparaisons prouvent également que la prise en compte de la taille des grains conduit à des résultats plus tangibles que lorsque la taille de la particule n'est pas considérée. Les formules de force-dilatation ajustées peuvent se révéler avantageuses pour évaluer indépendamment la cohérence des forces de cisaillement déterminées expérimentalement et pour introduire des lois d’écoulement plus précises dans les analyses géotechniques analytiques et numériques.
Resumo:
Le premier cours de français obligatoire, Écriture et littérature, amène l'élève à rédiger une analyse littéraire. La méthode de travail intellectuel que l'élève aura maîtrisée doit être réinvestie dans les cours suivants auxquels de nouvelles notions s'ajoutent. Il importe donc que l'élève ait intégré une méthode de travail efficace qu'il pourra réutiliser. Cet essai vient montrer dans quelle mesure l'utilisation de stratégies cognitives et métacognitives peut aider l'élève à développer sa compétence à rédiger des analyses littéraires. La problématique de la recherche concerne l'approche pédagogique offerte habituellement dans ce premier cours de français. Nous avons remarqué que l'enseignante ou l'enseignant s'intéresse principalement à la tâche réalisée, soit la rédaction de l'élève, et non à la démarche de ce dernier. Si l'élève suit une procédure qui comporte des lacunes ou omet certaines étapes essentielles, comment peut-on espérer que ce dernier arrive à produire une analyse littéraire satisfaisante? Parallèlement, si l'enseignante ou l'enseignant souhaite apporter une aide personnalisée à l'élève, il lui faut avoir accès aux processus mentaux de ce dernier. Nous avons aussi remarqué que l'élève n'est guère impliqué dans le processus d'évaluation, qu'il s'agisse de l'évaluation de sa démarche ou de son texte. Ainsi la réflexion sur son savoir-faire ou sur sa compétence en rédaction n'est pas sollicitée. Tel que donné, le cours de littérature n'offre pas une place suffisamment grande au processus d'apprentissage de l'analyse littéraire: l'élève est absent du processus d'évaluation et la réflexion sur sa démarche et ses productions n'est pas valorisée. Dans ce cas, l'enseignante ou l'enseignant ne peut espérer un transfert des apprentissages dans le cours suivant. Ces constats nous ont amenée à souhaiter analyser les effets de l'enseignement de diverses stratégies cognitives et métacognitives sur le développement de la compétence à rédiger des analyses littéraires. Afin de répondre à cet objectif général de la recherche, nous avons bâti notre cadre de référence autour de l'approche cognitiviste. Comme notre expérimentation porte principalement sur l'acquisition de connaissances procédurales, c'est à dire un savoir-faire, nous avons repris les grands principes du traitement de l'information proposés par Tardif (1992). Nous avons aussi tenu compte des catégories de connaissances (Barbeau, Montini, Roy, 1997) qui exigent, pour chacune, des stratégies différentes. Puisque notre expérimentation vise une méthode d'enseignement différente compte tenu que nous avons ajouté des stratégies d'autoévaluation et de régulation à nos stratégies cognitives déjà existantes, nous avons privilégié les écrits d'auteurs qui traitent de la métacognition dans le but de développer une compétence. Alors que l'autoévaluation permet à l'élève d'évaluer sa démarche ou son travail, la régulation, quant à elle, est l'action qui devrait suivre en vue d'apporter des correctifs aux lacunes relevées. Ces deux pratiques indissociables devraient permettre à l'élève de réaliser quelles actions il doit mettre en place pour améliorer ses écrits. Ainsi l'élève prend confiance en lui, devient plus autonome et responsable de sa réussite. C'est dans cette optique que s'est déroulée l'expérimentation à l'hiver 2008. Pendant 15 semaines, 25 élèves regroupés à l'intérieur d'un cours d'aide à la réussite ont expérimenté une approche différente de celle du cours dans lequel ils ont échoué. D'abord, l'élève a pris connaissance de ses points forts et de ses faiblesses à l'analyse littéraire du trimestre précédent. Il a pu s'exprimer sur sa conception des critères d'évaluation et ajuster sa compréhension des attentes par la suite. Après chaque production, l'élève a été appelé à porter un jugement critique sur son texte. Aussi, il a pu parler de sa méthode de travail avec ses pairs et évaluer l'efficacité de sa démarche. La réécriture de certains textes a été exigée. À plusieurs reprises, l'élève a dû se questionner sur l'état de ses apprentissages et faire le bilan de ses connaissances. Le travail par les pairs a aussi été très valorisé. Pour vérifier l'impact de notre expérimentation, nous avons recueilli tous les documents relatifs à l'analyse littéraire finale de mai 2008 afin de décrire les processus mentaux mis en place par les élèves et vérifier si leurs stratégies ont été efficaces. Nous avons aussi fait remplir deux questionnaires afin d'analyser les perceptions des élèves quant aux stratégies cognitives et métacognitives expérimentées. Finalement, lors d'une entrevue, l'enseignante nous a fait part de ses perceptions quant à l'intérêt de la recherche et ses limites. Les résultats que nous avons obtenus nous ont permis de voir quelle démarche chaque élève a suivie à partir des traces qu'il a laissées. Il semble que les étapes préalables à la rédaction, celles que l'on retrouve sur la copie de l'extrait littéraire, sont les stratégies les plus utiles pour recueillir toutes les informations nécessaires à la rédaction. Les élèves qui ont laissé des traces de ces étapes sont ceux qui ont le mieux réussi. Cependant, c'est sur le plan des perceptions qu'apparaît encore plus clairement l'importance de combiner les stratégies métacognitives aux stratégies cognitives déjà en place. Les élèves accordent une grande valeur à l'autoévaluation. Cette pratique semble avoir contribué à augmenter leur confiance alors qu'ils sont aptes à détecter leurs forces et leurs faiblesses. Aussi, plusieurs croient que le réinvestissement de cette stratégie dans les autres cours de français pourra les aider dans leur réussite. De manière générale, l'expérimentation de stratégies métacognitives conjointement aux stratégies cognitives donne de bons résultats. Même si l'expérimentation s'est effectuée sur une courte période, elle a eu un impact positif chez les élèves et l'enseignante. Les élèves avaient le sentiment d'être en contrôle de leur réussite. Bref, les résultats nous encouragent donc à poursuivre l'insertion de stratégies métacognitives à l'intérieur du premier cours de français afin d'aider les élèves à acquérir une méthode de travail qui leur sera utile et efficace.
Resumo:
The article presents studies of a current investigation among 75 adolescents from 12 to 15 years old, students of private schools of Campinas city, that have as main objective to notice a possible correspondence among the moral judgments and the representation that individuals have about themselves. From a questionnaire, the studies bring out the representations of these individuals and answer a questioning if they would have an ethical character or not and if these individuals would correspond to their moral judgments. The results point out to a correspondence among those whose self representations are characterized by more evolved ethical contents and judgments related to sensitivity and to the characters feelings involved in the situations described. Such studies validate the intention of this article to discuss the correspondences between ethics (how the individual sees himself/herself) and moral (how he/she judges the situations moral).
Resumo:
Neste estudo, apresentamos elementos do universo moral de jovens internos da Fundação do Bem-Estar do Menor do Estado de São Paulo. Entrevistamos 14 sujeitos sobre o tema do 'Seguro', uma forma de organização criada pelos próprios jovens internos, que está baseada em regras precisas cuja desobediência implica a exclusão do transgressor. Procuramos verificar as formas de legitimação da referida organização, e os valores morais que a sustentam. As categorias de análise dos dados foram: autonomia/heteronomia, virtudes e personalidade moral. Os dados apontam para o predomínio de formas heteronômicas de legitimação das regras, para a valorização de certos traços de caráter (virtudes) como a 'firmeza', a 'virilidade', a 'coragem' e para a franca desvalorização de seus contrários (fraqueza, homossexualidade, medo). Os dados também apontam para a construção de uma identidade que inclui valores do chamado 'mundo do crime' e que se opõe claramente ao 'mundão', que inclui as pessoas que não são os 'malandros'.
Resumo:
Após um século de reflexões e investigações, como era de se esperar, a Psicologia Moral apresenta sinais de esgotamento de seus referenciais teóricos clássicos. Consequentemente, novas perspectivas se abrem, entre elas a abordagem teórica que leva o nome de 'personalidade ética', cuja tese é: para compreendermos os comportamentos morais (deveres) dos indivíduos, precisamos conhecer a perspectiva ética (vida boa) adotadas por eles. Entre os invariantes psicológicos de realização de uma 'vida boa', está a necessidade de 'expansão de si próprio'. Como tal expansão implica ter 'representações de si' de valor positivo, entre elas poderão estar aquelas relacionadas à moral. Se estiverem, o sujeito experimentará o sentimento de dever, do contrário, a motivação para a ação moral será inexistente ou fraca.