987 resultados para Méthodes métaheuristiques
Resumo:
La réalisation de l’évaluation environnementale, en France, est encouragée par l’existence de règlements, lois, directives et normes Européennes (notamment la Directive 2001/42/CE du Parlement européen et du Conseil du 27 juin 2001 relative à l'évaluation des incidences de certains plans et programmes sur l'environnement et la Loi n° 2015-992 du 17 août 2015 relative à la transition énergétique pour la croissance verte). La compréhension du cadre Drivers – Pressures – State – Impacts – Responses permet de replacer les différentes méthodologies dans un cadre conceptuel plus large. Les méthodes d’analyse de flux de matières (Pressures) et d’analyse de cycle de vie (Impacts) sont les deux familles d’évaluation environnementale considérées dans ce travail. C’est plus précisément l’analyse de flux de matières selon Eurostat et l’analyse de cycle de vie territoriale qui ont été appliquées au territoire métropolitain d’Aix-Marseille-Provence. Un état de l’art relevant les études dans lesquelles sont réalisées des analyses de flux de matières a pu montrer que cette famille de méthodes informe sur le métabolisme des territoires à partir de différents types de flux. L’importance des flux indirects et des ressources minérales dans les métabolismes a ainsi été démontrée. Du côté des études analysant les cycles de vie sur les territoires, comme c’est le cas dans l’analyse de cycle de vie territoriale, la distinction faite entre les impacts et dommages, directs ou globaux, permet d’offrir des recommandations ciblées, améliorant la qualité de vie des citoyens. La mise en œuvre de ces deux méthodes sur le territoire métropolitain a mis en évidence l’importance dominante des flux indirects liés aux importations et exportations que génèrent les activités du territoire, elles-mêmes fortement influencées par la présence du port de Marseille-Fos. L’activité pétrochimique, qui caractérise elle aussi la métropole, est une grande consommatrice de combustibles fossiles, ce qui se reflète dans les volumes de flux calculés et leurs impacts associés. Les deux méthodologies s’avèrent complémentaires, chacune ayant ses forces et faiblesses respectives. Pour l’analyse de cycle de vie, la pensée cycle de vie et la prise en compte de la qualité de la matière, d’une part, et la facilité d’application et la marge d’erreur réduite de l’analyse de flux de matières, d’autre part, en plus de leurs résultats complémentaires, justifient un usage hybride pour la prise d’actions ciblées. En effet, la collecte commune des données rend intéressante leur exploitation et l’interprétation croisée de leurs résultats.
Resumo:
L’objectif de cet essai est de recommander des solutions alternatives aux méthodes de déglaçage présentement utilisées au Québec et au Canada. Actuellement, les routes hivernales sont maintenues sécuritaires grâce à l’épandage de sels de voirie et d’abrasifs. Le chlorure de sodium et le chlorure de calcium sont les plus utilisés sur les routes, en partie en raison de leurs faibles coûts. Or, les impacts négatifs d’une libération massive d’ions chlorure dans l’environnement sont nombreux. La perturbation de l’équilibre osmotique du sol menant à un dérèglement végétal, l’augmentation de la salinité de l’eau nuisant aux organismes aquatiques vertébrés et l’érosion accélérée du sol n’en sont que quelques-unes. En prime, les répercussions économiques reliées à la corrosion des véhicules et des structures routières, telles que les ponts et viaducs, causées par l’épandage de sels de voirie sont importantes. Ainsi, l’utilisation de méthodes alternatives peut limiter les impacts engendrés par les sels de voirie. Les recommandations sont divisées en deux catégories. D’une part, des recommandations sont formulées en lien avec l’épandage de produits de remplacements aux sels de voirie. L’exploitation du potentiel de l’extrait de betterave est suggérée. L’entretien hivernal des ponts et viaducs à l’aide de produits non corrosifs tels que les acétates est proposé, tout comme le traitement des piles d’abrasifs avec un produit comportant un pourcentage d’extrait de maïs. D’autre part, des recommandations concernant l’optimisation des méthodes employées et les visions environnementales à adopter en entretien hivernal sont formulées. Elles consistent à augmenter le nombre de villes québécoises participantes à la Stratégie québécoise pour une gestion environnementale des sels de voirie et de villes canadiennes éligibles au Code de pratique pour la gestion des sels de voirie, de miser en premier lieu sur l’amélioration des méthodes d’entretien hivernal dans les zones vulnérables prioritaires, de prendre en compte le cycle de vie des composés alternatifs et enfin d’effectuer une réduction à la source des émissions de sels de voirie dans l’environnement. Enfin, puisqu’aucune solution idéale n’existe, la solution réside en l’amélioration des méthodes actuelles et l’utilisation d’une combinaison d’alternatives, chacune jouant un rôle dans une situation qui lui est propre pour atténuer des impacts causés par l’épandage de sels de voirie.
Resumo:
Abstract: Quantitative Methods (QM) is a compulsory course in the Social Science program in CEGEP. Many QM instructors assign a number of homework exercises to give students the opportunity to practice the statistical methods, which enhances their learning. However, traditional written exercises have two significant disadvantages. The first is that the feedback process is often very slow. The second disadvantage is that written exercises can generate a large amount of correcting for the instructor. WeBWorK is an open-source system that allows instructors to write exercises which students answer online. Although originally designed to write exercises for math and science students, WeBWorK programming allows for the creation of a variety of questions which can be used in the Quantitative Methods course. Because many statistical exercises generate objective and quantitative answers, the system is able to instantly assess students’ responses and tell them whether they are right or wrong. This immediate feedback has been shown to be theoretically conducive to positive learning outcomes. In addition, the system can be set up to allow students to re-try the problem if they got it wrong. This has benefits both in terms of student motivation and reinforcing learning. Through the use of a quasi-experiment, this research project measured and analysed the effects of using WeBWorK exercises in the Quantitative Methods course at Vanier College. Three specific research questions were addressed. First, we looked at whether students who did the WeBWorK exercises got better grades than students who did written exercises. Second, we looked at whether students who completed more of the WeBWorK exercises got better grades than students who completed fewer of the WeBWorK exercises. Finally, we used a self-report survey to find out what students’ perceptions and opinions were of the WeBWorK and the written exercises. For the first research question, a crossover design was used in order to compare whether the group that did WeBWorK problems during one unit would score significantly higher on that unit test than the other group that did the written problems. We found no significant difference in grades between students who did the WeBWorK exercises and students who did the written exercises. The second research question looked at whether students who completed more of the WeBWorK exercises would get significantly higher grades than students who completed fewer of the WeBWorK exercises. The straight-line relationship between number of WeBWorK exercises completed and grades was positive in both groups. However, the correlation coefficients for these two variables showed no real pattern. Our third research question was investigated by using a survey to elicit students’ perceptions and opinions regarding the WeBWorK and written exercises. Students reported no difference in the amount of effort put into completing each type of exercise. Students were also asked to rate each type of exercise along six dimensions and a composite score was calculated. Overall, students gave a significantly higher score to the written exercises, and reported that they found the written exercises were better for understanding the basic statistical concepts and for learning the basic statistical methods. However, when presented with the choice of having only written or only WeBWorK exercises, slightly more students preferred or strongly preferred having only WeBWorK exercises. The results of this research suggest that the advantages of using WeBWorK to teach Quantitative Methods are variable. The WeBWorK system offers immediate feedback, which often seems to motivate students to try again if they do not have the correct answer. However, this does not necessarily translate into better performance on the written tests and on the final exam. What has been learned is that the WeBWorK system can be used by interested instructors to enhance student learning in the Quantitative Methods course. Further research may examine more specifically how this system can be used more effectively.
Resumo:
La réussite scolaire est affaire de capacité, mais aussi de motivation. Viau (2009) définit la motivation comme: un état dynamique qui a ses origines dans les perceptions qu’une étudiante ou un étudiant a de lui-même et de son environnement et qui l’incite à choisir une activité, à s’y engager et à persévérer dans son accomplissement afin d’atteindre un but. La motivation, c’est ce moteur qui nous fait avancer pour atteindre un idéal. Tout enseignante ou enseignant doit favoriser la motivation des étudiantes et des étudiants et mettre en place des conditions nécessaires pour leur permettre de trouver eux-mêmes le sens qu’ils souhaitent donner à leur démarche. En effet, si les étudiantes et les étudiants choisissent leur programme d’étude et parfois certains cours, il en revient à l’enseignante et à l’enseignant de contribuer à susciter l’intérêt pour le cours, d’aider la clientèle étudiante à percevoir son utilité et surtout à se réaliser dans ses apprentissages. Si l’enseignante ou l’enseignant n’a pas le choix sur le contenu du cours, il a cependant le choix des méthodes pédagogiques à utiliser. Certaines méthodes pédagogiques vont susciter un dynamisme qui caractérise les interactions entre les étudiantes et les étudiants, et entre ces derniers et l’enseignante ou l’enseignant. Ce dynamisme contribue à motiver la clientèle étudiante. Dans cet essai, la chercheure s’est intéressée sur l’effet des stratégies d’enseignement sur les étudiantes et étudiants en Soins infirmiers. Le premier chapitre aborde l’APC et le vent de changement suscité par cette approche sur les méthodes pédagogiques, mais aussi sur le rôle des enseignantes et des enseignants. On y aborde en conséquence la problématique ainsi que les raisons qui ont motivé la chercheure à vouloir conduire cette étude. Le deuxième chapitre est le cadre de référence de cette étude. Les méthodes pédagogiques et la motivation scolaire sont au coeur de ce cadre conceptuel. On y retrouve entre autres la classification, la définition et la description de huit méthodes pédagogiques, soit les plus populaires selon Chamberland, Lavoie et Marquis (1995). Par la suite, la motivation scolaire est abordée en discutant entre autres des facteurs liés à la classe, des trois déterminants, les perceptions attributionnelles, la perception de sa compétence, la perception de l’importance de la tâche ainsi que deux indicateurs de la motivation scolaire: l’engagement cognitif et la participation. Barbeau (1994) a élaboré un modèle de la motivation qui regroupe cinq grandes variables de la motivation dans un ensemble dynamique. Ce modèle est présenté dans ce chapitre. Le troisième chapitre élabore la méthodologie utilisée pour la réalisation de cette étude. L’approche méthodologique de type qualitatif est présentée de même que le paradigme interprétatif. L’approche méthodologique, les participantes et les participants à la recherche, le déroulement de la recherche et les instruments de collecte de données sont expliqués. Cette étude a fait appel à trois outils de collectes de données soit un entretien semi-dirigé avec les enseignantes et les enseignants, l’observation en classe et le questionnaire passé aux étudiantes et aux étudiants. Le quatrième chapitre comprend l’interprétation des résultats obtenus. Les résultats sont présentés à partir des données recueillies par les différents instruments de collecte. Ces derniers font ressortir que les étudiantes et les étudiants semblent plus motivés si les méthodes pédagogiques utilisées sont plus actives. La conclusion de cette recherche présente pour sa part un résumé de l’étude, les retombées de la recherche et différentes avenues qui pourraient être développées.
Resumo:
Les stages en milieux hospitaliers offrent une opportunité aux personnes étudiantes dans le domaine de la santé d’exécuter différentes méthodes d’évaluation et des méthodes de soins. Le Programme de soins infirmiers offre plusieurs de ces stages. Pour chaque stage, les personnes étudiantes elles doivent faire une liste des méthodes d’évaluation et des méthodes de soins effectuées dans un cahier. Elles doivent aussi y faire leur autoévaluation sur, par exemples, le déroulement de la méthode de soins, sur la relation avec le patient, ses difficultés... Le Programme de soins infirmiers comprenant 11 différents stages sur les 3 ans, il devient difficile d’avoir un suivi des acquis antérieurs et une bonne évaluation de la compétence. La création d’un portfolio sur les techniques effectuées lors des stages, permettra le suivi et l’évaluation des apprentissages relatifs à la compétence « utiliser des méthodes d’évaluation et des méthodes de soins » (Gouvernement du Québec, 2004) et ce, sur toute la durée du programme, soit trois ans, plutôt que sur la base d’un seul stage. Pour ce faire, un questionnaire en ligne a été complété par 46 personnes étudiantes et enseignantes dans le Programme de soins infirmiers du Cégep de Thetford. Suite à l’analyse, des focus groupes ont eu lieu pour valider ou clarifier certaines informations. L’analyse du questionnaire a permis de voir que la majorité des personnes répondantes est ouverte à essayer un portfolio électronique. De plus, des données pouvant figurer dans le portfolio et une grille des méthodes de soins ont été soulignées pour s’assurer de débuter le développement de ce dernier selon les besoins des personnes participantes. Comme il s’agit d’un nouvel outil pédagogique, leur implication dans le projet dès le début du processus pourrait permettre une meilleure collaboration lors de l’implantation du portfolio. Contrairement à la version papier, le portfolio électronique a l’avantage d’être accessible plus facilement et peut être utilisé en ligne par plus d’une personne à la fois. Il devient plus facile pour les personnes étudiantes et les enseignantes de commenter l’évolution de leurs compétences au fur et à mesure plutôt qu’à la fin du stage seulement. L’objectif étant d’avoir tous les éléments en main avant de commencer à travailler sur le développement du portfolio. En ayant déjà les attentes des personnes potentiellement utilisatrices, nous espérons diminuer le nombre de modifications ou d’ajustements à postériori. Nous espérons aussi que les personnes pouvant utiliser le portfolio y adhérent plus facilement s’il répond à leur besoins dès le départ. L’utilisation d’un portfolio sur la durée du programme pour l’évaluation des compétences longitudinales serait grandement aidant pour la progression et la réussite des personnes étudiantes. Pour le moment, il s’agit de créer le portfolio pour une compétence seulement. Toutefois, toutes les compétences évaluées pourraient éventuellement se retrouver dans cet outil et pourrait permettre aux personnes étudiantes d’avoir, en tout temps, le curriculum de leur formation, facilitant leur réflexion personnel et permettant de développer un jugement critique face à leur propre cheminement.
Resumo:
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.
Resumo:
L’incertitude associée à une mesure a pour origine d’une part la variabilité environnementale et d’autre part l’ensemble du processus d’acquisition depuis le prélèvement jusqu’à la saisie de la donnée dans une base. L’estimation de l'ensemble de cette variabilité est un exercice complexe à réaliser dans le cadre d’un plan d’expérience. En revanche, les séries temporelles présentent la caractéristique d’intégrer toutes les variabilités et ainsi l’analyse de ces séries en terme de signal et bruit doit permettre de quantifier l’amplitude des incertitudes. Toutefois, les séries temporelles d’observation présentent un ensemble de caractéristiques les rendant difficiles à analyser. Les modèles linaires dynamiques constituent une approche adaptée à ces données particulières en faisant l’hypothèse de paramètres variables dans le temps. Ainsi, l’objet du présent travail consiste à estimer les variances liées au processus d’observation à l’aide de modèles linéaires dynamiques. Plus particulièrement, les mesures considérées sont la chlorophylle a et l’abondance phytoplanctonique aux lieux de surveillance REPHY « Arcachon-Bouée- 7 » et « Teychan bis ». Les résultats montrent que pour la chlorophylle a, la variabilité d’observation est responsable de l’ordre de 80 % de la variabilité totale. Pour l’abondance phytoplanctonique, elle est également de 80 % à « Arcachon-Bouée 7 » mais de l’ordre de 70 % à « Teychan bis ». Ainsi la part de « bruit » est liée au lieu et au paramètre considéré. Exprimée en pourcentage de la médiane de la chlorophylle a, la variance d’observation place les bornes de l’intervalle de confiance à 95 % des observations à des valeurs de l’ordre de -40 % et +120 % de la médiane, l’intervalle étant sous estimé car ne prenant pas en compte la variabilité structurelle. Pour l’abondance phytoplanctonique en log10 cell./L, les ordres de grandeur correspondant en pourcentage de la moyenne sont de ± 13.5 %. Pour les deux paramètres, ces valeurs sont compatibles avec l’expérience des experts. Ainsi, l’approche mise en oeuvre s’est avérée riche d’enseignements en matière d’incertitude de mesure et les nombreuses améliorations méthodologiques envisagées ouvrent des perspectives fécondes à tout point de vue.
Resumo:
Le yogourt grec, pouvant être obtenu par concentration du yogourt traditionnel par ultrafiltration (UF), connaît une croissance exceptionnelle en Amérique du Nord (+100% depuis 2012), et représente le premier segment de marché des produits laitiers fermentés en 2014. Cependant, d’un point de vue environnemental, la production du yogourt grec fait face à plusieurs enjeux et défis. Son élaboration nécessite trois fois plus de lait que le yogourt traditionnel de par l’étape de concentration nécessaire à l’atteinte de la concentration protéique cible. De plus, l’étape d’UF du yogourt génère un perméat acide (coproduit du yogourt) difficilement valorisable. Néanmoins, une alternative consistant à effectuer l’étape d’UF sur le lait avant sa fermentation permet d’éliminer la production du perméat acide, et génère un perméat de lactosérum doux déprotéiné dont les voies de valorisation sont davantage connues. Cette stratégie pourrait donc potentiellement réduire l’impact environnemental du procédé et générer des coproduits plus facilement valorisables, améliorant ainsi l’écoefficience du procédé de fabrication de yogourt grec. Dans cette optique, ce projet de recherche visait à comparer l’impact environnemental sur l’ensemble du cycle de vie de la production de yogourt grec selon deux procédés : en effectuant l’étape de concentration par UF avant l’étape de fermentation (UF LAIT), ou après (UF YOG) comme utilisé dans l’industrie. Ainsi, des expérimentations à échelle pilote ont été réalisées dans le but de comparer ces deux procédés. Le nouveau procédé (UF LAIT) permettrait une réduction des consommations d’énergie à l’étape de transformation étant donné que l’UF du lait avant fermentation permet de réduire la quantité de matière première à transformer d’environ un tiers. Cependant l’Analyse du Cycle de Vie (ACV) des deux procédés donne comme résultat un bilan environnemental défavorable à (UF LAIT) comparativement au procédé traditionnel (UF YOG) à cause d’une plus grande consommation de lait, qui est responsable d’environ 80% des impacts sur le cycle de vie du yogourt grec. Cet impact majeur pour UF LAIT l’est encore même lorsque dans une analyse de sensibilité le perméat doux de UF LAIT est alloué à l’étape d’UF contrairement au perméat acide de UF YOG qui est considéré comme un déchet non valorisable.
Resumo:
En raison du virage semi-autoritaire de l’État russe au début des années 2000, l’adaptation aux mesures contraignantes de l’État, qu’elle soit consciente ou inconsciente, constitue un aspect fondamental du quotidien des ONG de défense des droits de l’homme russes. Cependant, il s’agit d’une question jusqu’ici négligée dans la littérature scientifique. Ainsi, ce mémoire a pour objet d’examiner la démarche d’adaptation d’une ONG particulièrement active sur la scène russe, le Centre des droits de l’homme Memorial, entre 1999 et 2014. La recherche révèle que cette ONG emploie deux méthodes afin de s’adapter aux mesures étatiques et que celles-ci sont, en fait, des principes d’action adoptés par l’organisation au moment de sa création. Le premier principe d’action s’appuie sur la coopération et la solidarité développées par le Centre des droits de l’homme Memorial avec d’autres ONG russes, des ONG internationales et des organisations internationales. En partenariat avec ces organisations, le Centre des droits de l’homme Memorial élabore des activités de recherche et de plaidoyer et mène des missions de surveillance des droits de l’homme. Ce principe d’action renforce considérablement la capacité d’adaptation de l’ONG et favorise l’exercice de son rôle de contrepouvoir. Le second principe d’action se fonde sur la recherche de collaboration constructive avec l’État. Lors d’interactions ponctuelles avec les autorités, l’organisation exerce un rôle d’expert en matière de droits de l’homme et tente de réduire les entraves posées à la société civile. Outre sa propriété adaptative, cette méthode d’adaptation combine deux fonctions inhérentes à la société civile, soit la représentation des intérêts des citoyens auprès des instances étatiques et l’établissement d’un partenariat avec l’État dans le but d’amener ce dernier à adopter des pratiques démocratiques. Ce mémoire montre la capacité du Centre des droits de l’homme Memorial à se mouvoir d’une méthode d’adaptation à l’autre afin de maximiser son action.
Resumo:
Méthodologie: Équation de Bellman (Programmation dynamique) ; Méthode de la valeur optionnelle
Resumo:
Les élèves faibles en mathématiques utilisent des méthodes de travail inefficaces parce qu'ils n'en connaissent pas d'autres et parce qu'ils manquent de support et d'encadrement lorsqu'ils se retrouvent seuls pour étudier. Ces méthodes de travail inadéquates ont des conséquences néfastes sur leur performance en mathématiques: leur étude étant inefficace, ils persistent moins, arrivent moins bien préparés aux examens et développent des attitudes qui nuisent à leur apprentissage en mathématiques. Le but de cette recherche est de mesurer l'effet de l'enseignement de stratégies cognitives et métacognitives supporté par un encadrement de l'étude individuelle sur les attitudes des élèves faibles et sur leurs comportements lors de l'étude en mathématique. Cet effet devrait entraîner aussi une amélioration du rendement scolaire. L'expérimentation s'est déroulée à l'automne 1989 auprès d'élèves inscrits en mathématiques d'appoint au niveau collégial. On enseigna une méthode de travail plus adéquate, composée de stratégies cognitives et métacognitives variées et adaptées aux tâches demandées dans les devoirs de mathématiques. De plus, dans le groupe expérimental, cet enseignement fut soutenu par des consignes à l'intérieur des devoirs de mathématiques; ces consignes, de moins en moins nombreuses et explicites, devaient assurer que l'élève utilise vraiment les stratégies enseignées. Au terme de l'expérimentation, on a mesuré que les élèves du groupe expérimental n'utilisent pas plus les stratégies enseignées que les élèves du groupe contrôle. On a aussi mesuré la corrélation entre l'utilisation des stratégies enseignées d'une part, et les attitudes, les comportements lors de l'étude et le rendement scolaire d'autre part. On constate que la force de ce lien a tendance à augmenter avec le temps. Même si les résultats ne permettent pas de confirmer l'hypothèse principale, il apparaît que les élèves les plus faibles semblent avoir profité davantage de l'encadrement de leur étude personnelle. De plus, et cela pour l'ensemble des sujets, l'évolution de la corrélation entre l'utilisation des stratégies enseignées et diverses variables reliées à l'apprentissage des mathématiques suggère de poursuivre de telles interventions sur une plus longue période de temps.
Resumo:
L’échocardiographie et l’imagerie par résonance magnétique sont toutes deux des techniques non invasives utilisées en clinique afin de diagnostiquer ou faire le suivi de maladies cardiaques. La première mesure un délai entre l’émission et la réception d’ultrasons traversant le corps, tandis que l’autre mesure un signal électromagnétique généré par des protons d’hydrogène présents dans le corps humain. Les résultats des acquisitions de ces deux modalités d’imagerie sont fondamentalement différents, mais contiennent dans les deux cas de l’information sur les structures du coeur humain. La segmentation du ventricule gauche consiste à délimiter les parois internes du muscle cardiaque, le myocarde, afin d’en calculer différentes métriques cliniques utiles au diagnostic et au suivi de différentes maladies cardiaques, telle la quantité de sang qui circule à chaque battement de coeur. Suite à un infarctus ou autre condition, les performances ainsi que la forme du coeur en sont affectées. L’imagerie du ventricule gauche est utilisée afin d’aider les cardiologues à poser les bons diagnostics. Cependant, dessiner les tracés manuels du ventricule gauche requiert un temps non négligeable aux cardiologues experts, d’où l’intérêt pour une méthode de segmentation automatisée fiable et rapide. Ce mémoire porte sur la segmentation du ventricule gauche. La plupart des méthodes existantes sont spécifiques à une seule modalité d’imagerie. Celle proposée dans ce document permet de traiter rapidement des acquisitions provenant de deux modalités avec une précision de segmentation équivalente au tracé manuel d’un expert. Pour y parvenir, elle opère dans un espace anatomique, induisant ainsi une forme a priori implicite. L’algorithme de Graph Cut, combiné avec des stratégies telles les cartes probabilistes et les enveloppes convexes régionales, parvient à générer des résultats qui équivalent (ou qui, pour la majorité des cas, surpassent) l’état de l’art ii Sommaire au moment de la rédaction de ce mémoire. La performance de la méthode proposée, quant à l’état de l’art, a été démontrée lors d’un concours international. Elle est également validée exhaustivement via trois bases de données complètes en se comparant aux tracés manuels de deux experts et des tracés automatisés du logiciel Syngovia. Cette recherche est un projet collaboratif avec l’Université de Bourgogne, en France.
Resumo:
Les histoires de l’art et du design ont délaissé, au cours desquatre dernières décennies, l’étude canonique des objets, des artistes/concepteurs et des styles et se sont tournées vers des recherches plus interdisciplinaires. Nous soutenons néanmoins que les historiens et historiennes du design doivent continuer de pousser leur utilisation d’approches puisant dans la culturelle matérielle et la criticalité afin de combler des lacunes dans l’histoire du design et de développer des méthodes et des approches pertinentes pour son étude. Puisant dans notre expérience d’enseignement auprès de la génération des « milléniaux », qui sont portés vers un « design militant », nous offrons des exemples pédagogiques qui ont aidé nos étudiants et étudiantes à assimiler des histoires du design responsables, engagées et réflexives et à comprendre la complexité et la criticalité du design.
Resumo:
This Paper deals with the analysis of liquid limit of soils, an inferential parameter of universal acceptance. It has been undertaken primarily to re-examine one-point methods of determination of liquid limit water contents. It has been shown by basic characteristics of soils and associated physico-chemical factors that critical shear strengths at liquid limit water contents arise out of force field equilibrium and are independent of soil type. This leads to the formation of a scientific base for liquid limit determination by one-point methods, which hitherto was formulated purely on statistical analysis of data. Available methods (Norman, 1959; Karlsson, 1961; Clayton & Jukes, 1978) of one-point liquid limit determination have been critically re-examined. A simple one-point cone penetrometer method of computing liquid limit has been suggested and compared with other methods. Experimental data of Sherwood & Ryley (1970) have been employed for comparison of different cone penetration methods. Results indicate that, apart from mere statistical considerations, one-point methods have a strong scientific base on the uniqueness of modified flow line irrespective of soil type. Normalized flow line is obtained by normalization of water contents by liquid limit values thereby nullifying the effects of surface areas and associated physico-chemical factors that are otherwise reflected in different responses at macrolevel.Cet article traite de l'analyse de la limite de liquidité des sols, paramètre déductif universellement accepté. Cette analyse a été entreprise en premier lieu pour ré-examiner les méthodes à un point destinées à la détermination de la teneur en eau à la limite de liquidité. Il a été démontré par les caractéristiques fondamentales de sols et par des facteurs physico-chimiques associés que les résistances critiques à la rupture au cisaillement pour des teneurs en eau à la limite de liquidité résultent de l'équilibre des champs de forces et sont indépendantes du type de sol concerné. On peut donc constituer une base scientifique pour la détermination de la limite de liquidité par des méthodes à un point lesquelles, jusqu'alors, n'avaient été formulées que sur la base d'une analyse statistique des données. Les méthodes dont on dispose (Norman, 1959; Karlsson, 1961; Clayton & Jukes, 1978) pour la détermination de la limite de liquidité à un point font l'objet d'un ré-examen critique. Une simple méthode d'analyse à un point à l'aide d'un pénétromètre à cône pour le calcul de la limite de liquidité a été suggérée et comparée à d'autres méthodes. Les données expérimentales de Sherwood & Ryley (1970) ont été utilisées en vue de comparer différentes méthodes de pénétration par cône. En plus de considérations d'ordre purement statistque, les résultats montrent que les méthodes de détermination à un point constituent une base scientifique solide en raison du caractère unique de la ligne de courant modifiée, quel que soit le type de sol La ligne de courant normalisée est obtenue par la normalisation de la teneur en eau en faisant appel à des valeurs de limite de liquidité pour, de cette manière, annuler les effets des surfaces et des facteurs physico-chimiques associés qui sans cela se manifesteraient dans les différentes réponses au niveau macro.
Resumo:
Détermination de l'activité du calcium par la méthode d'effusion de Knudsen. Calcul, à partir de la distribution mesurée pour l'aluminium entre l'alliage et du fer pur, de l'activité de l'aluminium dans des alliages riches en calcium. Détermination en combinant les deux méthodes, des activités des deux composants et de l'énergie de Gibbs de mélange pour tout le domaine de composition. Calcul et analyse du facteur de structure concentration-concentration