987 resultados para Méthodes incrémentales
Resumo:
La réussite scolaire est affaire de capacité, mais aussi de motivation. Viau (2009) définit la motivation comme: un état dynamique qui a ses origines dans les perceptions qu’une étudiante ou un étudiant a de lui-même et de son environnement et qui l’incite à choisir une activité, à s’y engager et à persévérer dans son accomplissement afin d’atteindre un but. La motivation, c’est ce moteur qui nous fait avancer pour atteindre un idéal. Tout enseignante ou enseignant doit favoriser la motivation des étudiantes et des étudiants et mettre en place des conditions nécessaires pour leur permettre de trouver eux-mêmes le sens qu’ils souhaitent donner à leur démarche. En effet, si les étudiantes et les étudiants choisissent leur programme d’étude et parfois certains cours, il en revient à l’enseignante et à l’enseignant de contribuer à susciter l’intérêt pour le cours, d’aider la clientèle étudiante à percevoir son utilité et surtout à se réaliser dans ses apprentissages. Si l’enseignante ou l’enseignant n’a pas le choix sur le contenu du cours, il a cependant le choix des méthodes pédagogiques à utiliser. Certaines méthodes pédagogiques vont susciter un dynamisme qui caractérise les interactions entre les étudiantes et les étudiants, et entre ces derniers et l’enseignante ou l’enseignant. Ce dynamisme contribue à motiver la clientèle étudiante. Dans cet essai, la chercheure s’est intéressée sur l’effet des stratégies d’enseignement sur les étudiantes et étudiants en Soins infirmiers. Le premier chapitre aborde l’APC et le vent de changement suscité par cette approche sur les méthodes pédagogiques, mais aussi sur le rôle des enseignantes et des enseignants. On y aborde en conséquence la problématique ainsi que les raisons qui ont motivé la chercheure à vouloir conduire cette étude. Le deuxième chapitre est le cadre de référence de cette étude. Les méthodes pédagogiques et la motivation scolaire sont au coeur de ce cadre conceptuel. On y retrouve entre autres la classification, la définition et la description de huit méthodes pédagogiques, soit les plus populaires selon Chamberland, Lavoie et Marquis (1995). Par la suite, la motivation scolaire est abordée en discutant entre autres des facteurs liés à la classe, des trois déterminants, les perceptions attributionnelles, la perception de sa compétence, la perception de l’importance de la tâche ainsi que deux indicateurs de la motivation scolaire: l’engagement cognitif et la participation. Barbeau (1994) a élaboré un modèle de la motivation qui regroupe cinq grandes variables de la motivation dans un ensemble dynamique. Ce modèle est présenté dans ce chapitre. Le troisième chapitre élabore la méthodologie utilisée pour la réalisation de cette étude. L’approche méthodologique de type qualitatif est présentée de même que le paradigme interprétatif. L’approche méthodologique, les participantes et les participants à la recherche, le déroulement de la recherche et les instruments de collecte de données sont expliqués. Cette étude a fait appel à trois outils de collectes de données soit un entretien semi-dirigé avec les enseignantes et les enseignants, l’observation en classe et le questionnaire passé aux étudiantes et aux étudiants. Le quatrième chapitre comprend l’interprétation des résultats obtenus. Les résultats sont présentés à partir des données recueillies par les différents instruments de collecte. Ces derniers font ressortir que les étudiantes et les étudiants semblent plus motivés si les méthodes pédagogiques utilisées sont plus actives. La conclusion de cette recherche présente pour sa part un résumé de l’étude, les retombées de la recherche et différentes avenues qui pourraient être développées.
Resumo:
Les stages en milieux hospitaliers offrent une opportunité aux personnes étudiantes dans le domaine de la santé d’exécuter différentes méthodes d’évaluation et des méthodes de soins. Le Programme de soins infirmiers offre plusieurs de ces stages. Pour chaque stage, les personnes étudiantes elles doivent faire une liste des méthodes d’évaluation et des méthodes de soins effectuées dans un cahier. Elles doivent aussi y faire leur autoévaluation sur, par exemples, le déroulement de la méthode de soins, sur la relation avec le patient, ses difficultés... Le Programme de soins infirmiers comprenant 11 différents stages sur les 3 ans, il devient difficile d’avoir un suivi des acquis antérieurs et une bonne évaluation de la compétence. La création d’un portfolio sur les techniques effectuées lors des stages, permettra le suivi et l’évaluation des apprentissages relatifs à la compétence « utiliser des méthodes d’évaluation et des méthodes de soins » (Gouvernement du Québec, 2004) et ce, sur toute la durée du programme, soit trois ans, plutôt que sur la base d’un seul stage. Pour ce faire, un questionnaire en ligne a été complété par 46 personnes étudiantes et enseignantes dans le Programme de soins infirmiers du Cégep de Thetford. Suite à l’analyse, des focus groupes ont eu lieu pour valider ou clarifier certaines informations. L’analyse du questionnaire a permis de voir que la majorité des personnes répondantes est ouverte à essayer un portfolio électronique. De plus, des données pouvant figurer dans le portfolio et une grille des méthodes de soins ont été soulignées pour s’assurer de débuter le développement de ce dernier selon les besoins des personnes participantes. Comme il s’agit d’un nouvel outil pédagogique, leur implication dans le projet dès le début du processus pourrait permettre une meilleure collaboration lors de l’implantation du portfolio. Contrairement à la version papier, le portfolio électronique a l’avantage d’être accessible plus facilement et peut être utilisé en ligne par plus d’une personne à la fois. Il devient plus facile pour les personnes étudiantes et les enseignantes de commenter l’évolution de leurs compétences au fur et à mesure plutôt qu’à la fin du stage seulement. L’objectif étant d’avoir tous les éléments en main avant de commencer à travailler sur le développement du portfolio. En ayant déjà les attentes des personnes potentiellement utilisatrices, nous espérons diminuer le nombre de modifications ou d’ajustements à postériori. Nous espérons aussi que les personnes pouvant utiliser le portfolio y adhérent plus facilement s’il répond à leur besoins dès le départ. L’utilisation d’un portfolio sur la durée du programme pour l’évaluation des compétences longitudinales serait grandement aidant pour la progression et la réussite des personnes étudiantes. Pour le moment, il s’agit de créer le portfolio pour une compétence seulement. Toutefois, toutes les compétences évaluées pourraient éventuellement se retrouver dans cet outil et pourrait permettre aux personnes étudiantes d’avoir, en tout temps, le curriculum de leur formation, facilitant leur réflexion personnel et permettant de développer un jugement critique face à leur propre cheminement.
Resumo:
Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.
Resumo:
L’incertitude associée à une mesure a pour origine d’une part la variabilité environnementale et d’autre part l’ensemble du processus d’acquisition depuis le prélèvement jusqu’à la saisie de la donnée dans une base. L’estimation de l'ensemble de cette variabilité est un exercice complexe à réaliser dans le cadre d’un plan d’expérience. En revanche, les séries temporelles présentent la caractéristique d’intégrer toutes les variabilités et ainsi l’analyse de ces séries en terme de signal et bruit doit permettre de quantifier l’amplitude des incertitudes. Toutefois, les séries temporelles d’observation présentent un ensemble de caractéristiques les rendant difficiles à analyser. Les modèles linaires dynamiques constituent une approche adaptée à ces données particulières en faisant l’hypothèse de paramètres variables dans le temps. Ainsi, l’objet du présent travail consiste à estimer les variances liées au processus d’observation à l’aide de modèles linéaires dynamiques. Plus particulièrement, les mesures considérées sont la chlorophylle a et l’abondance phytoplanctonique aux lieux de surveillance REPHY « Arcachon-Bouée- 7 » et « Teychan bis ». Les résultats montrent que pour la chlorophylle a, la variabilité d’observation est responsable de l’ordre de 80 % de la variabilité totale. Pour l’abondance phytoplanctonique, elle est également de 80 % à « Arcachon-Bouée 7 » mais de l’ordre de 70 % à « Teychan bis ». Ainsi la part de « bruit » est liée au lieu et au paramètre considéré. Exprimée en pourcentage de la médiane de la chlorophylle a, la variance d’observation place les bornes de l’intervalle de confiance à 95 % des observations à des valeurs de l’ordre de -40 % et +120 % de la médiane, l’intervalle étant sous estimé car ne prenant pas en compte la variabilité structurelle. Pour l’abondance phytoplanctonique en log10 cell./L, les ordres de grandeur correspondant en pourcentage de la moyenne sont de ± 13.5 %. Pour les deux paramètres, ces valeurs sont compatibles avec l’expérience des experts. Ainsi, l’approche mise en oeuvre s’est avérée riche d’enseignements en matière d’incertitude de mesure et les nombreuses améliorations méthodologiques envisagées ouvrent des perspectives fécondes à tout point de vue.
Resumo:
Le yogourt grec, pouvant être obtenu par concentration du yogourt traditionnel par ultrafiltration (UF), connaît une croissance exceptionnelle en Amérique du Nord (+100% depuis 2012), et représente le premier segment de marché des produits laitiers fermentés en 2014. Cependant, d’un point de vue environnemental, la production du yogourt grec fait face à plusieurs enjeux et défis. Son élaboration nécessite trois fois plus de lait que le yogourt traditionnel de par l’étape de concentration nécessaire à l’atteinte de la concentration protéique cible. De plus, l’étape d’UF du yogourt génère un perméat acide (coproduit du yogourt) difficilement valorisable. Néanmoins, une alternative consistant à effectuer l’étape d’UF sur le lait avant sa fermentation permet d’éliminer la production du perméat acide, et génère un perméat de lactosérum doux déprotéiné dont les voies de valorisation sont davantage connues. Cette stratégie pourrait donc potentiellement réduire l’impact environnemental du procédé et générer des coproduits plus facilement valorisables, améliorant ainsi l’écoefficience du procédé de fabrication de yogourt grec. Dans cette optique, ce projet de recherche visait à comparer l’impact environnemental sur l’ensemble du cycle de vie de la production de yogourt grec selon deux procédés : en effectuant l’étape de concentration par UF avant l’étape de fermentation (UF LAIT), ou après (UF YOG) comme utilisé dans l’industrie. Ainsi, des expérimentations à échelle pilote ont été réalisées dans le but de comparer ces deux procédés. Le nouveau procédé (UF LAIT) permettrait une réduction des consommations d’énergie à l’étape de transformation étant donné que l’UF du lait avant fermentation permet de réduire la quantité de matière première à transformer d’environ un tiers. Cependant l’Analyse du Cycle de Vie (ACV) des deux procédés donne comme résultat un bilan environnemental défavorable à (UF LAIT) comparativement au procédé traditionnel (UF YOG) à cause d’une plus grande consommation de lait, qui est responsable d’environ 80% des impacts sur le cycle de vie du yogourt grec. Cet impact majeur pour UF LAIT l’est encore même lorsque dans une analyse de sensibilité le perméat doux de UF LAIT est alloué à l’étape d’UF contrairement au perméat acide de UF YOG qui est considéré comme un déchet non valorisable.
Resumo:
En raison du virage semi-autoritaire de l’État russe au début des années 2000, l’adaptation aux mesures contraignantes de l’État, qu’elle soit consciente ou inconsciente, constitue un aspect fondamental du quotidien des ONG de défense des droits de l’homme russes. Cependant, il s’agit d’une question jusqu’ici négligée dans la littérature scientifique. Ainsi, ce mémoire a pour objet d’examiner la démarche d’adaptation d’une ONG particulièrement active sur la scène russe, le Centre des droits de l’homme Memorial, entre 1999 et 2014. La recherche révèle que cette ONG emploie deux méthodes afin de s’adapter aux mesures étatiques et que celles-ci sont, en fait, des principes d’action adoptés par l’organisation au moment de sa création. Le premier principe d’action s’appuie sur la coopération et la solidarité développées par le Centre des droits de l’homme Memorial avec d’autres ONG russes, des ONG internationales et des organisations internationales. En partenariat avec ces organisations, le Centre des droits de l’homme Memorial élabore des activités de recherche et de plaidoyer et mène des missions de surveillance des droits de l’homme. Ce principe d’action renforce considérablement la capacité d’adaptation de l’ONG et favorise l’exercice de son rôle de contrepouvoir. Le second principe d’action se fonde sur la recherche de collaboration constructive avec l’État. Lors d’interactions ponctuelles avec les autorités, l’organisation exerce un rôle d’expert en matière de droits de l’homme et tente de réduire les entraves posées à la société civile. Outre sa propriété adaptative, cette méthode d’adaptation combine deux fonctions inhérentes à la société civile, soit la représentation des intérêts des citoyens auprès des instances étatiques et l’établissement d’un partenariat avec l’État dans le but d’amener ce dernier à adopter des pratiques démocratiques. Ce mémoire montre la capacité du Centre des droits de l’homme Memorial à se mouvoir d’une méthode d’adaptation à l’autre afin de maximiser son action.
Resumo:
Méthodologie: Équation de Bellman (Programmation dynamique) ; Méthode de la valeur optionnelle
Resumo:
Les élèves faibles en mathématiques utilisent des méthodes de travail inefficaces parce qu'ils n'en connaissent pas d'autres et parce qu'ils manquent de support et d'encadrement lorsqu'ils se retrouvent seuls pour étudier. Ces méthodes de travail inadéquates ont des conséquences néfastes sur leur performance en mathématiques: leur étude étant inefficace, ils persistent moins, arrivent moins bien préparés aux examens et développent des attitudes qui nuisent à leur apprentissage en mathématiques. Le but de cette recherche est de mesurer l'effet de l'enseignement de stratégies cognitives et métacognitives supporté par un encadrement de l'étude individuelle sur les attitudes des élèves faibles et sur leurs comportements lors de l'étude en mathématique. Cet effet devrait entraîner aussi une amélioration du rendement scolaire. L'expérimentation s'est déroulée à l'automne 1989 auprès d'élèves inscrits en mathématiques d'appoint au niveau collégial. On enseigna une méthode de travail plus adéquate, composée de stratégies cognitives et métacognitives variées et adaptées aux tâches demandées dans les devoirs de mathématiques. De plus, dans le groupe expérimental, cet enseignement fut soutenu par des consignes à l'intérieur des devoirs de mathématiques; ces consignes, de moins en moins nombreuses et explicites, devaient assurer que l'élève utilise vraiment les stratégies enseignées. Au terme de l'expérimentation, on a mesuré que les élèves du groupe expérimental n'utilisent pas plus les stratégies enseignées que les élèves du groupe contrôle. On a aussi mesuré la corrélation entre l'utilisation des stratégies enseignées d'une part, et les attitudes, les comportements lors de l'étude et le rendement scolaire d'autre part. On constate que la force de ce lien a tendance à augmenter avec le temps. Même si les résultats ne permettent pas de confirmer l'hypothèse principale, il apparaît que les élèves les plus faibles semblent avoir profité davantage de l'encadrement de leur étude personnelle. De plus, et cela pour l'ensemble des sujets, l'évolution de la corrélation entre l'utilisation des stratégies enseignées et diverses variables reliées à l'apprentissage des mathématiques suggère de poursuivre de telles interventions sur une plus longue période de temps.
Resumo:
L’échocardiographie et l’imagerie par résonance magnétique sont toutes deux des techniques non invasives utilisées en clinique afin de diagnostiquer ou faire le suivi de maladies cardiaques. La première mesure un délai entre l’émission et la réception d’ultrasons traversant le corps, tandis que l’autre mesure un signal électromagnétique généré par des protons d’hydrogène présents dans le corps humain. Les résultats des acquisitions de ces deux modalités d’imagerie sont fondamentalement différents, mais contiennent dans les deux cas de l’information sur les structures du coeur humain. La segmentation du ventricule gauche consiste à délimiter les parois internes du muscle cardiaque, le myocarde, afin d’en calculer différentes métriques cliniques utiles au diagnostic et au suivi de différentes maladies cardiaques, telle la quantité de sang qui circule à chaque battement de coeur. Suite à un infarctus ou autre condition, les performances ainsi que la forme du coeur en sont affectées. L’imagerie du ventricule gauche est utilisée afin d’aider les cardiologues à poser les bons diagnostics. Cependant, dessiner les tracés manuels du ventricule gauche requiert un temps non négligeable aux cardiologues experts, d’où l’intérêt pour une méthode de segmentation automatisée fiable et rapide. Ce mémoire porte sur la segmentation du ventricule gauche. La plupart des méthodes existantes sont spécifiques à une seule modalité d’imagerie. Celle proposée dans ce document permet de traiter rapidement des acquisitions provenant de deux modalités avec une précision de segmentation équivalente au tracé manuel d’un expert. Pour y parvenir, elle opère dans un espace anatomique, induisant ainsi une forme a priori implicite. L’algorithme de Graph Cut, combiné avec des stratégies telles les cartes probabilistes et les enveloppes convexes régionales, parvient à générer des résultats qui équivalent (ou qui, pour la majorité des cas, surpassent) l’état de l’art ii Sommaire au moment de la rédaction de ce mémoire. La performance de la méthode proposée, quant à l’état de l’art, a été démontrée lors d’un concours international. Elle est également validée exhaustivement via trois bases de données complètes en se comparant aux tracés manuels de deux experts et des tracés automatisés du logiciel Syngovia. Cette recherche est un projet collaboratif avec l’Université de Bourgogne, en France.
Resumo:
Les histoires de l’art et du design ont délaissé, au cours desquatre dernières décennies, l’étude canonique des objets, des artistes/concepteurs et des styles et se sont tournées vers des recherches plus interdisciplinaires. Nous soutenons néanmoins que les historiens et historiennes du design doivent continuer de pousser leur utilisation d’approches puisant dans la culturelle matérielle et la criticalité afin de combler des lacunes dans l’histoire du design et de développer des méthodes et des approches pertinentes pour son étude. Puisant dans notre expérience d’enseignement auprès de la génération des « milléniaux », qui sont portés vers un « design militant », nous offrons des exemples pédagogiques qui ont aidé nos étudiants et étudiantes à assimiler des histoires du design responsables, engagées et réflexives et à comprendre la complexité et la criticalité du design.
Resumo:
This Paper deals with the analysis of liquid limit of soils, an inferential parameter of universal acceptance. It has been undertaken primarily to re-examine one-point methods of determination of liquid limit water contents. It has been shown by basic characteristics of soils and associated physico-chemical factors that critical shear strengths at liquid limit water contents arise out of force field equilibrium and are independent of soil type. This leads to the formation of a scientific base for liquid limit determination by one-point methods, which hitherto was formulated purely on statistical analysis of data. Available methods (Norman, 1959; Karlsson, 1961; Clayton & Jukes, 1978) of one-point liquid limit determination have been critically re-examined. A simple one-point cone penetrometer method of computing liquid limit has been suggested and compared with other methods. Experimental data of Sherwood & Ryley (1970) have been employed for comparison of different cone penetration methods. Results indicate that, apart from mere statistical considerations, one-point methods have a strong scientific base on the uniqueness of modified flow line irrespective of soil type. Normalized flow line is obtained by normalization of water contents by liquid limit values thereby nullifying the effects of surface areas and associated physico-chemical factors that are otherwise reflected in different responses at macrolevel.Cet article traite de l'analyse de la limite de liquidité des sols, paramètre déductif universellement accepté. Cette analyse a été entreprise en premier lieu pour ré-examiner les méthodes à un point destinées à la détermination de la teneur en eau à la limite de liquidité. Il a été démontré par les caractéristiques fondamentales de sols et par des facteurs physico-chimiques associés que les résistances critiques à la rupture au cisaillement pour des teneurs en eau à la limite de liquidité résultent de l'équilibre des champs de forces et sont indépendantes du type de sol concerné. On peut donc constituer une base scientifique pour la détermination de la limite de liquidité par des méthodes à un point lesquelles, jusqu'alors, n'avaient été formulées que sur la base d'une analyse statistique des données. Les méthodes dont on dispose (Norman, 1959; Karlsson, 1961; Clayton & Jukes, 1978) pour la détermination de la limite de liquidité à un point font l'objet d'un ré-examen critique. Une simple méthode d'analyse à un point à l'aide d'un pénétromètre à cône pour le calcul de la limite de liquidité a été suggérée et comparée à d'autres méthodes. Les données expérimentales de Sherwood & Ryley (1970) ont été utilisées en vue de comparer différentes méthodes de pénétration par cône. En plus de considérations d'ordre purement statistque, les résultats montrent que les méthodes de détermination à un point constituent une base scientifique solide en raison du caractère unique de la ligne de courant modifiée, quel que soit le type de sol La ligne de courant normalisée est obtenue par la normalisation de la teneur en eau en faisant appel à des valeurs de limite de liquidité pour, de cette manière, annuler les effets des surfaces et des facteurs physico-chimiques associés qui sans cela se manifesteraient dans les différentes réponses au niveau macro.
Resumo:
Détermination de l'activité du calcium par la méthode d'effusion de Knudsen. Calcul, à partir de la distribution mesurée pour l'aluminium entre l'alliage et du fer pur, de l'activité de l'aluminium dans des alliages riches en calcium. Détermination en combinant les deux méthodes, des activités des deux composants et de l'énergie de Gibbs de mélange pour tout le domaine de composition. Calcul et analyse du facteur de structure concentration-concentration
Resumo:
The Cole-Hopf transformation has been generalized to generate a large class of nonlinear parabolic and hyperbolic equations which are exactly linearizable. These include model equations of exchange processes and turbulence. The methods to solve the corresponding linear equations have also been indicated.La transformation de Cole et de Hopf a été généralisée en vue d'engendrer une classe d'équations nonlinéaires paraboliques et hyperboliques qui peuvent être rendues linéaires de façon exacte. Elles comprennent des équations modèles de procédés d'échange et de turbulence. Les méthodes pour résoudre les équations linéaires correspondantes ont également été indiquées.
Resumo:
Suivant la pression partielle d'oxygène, la zircone peut être conducteur ionique ou électronique. Mise au point de méthodes de mesures de f.é.m. permettant de s'affranchir des sources d'erreur introduites par ces propriétés.
Resumo:
[EN]Conjugated linoleic acid (CLA) has many potential healthful properties, and beef is naturally enriched with CLA. Simple and rapid methods to measure total CLA were investigated to enable sorting of beef carcasses with potential enhanced economic value. Direct alcohol extraction combined with measuring absorbance was simple, accurate and perhaps the most viable method for rapid carcass sorting compared to methods using saponification or methylation followed by extraction.