963 resultados para applications des méthodes de crible


Relevância:

100.00% 100.00%

Publicador:

Resumo:

International audience

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse développe des méthodes bootstrap pour les modèles à facteurs qui sont couram- ment utilisés pour générer des prévisions depuis l'article pionnier de Stock et Watson (2002) sur les indices de diffusion. Ces modèles tolèrent l'inclusion d'un grand nombre de variables macroéconomiques et financières comme prédicteurs, une caractéristique utile pour inclure di- verses informations disponibles aux agents économiques. Ma thèse propose donc des outils éco- nométriques qui améliorent l'inférence dans les modèles à facteurs utilisant des facteurs latents extraits d'un large panel de prédicteurs observés. Il est subdivisé en trois chapitres complémen- taires dont les deux premiers en collaboration avec Sílvia Gonçalves et Benoit Perron. Dans le premier article, nous étudions comment les méthodes bootstrap peuvent être utilisées pour faire de l'inférence dans les modèles de prévision pour un horizon de h périodes dans le futur. Pour ce faire, il examine l'inférence bootstrap dans un contexte de régression augmentée de facteurs où les erreurs pourraient être autocorrélées. Il généralise les résultats de Gonçalves et Perron (2014) et propose puis justifie deux approches basées sur les résidus : le block wild bootstrap et le dependent wild bootstrap. Nos simulations montrent une amélioration des taux de couverture des intervalles de confiance des coefficients estimés en utilisant ces approches comparativement à la théorie asymptotique et au wild bootstrap en présence de corrélation sérielle dans les erreurs de régression. Le deuxième chapitre propose des méthodes bootstrap pour la construction des intervalles de prévision permettant de relâcher l'hypothèse de normalité des innovations. Nous y propo- sons des intervalles de prédiction bootstrap pour une observation h périodes dans le futur et sa moyenne conditionnelle. Nous supposons que ces prévisions sont faites en utilisant un ensemble de facteurs extraits d'un large panel de variables. Parce que nous traitons ces facteurs comme latents, nos prévisions dépendent à la fois des facteurs estimés et les coefficients de régres- sion estimés. Sous des conditions de régularité, Bai et Ng (2006) ont proposé la construction d'intervalles asymptotiques sous l'hypothèse de Gaussianité des innovations. Le bootstrap nous permet de relâcher cette hypothèse et de construire des intervalles de prédiction valides sous des hypothèses plus générales. En outre, même en supposant la Gaussianité, le bootstrap conduit à des intervalles plus précis dans les cas où la dimension transversale est relativement faible car il prend en considération le biais de l'estimateur des moindres carrés ordinaires comme le montre une étude récente de Gonçalves et Perron (2014). Dans le troisième chapitre, nous suggérons des procédures de sélection convergentes pour les regressions augmentées de facteurs en échantillons finis. Nous démontrons premièrement que la méthode de validation croisée usuelle est non-convergente mais que sa généralisation, la validation croisée «leave-d-out» sélectionne le plus petit ensemble de facteurs estimés pour l'espace généré par les vraies facteurs. Le deuxième critère dont nous montrons également la validité généralise l'approximation bootstrap de Shao (1996) pour les regressions augmentées de facteurs. Les simulations montrent une amélioration de la probabilité de sélectionner par- cimonieusement les facteurs estimés comparativement aux méthodes de sélection disponibles. L'application empirique revisite la relation entre les facteurs macroéconomiques et financiers, et l'excès de rendement sur le marché boursier américain. Parmi les facteurs estimés à partir d'un large panel de données macroéconomiques et financières des États Unis, les facteurs fortement correlés aux écarts de taux d'intérêt et les facteurs de Fama-French ont un bon pouvoir prédictif pour les excès de rendement.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Travail dirigé présenté en vue de l'obtention du grade de maîtrise en sciences infirmières, option expertise-conseil

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La luminescence optique (OSL) a été mesurée sur dix-sept fragments de poterie collectés à Mailhot-Curran (BgFn-2), un site archéologique du Sylvicole supérieur tardif localisé dans le sud-ouest du Québec. Le but principal de ce projet était de dater ce site qui est considéré jusqu’à maintenant comme le plus récent site préhistorique de la concentration de Saint-Anicet, afin de poser un jalon dans la chronologie des sites de cette région. L’OSL a été utilisée conjointement à la datation par radiocarbone (14C) et la sériation du matériel archéologique. L’hypothèse archéologique propose que le village aurait été occupé pendant les années 1518 à 1530 de notre ère (Chapdelaine 2015a). Les résultats que nous proposons dans ce présent mémoire appuient cette proposition. Nous avons obtenu un âge de 490 ± 49 ans (année de référence : 2013), correspondant à l’année 1523 de notre ère avec une probabilité d’occupation du site Mailhot-Curran entre les années 1474 et 1572. Le programme de datation par luminescence optique a été réalisé sur des fragments de poterie domestique composés d’argile de la Mer de Champlain datant de la période du Quaternaire récent. La datation par stimulation infrarouge (IRSL) a été préférentiellement utilisée sur des aliquotes de grains fins polyminéraliques. Pour la détermination des doses équivalentes, un protocole SAR (Murray et Wintle 2000) modifié pour la mesure des feldspaths et incluant un lessivage optique a été utilisé (Lamothe et al. 2004). Les valeurs g ont été mesurées en suivant le protocole proposé par Auclair et al. (2003). La correction de Huntley et Lamothe (2001) a été utilisée afin de corriger les doses équivalentes mesurées pour la décroissance anormale du signal feldspathique. Les doses annuelles ont pour leur part été déterminées par des mesures réalisées in situ et en laboratoire. Les résultats que nous présentons dans ce mémoire sont affectés par une dispersion assez large. Cette variabilité a été prise en compte par des méthodes statistiques pour la détermination de l’âge probable de l’occupation du site Mailhot-Curran.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Travail dirigé présenté en vue de l'obtention du grade de maîtrise en sciences infirmières, option expertise-conseil

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette étude cherche à déterminer quel est le meilleur profil pour un enseignant et un entraîneur. Il s'agit de vérifier les différences et les similitudes par rapport aux stratégies d'intervention et les méthodes, au niveau humain, technique et idéologique. Nous avons fait appel à des méthodes quantitatives d'observation des données - des questionnaires que nous avons traités par le biais du logiciel IBM SPSS. Compte tenu des données obtenues à partir de 1007 étudiants, des divergences peuvent être identifiées au niveau de ces trois dimensions. Si l'on s'en tient tout d'abord à l'enseignant compétent, il nous faut préciser que ce dernier se doit de reúnir des qualités telles que la compréhension et la valorisation des élèves. Il convient dès lors de mobiliser des stratégies créatives, ludiques et efficaces afin de créer un climat de travail agréable. Quant à l'entraîneur, il se doit d'adopter une attitude beaucoup plus rigoureuse. Tous deux se doivent de maîtriser les contenus, de s'affirmer en tant que leaders. Dans ce cadre, il s'agit d'accompagner la formation de l'étudiant / athlète et de prêter attention à la façon dont on traite ces derniers.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La luminescence optique (OSL) a été mesurée sur dix-sept fragments de poterie collectés à Mailhot-Curran (BgFn-2), un site archéologique du Sylvicole supérieur tardif localisé dans le sud-ouest du Québec. Le but principal de ce projet était de dater ce site qui est considéré jusqu’à maintenant comme le plus récent site préhistorique de la concentration de Saint-Anicet, afin de poser un jalon dans la chronologie des sites de cette région. L’OSL a été utilisée conjointement à la datation par radiocarbone (14C) et la sériation du matériel archéologique. L’hypothèse archéologique propose que le village aurait été occupé pendant les années 1518 à 1530 de notre ère (Chapdelaine 2015a). Les résultats que nous proposons dans ce présent mémoire appuient cette proposition. Nous avons obtenu un âge de 490 ± 49 ans (année de référence : 2013), correspondant à l’année 1523 de notre ère avec une probabilité d’occupation du site Mailhot-Curran entre les années 1474 et 1572. Le programme de datation par luminescence optique a été réalisé sur des fragments de poterie domestique composés d’argile de la Mer de Champlain datant de la période du Quaternaire récent. La datation par stimulation infrarouge (IRSL) a été préférentiellement utilisée sur des aliquotes de grains fins polyminéraliques. Pour la détermination des doses équivalentes, un protocole SAR (Murray et Wintle 2000) modifié pour la mesure des feldspaths et incluant un lessivage optique a été utilisé (Lamothe et al. 2004). Les valeurs g ont été mesurées en suivant le protocole proposé par Auclair et al. (2003). La correction de Huntley et Lamothe (2001) a été utilisée afin de corriger les doses équivalentes mesurées pour la décroissance anormale du signal feldspathique. Les doses annuelles ont pour leur part été déterminées par des mesures réalisées in situ et en laboratoire. Les résultats que nous présentons dans ce mémoire sont affectés par une dispersion assez large. Cette variabilité a été prise en compte par des méthodes statistiques pour la détermination de l’âge probable de l’occupation du site Mailhot-Curran.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette recherche porte sur le thème de l’évaluation de programmes dans le réseau collégial et les défis qu’elle soulève en regard de son utilité. Plus précisément, nous abordons les difficultés posées par l’évaluation des programmes au Cégep de Saint-Jérôme et proposons une nouvelle approche permettant d’augmenter l’utilité de ce processus pour le personnel enseignant. Notre problématique s’articule principalement autour du fait que l’évaluation de programmes a été vécue par plusieurs membres du personnel enseignant comme une opération administrative, voire comme une opération de reddition de comptes. En lien avec l’adoption en 2008 d’une nouvelle politique institutionnelle d’évaluation des programmes (PIEP) au Cégep de Saint-Jérôme, nous montrons les limites du processus et des instruments d’évaluation de programmes associés. Nous nous concentrons ensuite sur les stratégies d’évaluation des apprentissages puisqu’elles constituent un aspect essentiel de l’évaluation des programmes et un levier important de changement en vue d’améliorer la qualité de leur mise en oeuvre. Notre question de recherche est la suivante: comment peut-on augmenter l’utilité de l’évaluation des programmes pour les enseignantes et les enseignants du Cégep de Saint-Jérôme? Notre cadre de référence dresse une présentation générale de l’évaluation de programmes, mais repose sur une approche de l’évaluation axée sur l’utilisation. Celle-ci s’avérait tout à fait pertinente compte tenu de notre question de recherche. La recension des écrits nous a permis d’élaborer un cadre d’intervention, à partir des travaux de Michael Quinn Patton, Jean A. King et Hallie Preskill. Notre cadre d’intervention circonscrit une démarche d’évaluation de programmes qui repose sur quatre critères d’utilité: le facteur personnel, l’utilisation attendue, la participation active et le renforcement des capacités en évaluation. De plus, il confère à la conseillère pédagogique, qui est aussi la chercheure, une posture d’accompagnement, définie à travers quatre rôles: consultante, animatrice, négociatrice et formatrice. Cette recherche poursuivait trois objectifs: utiliser concrètement notre cadre d’intervention dans l’évaluation d’un programme au Cégep de Saint-Jérôme, accompagner le personnel enseignant suivant un scénario découlant de notre cadre d’intervention et valider notre cadre d’intervention. Nos objectifs de recherche nécessitaient une méthodologie appropriée. Celle-ci repose sur une approche méthodologique qualitative, une posture épistémologique critique et un essai de type recherche intervention. Neuf participantes et participants ont pris part à la démarche d’évaluation de programmes que nous leur avons proposée. Les données ont été recueillies grâce à la technique de l’observation participante et la triangulation des méthodes de collecte de données a été utilisée afin d’assurer la rigueur de nos travaux. L’analyse de contenu nous a permis d’étudier les données recueillies au moyen d’une grille d’analyse élaborée à partir de catégories émergentes et d’autres issues de notre cadre de référence. La dimension éthique a également été au coeur de la collecte et de l’analyse de nos données. Nous avons d’ailleurs pris plusieurs précautions à cet effet. Les données obtenues nous ont permis de répondre à notre question de recherche en démontrant en quoi la démarche d’évaluation de programmes réalisée par nos participantes et nos participants a contribué à augmenter l’utilité de celle-ci pour le personnel enseignant, telle que définie dans notre cadre de référence. Cette démarche a permis au personnel enseignant d’augmenter sa participation et son intérêt à l’égard de l’évaluation de programmes ainsi que d’utiliser concrètement à court terme les résultats obtenus pour améliorer ses pratiques d’évaluation des apprentissages. Deux niveaux de participation ont été expérimentés. Dans le niveau le plus élevé, une partie des participantes et des participants a été regroupée au sein d’un groupe de travail, lequel a contribué à l’élaboration d’une grille d’analyse portant sur les stratégies d’évaluation des apprentissages. Cette grille a par la suite été expérimentée par l’ensemble des participantes et participants sur un échantillon de onze cours du programme pour lesquels elles et ils ont procédé à l’autoévaluation de leur propre matériel (copies d’examens, copies de grille d’évaluation, etc.). Un rapport d’évaluation a été produit à partir des grilles d’analyse complétées. Les données obtenues nous ont également permis de valider notre cadre d’intervention et de dégager plusieurs éléments facilitant la transférabilité des résultats obtenus. Nous pensons d’ailleurs que celui-ci constitue une avenue pertinente et utile pour le réseau collégial puisqu’il favorise l’utilisation des résultats à court terme par le personnel enseignant, développe la pensée évaluative du personnel enseignant et parce qu’il augmente la qualité et l’efficacité du processus. De plus, le modèle d’accompagnement du personnel enseignant que nous avons élaboré et expérimenté contribue à dépasser une approche basée sur la reddition de comptes ou la gestion administrative des programmes. À tout le moins, il s’agit d’une piste intéressante pour les conseillères et les conseillers pédagogiques qui ont à intervenir comme nous dans ce dossier.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans un contexte de pression toujours plus grande sur les ressources naturelles, une gestion rationnelle des ressources hydriques s'impose. La principale difficulté de leur gestion provient du caractère aléatoire des apports en eau dans le système. Le sujet de cette recherche consiste à développer des méthodes d'optimisation stochastique capable de bien représenter les processus aléatoires. Le cas de Kemano, située en Colombie-Britannique (Canada), illustre les travaux de recherche. L'importante accumulation de neige sur les bassins versants engendre une hydrologie complexe, rendant la gestion du système délicate. La programmation dynamique stochastique est la méthode la plus utilisée pour déterminer la politique de gestion des réservoirs. Mais, son étude fait ressortir que cette méthode ne peut gérer que des modèles simplifiés des processus stochastiques, ne rendant pas compte des complexes corrélations spatio-temporelles des apports hydriques. Ainsi, la politique obtenue peut être de mauvaise qualité. Cette méthode est comparée avec la recherche directe de politique qui n'utilise pas de modèles pour représenter les processus stochastiques, mais évalue la politique sur des scénarios d'apports. Ainsi la recherche directe de politique se révèle globalement plus performante en prenant bien en considération la complexité des apports, mais est limitée par la forme prédéterminée de la politique. De plus, l'optimisation des paramètres en utilisant un algorithme évolutionnaire s'avère lente. La conception d'un algorithme de descente par gradient, combinée à une architecture "acteur-critique" appropriée, permet de réduire notablement le temps d'optimisation. Combinée à une fonction plus complexe employée pour la paramétrisation de la politique de gestion, la méthode permet d'obtenir une politique de qualité significativement supérieure à celle obtenue avec la programmation dynamique stochastique. Les travaux effectués dans le cadre de cette thèse ouvrent la voie à une application opérationnelle de la méthode de recherche directe de politique. L'évaluation en simulation devrait être appréciée des opérateurs en permettant une bonne représentation du système et des apports.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’échocardiographie et l’imagerie par résonance magnétique sont toutes deux des techniques non invasives utilisées en clinique afin de diagnostiquer ou faire le suivi de maladies cardiaques. La première mesure un délai entre l’émission et la réception d’ultrasons traversant le corps, tandis que l’autre mesure un signal électromagnétique généré par des protons d’hydrogène présents dans le corps humain. Les résultats des acquisitions de ces deux modalités d’imagerie sont fondamentalement différents, mais contiennent dans les deux cas de l’information sur les structures du coeur humain. La segmentation du ventricule gauche consiste à délimiter les parois internes du muscle cardiaque, le myocarde, afin d’en calculer différentes métriques cliniques utiles au diagnostic et au suivi de différentes maladies cardiaques, telle la quantité de sang qui circule à chaque battement de coeur. Suite à un infarctus ou autre condition, les performances ainsi que la forme du coeur en sont affectées. L’imagerie du ventricule gauche est utilisée afin d’aider les cardiologues à poser les bons diagnostics. Cependant, dessiner les tracés manuels du ventricule gauche requiert un temps non négligeable aux cardiologues experts, d’où l’intérêt pour une méthode de segmentation automatisée fiable et rapide. Ce mémoire porte sur la segmentation du ventricule gauche. La plupart des méthodes existantes sont spécifiques à une seule modalité d’imagerie. Celle proposée dans ce document permet de traiter rapidement des acquisitions provenant de deux modalités avec une précision de segmentation équivalente au tracé manuel d’un expert. Pour y parvenir, elle opère dans un espace anatomique, induisant ainsi une forme a priori implicite. L’algorithme de Graph Cut, combiné avec des stratégies telles les cartes probabilistes et les enveloppes convexes régionales, parvient à générer des résultats qui équivalent (ou qui, pour la majorité des cas, surpassent) l’état de l’art ii Sommaire au moment de la rédaction de ce mémoire. La performance de la méthode proposée, quant à l’état de l’art, a été démontrée lors d’un concours international. Elle est également validée exhaustivement via trois bases de données complètes en se comparant aux tracés manuels de deux experts et des tracés automatisés du logiciel Syngovia. Cette recherche est un projet collaboratif avec l’Université de Bourgogne, en France.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette recherche-intervention a pour but de découvrir l'impact de la mise en œuvre d'un enseignement centré sur l'organisation des connaissances chez des élèves du troisième cycle du primaire. L'expérience est réalisée avec un groupe hétérogène de première année du troisième cycle du primaire. La question principale de recherche est la suivante : comment mettre en oeuvre un enseignement centré sur l'organisation des connaissances chez des élèves du troisième cycle du primaire? De cette question découlent trois objectifs. Le premier permettant d'identifier les étapes à respecter pour vivre un enseignement centré sur l'organisation des connaissances, le second pour cerner les dimensions de l'élève susceptibles d'être éveillées par un enseignement centré sur l'organisation des connaissances et le dernier pour préciser l'impact général d'un enseignement centré sur l'organisation des connaissances. Dans le premier chapitre, la problématique du manque d'enseignement de l'organisation des connaissances dans un renouveau pédagogique qui prône l'enseignement des compétences est dépeinte. Le deuxième chapitre présene les concepts-clés de cette recherche-intervention. La définition du traitement de l'information est établie en l'illustrant avec le modèle de Sousa (2002). L'organisation des connaissances est aussi définie en présentant les théories de Buzan et Buzan (1995) et de Margulies (2005). Enfin, le rôle de l'enseignant est défini par le biais de l'enseignement stratégique selon Tardif (1992) et de l'enseignement explicite selon Boyer (1993). Le troisième chapitre aborde le cadre méthodologique et l'explication des huit étapes de la présente recherche ainsi que leur contenu. Le quatrième chapitre analyse l'intervention vécue en faisant état des six premières étapes de la recherche. Les données sont présentées en décrivant les activités vécues en ordre chronologique lors de l'intervention. Le cinquième chapitre présente une description des changements réalisés et des connaissances acquises lors du projet ainsi qu'une critique de l'intervention et des recommandations en vue de répondre à la question de recherche. En effet, un enseignement centré sur l'organisation des connaissances a un impact positif sur les méthodes de travail des élèves d'un groupe. Autant les élèves plus doués que les élèves plus faibles y trouvent leur compte. À la suite de cette recherche, il apparaît pertinent de mettre en oeuvre un enseignement centré sur l'organisation des connaissances auprès d'élèves ayant des besoins particuliers ou auprès d'élèves plus jeunes. Ainsi, les élèves ayant des troubles envahissants du développement pourraient bénéficier de cet enseignement pour organiser leur pensée et leurs idées. Enfin, les élèves du premier et du deuxième cycle pourraient aussi apprendre plus tôt à organiser leurs connaissances. Ils deviendraient plus à l'aise dans l'utilisation de la technique des cartes d'organisation d'idées lorsqu'ils seraient au troisième cycle du primaire. Finalement, un enseignement centré sur l'organisation des connaissances demande une certaine adaptation des méthodes pédagogiques pour les enseignants, mais les effets sont bénéfiques pour tous. Il suffit de prendre le temps de s'approprier la démarche, assez simple en-soi, pour que tous en profitent.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les histoires de l’art et du design ont délaissé, au cours desquatre dernières décennies, l’étude canonique des objets, des artistes/concepteurs et des styles et se sont tournées vers des recherches plus interdisciplinaires. Nous soutenons néanmoins que les historiens et historiennes du design doivent continuer de pousser leur utilisation d’approches puisant dans la culturelle matérielle et la criticalité afin de combler des lacunes dans l’histoire du design et de développer des méthodes et des approches pertinentes pour son étude. Puisant dans notre expérience d’enseignement auprès de la génération des « milléniaux », qui sont portés vers un « design militant », nous offrons des exemples pédagogiques qui ont aidé nos étudiants et étudiantes à assimiler des histoires du design responsables, engagées et réflexives et à comprendre la complexité et la criticalité du design.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This Paper deals with the analysis of liquid limit of soils, an inferential parameter of universal acceptance. It has been undertaken primarily to re-examine one-point methods of determination of liquid limit water contents. It has been shown by basic characteristics of soils and associated physico-chemical factors that critical shear strengths at liquid limit water contents arise out of force field equilibrium and are independent of soil type. This leads to the formation of a scientific base for liquid limit determination by one-point methods, which hitherto was formulated purely on statistical analysis of data. Available methods (Norman, 1959; Karlsson, 1961; Clayton & Jukes, 1978) of one-point liquid limit determination have been critically re-examined. A simple one-point cone penetrometer method of computing liquid limit has been suggested and compared with other methods. Experimental data of Sherwood & Ryley (1970) have been employed for comparison of different cone penetration methods. Results indicate that, apart from mere statistical considerations, one-point methods have a strong scientific base on the uniqueness of modified flow line irrespective of soil type. Normalized flow line is obtained by normalization of water contents by liquid limit values thereby nullifying the effects of surface areas and associated physico-chemical factors that are otherwise reflected in different responses at macrolevel.Cet article traite de l'analyse de la limite de liquidité des sols, paramètre déductif universellement accepté. Cette analyse a été entreprise en premier lieu pour ré-examiner les méthodes à un point destinées à la détermination de la teneur en eau à la limite de liquidité. Il a été démontré par les caractéristiques fondamentales de sols et par des facteurs physico-chimiques associés que les résistances critiques à la rupture au cisaillement pour des teneurs en eau à la limite de liquidité résultent de l'équilibre des champs de forces et sont indépendantes du type de sol concerné. On peut donc constituer une base scientifique pour la détermination de la limite de liquidité par des méthodes à un point lesquelles, jusqu'alors, n'avaient été formulées que sur la base d'une analyse statistique des données. Les méthodes dont on dispose (Norman, 1959; Karlsson, 1961; Clayton & Jukes, 1978) pour la détermination de la limite de liquidité à un point font l'objet d'un ré-examen critique. Une simple méthode d'analyse à un point à l'aide d'un pénétromètre à cône pour le calcul de la limite de liquidité a été suggérée et comparée à d'autres méthodes. Les données expérimentales de Sherwood & Ryley (1970) ont été utilisées en vue de comparer différentes méthodes de pénétration par cône. En plus de considérations d'ordre purement statistque, les résultats montrent que les méthodes de détermination à un point constituent une base scientifique solide en raison du caractère unique de la ligne de courant modifiée, quel que soit le type de sol La ligne de courant normalisée est obtenue par la normalisation de la teneur en eau en faisant appel à des valeurs de limite de liquidité pour, de cette manière, annuler les effets des surfaces et des facteurs physico-chimiques associés qui sans cela se manifesteraient dans les différentes réponses au niveau macro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

[EN]Conjugated linoleic acid (CLA) has many potential healthful properties, and beef is naturally enriched with CLA. Simple and rapid methods to measure total CLA were investigated to enable sorting of beef carcasses with potential enhanced economic value. Direct alcohol extraction combined with measuring absorbance was simple, accurate and perhaps the most viable method for rapid carcass sorting compared to methods using saponification or methylation followed by extraction.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

[EUS] Lan honen helburua ohiko metodoen zein metodo ez-zuzenekoen bitartez (belaunerainoko altuera antropometroarekin eta zinta metrikoarekin) pertsona helduez osaturiko talde baten altuera zehaztea izan da. Ez-zuzeneko altuera zehaztapenek komunztadura altua erakutsi zuten benetako altuerarekin. Zinta metrikoaren bitartez neurturiko belaunerainoko altuerak komunztadura altuagoa erakutsi zuen benetako altuerarekin, antropometroaren bitartez definiturikoa baino.