330 resultados para Classifieur linéaire


Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nouvelles recommandations dans la production de canneberges suggèrent l’utilisation de l’irrigation souterraine, une méthode susceptible d’augmenter l’accumulation de sels dans le sol. Par ailleurs, le prélèvement d’eaux souterraines saumâtres dans des nappes résiduelles de la mer Champlain sous les dépôts d’argile dans la vallée du St-Laurent ou résultant du rehaussement des niveaux marins dans les zones côtières dû aux changements climatiques pourrait affecter la productivité des canneberges cultivées dans l’Est du Canada. Puisque très peu de données concernant la tolérance de la canneberge à la salinité sont disponibles, cette étude a été menée afin de déterminer si ces nouvelles recommandations pourraient éventuellement affecter le rendement de la plante. Dans une serre, des plants de canneberge ont été soumis à huit traitements obtenus à partir de deux méthodes d’irrigation (aspersion et irrigation souterraine) et quatre niveaux de salinité créés par des quantités croissantes de K2SO4 (125, 2 500, 5 000 et 7 500 kg K2O ha-1). L’irrigation souterraine a entraîné des conditions édaphiques plus sèches. Cependant, aucune différence significative de la conductivité électrique de la solution du sol (CEss) n’a été observée entre les deux types d’irrigation. Pourtant, les taux de photosynthèse et la nouaison étaient significativement plus faibles chez les plantes sous traitement d’irrigation souterraine. Les paramètres de croissance ont diminué de façon linéaire avec l’augmentation de la salinité alors que les paramètres de rendement ont connu une diminution quadratique avec l’élévation de la CEss. Une CEss moyenne de 3,2 dS m-1 pendant la floraison a provoqué une chute de 22% du taux relatif de photosynthèse et une diminution de 56% du rendement par rapport au témoin. Le suivi de la conductivité électrique du sol lors de l’implantation d’une régie d’irrigation souterraine de déficit en production de canneberges serait donc recommandable afin d’éviter le stress salin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La plupart des processus cellulaires et biologiques reposent, à un certain niveau, sur des interactions protéine-protéine (IPP). Leur manipulation avec des composés chimiques démontre un grand potentiel pour la découverte de nouveaux médicaments. Malgré la demande toujours croissante en molécules capables d’interrompre sélectivement des IPP, le développement d’inhibiteurs d’IPP est fortement limité par la grande taille de la surface d’interaction. En considérant la nature de cette surface, la capacité à mimer des structures secondaires de protéines est très importante pour lier une protéine et inhiber une IPP. Avec leurs grandes capacités peptidomimétiques et leurs propriétés pharmacologiques intéressan-tes, les peptides cycliques sont des prototypes moléculaires de choix pour découvrir des ligands de protéines et développer de nouveaux inhibiteurs d’IPP. Afin d’exploiter pleinement la grande diversité accessible avec les peptides cycliques, l’approche combinatoire «one-bead-one-compound» (OBOC) est l’approche la plus accessible et puissante. Cependant, l’utilisation des peptides cycliques dans les chimiothèques OBOC est limitée par les difficultés à séquencer les composés actifs après le criblage. Sans amine libre en N-terminal, la dégradation d’Edman et la spectrométrie de masse en tandem (MS/MS) ne peuvent pas être utilisées. À cet égard, nous avons développé de nouvelles approches par ouverture de cycle pour préparer et décoder des chimiothèques OBOC de peptides cycliques. Notre stratégie était d’introduire un résidu sensible dans le macrocycle et comme ancrage pour permettre la linéarisation des peptides et leur largage des billes pour le séquençage par MS/MS. Tout d’abord, des résidus sensibles aux nucléophiles, aux ultraviolets ou au bromure de cyanogène ont été introduits dans un peptide cyclique et leurs rendements de clivage évalués. Ensuite, les résidus les plus prometteurs ont été utilisés dans la conception et le développement d’approches en tandem ouverture de cycle / clivage pour le décodage de chimiothèques OBOC de peptides cycliques. Dans la première approche, une méthionine a été introduite dans le macrocycle comme ancrage pour simultanément permettre l’ouverture du cycle et le clivage des billes par traitement au bromure de cyanogène. Dans la seconde approche, un résidu photosensible a été utilisé dans le macrocycle comme ancrage pour permettre l’ouverture du cycle et le clivage suite à une irradiation aux ultraviolets. Le peptide linéaire généré par ces approches peut alors être efficacement séquencé par MS/MS. Enfin, une chimiothèque OBOC a été préparée et criblée la protéine HIV-1 Nef pour identifier des ligands sélectifs. Le développement de ces méthodologies permttra l’utilisation de composés macrocycliques dans les chimiothèques OBOC et constitue une contribution importante en chimie médicinale pour la découverte de ligands de protéines et le développement d’inhibiteurs d’IPP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif de cette étude est d'examiner la structure factorielle et la consistance interne de la TAS-20 sur un échantillon d'adolescents (n = 264), ainsi que de décrire la distribution des caractéristiques alexithymiques dans cet échantillon. La structure à trois facteurs de la TAS-20 a été confirmée par notre analyse factorielle confirmatoire. La consistance interne, mesurée à l'aide d'alpha de Cronbach, est acceptable pour le premier facteur (difficulté à identifier les sentiments (DIF)), bonne pour le second (difficulté à verbaliser les sentiments (DDF)), mais en revanche, faible pour le troisième facteur (pensées orientées vers l'extérieur (EOT)). Les résultats d'une Anova mettent en évidence une tendance linéaire indiquant que plus l'âge augmente plus le niveau d'alexithymie (score total TAS-20), la difficulté à identifier les sentiments et les pensées orientées vers l'extérieur diminuent. En ce qui concerne la prévalence de l'alexithymie, on remarque en effet que 38,5 % des adolescents de moins de 16 ans sont considérés comme alexithymiques, contre 30,1 % des 16-17 ans et 22 % des plus de 17 ans. Notre étude indique donc que la TAS-20 est un instrument adéquat pour évaluer l'alexithymie à l'adolescence, tout en suggérant quelques précautions étant donné l'aspect développemental de cette période.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La nouvelle organisation sociale du travail du début du 21e siècle pose une série de questions et lance de nombreux défis aux spécialistes de l'accompagnement en orientation professionnelle. Compte tenu de la mondialisation du conseil en orientation, c'est dans un cadre international que nous avons décidé d'aborder ces questions, puis de formuler des réponses potentiellement innovantes. Cette approche permet d'éviter les difficultés que soulève la création de modèles et de méthodes dans un pays donné en tentant ensuite de les exporter dans d'autres, où ils doivent être adaptés pour être utilisés. Cet article présente le premier résultat tangible de cette collaboration : un modèle et des méthodes d'accompagnement des personnes. Le modèle « Construire sa vie », destiné à des interventions d'accompagnement en orientation se fonde sur cinq présupposés concernant les personnes et leur vie professionnelle : des possibilités liées aux contextes, des processus dynamiques, une progression non linéaire, des perspectives multiples et des configurations individuelles. En partant de ces présupposés, nous avons bâti un modèle en contexte, se réclamant de l'épistémologie du constructionnisme social, reconnaissant en particulier que les connaissances et l'identité d'un individu sont le produit d'interactions sociales et que le sens est co-construit, via la médiation du discours. Le cadre général « construire sa vie » s'appuie sur les théories de la construction de soi (Guichard, 2005) et de la construction des parcours professionnels (Savickas, 2005), qui décrivent les conduites d'orientation et leurs développements. Ce cadre concerne toute la vie, il est holiste, tient compte des contextes et est préventif.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Combining theories on social trust and social capital with sociopsychological approaches and applying contextual analyses to Swiss and European survey data, this thesis examines under what circumstances generalised trust, often understood as public good, may not benefit everyone, but instead amplify inequality. The empirical investigation focuses on the Swiss context, but considers different scales of analysis. Two broader questions are addressed. First, might generalised trust imply more or less narrow visions of community and solidarity in different contexts? Applying nonlinear principal component analysis to aggregate indicators, Study 1 explores inclusive and exclusive types of social capital in Europe, measured as regional configurations of generalised trust, civic participation and attitudes towards diversity. Study 2 employs multilevel models to examine how generalised trust, as an individual predisposition and an aggregate climate at the level of Swiss cantons, is linked to equality- directed collective action intention versus radical right support. Second, might high-trust climates impact negatively on disadvantaged members of society, precisely because they reflect a normative discourse of social harmony that impedes recognition of inequality? Study 3 compares how climates of generalised trust at the level of Swiss micro-regions and subjective perceptions of neighbourhood cohesion moderate the negative relationship between socio-economic disadvantage and mental health. Overall, demonstrating beneficial, as well as counterintuitive effects of social trust, this thesis proposes a critical and contextualised approach to the sources and dynamics of social cohesion in democratic societies. -- Cette thèse combine des théories sur le capital social et la confiance sociale avec des approches psychosociales et s'appuie sur des analyses contextuelles de données d'enquêtes suisses et européennes, afin d'étudier dans quelles circonstances la confiance généralisée, souvent présentée comme un bien public, pourrait ne pas bénéficier à tout le monde, mais amplifier les inégalités. Les études empiriques, centrées sur le contexte suisse, intègrent différentes échelles d'analyse et investiguent deux questions principales. Premièrement, la confiance généralisée implique-t-elle des visions plus ou moins restrictives de la communauté et de la solidarité selon le contexte? Dans l'étude 1, une analyse à composantes principales non-linéaire sur des indicateurs agrégés permet d'explorer des types de capital social inclusif et exclusif en Europe, mesurés par des configurations régionales de confiance généralisée, de participation civique, et d'attitudes envers la diversité. L'étude 2 utilise des modèles multiniveaux afin d'analyser comment la confiance généralisée, en tant que prédisposition individuelle et climat agrégé au niveau des cantons suisses, est associée à l'intention de participer à des actions collectives en faveur de l'égalité ou, au contraire, à l'intention de voter pour la droite radicale. Deuxièmement, des climats de haute confiance peuvent-ils avoir un impact négatif sur des membres désavantagés de la société, précisément parce qu'ils reflètent un discours normatif d'harmonie sociale qui empêche la reconnaissance des inégalités? L'étude 3 analyse comment des climats de confiance au niveau des micro-régions suisses et la perception subjective de faire partie d'un environnement cohésif modèrent la relation négative entre le désavantage socio-économique et la santé mentale. En démontrant des effets bénéfiques mais aussi contre-intuitifs de la confiance sociale, cette thèse propose une approche critique et contextualisée des sources et dynamiques de la cohésion sociale dans les sociétés démocratiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the context of multivariate linear regression (MLR) models, it is well known that commonly employed asymptotic test criteria are seriously biased towards overrejection. In this paper, we propose a general method for constructing exact tests of possibly nonlinear hypotheses on the coefficients of MLR systems. For the case of uniform linear hypotheses, we present exact distributional invariance results concerning several standard test criteria. These include Wilks' likelihood ratio (LR) criterion as well as trace and maximum root criteria. The normality assumption is not necessary for most of the results to hold. Implications for inference are two-fold. First, invariance to nuisance parameters entails that the technique of Monte Carlo tests can be applied on all these statistics to obtain exact tests of uniform linear hypotheses. Second, the invariance property of the latter statistic is exploited to derive general nuisance-parameter-free bounds on the distribution of the LR statistic for arbitrary hypotheses. Even though it may be difficult to compute these bounds analytically, they can easily be simulated, hence yielding exact bounds Monte Carlo tests. Illustrative simulation experiments show that the bounds are sufficiently tight to provide conclusive results with a high probability. Our findings illustrate the value of the bounds as a tool to be used in conjunction with more traditional simulation-based test methods (e.g., the parametric bootstrap) which may be applied when the bounds are not conclusive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper proposes finite-sample procedures for testing the SURE specification in multi-equation regression models, i.e. whether the disturbances in different equations are contemporaneously uncorrelated or not. We apply the technique of Monte Carlo (MC) tests [Dwass (1957), Barnard (1963)] to obtain exact tests based on standard LR and LM zero correlation tests. We also suggest a MC quasi-LR (QLR) test based on feasible generalized least squares (FGLS). We show that the latter statistics are pivotal under the null, which provides the justification for applying MC tests. Furthermore, we extend the exact independence test proposed by Harvey and Phillips (1982) to the multi-equation framework. Specifically, we introduce several induced tests based on a set of simultaneous Harvey/Phillips-type tests and suggest a simulation-based solution to the associated combination problem. The properties of the proposed tests are studied in a Monte Carlo experiment which shows that standard asymptotic tests exhibit important size distortions, while MC tests achieve complete size control and display good power. Moreover, MC-QLR tests performed best in terms of power, a result of interest from the point of view of simulation-based tests. The power of the MC induced tests improves appreciably in comparison to standard Bonferroni tests and, in certain cases, outperforms the likelihood-based MC tests. The tests are applied to data used by Fischer (1993) to analyze the macroeconomic determinants of growth.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We identify conditions under which preferences over sets of consumption opportunities can be reduced to preferences over bundles of \"commodities\". We distinguish ordinal bundles, whose coordinates are defined up to monotone transformations, from cardinal bundles, whose coordinates are defined up to positive linear transformations only.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A wide range of tests for heteroskedasticity have been proposed in the econometric and statistics literature. Although a few exact homoskedasticity tests are available, the commonly employed procedures are quite generally based on asymptotic approximations which may not provide good size control in finite samples. There has been a number of recent studies that seek to improve the reliability of common heteroskedasticity tests using Edgeworth, Bartlett, jackknife and bootstrap methods. Yet the latter remain approximate. In this paper, we describe a solution to the problem of controlling the size of homoskedasticity tests in linear regression contexts. We study procedures based on the standard test statistics [e.g., the Goldfeld-Quandt, Glejser, Bartlett, Cochran, Hartley, Breusch-Pagan-Godfrey, White and Szroeter criteria] as well as tests for autoregressive conditional heteroskedasticity (ARCH-type models). We also suggest several extensions of the existing procedures (sup-type of combined test statistics) to allow for unknown breakpoints in the error variance. We exploit the technique of Monte Carlo tests to obtain provably exact p-values, for both the standard and the new tests suggested. We show that the MC test procedure conveniently solves the intractable null distribution problem, in particular those raised by the sup-type and combined test statistics as well as (when relevant) unidentified nuisance parameter problems under the null hypothesis. The method proposed works in exactly the same way with both Gaussian and non-Gaussian disturbance distributions [such as heavy-tailed or stable distributions]. The performance of the procedures is examined by simulation. The Monte Carlo experiments conducted focus on : (1) ARCH, GARCH, and ARCH-in-mean alternatives; (2) the case where the variance increases monotonically with : (i) one exogenous variable, and (ii) the mean of the dependent variable; (3) grouped heteroskedasticity; (4) breaks in variance at unknown points. We find that the proposed tests achieve perfect size control and have good power.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper, we introduce a new approach for volatility modeling in discrete and continuous time. We follow the stochastic volatility literature by assuming that the variance is a function of a state variable. However, instead of assuming that the loading function is ad hoc (e.g., exponential or affine), we assume that it is a linear combination of the eigenfunctions of the conditional expectation (resp. infinitesimal generator) operator associated to the state variable in discrete (resp. continuous) time. Special examples are the popular log-normal and square-root models where the eigenfunctions are the Hermite and Laguerre polynomials respectively. The eigenfunction approach has at least six advantages: i) it is general since any square integrable function may be written as a linear combination of the eigenfunctions; ii) the orthogonality of the eigenfunctions leads to the traditional interpretations of the linear principal components analysis; iii) the implied dynamics of the variance and squared return processes are ARMA and, hence, simple for forecasting and inference purposes; (iv) more importantly, this generates fat tails for the variance and returns processes; v) in contrast to popular models, the variance of the variance is a flexible function of the variance; vi) these models are closed under temporal aggregation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In an economy where cash can be stored costlessly (in nominal terms), the nominal interest rate is bounded below by zero. This paper derives the implications of this nonnegativity constraint for the term structure and shows that it induces a nonlinear and convex relation between short- and long-term interest rates. As a result, the long-term rate responds asymmetrically to changes in the short-term rate, and by less than predicted by a benchmark linear model. In particular, a decrease in the short-term rate leads to a decrease in the long-term rate that is smaller in magnitude than the increase in the long-term rate associated with an increase in the short-term rate of the same size. Up to the extent that monetary policy acts by affecting long-term rates through the term structure, its power is considerably reduced at low interest rates. The empirical predictions of the model are examined using data from Japan.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this article we study the effect of uncertainty on an entrepreneur who must choose the capacity of his business before knowing the demand for his product. The unit profit of operation is known with certainty but there is no flexibility in our one-period framework. We show how the introduction of global uncertainty reduces the investment of the risk neutral entrepreneur and, even more, that the risk averse one. We also show how marginal increases in risk reduce the optimal capacity of both the risk neutral and the risk averse entrepreneur, without any restriction on the concave utility function and with limited restrictions on the definition of a mean preserving spread. These general results are explained by the fact that the newsboy has a piecewise-linear, and concave, monetary payoff witha kink endogenously determined at the level of optimal capacity. Our results are compared with those in the two literatures on price uncertainty and demand uncertainty, and particularly, with the recent contributions of Eeckhoudt, Gollier and Schlesinger (1991, 1995).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In a linear production model, we characterize the class of efficient and strategy-proof allocation functions, and the class of efficient and coalition strategy-proof allocation functions. In the former class, requiring equal treatment of equals allows us to identify a unique allocation function. This function is also the unique member of the latter class which satisfies uniform treatment of uniforms.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In a recent paper, Bai and Perron (1998) considered theoretical issues related to the limiting distribution of estimators and test statistics in the linear model with multiple structural changes. In this companion paper, we consider practical issues for the empirical applications of the procedures. We first address the problem of estimation of the break dates and present an efficient algorithm to obtain global minimizers of the sum of squared residuals. This algorithm is based on the principle of dynamic programming and requires at most least-squares operations of order O(T 2) for any number of breaks. Our method can be applied to both pure and partial structural-change models. Secondly, we consider the problem of forming confidence intervals for the break dates under various hypotheses about the structure of the data and the errors across segments. Third, we address the issue of testing for structural changes under very general conditions on the data and the errors. Fourth, we address the issue of estimating the number of breaks. We present simulation results pertaining to the behavior of the estimators and tests in finite samples. Finally, a few empirical applications are presented to illustrate the usefulness of the procedures. All methods discussed are implemented in a GAUSS program available upon request for non-profit academic use.