118 resultados para paramètre d’Hammett
Resumo:
Les fichiers additionnels sont les données cristallographiques en format CIF. Voir le site de la Cambridge Crystallographic Data Centre pour un visualiseur: http://www.ccdc.cam.ac.uk
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
As any language French transformed over time. The evolution of French is marked by many phenomena at all organization levels. For syntax, these phenomena include from the medieval State to current state the assertive sentence of second verb schema change (where the verb should be preceded by a constituent, XVY) to SVO (where it is the subject that precedes the verb) and the passage of the optional expression required expression of the subject. The mandatory presence of the subject in current French is all the more remarkable that it distinguishes it from most other major contemporary romance languages that require explicit subject. This last group includes catalan, Spanish, Italian literary, some occitans, Portuguese, Romanian, and Sardinian, dialects French hugging with the florentin franco-provençal, some other occitans dialects Mediterranean Italian dialects and the ladin following Vanelli, Renzi and Beninca (1985/1985).
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Les méthodes classiques d’analyse de survie notamment la méthode non paramétrique de Kaplan et Meier (1958) supposent l’indépendance entre les variables d’intérêt et de censure. Mais, cette hypothèse d’indépendance n’étant pas toujours soutenable, plusieurs auteurs ont élaboré des méthodes pour prendre en compte la dépendance. La plupart de ces méthodes émettent des hypothèses sur cette dépendance. Dans ce mémoire, nous avons proposé une méthode d’estimation de la dépendance en présence de censure dépendante qui utilise le copula-graphic estimator pour les copules archimédiennes (Rivest etWells, 2001) et suppose la connaissance de la distribution de la variable de censure. Nous avons ensuite étudié la consistance de cet estimateur à travers des simulations avant de l’appliquer sur un jeu de données réelles.
Resumo:
This Paper deals with the analysis of liquid limit of soils, an inferential parameter of universal acceptance. It has been undertaken primarily to re-examine one-point methods of determination of liquid limit water contents. It has been shown by basic characteristics of soils and associated physico-chemical factors that critical shear strengths at liquid limit water contents arise out of force field equilibrium and are independent of soil type. This leads to the formation of a scientific base for liquid limit determination by one-point methods, which hitherto was formulated purely on statistical analysis of data. Available methods (Norman, 1959; Karlsson, 1961; Clayton & Jukes, 1978) of one-point liquid limit determination have been critically re-examined. A simple one-point cone penetrometer method of computing liquid limit has been suggested and compared with other methods. Experimental data of Sherwood & Ryley (1970) have been employed for comparison of different cone penetration methods. Results indicate that, apart from mere statistical considerations, one-point methods have a strong scientific base on the uniqueness of modified flow line irrespective of soil type. Normalized flow line is obtained by normalization of water contents by liquid limit values thereby nullifying the effects of surface areas and associated physico-chemical factors that are otherwise reflected in different responses at macrolevel.Cet article traite de l'analyse de la limite de liquidité des sols, paramètre déductif universellement accepté. Cette analyse a été entreprise en premier lieu pour ré-examiner les méthodes à un point destinées à la détermination de la teneur en eau à la limite de liquidité. Il a été démontré par les caractéristiques fondamentales de sols et par des facteurs physico-chimiques associés que les résistances critiques à la rupture au cisaillement pour des teneurs en eau à la limite de liquidité résultent de l'équilibre des champs de forces et sont indépendantes du type de sol concerné. On peut donc constituer une base scientifique pour la détermination de la limite de liquidité par des méthodes à un point lesquelles, jusqu'alors, n'avaient été formulées que sur la base d'une analyse statistique des données. Les méthodes dont on dispose (Norman, 1959; Karlsson, 1961; Clayton & Jukes, 1978) pour la détermination de la limite de liquidité à un point font l'objet d'un ré-examen critique. Une simple méthode d'analyse à un point à l'aide d'un pénétromètre à cône pour le calcul de la limite de liquidité a été suggérée et comparée à d'autres méthodes. Les données expérimentales de Sherwood & Ryley (1970) ont été utilisées en vue de comparer différentes méthodes de pénétration par cône. En plus de considérations d'ordre purement statistque, les résultats montrent que les méthodes de détermination à un point constituent une base scientifique solide en raison du caractère unique de la ligne de courant modifiée, quel que soit le type de sol La ligne de courant normalisée est obtenue par la normalisation de la teneur en eau en faisant appel à des valeurs de limite de liquidité pour, de cette manière, annuler les effets des surfaces et des facteurs physico-chimiques associés qui sans cela se manifesteraient dans les différentes réponses au niveau macro.
Resumo:
Consideramos o problema de controlo óptimo de tempo mínimo para sistemas de controlo mono-entrada e controlo afim num espaço de dimensão finita com condições inicial e final fixas, onde o controlo escalar toma valores num intervalo fechado. Quando aplicamos o método de tiro a este problema, vários obstáculos podem surgir uma vez que a função de tiro não é diferenciável quando o controlo é bang-bang. No caso bang-bang os tempos conjugados são teoricamente bem definidos para este tipo de sistemas de controlo, contudo os algoritmos computacionais directos disponíveis são de difícil aplicação. Por outro lado, no caso suave o conceito teórico e prático de tempos conjugados é bem conhecido, e ferramentas computacionais eficazes estão disponíveis. Propomos um procedimento de regularização para o qual as soluções do problema de tempo mínimo correspondente dependem de um parâmetro real positivo suficientemente pequeno e são definidas por funções suaves em relação à variável tempo, facilitando a aplicação do método de tiro simples. Provamos, sob hipóteses convenientes, a convergência forte das soluções do problema regularizado para a solução do problema inicial, quando o parâmetro real tende para zero. A determinação de tempos conjugados das trajectórias localmente óptimas do problema regularizado enquadra-se na teoria suave conhecida. Provamos, sob hipóteses adequadas, a convergência do primeiro tempo conjugado do problema regularizado para o primeiro tempo conjugado do problema inicial bang-bang, quando o parâmetro real tende para zero. Consequentemente, obtemos um algoritmo eficiente para a computação de tempos conjugados no caso bang-bang.
Resumo:
Le forgeage de préformes fabriquées par métallurgie des poudres nous permet d’atteindre une densification voisine de la densité théorique ce qui a comme incidence directe une amélioration substantielle des propriétés mécaniques finales des pièces, notamment la résistance en fatigue. La démarche préconisée pour améliorer cette performance critique de pièces forgées par métallurgie des poudres consiste à optimiser leurs caractéristiques métallurgiques et leur densité concomitante. À ce propos, une nouvelle formulation d’acier MP a été développée et caractérisée. La stratégie de développement portait sur l’utilisation d’éléments de microalliage préalliés, comme le vanadium et le niobium. Pour ce faire, on a optimisé le paramètre de mise en œuvre primordial, qui est la température de forgeage, afin d’obtenir une fine taille de grains à la fin du cycle du traitement réalisé accompagnée d’une densité élevée des pièces forgées. Une série de traitements d’austénisation sur une gamme étendue de température variant entre 900 °C à 1250 °C a été effectuée ce qui nous a permis par la suite de connaître, pour chaque mélange, l’évolution de la taille des grains en fonction de la température d’austénisation. La nouvelle formulation de composition chimique a démontré un impact marqué quant au contrôle de la taille de grains en fonction de la température d’austénitisation. Une étude comparative nous a permis d’identifier la température de forgeage la plus appropriée pour ce type de pièces et de dégager la méthodologie à suivre en fonction des propriétés mécaniques et microstructurales.
Resumo:
L'hypertrophie ventriculaire pathologique chez les nouveau-nés des mères diabétiques une étude rétrospective RESUME Objectif L'incidence du diabète chez les femmes enceintes ne cesse de croître, de même que les complications chez leurs nouveau-nés. C'est pourquoi, nous avons étudié la population de mères diabétiques suivies dans notre établissement entre les années 2003-2005 dans le but d'analyser spécifiquement le problème d'hypertrophie ventriculaire pathologique (HVP) chez les nouveau-nés de cette population. Méthode et résultats Dans notre étude rétrospective comprenant 87 grossesses de femmes diabétiques (92 nouveau-nés), 16 présentaient un diabète de type 1, 17 de type 2 et 54 ont développé un diabète gestationnel (DG). Le médian des hémoglobines glycquées (HbAlc) pour cette population est de 5.8% (5.3-6.5) : 17 avaient une HbAlc au-dessus de la norme, dont 2 souffrant d'une cardiomyopathie congénitale (CMC) et six d'une HVP. Un total de 75 nouveaux-nés étaient normaux, cinq avaient une CMC et 12 une HVP (1/12 décédé post-natalement, 1/12 mort-né, 2/12 nécessitant un accouchement prématuré, 8/12 normaux). Les 16 mères avec un diabète de type 1 accouchèrent de trois nouveau-nés avec une CMC et de 50% avec une HVP, comprenant un enfant décédé et un prématuré né par césarienne à cause d'une HVP. Dans le groupe des 17 nouveau-nés issus d'une mère connue pour un diabète de type 2, un cas présentait une CMC et 25% des cas une HVP. Parmi les 54 grossesses avec un DG, on dénombre un cas de CMC et un cas de HVP. Conclusion Les grossesses de mères souffrant d'un diabète de type 1 et de type 2 comportent toutes deux un risque augmenté de développement d'une HVP comparées à celles de mères ayant développé un diabète gestationnel. Les contrôles glycémiques sont insuffisants pour éviter la survenue d'une HVP. Comme aucun autre paramètre prédictif n'a pu été défini jusqu'alors, nous concluons qu'un suivi échographique rapproché de ces grossesses peut prévenir des complications périnatales sévères.
Resumo:
Introduction Le rythmes circadiens influencent différents paramètres de la physiologie et de la physiopathologie cardiovasculaire. Récemment, une relation entre la taille d'un infarctus et l'heure du jour à laquelle il se produit a été suggérée dans des modèles expérimentaux d'infarctus du myocarde. Le but de cette étude a été de déterminer si les rythmes circadiens pouvaient influencer la gravité d'un infarctus en terme de taille et de mortalité chez les patients hospitalisés pour un infarctus du myocarde avec sus-décalage du segment ST (STEMI) ayant bénéficié d'une intervention coronarienne percutanée primaire (ICPP). Méthode Chez 353 patients consécutifs admis avec un STEMI et traités par ICPP, l'heure à la survenue des symptômes, le pic de créatine kinase (reflet de la taille d'un infarctus) et le suivi à 30 jours ont été collectés. Les patients ont été répartis en 4 groupes en fonction de l'heure de survenue de leurs symptômes (00 :00 - 05h59, 06:00 - 11 59 12 00-17h59 et 18h00-23h59). Résultats Aucune différence statistiquement significative n'a été retrouvée entre les différents groupes en ce qui concerne les caractéristiques des patients ou de leur prise en charge. Après analyse multivariée, nous avons mis en évidence une différence statistiquement significative entre les pics de créatine kinase chez les patients avec survenue des symptômes entre 00 :00 et 05:59, qui étaient plus élevés que les pics de créatine kinase chez les patients avec survenue des symptômes à tout autre moment de la journée (augmentation moyenne de 38,4%, ρ <0.05). A 30 jours, la mortalité des patients avec survenue des symptômes entre 00 :00 et 05:59 était également significativement plus élevé que celle des patients avec survenue à tout autre moment de la journée (p <0.05). Conclusion Notre étude démontre une corrélation indépendante entre la taille d'un infarctus STEMI traité par ICPP et le moment de la journée où les symptômes apparaissent. Ces résultats suggèrent que ce moment devrait être un paramètre important à prendre en compte pour évaluer le pronostic des patients.
Resumo:
We extend the class of M-tests for a unit root analyzed by Perron and Ng (1996) and Ng and Perron (1997) to the case where a change in the trend function is allowed to occur at an unknown time. These tests M(GLS) adopt the GLS detrending approach of Dufour and King (1991) and Elliott, Rothenberg and Stock (1996) (ERS). Following Perron (1989), we consider two models : one allowing for a change in slope and the other for both a change in intercept and slope. We derive the asymptotic distribution of the tests as well as that of the feasible point optimal tests PT(GLS) suggested by ERS. The asymptotic critical values of the tests are tabulated. Also, we compute the non-centrality parameter used for the local GLS detrending that permits the tests to have 50% asymptotic power at that value. We show that the M(GLS) and PT(GLS) tests have an asymptotic power function close to the power envelope. An extensive simulation study analyzes the size and power in finite samples under various methods to select the truncation lag for the autoregressive spectral density estimator. An empirical application is also provided.
Resumo:
This paper proposes a model of natural-resource exploitation when private ownership requires costly enforcement activities. For a given wage rate, it is shown how enforcement costs can increase with labor's average productivity on a resource site. As a result, it is never optimal for the site owner to produce at the point where marginal productivity equals the wage rate. It may even be optimal to exploit at a point exhibiting negative marginal returns. An important parameter in the analysis is the prevailing wage rate. When wages are low, further decreases in the wage rates can reduce the returns from resource exploitation. At sufficiently low wages, positive returns can be rendered impossible to achieve and the site is abandoned to a free-access exploitation. The analysis provides some clues as to why property rights may be more difficult to delineate in less developed countries. It proposes a different framework from which to address normative issues such as the desirability of free trade with endogenous enforcement costs, the optimality of private decisions to enforce property rights, the effect of income distribution on property rights enforceability, etc.
Resumo:
In this paper, we propose several finite-sample specification tests for multivariate linear regressions (MLR) with applications to asset pricing models. We focus on departures from the assumption of i.i.d. errors assumption, at univariate and multivariate levels, with Gaussian and non-Gaussian (including Student t) errors. The univariate tests studied extend existing exact procedures by allowing for unspecified parameters in the error distributions (e.g., the degrees of freedom in the case of the Student t distribution). The multivariate tests are based on properly standardized multivariate residuals to ensure invariance to MLR coefficients and error covariances. We consider tests for serial correlation, tests for multivariate GARCH and sign-type tests against general dependencies and asymmetries. The procedures proposed provide exact versions of those applied in Shanken (1990) which consist in combining univariate specification tests. Specifically, we combine tests across equations using the MC test procedure to avoid Bonferroni-type bounds. Since non-Gaussian based tests are not pivotal, we apply the “maximized MC” (MMC) test method [Dufour (2002)], where the MC p-value for the tested hypothesis (which depends on nuisance parameters) is maximized (with respect to these nuisance parameters) to control the test’s significance level. The tests proposed are applied to an asset pricing model with observable risk-free rates, using monthly returns on New York Stock Exchange (NYSE) portfolios over five-year subperiods from 1926-1995. Our empirical results reveal the following. Whereas univariate exact tests indicate significant serial correlation, asymmetries and GARCH in some equations, such effects are much less prevalent once error cross-equation covariances are accounted for. In addition, significant departures from the i.i.d. hypothesis are less evident once we allow for non-Gaussian errors.
Resumo:
We study the problem of testing the error distribution in a multivariate linear regression (MLR) model. The tests are functions of appropriately standardized multivariate least squares residuals whose distribution is invariant to the unknown cross-equation error covariance matrix. Empirical multivariate skewness and kurtosis criteria are then compared to simulation-based estimate of their expected value under the hypothesized distribution. Special cases considered include testing multivariate normal, Student t; normal mixtures and stable error models. In the Gaussian case, finite-sample versions of the standard multivariate skewness and kurtosis tests are derived. To do this, we exploit simple, double and multi-stage Monte Carlo test methods. For non-Gaussian distribution families involving nuisance parameters, confidence sets are derived for the the nuisance parameters and the error distribution. The procedures considered are evaluated in a small simulation experi-ment. Finally, the tests are applied to an asset pricing model with observable risk-free rates, using monthly returns on New York Stock Exchange (NYSE) portfolios over five-year subperiods from 1926-1995.