960 resultados para Perfect
Resumo:
The enigmatic heavy fermion URu2Si2, which is the subject of this thesis, has attracted intensive theoretical and experimental research since 1984 when it was firstly reported by Schlabitz et al. at a conference [1]. The previous bulk property measurements clearly showed that one second order phase transition occurs at the Hidden Order temperature THO ≈ 17.5 K and another second order phase transition, the superconducting transition, occurs at Tc ≈ 1 K. Though twenty eight years have passed, the mechanisms behind these two phase transitions are still not clear to researchers. Perfect crystals do not exist. Different kinds of crystal defects can have considerable effects on the crystalline properties. Some of these defects can be eliminated, and hence the crystalline quality improved, by annealing. Previous publications showed that some bulk properties of URu2Si2 exhibited significant differences between as-grown samples and annealed samples. The present study shows that the annealing of URu2Si2 has some considerable effects on the resistivity and the DC magnetization. The effects of annealing on the resistivity are characterized by examining how the Residual Resistivity Ratio (RRR), the fitting parameters to an expression for the temperature dependence of the resistivity, the temperatures of the local maximum and local minimum of the resistivity at the Hidden Order phase transition and the Hidden Order Transition Width ∆THO change after annealing. The plots of one key fitting parameter, the onset temperature of the Hidden Order transition and ∆THO vs RRR are compared with those of Matsuda et al. [2]. Different media used to mount samples have some impact on how effectively the samples are cooled because the media have different thermal conductivity. The DC magnetization around the superconducting transition is presented for one unannealed sample under fields of 25 Oe and 50 Oe and one annealed sample under fields of 0 Oe and 25 Oe. The DC field dependent magnetization of the annealed Sample1-1 shows a typical field dependence of a Type-II superconductor. The lower critical field Hc1 is relatively high, which may be due to flux pinning by the crystal defects.
Resumo:
Finding large deletion correcting codes is an important issue in coding theory. Many researchers have studied this topic over the years. Varshamov and Tenegolts constructed the Varshamov-Tenengolts codes (VT codes) and Levenshtein showed the Varshamov-Tenengolts codes are perfect binary one-deletion correcting codes in 1992. Tenegolts constructed T codes to handle the non-binary cases. However the T codes are neither optimal nor perfect, which means some progress can be established. Latterly, Bours showed that perfect deletion-correcting codes have a close relationship with design theory. By this approach, Wang and Yin constructed perfect 5-deletion correcting codes of length 7 for large alphabet size. For our research, we focus on how to extend or combinatorially construct large codes with longer length, few deletions and small but non-binary alphabet especially ternary. After a brief study, we discovered some properties of T codes and produced some large codes by 3 different ways of extending some existing good codes.
Resumo:
The letter begins with some confusion as to whether Arthur is returning to the United States. Eleanore Celeste then mentions a benefit concert she was taken to by Mr. and Mrs. Mezger. She mentions she enjoyed the voice of Florence Mulford Hunt. There was also an address by Professor Talcott Williams of Columbia University. Included is an brief death notice from the paper that reads "Fenton, Colonel, Charles W. commandant at Fort Myer, and head of the two camps which turned out national army officers, died today of meningitis". The second part of the letter mentions "dearest, it is a perfect shame that none of you are to be promoted" and "I never heard of anything as unfair, as making D.J. Harris and Jackie Barrett 1st Lieutenants". She then writes out the sonnet "What is Love?" The letter is labelled number 43.
Resumo:
A wide range of tests for heteroskedasticity have been proposed in the econometric and statistics literature. Although a few exact homoskedasticity tests are available, the commonly employed procedures are quite generally based on asymptotic approximations which may not provide good size control in finite samples. There has been a number of recent studies that seek to improve the reliability of common heteroskedasticity tests using Edgeworth, Bartlett, jackknife and bootstrap methods. Yet the latter remain approximate. In this paper, we describe a solution to the problem of controlling the size of homoskedasticity tests in linear regression contexts. We study procedures based on the standard test statistics [e.g., the Goldfeld-Quandt, Glejser, Bartlett, Cochran, Hartley, Breusch-Pagan-Godfrey, White and Szroeter criteria] as well as tests for autoregressive conditional heteroskedasticity (ARCH-type models). We also suggest several extensions of the existing procedures (sup-type of combined test statistics) to allow for unknown breakpoints in the error variance. We exploit the technique of Monte Carlo tests to obtain provably exact p-values, for both the standard and the new tests suggested. We show that the MC test procedure conveniently solves the intractable null distribution problem, in particular those raised by the sup-type and combined test statistics as well as (when relevant) unidentified nuisance parameter problems under the null hypothesis. The method proposed works in exactly the same way with both Gaussian and non-Gaussian disturbance distributions [such as heavy-tailed or stable distributions]. The performance of the procedures is examined by simulation. The Monte Carlo experiments conducted focus on : (1) ARCH, GARCH, and ARCH-in-mean alternatives; (2) the case where the variance increases monotonically with : (i) one exogenous variable, and (ii) the mean of the dependent variable; (3) grouped heteroskedasticity; (4) breaks in variance at unknown points. We find that the proposed tests achieve perfect size control and have good power.
Resumo:
In this paper, we study several tests for the equality of two unknown distributions. Two are based on empirical distribution functions, three others on nonparametric probability density estimates, and the last ones on differences between sample moments. We suggest controlling the size of such tests (under nonparametric assumptions) by using permutational versions of the tests jointly with the method of Monte Carlo tests properly adjusted to deal with discrete distributions. We also propose a combined test procedure, whose level is again perfectly controlled through the Monte Carlo test technique and has better power properties than the individual tests that are combined. Finally, in a simulation experiment, we show that the technique suggested provides perfect control of test size and that the new tests proposed can yield sizeable power improvements.
Resumo:
We characterize the solution to a model of consumption smoothing using financing under non-commitment and savings. We show that, under certain conditions, these two different instruments complement each other perfectly. If the rate of time preference is equal to the interest rate on savings, perfect smoothing can be achieved in finite time. We also show that, when random revenues are generated by periodic investments in capital through a concave production function, the level of smoothing achieved through financial contracts can influence the productive investment efficiency. As long as financial contracts cannot achieve perfect smoothing, productive investment will be used as a complementary smoothing device.
Resumo:
The GARCH and Stochastic Volatility paradigms are often brought into conflict as two competitive views of the appropriate conditional variance concept : conditional variance given past values of the same series or conditional variance given a larger past information (including possibly unobservable state variables). The main thesis of this paper is that, since in general the econometrician has no idea about something like a structural level of disaggregation, a well-written volatility model should be specified in such a way that one is always allowed to reduce the information set without invalidating the model. To this respect, the debate between observable past information (in the GARCH spirit) versus unobservable conditioning information (in the state-space spirit) is irrelevant. In this paper, we stress a square-root autoregressive stochastic volatility (SR-SARV) model which remains true to the GARCH paradigm of ARMA dynamics for squared innovations but weakens the GARCH structure in order to obtain required robustness properties with respect to various kinds of aggregation. It is shown that the lack of robustness of the usual GARCH setting is due to two very restrictive assumptions : perfect linear correlation between squared innovations and conditional variance on the one hand and linear relationship between the conditional variance of the future conditional variance and the squared conditional variance on the other hand. By relaxing these assumptions, thanks to a state-space setting, we obtain aggregation results without renouncing to the conditional variance concept (and related leverage effects), as it is the case for the recently suggested weak GARCH model which gets aggregation results by replacing conditional expectations by linear projections on symmetric past innovations. Moreover, unlike the weak GARCH literature, we are able to define multivariate models, including higher order dynamics and risk premiums (in the spirit of GARCH (p,p) and GARCH in mean) and to derive conditional moment restrictions well suited for statistical inference. Finally, we are able to characterize the exact relationships between our SR-SARV models (including higher order dynamics, leverage effect and in-mean effect), usual GARCH models and continuous time stochastic volatility models, so that previous results about aggregation of weak GARCH and continuous time GARCH modeling can be recovered in our framework.
Resumo:
Consider a general equilibrium framework where the marginal cost of extraction from several deposits of an exhaustible resource is constant in terms of an inexhaustible perfect substitute and differs between deposits. the instantaneous rate of production form the inexhaustible resource is subject to a capacity constraint.
Resumo:
La présente recherche a pour objet la pratique orthophonique en suppléance à la communication (SC) auprès de personnes qui ont une déficience intellectuelle (DI). Des recherches ont montré que les aides à la communication à sortie vocale (ACSV) pouvaient améliorer la communication des personnes ayant une DI. Cependant, la plupart de ces recherches ont été menées dans des conditions idéales qui ne reflètent pas nécessairement celles que l’on retrouve dans les milieux cliniques typiques. On connaît peu de choses sur les pratiques professionnelles en SC auprès des personnes ayant une DI. Le but de cette recherche est de décrire la pratique orthophonique, de documenter les perspectives des utilisateurs sur les résultats des interventions et de décrire l’implication des parents et leurs habiletés à soutenir leur enfant dans l’utilisation d’une ACSV afin de proposer un modèle d’intervention en SC auprès de cette clientèle qui tienne compte de ces différentes perspectives. Une méthode qualitative a été choisie pour réaliser la recherche. Des entrevues individuelles semi-structurées ont été réalisées avec onze orthophonistes francophones et avec des parents ou familles d’accueil de dix utilisateurs d’ACSV et des entrevues structurées ont été menées avec huit utilisateurs d’ACSV. Un outil d’entrevue a été conçu à l’aide de pictogrammes pour permettre aux utilisateurs d’ACSV de répondre à des questions portant sur leur appréciation et utilisation de leur ACSV, leur satisfaction et priorités de communication. Un cadre conceptuel a été conçu à partir des guides de pratique clinique et un codage semi-ouvert a été utilisé pour réaliser les analyses thématiques des données provenant des orthophonistes. Un codage ouvert a servi à analyser les données provenant des parents. Des analyses descriptives ont servi à examiner les réponses des utilisateurs. Diverses procédures ont assuré la crédibilité des analyses. Entre autres, les analyses des entrevues des orthophonistes ont été validées lors d’un groupe de discussion avec sept participantes orthophonistes. Les résultats montrent que les ACSV sont utilisées surtout dans le milieu scolaire. Elles sont parfois utilisées lors des loisirs et dans la communauté, mais ces contextes sont ceux où les utilisateurs ont exprimé le plus d’insatisfaction et où se situe la majeure partie des priorités qu’ils ont identifiées. Les analyses ont permis d’identifier les facteurs qui rendent compte de ces résultats. Les orthophonistes manquent d’outils pour réaliser des évaluations exhaustives des capacités des clients et elles manquent de procédures pour impliquer les parents et obtenir d’eux une description complète des besoins de communication de leur enfant. Conséquemment, l’ACSV attribuée et le vocabulaire programmé ne répondent pas à l’ensemble des besoins de communication. Certaines orthophonistes manquent de connaissances sur les ACSV ou n’ont pas le matériel pour faire des essais avec les clients. Il en résulte un appariement entre la personne et l’ACSV qui n’est pas toujours parfait. À cause d’un manque de ressources en orthophonie, les parents sont parfois laissés sans soutien pour apporter les changements à la programmation lors des transitions dans la vie de leur enfant et certains ne reçoivent pas d’entraînement visant à soutenir l’utilisation de l’ACSV. Un modèle d’intervention en SC est proposé afin d’améliorer la pratique orthophonique auprès de cette population.
Resumo:
Des variations importantes du surenroulement de l’ADN peuvent être générées durant la phase d’élongation de la transcription selon le modèle du « twin supercoiled domain ». Selon ce modèle, le déplacement du complexe de transcription génère du surenroulement positif à l’avant, et du surenroulement négatif à l’arrière de l’ARN polymérase. Le rôle essentiel de la topoisomérase I chez Escherichia coli est de prévenir l’accumulation de ce surenroulement négatif générée durant la transcription. En absence de topoisomérase I, l’accumulation de ce surenroulement négatif favorise la formation de R-loops qui ont pour conséquence d’inhiber la croissance bactérienne. Les R-loops sont des hybrides ARN-ADN qui se forment entre l’ARN nouvellement synthétisé et le simple brin d’ADN complémentaire. Dans les cellules déficientes en topoisomérase I, des mutations compensatoires s’accumulent dans les gènes qui codent pour la gyrase, réduisant le niveau de surenroulement négatif du chromosome et favorisant la croissance. Une des ces mutations est une gyrase thermosensible qui s’exprime à 37 °C. La RNase HI, une enzyme qui dégrade la partie ARN d’un R-loop, peut aussi restaurer la croissance en absence de topoisomérase I lorsqu’elle est produite en très grande quantité par rapport à sa concentration physiologique. En présence de topoisomérase I, des R-loops peuvent aussi se former lorsque la RNase HI est inactive. Dans ces souches mutantes, les R-loops induisent la réponse SOS et la réplication constitutive de l’ADN (cSDR). Dans notre étude, nous montrons comment les R-loops formés en absence de topoisomérase I ou RNase HI peuvent affecter négativement la croissance des cellules. Lorsque la topoisomérase I est inactivée, l’accumulation d’hypersurenroulement négatif conduit à la formation de nombreux R-loops, ce qui déclenche la dégradation de l’ARN synthétisé. Issus de la dégradation de l’ARNm de pleine longueur, des ARNm incomplets et traductibles s’accumulent et causent l’inhibition de la synthèse protéique et de la croissance. Le processus par lequel l’ARN est dégradé n’est pas encore complètement élucidé, mais nos résultats soutiennent fortement que la RNase HI présente en concentration physiologique est responsable de ce phénotype. Chose importante, la RNase E qui est l’endoribonuclease majeure de la cellule n’est pas impliquée dans ce processus, et la dégradation de l’ARN survient avant son action. Nous montrons aussi qu’une corrélation parfaite existe entre la concentration de RNase HI, l’accumulation d’hypersurenroulement négatif et l’inhibition de la croissance bactérienne. Lorsque la RNase HI est en excès, l’accumulation de surenroulement négatif est inhibée et la croissance n’est pas affectée. L’inverse se produit Lorsque la RNase HI est en concentration physiologique. En limitant l’accumulation d’hypersurenroulement négatif, la surproduction de la RNase HI prévient alors la dégradation de l’ARN et permet la croissance. Quand la RNase HI est inactivée en présence de topoisomérase I, les R-loops réduisent le niveau d’expression de nombreux gènes, incluant des gènes de résistance aux stress comme rpoH et grpE. Cette inhibition de l’expression génique n’est pas accompagnée de la dégradation de l’ARN contrairement à ce qui se produit en absence de topoisomérase I. Dans le mutant déficient en RNase HI, la diminution de l’expression génique réduit la concentration cellulaire de différentes protéines, ce qui altère négativement le taux de croissance et affecte dramatiquement la survie des cellules exposées aux stress de hautes températures et oxydatifs. Une inactivation de RecA, le facteur essentiel qui déclenche la réponse SOS et le cSDR, ne restaure pas l’expression génique. Ceci démontre que la réponse SOS et le cSDR ne sont pas impliqués dans l’inhibition de l’expression génique en absence de RNase HI. La croissance bactérienne qui est inhibée en absence de topoisomérase I, reprend lorsque l’excès de surenroulement négatif est éliminé. En absence de RNase HI et de topoisomérase I, le surenroulement négatif est très relaxé. Il semble que la réponse cellulaire suite à la formation de R-loops, soit la relaxation du surenroulement négatif. Selon le même principe, des mutations compensatoires dans la gyrase apparaissent en absence de topoisomérase I et réduisent l’accumulation de surenroulement négatif. Ceci supporte fortement l’idée que le surenroulement négatif joue un rôle primordial dans la formation de R-loop. La régulation du surenroulement négatif de l’ADN est donc une tâche essentielle pour la cellule. Elle favorise notamment l’expression génique optimale durant la croissance et l’exposition aux stress, en limitant la formation de R-loops. La topoisomérase I et la RNase HI jouent un rôle important et complémentaire dans ce processus.
Resumo:
L'épidémie de l'infection au virus de l'immunodéficience humaine (VIH) constitue une crise majeure en santé publique de nos jours. Les efforts de la communauté internationale visent à rendre les traitements antirétroviraux (TARV) plus accessibles aux personnes vivant avec le VIH, particulièrement dans les contextes à ressources limitées. Une observance quasi-parfaite aux TARV est requise pour tirer le maximum de bénéfices thérapeutiques à l'échelle individuelle et à l'échelle populationnelle. Cependant, l’accroissement de la disponibilité des TARV s'effectue dans des pays africains qui disposent de systèmes de santé fragiles et sous-financés. Ceux-ci souffrent également d'une pénurie de personnel de santé, lequel joue un rôle central dans la mise en oeuvre et la pérennité des interventions, notamment celle du soutien à l'observance thérapeutique. La présente étude ethnographique relate l'expérience de personnel de santé dans la fourniture des services de soutien à l'observance dans un contexte de ressources limitées et d'accroissement de l'accès aux TARV. L'étude a été menée dans deux centres hospitaliers de la capitale du Burkina Faso, Ouagadougou. Trois conclusions principales sont mises au jour. Tout d'abord, une bonne organisation – tant logistique que matérielle – dans la provision de services de soutien à l'observance est capitale. L’infrastructure d’observance doit aller au-delà des unités de prise en charge et s’intégrer au sein du système de santé pour assurer un impact durable. De plus, la provision des TARV dans le cadre d'une prise en charge médicale exhaustive est essentielle pour un soutien à l'observance efficace. Ceci implique la présence de professionnelles de santé en nombre suffisant et disposant d‘outils pour soutenir leur pratique clinique (tests de laboratoire, traitements pour infections opportunistes), ainsi que des mécanismes pour leur permettre d’aider les patients à gérer la vie quotidienne (gratuité des services, programmes d’alphabétisation et soutien psychosociale). Enfin, une amélioration de la coordination des programmes VIH au niveau national et international est nécessaire pour assurer une prise en charge cohérente au niveau local. La programmation conçue dans les pays étrangers qui est incomplète et de courte durée a un impact majeur sur la disponibilité de ressources humaines et matérielles à long terme, ainsi que sur les conditions de travail et de prestation de services dans les unités de soins.
Resumo:
L’intérêt marqué porté actuellement aux recherches NBIC (nano-bio-info-cognitivo technologies) visant l’optimisation des capacités humaines augure d’un profond bouleversement dans nos représentations du corps humain et du rapport humain-machine. Tour à tour, des travaux issus des domaines du génie génétique, de la pharmacologie, des biotechnologies ou des nanotechnologies nous promettent un corps moins sujet à la maladie, mieux « adapté » et surtout plus malléable. Cette construction en laboratoire d’un corps amélioré fait amplement écho aux préoccupations contemporaines concernant la santé parfaite, le processus de vieillissement, l’inaptitude, l’apparence, la performance, etc. En vue d’analyser les transformations qu’induisent ces recherches sur les représentations du corps, nous avons construit un modèle théorique appuyé, d’une part, sur des travaux en sociologie du corps et, d’autre part, sur des travaux en épistémologie des sciences. Puis, en scrutant différents textes de vulgarisation scientifique produits par des chercheurs transhumanistes – militant ouvertement en faveur d’une optimisation radicale des capacités humaines par le biais des technosciences –, il a été observé que les représentations du corps s’organisent autour de trois principaux noyaux. Le corps humain est présenté, dans ce discours, comme étant à la fois informationnel, technologiquement perfectible et obsolète. Cette représentation tripartite du corps permet aux transhumanistes d’ériger leur modèle d’action (i.e. amélioration des capacités physiques, intellectuelles, sensitives, émotionnelles, etc.) à titre de nécessité anthropologique. À leurs yeux, l’amélioration des conditions humaines doit passer par une mutation contrôlée de la biologie (i.e. une hybridation avec la machine) du fait que le corps serait « inadapté » au monde contemporain. Ainsi, les promesses NBIC, une fois récupérées par les chercheurs transhumanistes, se voient exacerbées et prennent une tonalité péremptoire. Ceci contribue vivement à la promotion du posthumain ou du cyborg, soit d’un individu transformé dans l’optique d’être plus robuste et intelligent, de moduler sa sensitivité et ses états émotifs et de vivre plus longtemps, voire indéfiniment. Enfin, situé à mi-chemin entre la science et la science-fiction, ce projet est qualifié de techno-prophétie en ce qu’il produit d’innombrables prévisions basées sur les avancées technoscientifiques actuelles et potentielles. Afin d’accroître l’acceptabilité sociale de leur modèle d’action, les transhumanistes ne font pas uniquement appel à la (potentielle) faisabilité technique; ils s’appuient également sur des valeurs socialement partagées, telles que l’autodétermination, la perfectibilité humaine, l’égalité, la liberté ou la dignité. Néanmoins, la lecture qu’ils en font est parfois surprenante et rompt très souvent avec les conceptions issues de la modernité. À leur avis, le perfectionnement humain doit s’opérer par le biais des technosciences (non des institutions sociales), sur le corps même des individus (non sur l’environnement) et en vertu de leur « droit » à l’autodétermination compris comme un droit individuel d’optimiser ses capacités. De même, les technosciences doivent, disent-ils, être démocratisées afin d’en garantir l’accessibilité, de réduire les inégalités biologiques et de permettre à chacun de renforcer son sentiment d’identité et d’accomplissement. L’analyse du discours transhumaniste nous a donc permis d’observer leurs représentations du corps de même que la résonance culturelle du projet qu’ils proposent.
Resumo:
La réalisation de dispositifs à des dimensions sous-micrométriques et nanométriques demande une maîtrise parfaite des procédés de fabrication, notamment ceux de gravure. La réalisation des ces dispositifs est complexe et les exigences en termes de qualité et de géométrie des profils de gravure imposent de choisir les conditions opératoires les mieux adaptées. Les simulations de l'évolution spatio-temporelle des profils de gravure que nous proposons dans cette thèse s'inscrivent parfaitement dans ce contexte. Le simulateur que nous avons réalisé offre la possibilité de mieux comprendre les processus qui entrent en jeu lors de la gravure par plasma de profils dans divers matériaux. Il permet de tester l'influence des paramètres du plasma sur la forme du profil et donc de déterminer les conditions opératoires optimales. La mise au point de ce simulateur s'appuie sur les concepts fondamentaux qui gouvernent la gravure par plasma. À partir de l'état des lieux des différentes approches numériques pouvant être utilisées, nous avons élaboré un algorithme stable et adaptable permettant de mettre en évidence l'importance de certains paramètres clés pour la réalisation de profils de gravure par un plasma à haute densité et à basse pression. Les capacités de cet algorithme ont été testées en étudiant d'une part la pulvérisation de Si dans un plasma d'argon et d'autre part, la gravure chimique assistée par les ions de SiO2/Si dans un plasma de chlore. Grâce aux comparaisons entre profils simulés et expérimentaux, nous avons montré l'importance du choix de certains paramètres, comme la nature du gaz utilisé et la pression du plasma, la forme initiale du masque, la sélectivité masque/matériau, le rapport de flux neutre/ion, etc. Nous avons aussi lié ces paramètres à la formation de défauts dans les profils, par exemple celle de facettes sur le masque, de parois concaves, et de micro-tranchées. Enfin, nous avons montré que le phénomène de redépôt des atomes pulvérisés entre en compétition avec la charge électrique de surface pour expliquer la formation de profils en V dans le Pt pulvérisé par un plasma d'argon.
Resumo:
Cette étude porte sur la réfutation (elenchos) dans la République de Platon, et montre que la présence de cette méthode au livre I ne saurait être un signe de la rédaction antérieure de ce livre, ni de la volonté de Platon de critiquer cette forme de la dialectique. Les deux premiers chapitres traitent de l'aspect épistémologique de la question : le premier montre que l'exposition de la dialectique au livre VII inclut l'elenchos, et le second que la défaillance des arguments du livre I doit être interprétée par des motifs pédagogiques, et non par une intention satirique de l'auteur. Les deux derniers chapitres se penchent sur la dimension morale de l'elenchos. Ainsi, le troisième chapitre affirme que Platon nous présente, au livre I, l'elenchos comme un outil efficace d'éducation morale, tandis que le quatrième chapitre cherche à expliquer la critique morale de l'elenchos du livre VII par la différence entre l'éducation dans une cité parfaite et celle dans une société corrompue. La conclusion de l'ouvrage explique le délaissement de la méthode élenctique dans les neuf derniers livres de la République par des raisons autres que par la perte de confiance de Platon en les capacités de cette méthode.
Resumo:
Sous l'ère moderne, où le commerce n'a plus de frontières physiques, les catastrophes causant des dommages à grande échelle se sont multipliées. Lorsque de telles catastrophes surviennent, l'utilisation de procédures de recours collectif pour juger de l'ensemble des litiges semble être la solution indiquée. Pourtant, l'expérience nous démontre qu'il n'en est rien... Bien que le même événement cause des dommages à de multiples victimes, le recours judiciaire demeure l'exercice d'un droit personnel. Le tribunal devra alors rechercher l'application de règles matérielles spécifiques à ce recours. En l'absence de règles spécifiques, les règles de conflit de lois du tribunal saisi seront applicables. Or, ces règles ne sont pas uniformes et entraînent une multiplicité de lois applicables. Conséquemment, il est opportun de s'interroger sur la pertinence de réunir des recours individuels en un seul recours. L'expérience américaine nous démontre les difficultés engendrées par la multiplicité de lois applicables à un recours collectif, bien que des solutions législatives et jurisprudentielles aient été proposées. Ces solutions demeurent imparfaites, tant au niveau de leur constitutionalité que du respect des droits fondamentaux. Devant la complexité occasionnée par le regroupement de ces litiges, les tribunaux sont réfractaires à leur autorisation, dès lors qu'une multiplicité de lois applicables est démontrée. Ainsi, la solution juridique la mieux adaptée aux recours collectifs internationaux demeure celle de saisir les tribunaux, de plusieurs recours collectifs distincts; chacun regroupé en fonction de la loi applicable à chaque recours, déterminée, au préalable, par l'analyse des règles de conflit de lois du tribunal saisi.