987 resultados para III-posed inverse problem


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduction : Le traitement des entorses acromio-claviculaires (AC) est aujourd'hui encore controversé. Les luxations AC avec lésion du fascia delto-trapézoidale (grade IV, V et VI) sont généralement traitées par une chirurgie de stabilisation. A l'inverse les entorses sans luxation de la clavicule (grade I et II) sont traitées conservativement avec de bons résultats. Il reste une interrogation concernant le traitement des luxations AC sans lésion du fascia delto-trapézoidale (grade III). Le but de notre étude est d'évaluer les résultats du traitement chirurgical des entorses AC de grade III selon un score cinématique. Matériel et Méthode : 30 patients avec une entorse AC de grade III ont été opérés d'une stabilisation de la clavicule entre 2003 et 2011 par le service d'Orthopédie et traumatologie du CHUV. Tous ont été cliniquement évalués selon le score de Constant. L'évaluation cinématique a été effectuée à l'aide d'un iPod touch, fixé sur l'humérus. Cet outil de mesure, décrit et validé par l'EPFL, prend en considération l'accélération et la vitesse angulaire du membre supérieur pour 7 différents mouvements des deux bras. L'évaluation cinématique a été effectuée en comparant le côté opéré par rapport au côté sain selon 2 scores (RAV et P) provenant de ces variables. Les scores RAV et P sont calculés par l'application installée sur l'iPod touch, ils sont donnés en pourcentage par rapport à l'épaule saine. Nous avons défini un score de Constant relatif de plus de 60 et un score cinématique de plus de 75% comme satisfaisant. Résultats : Nous avons revus dix patients avec un recul moyen de 36 mois (6 à 72 mois) d'un âge moyen de 42 ans (27 à 62 ans). Le score de Constant moyen est de 75.9 ± 21.7. Le score P moyen est de 89.3% ± 23.4 et le score RAV moyen est de 91.8% ± 15.8 (tab.1). Quatre sujets obtiennent un excellent score de Constant pour le bras opéré, 2 sujets obtiennent un bon score et un sujet obtient un score moyen, tandis que 3 sujets obtiennent un mauvais score. Huit patients obtiennent un score cinématique satisfaisant alors que nous observons 2 résultats non satisfaisants. Les mauvais résultats tant cliniques que cinématiques ont été observés chez des patients travailleurs de force, nécessitant d'effectuer des mouvements de l'épaule au-dessus du niveau du buste. Discussion et Conclusion : Sur la base d'une évaluation clinique et cinématique, le traitement chirugical des entorses AC de grade III donne des résultats satisfaisants. Notre étude ne comportant pas de groupe contrôle et notre série étant non homogène, avec un nombre limité de sujet, nous ne pouvons conclure que le traitement chirurgical est le traitement le mieux adapté aux patients avec une entorse acromio-claviculaires de type III. Nous recommandons toutefois un traitement chirugical chez les patients actifs, et les patients exerçant un métier avec nécessité de mobilisation de l'épaule au dessus du buste. Un travail manuel lourd représente un facteur de mauvais pronostic.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The inversion problem concerning the windowed Fourier transform is considered. It is shown that, out of the infinite solutions that the problem admits, the windowed Fourier transform is the "optimal" solution according to a maximum-entropy selection criterion.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The relation between limit cycles of planar differential systems and the inverse integrating factor was first shown in an article of Giacomini, Llibre and Viano appeared in 1996. From that moment on, many research articles are devoted to the study of the properties of the inverse integrating factor and its relationwith limit cycles and their bifurcations. This paper is a summary of all the results about this topic. We include a list of references together with the corresponding related results aiming at being as much exhaustive as possible. The paper is, nonetheless, self-contained in such a way that all the main results on the inverse integrating factor are stated and a complete overview of the subject is given. Each section contains a different issue to which the inverse integrating factor plays a role: the integrability problem, relation with Lie symmetries, the center problem, vanishing set of an inverse integrating factor, bifurcation of limit cycles from either a period annulus or from a monodromic ω-limit set and some generalizations.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this thesis the X-ray tomography is discussed from the Bayesian statistical viewpoint. The unknown parameters are assumed random variables and as opposite to traditional methods the solution is obtained as a large sample of the distribution of all possible solutions. As an introduction to tomography an inversion formula for Radon transform is presented on a plane. The vastly used filtered backprojection algorithm is derived. The traditional regularization methods are presented sufficiently to ground the Bayesian approach. The measurements are foton counts at the detector pixels. Thus the assumption of a Poisson distributed measurement error is justified. Often the error is assumed Gaussian, altough the electronic noise caused by the measurement device can change the error structure. The assumption of Gaussian measurement error is discussed. In the thesis the use of different prior distributions in X-ray tomography is discussed. Especially in severely ill-posed problems the use of a suitable prior is the main part of the whole solution process. In the empirical part the presented prior distributions are tested using simulated measurements. The effect of different prior distributions produce are shown in the empirical part of the thesis. The use of prior is shown obligatory in case of severely ill-posed problem.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The pollution and toxicity problems posed by arsenic in the environment have long been established. Hence, the removal and recovery remedies have been sought, bearing in mind the efficiency, cost effectiveness and environmental friendliness of the methods employed. The sorption kinetics and intraparticulate diffusivity of As (III) bioremediation from aqueous solution using modified and unmodified coconut fiber was investigated. The amount adsorbed increased as time increased, reaching equilibrium at about 60 minutes. The kinetic studies showed that the sorption rates could be described by both pseudo-first order and pseudo-second order process with the later showing a better fit with a value of rate constant of 1.16 x 10-4 min-1 for the three adsorbent types. The mechanism of sorption was found to be particle diffusion controlled. The diffusion and boundary layer effects were also investigation. Therefore, the results show that coconut fiber, both modified and unmodified is an efficient sorbent for the removal of As (III) from industrial effluents with particle diffusion as the predominant mechanism.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Interior illumination is a complex problem involving numerous interacting factors. This research applies genetic programming towards problems in illumination design. The Radiance system is used for performing accurate illumination simulations. Radiance accounts for a number of important environmental factors, which we exploit during fitness evaluation. Illumination requirements include local illumination intensity from natural and artificial sources, colour, and uniformity. Evolved solutions incorporate design elements such as artificial lights, room materials, windows, and glass properties. A number of case studies are examined, including many-objective problems involving up to 7 illumination requirements, the design of a decorative wall of lights, and the creation of a stained-glass window for a large public space. Our results show the technical and creative possibilities of applying genetic programming to illumination design.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The attached file is created with Scientific Workplace Latex

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'hépatite C pose un problème de santé publique majeur, dans la mesure où le risque de développer une infection chronique est relativement élevé (40 à 60%) et où la résistance au traitement de choix - l’interféron alpha pégylé et la ribavirine - touche près de la moitié des patients. Cette persistence virale repose avant tout sur de puissantes stratégies d’évasion du système immunitaire inné de l’hôte par le virus. Dans ce projet, nous nous sommes intéressés à la caractérisation de la réponse antivirale dans des hépatocytes primaires humains normaux et chroniquement infectés avec le VHC, un domaine encore largement inconnu dû à la difficulté d’obtenir ce type de matériel primaire. Nous avons étudié la fonctionnalité de deux voies majeures de détection des pathogènes viraux suite à l’exposition d’hépatocytes primaires humains à de l’ARNdb intracellulaire, via le récepteur et adaptateur RIG-I/MDA5-CARDIF, et extracellulaire via TLR3-TRIF, mimant ainsi les étapes précoces de la détection d’un virus par la cellule hôte. Nous avons établi par RT-PCR quantitatif et analyse transcriptomique par microarray, que ces deux voies de stimulation sont fonctionnelles dans des hépatocytes primaires normaux et que leur activation entraîne à la fois l’expression de gènes antiviraux communs (ISG56, ISG15, CXCL10, …) mais aussi spécifiques avec les gènes IL28A, IL28B et IL29 qui sont une signature de l’activation de la voie de détection de l’ARNdb intracellulaire. La protéine virale NS3/4A joue un rôle majeur à la fois dans le clivage de la polyprotéine virale initiale, mais aussi en interférant avec les cascades de signalisation engagées suite à la détection par la cellule hôte de l’ARN du VHC. Plus particulièrement, nous avons démontré que l’expression ectopique de NS3/4A dans des hépatocytes primaires humains normaux entraîne une diminution significative de l’induction des gènes antiviraux dûe au clivage de CARDIF au cours de l’activation de la voie de signalisation médiée par RIG-I. Nous avons également démontré que l’expression de la NS3/4A entraîne des modifications de l’expression de gènes-clé impliqués dans la régulation de l’apoptose et du programme de mort cellulaire, en particulier lorsque la voie TLR3 est induite. L’ensemble de ces effets sont abolis en présence de BILN2061, inhibiteur spécifique de NS3/4A. Malgré les stratégies de subversion de l’immunité innée par le VHC, nous avons démontré l’induction significative de plusieurs ISGs et chemokines dans des hepatocytes primaires provenant de patients chroniquement infectés avec le VHC, sans toutefois détecter d’interférons de type I, III ou certains gènes antiviraux précoces comme CCL5. Ces observations, concomitantes avec une diminution de l’expression de CARDIF et une correlation inverse entre les niveaux d’ARNm des ISGs et l’ARN viral révèlent une réponse antivirale partielle dûe à des mécanismes interférents sous-jacents. Cette réponse antivirale détectable mais inefficace est à mettre en lien avec l’échec du traitement classique PEG-IFN-ribavirine chez la moitié des patients traités, mais aussi en lien avec l’inflammation chronique et les dommages hépatiques qui mènent ultimement au développement d’une fibrose puis d’une cirrhose chez une grande proportion de patients chroniquement infectés.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The paper will consist of three parts. In part I we shall present some background considerations which are necessary as a basis for what follows. We shall try to clarify some basic concepts and notions, and we shall collect the most important arguments (and related goals) in favour of problem solving, modelling and applications to other subjects in mathematics instruction. In the main part II we shall review the present state, recent trends, and prospective lines of development, both in empirical or theoretical research and in the practice of mathematics instruction and mathematics education, concerning problem solving, modelling, applications and relations to other subjects. In particular, we shall identify and discuss four major trends: a widened spectrum of arguments, an increased globality, an increased unification, and an extended use of computers. In the final part III we shall comment upon some important issues and problems related to our topic.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The paper will consist of three parts. In part I we shall present some background considerations which are necessary as a basis for what follows. We shall try to clarify some basic concepts and notions, and we shall collect the most important arguments (and related goals) in favour of problem solving, modelling and applications to other subjects in mathematics instruction. In the main part II we shall review the present state, recent trends, and prospective lines of development, both in empirical or theoretical research and in the practice of mathematics instruction and mathematics education, concerning (applied) problem solving, modelling, applications and relations to other subjects. In particular, we shall identify and discuss four major trends: a widened spectrum of arguments, an increased globality, an increased unification, and an extended use of computers. In the final part III we shall comment upon some important issues and problems related to our topic.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Resumen basado en el de la publicaci??n

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Aquesta tesi presenta un nou mètode pel disseny invers de reflectors. Ens hem centrat en tres temes principals: l’ús de fonts de llum reals i complexes, la definició d’un algoritme ràpid pel càlcul de la il•luminació del reflector, i la definició d’un algoritme d’optimització per trobar més eficientment el reflector desitjat. Les fonts de llum estan representades per models near-field, que es comprimeixen amb un error molt petit, fins i tot per fonts de llum amb milions de raigs i objectes a il•luminar molt propers. Llavors proposem un mètode ràpid per obtenir la distribució de la il•luminació d’un reflector i la seva comparació amb la il•luminació desitjada, i que treballa completament en la GPU. Finalment, proposem un nou mètode d’optimització global que permet trobar la solució en menys passos que molts altres mètodes d’optimització clàssics, i alhora evitant mínims locals.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this paper we consider the 2D Dirichlet boundary value problem for Laplace’s equation in a non-locally perturbed half-plane, with data in the space of bounded and continuous functions. We show uniqueness of solution, using standard Phragmen-Lindelof arguments. The main result is to propose a boundary integral equation formulation, to prove equivalence with the boundary value problem, and to show that the integral equation is well posed by applying a recent partial generalisation of the Fredholm alternative in Arens et al [J. Int. Equ. Appl. 15 (2003) pp. 1-35]. This then leads to an existence proof for the boundary value problem. Keywords. Boundary integral equation method, Water waves, Laplace’s

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The goal of the review is to provide a state-of-the-art survey on sampling and probe methods for the solution of inverse problems. Further, a configuration approach to some of the problems will be presented. We study the concepts and analytical results for several recent sampling and probe methods. We will give an introduction to the basic idea behind each method using a simple model problem and then provide some general formulation in terms of particular configurations to study the range of the arguments which are used to set up the method. This provides a novel way to present the algorithms and the analytic arguments for their investigation in a variety of different settings. In detail we investigate the probe method (Ikehata), linear sampling method (Colton-Kirsch) and the factorization method (Kirsch), singular sources Method (Potthast), no response test (Luke-Potthast), range test (Kusiak, Potthast and Sylvester) and the enclosure method (Ikehata) for the solution of inverse acoustic and electromagnetic scattering problems. The main ideas, approaches and convergence results of the methods are presented. For each method, we provide a historical survey about applications to different situations.