941 resultados para Non-commutative Landau problem


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Problématique : Les connaissances théoriques et pratiques au sujet de la mise en charge immédiate d’implants non jumelés chez les édentés sont limitées. Objectifs : Cette étude avait pour but de : (1) déterminer le taux de survie implantaire de 2 implants non jumelés supportant une prothèse totale mandibulaire suite à une mise en charge immédiate, (2) évaluer les changements des niveaux osseux et de stabilité implantaire survenus sur ces 2 implants durant une période de 4 mois et les comparer à un implant témoin, et (3) décrire les complications cliniques associées à ce mode de mise en charge. Méthodologie : Chez 18 individus édentés (âge moyen de 62±7 ans), cette étude de phase I avec un design pré/post a évalué les résultats cliniques suivant la mise en charge immédiate (<48 heures) de 2 implants non jumelés par une prothèse totale mandibulaire. À l’aide de radiographies périapicales, de sondages osseux et d’analyses de la fréquence en résonnance, les niveaux osseux péri-implantaires (en mm) et les niveaux de stabilité implantairte (en ISQ) de ces 2 implants insérés dans la région parasymphysaire ont été évalués à la chirurgie (T0) et au suivi de 4 mois (T1). Un implant non submergé et sans mise en charge inséré dans la région de la symphyse mandibulaire a été utilisé comme témoin. Les données ont été analysées avec des modèles mixtes linéaires, la méthode de Tukey ajustée, l’analyse de variance de Friedman et des tests de rang signés de Wilcoxon. Résultats : De T0 à T1, 3 implants mis en charge immédiatement ont échoué chez 2 patients. Le taux de survie implantaire obtenu était donc de 91,7% (33/36) et, par patient, de 88,9% (16/18). Aucun implant témoin n’a échoué. Les changements osseux documentés radiologiquement et par sondage autour des implants mis en charge immédiatement étaient, respectivement, de -0,2 ± 0,3 mm et de -0,5 ± 0,6 mm. Les pertes d’os de support implantaire n’ont pas été démontrées statistiquement différentes entre les implants avec mise en charge immédiate et les témoins. Les niveaux moyens de stabilité implantaire ont augmenté de 5 ISQ indépendamment de la mise en charge. Les niveaux moyens d’ISQ n’ont pas été démontrés statistiquement différents entre les implants avec mise en charge immédiate et les témoins à T0 ou T1. Cinq des 18 patients n’ont expérimenté aucune complication clinique, alors que 9 en ont eu au moins deux. Hormis les échecs implantaires, aucune de ces complications n’a entraîné de changements au protocole. Conclusion : Les résultats à court terme suggèrent que : (1) le taux de survie implantaire suite au protocole immédiat est similaire à ceux rapportés lors d’un protocole de mise en charge conventionnel (2) les changements d’os de support implantaire et de stabilité ne sont pas différents comparativement à ceux d’un implant témoin, (3) un niveau élevé d’expérience clinique et chirurgicale est requis pour effectuer les procédures et pour gérer les complications associées. Ces résultats préliminaires devraient être confirmés dans une étude clinique de phase II.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Problématique : La majorité des études publiées sur la réhabilitation par mise en charge immédiate de deux implants non jumelés avec une prothèse totale mandibulaire de recouvrement n’ont rapporté que des mesures cliniques objectives et très peu ont évalué les mesures centrées sur le patient, et ce, avec des erreurs de mesure. Aucune étude n’a évalué les attentes des patients vis-à-vis d'un tel protocole. Objectifs : Évaluer les attentes, le niveau de satisfaction ainsi que la qualité de vie reliée à la santé bucco-dentaire des édentés complets suite à un protocole de mise en charge immédiate. Méthodologie : Cet essai clinique de phase 1 utilise un design pré-post afin d’évaluer les mesures centrées sur le patient. Dix-huit individus, complètement édentés et âgés en moyenne de 62,39 ± 7,65 ans, ont reçu une prothèse totale mandibulaire de recouvrement sur deux implants non jumelés suite à un protocole de mise en charge immédiate, conjointement à une prothèse totale conventionnelle maxillaire. Un instrument adapté pour mesurer leurs attentes à l’aide d’échelles visuelles analogues, le questionnaire « McGill Denture Satisfaction Instrument » ainsi que le questionnaire OHIP-20 ont été remis aux patients avant de procéder aux traitements (T0), ainsi qu’aux rendez-vous de suivi à 2 semaines (T1), 1 mois (T2) et 4 mois (T3). De plus, l’inventaire de personnalité révisé (NÉO PI-R) ainsi qu’un questionnaire sociodémographique ont été remplis par les participants. Les « change scores » ont été calculés puis des tests non paramétriques et des analyses de variances en mesures répétées suivies de comparaisons par paires ont été utilisés afin d’analyser les données recueillies. La taille d’effet a été estimée. Résultats : Les participants avaient différentes attentes par rapport à la mise en charge immédiate. Certains s’attendaient à un effet positif à court terme par rapport à leur apparence esthétique (83,3 %) et à leur vie sociale (55,7 %), alors que d’autres avaient des craintes envers leur confort (5,6 %), leur habileté à mastiquer (11,1 %) et à nettoyer leur prothèse inférieure (11,1 %). À 4 mois, le protocole de mise en charge immédiate avait rencontré la majorité des attentes des patients par rapport à l’esthétique (94.4 %), la mastication (83.3 %), la phonétique (61.1 %), le confort (94.4 %), l’hygiène (88.9 %) et leur vie sociale (88.9 %). Une amélioration statistiquement significative de la satisfaction en générale, du confort, de l’esthétique, de la stabilité de la prothèse inférieure et de l’habileté à mastiquer a été notée à 2 semaines (p<0,001). Également, les comparaisons par paires ont révélé une diminution statistiquement significative du score total de l’OHIP-20 (p < 0,001) de même que la majorité des domaines de l’OHIP (p < 0.01), sauf pour l’handicap social qui n’a diminué significativement qu’après 1 mois (p = 0.01). Ces changements (pour la satisfaction et la qualité de vie) sont restés stables au cours des suivis subséquents. Indépendamment des traits de personnalité et des variables sociodémographiques, le protocole immédiat a satisfait 94,4 % des participants et a amélioré leur qualité de vie avec une large magnitude d’effet (d = 1.9; p < 0.001). Bien que deux patients aient perdu des implants au cours du traitement, 100 % des participants étaient d’accord pour recommander cette procédure à leurs pairs. Conclusions: Le protocole de mise en charge immédiate semble satisfaire les patients quelles que soient leurs attentes. Le protocole MCI peut améliorer, à court terme, la qualité de vie des patients totalement édentés. Les résultats prometteurs de la phase 1 devraient être corroborés lors de la 2e phase de cette étude.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse porte sur la reconstruction active de modèles 3D à l’aide d’une caméra et d’un projecteur. Les méthodes de reconstruction standards utilisent des motifs de lumière codée qui ont leurs forces et leurs faiblesses. Nous introduisons de nouveaux motifs basés sur la lumière non structurée afin de pallier aux manques des méthodes existantes. Les travaux présentés s’articulent autour de trois axes : la robustesse, la précision et finalement la comparaison des patrons de lumière non structurée aux autres méthodes. Les patrons de lumière non structurée se différencient en premier lieu par leur robustesse aux interréflexions et aux discontinuités de profondeur. Ils sont conçus de sorte à homogénéiser la quantité d’illumination indirecte causée par la projection sur des surfaces difficiles. En contrepartie, la mise en correspondance des images projetées et capturées est plus complexe qu’avec les méthodes dites structurées. Une méthode d’appariement probabiliste et efficace est proposée afin de résoudre ce problème. Un autre aspect important des reconstructions basées sur la lumière non structurée est la capacité de retrouver des correspondances sous-pixels, c’est-à-dire à un niveau de précision plus fin que le pixel. Nous présentons une méthode de génération de code de très grande longueur à partir des motifs de lumière non structurée. Ces codes ont l’avantage double de permettre l’extraction de correspondances plus précises tout en requérant l’utilisation de moins d’images. Cette contribution place notre méthode parmi les meilleures au niveau de la précision tout en garantissant une très bonne robustesse. Finalement, la dernière partie de cette thèse s’intéresse à la comparaison des méthodes existantes, en particulier sur la relation entre la quantité d’images projetées et la qualité de la reconstruction. Bien que certaines méthodes nécessitent un nombre constant d’images, d’autres, comme la nôtre, peuvent se contenter d’en utiliser moins aux dépens d’une qualité moindre. Nous proposons une méthode simple pour établir une correspondance optimale pouvant servir de référence à des fins de comparaison. Enfin, nous présentons des méthodes hybrides qui donnent de très bons résultats avec peu d’images.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans cette thèse, nous étudions quelques problèmes fondamentaux en mathématiques financières et actuarielles, ainsi que leurs applications. Cette thèse est constituée de trois contributions portant principalement sur la théorie de la mesure de risques, le problème de l’allocation du capital et la théorie des fluctuations. Dans le chapitre 2, nous construisons de nouvelles mesures de risque cohérentes et étudions l’allocation de capital dans le cadre de la théorie des risques collectifs. Pour ce faire, nous introduisons la famille des "mesures de risque entropique cumulatifs" (Cumulative Entropic Risk Measures). Le chapitre 3 étudie le problème du portefeuille optimal pour le Entropic Value at Risk dans le cas où les rendements sont modélisés par un processus de diffusion à sauts (Jump-Diffusion). Dans le chapitre 4, nous généralisons la notion de "statistiques naturelles de risque" (natural risk statistics) au cadre multivarié. Cette extension non-triviale produit des mesures de risque multivariées construites à partir des données financiéres et de données d’assurance. Le chapitre 5 introduit les concepts de "drawdown" et de la "vitesse d’épuisement" (speed of depletion) dans la théorie de la ruine. Nous étudions ces concepts pour des modeles de risque décrits par une famille de processus de Lévy spectrallement négatifs.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse a pour point de départ l’idée du jeune Heidegger selon laquelle le sens de l’être doit être recherché au moyen d’une phénoménologie ontologique, plus précisément par l’analytique existentiale du Dasein et la destruction de l’histoire de l’ontologie ; ou, comme nous l’interprétons, dans la transcendance du Dasein et la transcendance de l’être. L’étude du problème de la transcendance fait l’objet d’une approche phénoménologique, laquelle porte une attention particulière au vécu en tant que tel ainsi qu’aux conditions de possibilité de ce vécu, et repose sur une lecture attentive et critique des œuvres de Heidegger. C’est une telle approche phénoménologique qui nous permettra de mener à bien notre analyse du problème de la transcendance dans le corpus heideggérien. Nous serons par ailleurs en mesure d’aborder le débat opposant à ce sujet la tradition analytique (plus particulièrement l’approche pragmatiste) et la tradition continentale, notre étude s’inscrivant dans le cadre de cette dernière. Nous proposons ici une phénoménologie du problème de la transcendance qui fait également figure de phénoménologie du sens, de la possibilité et de la normativité. Prenant pour point de départ certaines contributions issues de la tradition continentale, nous soutenons que le sens de l’être peut être compris comme le problème de la transcendance. L’histoire de la philosophie doit être perturbée, déconstruite et repensée afin que le chemin de la philosophie, encore non pensé, puisse être mis au jour. L’accès à cet autre commencement doit être recherché dans la transcendance en tant que telle – de l’appel de la conscience fondé dans la nullité à l’encontre authentique avec la mort et l’ouverture de la temporalité ; de l’avènement historial de l’être jusqu’à, ultimement, le i! ! ! ! refus de l’être et le retrait du rien. L’événement (Ereignis) de l’être est donc compris comme processus de dépassement de soi à partir duquel la transcendance de l’être – ou, comme le formule Heidegger, la fin des questions – est possible.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper discusses the problem of optimal design of a jurisdiction structure from the view point of a utilitarian social planner when individuals with identical utility functions for a non-rival public good and private consumption have private information about their contributive capacities. It shows that the superiority of a centralized provision of a non-rival public good over a federal one does not always hold. Specifically, when differences in individuals’ contributive capacities are large, it is better to provide the public good in several distinct jurisdictions rather than to pool these jurisdictions into a single one. In the specific situation where individuals have logarithmic utilities, the paper provides a complete characterization of the optimal jurisdiction structure in the two-type case.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

An immense variety of problems in theoretical physics are of the non-linear type. Non~linear partial differential equations (NPDE) have almost become the rule rather than an exception in diverse branches of physics such as fluid mechanics, field theory, particle physics, statistical physics and optics, and the construction of exact solutions of these equations constitutes one of the most vigorous activities in theoretical physics today. The thesis entitled ‘Some Non-linear Problems in Theoretical Physics’ addresses various aspects of this problem at the classical level. For obtaining exact solutions we have used mathematical tools like the bilinear operator method, base equation technique and similarity method with emphasis on its group theoretical aspects. The thesis deals with certain methods of finding exact solutions of a number of non-linear partial differential equations of importance to theoretical physics. Some of these new solutions are of relevance from the applications point of view in diverse branches such as elementary particle physics, field theory, solid state physics and non-linear optics and give some insight into the stable or unstable behavior of dynamical Systems The thesis consists of six chapters.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We consider a first order implicit time stepping procedure (Euler scheme) for the non-stationary Stokes equations in smoothly bounded domains of R3. Using energy estimates we can prove optimal convergence properties in the Sobolev spaces Hm(G) (m = 0;1;2) uniformly in time, provided that the solution of the Stokes equations has a certain degree of regularity. For the solution of the resulting Stokes resolvent boundary value problems we use a representation in form of hydrodynamical volume and boundary layer potentials, where the unknown source densities of the latter can be determined from uniquely solvable boundary integral equations’ systems. For the numerical computation of the potentials and the solution of the boundary integral equations a boundary element method of collocation type is used. Some simulations of a model problem are carried out and illustrate the efficiency of the method.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The problem of the relevance and the usefulness of extracted association rules is of primary importance because, in the majority of cases, real-life databases lead to several thousands association rules with high confidence and among which are many redundancies. Using the closure of the Galois connection, we define two new bases for association rules which union is a generating set for all valid association rules with support and confidence. These bases are characterized using frequent closed itemsets and their generators; they consist of the non-redundant exact and approximate association rules having minimal antecedents and maximal consequences, i.e. the most relevant association rules. Algorithms for extracting these bases are presented and results of experiments carried out on real-life databases show that the proposed bases are useful, and that their generation is not time consuming.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We consider an online learning scenario in which the learner can make predictions on the basis of a fixed set of experts. The performance of each expert may change over time in a manner unknown to the learner. We formulate a class of universal learning algorithms for this problem by expressing them as simple Bayesian algorithms operating on models analogous to Hidden Markov Models (HMMs). We derive a new performance bound for such algorithms which is considerably simpler than existing bounds. The bound provides the basis for learning the rate at which the identity of the optimal expert switches over time. We find an analytic expression for the a priori resolution at which we need to learn the rate parameter. We extend our scalar switching-rate result to models of the switching-rate that are governed by a matrix of parameters, i.e. arbitrary homogeneous HMMs. We apply and examine our algorithm in the context of the problem of energy management in wireless networks. We analyze the new results in the framework of Information Theory.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The low levels of unemployment recorded in the UK in recent years are widely cited as evidence of the country’s improved economic performance, and the apparent convergence of unemployment rates across the country’s regions used to suggest that the longstanding divide in living standards between the relatively prosperous ‘south’ and the more depressed ‘north’ has been substantially narrowed. Dissenters from these conclusions have drawn attention to the greatly increased extent of non-employment (around a quarter of the UK’s working age population are not in employment) and the marked regional dimension in its distribution across the country. Amongst these dissenters it is generally agreed that non-employment is concentrated amongst older males previously employed in the now very much smaller ‘heavy’ industries (e.g. coal, steel, shipbuilding). This paper uses the tools of compositiona l data analysis to provide a much richer picture of non-employment and one which challenges the conventional analysis wisdom about UK labour market performance as well as the dissenters view of the nature of the problem. It is shown that, associated with the striking ‘north/south’ divide in nonemployment rates, there is a statistically significant relationship between the size of the non-employment rate and the composition of non-employment. Specifically, it is shown that the share of unemployment in non-employment is negatively correlated with the overall non-employment rate: in regions where the non-employment rate is high the share of unemployment is relatively low. So the unemployment rate is not a very reliable indicator of regional disparities in labour market performance. Even more importantly from a policy viewpoint, a significant positive relationship is found between the size of the non-employment rate and the share of those not employed through reason of sickness or disability and it seems (contrary to the dissenters) that this connection is just as strong for women as it is for men

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Decisions of national importance are made by Parliamentary voting. Yet Indian Members of Parliament (MPs) vote with a remarkable lack of freedom and accountability. The introduction of the Tenth Schedule in the Constitution has crippled free expression, since it provides that MPs voting against ‘any direction’ of their Party are liable to disqualification from the legislature  In addition, except for Constitutional amendments, Indian Parliamentary Procedure Rules do not require votes of MPs to be recorded unless the Speaker’s decision is contested in the House. The result is that voting in the House has become mechanical, controlled by Party politics and devoid of responsibility. This paper comments on a general theory of democratic accountability through the lens of Parliamentary voting. It suggests that the voting system adopted in the Parliament is an effective indicator to measure the level of accountability of its Members. In the context of India, this paper argues that the level of accountability will increase to a desirable extent only when there is adoption of a recorded system for every important House vote. Upon examination of India’s record thus far (through the sample of the 14th Lok Sabha) it becomes evident that the level of divisions (recorded votes) is substantially lower than other countries. This leads the paper to probe, as to why that might be the case. Part II of the paper answers that question by examining the Tenth Schedule of the Constitution. The paper scrutinizes the disproportionate influence of the Party in decision making in the Parliament. Apart from dealing with the inherent problem of the Tenth Schedule, this paper suggests two procedural changes to make parliamentary expression more meaningful. Firstly, the recording of all important votes within the Parliament and secondly, registering Party whips with the Minister of Parliamentary Affairs so that the voter knows the clear stand of every Parliamentary continuum. The focus of the paper is thus to bring back the attention of the legislators to their central function, which is deliberation on and the passage of legislation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We study a particular restitution problem where there is an indivisible good (land or property) over which two agents have rights: the dispossessed agent and the owner. A third party, possibly the government, seeks to resolve the situation by assigning rights to one and compensate the other. There is also a maximum amount of money available for the compensation. We characterize a family of asymmetrically fair rules that are immune to strategic behavior, guarantee minimal welfare levels for the agents, and satisfy the budget constraint.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this paper we consider the 2D Dirichlet boundary value problem for Laplace’s equation in a non-locally perturbed half-plane, with data in the space of bounded and continuous functions. We show uniqueness of solution, using standard Phragmen-Lindelof arguments. The main result is to propose a boundary integral equation formulation, to prove equivalence with the boundary value problem, and to show that the integral equation is well posed by applying a recent partial generalisation of the Fredholm alternative in Arens et al [J. Int. Equ. Appl. 15 (2003) pp. 1-35]. This then leads to an existence proof for the boundary value problem. Keywords. Boundary integral equation method, Water waves, Laplace’s