975 resultados para non-hyperbolic solution
Resumo:
Réalisé en cotutelle avec l'Université Joseph Fourier École Doctorale Ingénierie pour la Santé,la Cognition et l'Environnement (France)
Resumo:
Dans ce travail, nous adaptons la méthode des symétries conditionnelles afin de construire des solutions exprimées en termes des invariants de Riemann. Dans ce contexte, nous considérons des systèmes non elliptiques quasilinéaires homogènes (de type hydrodynamique) du premier ordre d'équations aux dérivées partielles multidimensionnelles. Nous décrivons en détail les conditions nécessaires et suffisantes pour garantir l'existence locale de ce type de solution. Nous étudions les relations entre la structure des éléments intégraux et la possibilité de construire certaines classes de solutions de rang k. Ces classes de solutions incluent les superpositions non linéaires d'ondes de Riemann ainsi que les solutions multisolitoniques. Nous généralisons cette méthode aux systèmes non homogènes quasilinéaires et non elliptiques du premier ordre. Ces méthodes sont appliquées aux équations de la dynamique des fluides en (3+1) dimensions modélisant le flot d'un fluide isentropique. De nouvelles classes de solutions de rang 2 et 3 sont construites et elles incluent des solutions double- et triple-solitoniques. De nouveaux phénomènes non linéaires et linéaires sont établis pour la superposition des ondes de Riemann. Finalement, nous discutons de certains aspects concernant la construction de solutions de rang 2 pour l'équation de Kadomtsev-Petviashvili sans dispersion.
Resumo:
L’application des métaux de transition à la fonctionnalisation directe a ouvert la voie à une nouvelle classe de réactions pour la formation de liens carbone-carbone. De par l'omniprésence des liaisons C–H, l’introduction de nouvelles fonctionnalités chimiques par voie directe et pré-activation minimale s’impose comme une stratégie de synthèse très attrayante. Ainsi, il est envisageable de préparer de manière rapide et efficace des supports complexes menant à des molécules complexes, qui pourraient être utiles dans divers domaines de la chimie. L'objectif principal de la présente thèse vise la fonctionnalisation directe des arènes hétérocycliques et non hétérocycliques et, plus précisément, les techniques d’arylation. Dans un premier temps, nous allons aborder le thème de l’arylation directe tout en mettant l’accent sur les pyridines (Chapitre 1). Ces molécules sont à la base d'une multitude de composés biologiquement actifs et jouent un rôle important dans le domaine des sciences des matériaux, de l’agrochimie et de la synthèse des produits naturels. Dans un deuxième temps, nous discuterons de nos travaux sur l’arylation directe catalysé par un complex de palladium sur des ylures de N-iminopyridinium en soulignant la dérivatisation du sel de pyridinium après une phénylation sp2 (Chapitre 2). L’étude de ce procédé nous a permis de mettre en lumière plusieurs découvertes importantes, que nous expliquerons en détails une à une : l’arylation benzylique directe lorsque des ylures N-iminopyridinium substituées avec un groupement alkyl à la position 2 sont utilisés comme partenaires dans la réaction; les allylations Tsuji-Trost catalysée par un complex de palladium; et l’alkylation directe et sans métal via une catalyse par transfert de phase. Plusieurs défis restent à relever pour le développement de procédés directs utilisant des métaux de transition peu coûteux, d’autant plus que la synthèse par transformation directe des pyridines 2-alcényles, lesquelles sont pertinentes sur le plan pharmacologique, n’a pas encore été rapportée à ce jour. Avec cette problématique en tête, nous avons réussi à mettre au point une alcénylation directe catalysé par un complex de cuivre sur des ylures de N-iminopyridinium. Nous discuterons également d’une nouvelle méthode pour la préparation des iodures de vinyle utilisés dans les couplages. Ces réactions sont non seulement remarquablement chimiosélectives, mais sont aussi applicables à plusieurs substrats (Chapitre 3). En optimisant ce procédé direct, nous avons découvert une façon unique de synthétiser les pyrazolo[1,5-a]pyridines 2-substituées (Chapitre 4). Le mécanisme global met en jeu une séquence tandem de fonctionnalisation-cyclisation directe et un procédé direct en cascade, qui n’avais jamais été rapporté. Cela simplifie ansi la synthèse autrement compliquée de ces substrats en y apportant une solution à un problème de longue date. Dans les deux derniers chapitres, nous examinerons en détail les techniques d’arylation directe qui n'impliquent pas les partenaires de couplage hétérocycliques. Entre autres, au Chapitre 5, nous soulignerons notre découverte d’un umpolung dirigé et catalysé par un complexe de palladium du benzène et de quelques autres dérivés arènes. Il s’agit là du premier cas de fonctionnalisation directe dans laquelle le groupe directeur se trouve sur le partenaire halogène et il s’ajoute à la courte liste d’exemples connus dans la littérature rapportant une arylation directe du benzène. Finalement, au Chapitre 6, nous passerons en revue une nouvelle arylation directe catalysée au fer, qui se veut un procédé peu coûteux, durable et présentant une économie d’atomes. Nous discutons des substrats possibles ainsi des études mécanistiques réalisés.
Resumo:
This paper provides a comparative analysis of corporate law and CSR and asks whether there are lessons for Australia from corporate law and CSR developments in France. This presentation presents a summary of the provisions of the new French Act Number 2010-788 passed on 12 July 2010 – called “Grenelle 2” –. Firstly, article 225 of Law’s Grenelle 2 changes the Commercial Code to extend the reach of non-financial reporting and to ensure its pertinence. Secondly, article 227 Law’s Grenelle 2 amends certain provisions of the Commercial and Environmental Codes and incorporates into substantive law the liability of parent companies for their subsidiaries. In fine, article 224 of Law’s Grenelle 2 reinforces the pressure on the market to act in a responsible manner. It modifies article 214-12 of the Monetary and Financial Code in order to compel institutional investors (mutual funds and fund management companies) to take social, environmental and governance criteria into account in their investment policy.
Resumo:
Les macrocycles ont longtemps attiré l'attention des chimistes. Malgré cet intérêt, peu de méthodes générales et efficaces pour la construction de macrocycles ont été développés. Récemment, notre groupe a développé un programme de recherche visant à développer de nouvelles voies vers la synthèse de paracyclophanes et ce mémoire présente l pluspart des efforts les plus récents dans ce domaine. Traditionnellement, la synthèse de paracyclophanes rigides est facilitée par l'installation d'un groupe fonctionnel capable de contrôler la structure de la molécule en solution (ex un élément de contrôle de conformation (ECC)). Cependant, cette approche utilisant des auxiliaires exige que le ECC soit facilement installé avant macrocyclisation et facilement enlevé après la cyclisation. Le présent mémoire décrit une méthode alternative pour guider la macrocyclisations difficile à travers l'utilisation d'additifs comme ECC. Les additifs sont des hétérocycles aromatiques N-alkylé qui sont bon marché, faciles à préparer et peuvent être facilement ajoutés à un mélange de réaction et enlevés suite à la macrocyclisation par simple précipitation et de filtration. En outre, les ECCs sont recyclables. L'utilisation du nouveau ECC est démontré dans la synthèse des para-et métacyclophanes en utilisant soit la métathèse de fermeture de cycle (RCM) ou couplage de Glaser-Hay.
Resumo:
Réalisé en majeure partie sous la tutelle de feu le Professeur Paul Arminjon. Après sa disparition, le Docteur Aziz Madrane a pris la relève de la direction de mes travaux.
Resumo:
Au cours des dernières années, le développement des connaissances au niveau de l’étiologie de la maladie ainsi que l’arrivée de nouveaux médicaments et de lignes directrices guidant la pratique clinique sont susceptibles d’avoir entraîné une meilleure gestion de la polyarthrite rhumatoïde (PAR) et de l’ostéoporose, une comorbidité fréquente chez ces patients. Dans cette thèse, trois questions de recherche sont étudiées à l’aide des banques de données administratives québécoises (RAMQ, MED-ÉCHO). Une première étude documente l’utilisation des médicaments pour la PAR au Québec. À ce jour, il s’agit de la seule étude canadienne à rapporter les tendances d’utilisation des DMARD (disease-modifying antirheumatic drug) biologiques depuis leur introduction dans la pratique clinique. Au cours de la période à l’étude (2002-2008), l’utilisation de DMARD (synthétiques et biologiques) a augmenté légèrement dans la population atteinte de PAR (1,9%, 95% CI : 1,1 - 2,8). Cependant, malgré la présence de recommandations cliniques soulignant l’importance de commencer un traitement rapidement, et la couverture de ces traitements par le régime général d’assurance médicaments, les résultats démontrent une initiation sous-optimale des DMARD chez les patients nouvellement diagnostiqués (probabilité d’initiation à 12 mois : 38,5%). L’initiation de DMARD était beaucoup plus fréquente lorsqu’un rhumatologue était impliqué dans la provision des soins (OR : 4,31, 95% CI : 3,73 - 4,97). Concernant les DMARD biologiques, le facteur le plus fortement associé avec leur initiation était l’année calendrier. Chez les sujets diagnostiqués en 2002, 1,2 sur 1 000 ont initié un DMARD biologique moins d’un an après leur diagnostic. Pour ceux qui ont été diagnostiqués en 2007, le taux était de 13 sur 1 000. Les résultats démontrent que si la gestion pharmacologique de la PAR s’est améliorée au cours de la période à l’étude, elle demeure tout de même sous-optimale. Assurer un meilleur accès aux rhumatologues pourrait, semble-t-il, être une stratégie efficace pour améliorer la qualité des soins chez les patients atteints de PAR. Dans une deuxième étude, l’association entre l’utilisation des DMARD biologiques et le risque de fractures ostéoporotiques non vertébrales chez des patients PAR âgés de 50 ans et plus a été rapportée. Puisque l’inflammation chronique résultant de la PAR interfère avec le remodelage osseux et que les DMARD biologiques, en plus de leur effet anti-inflammatoire et immunosuppresseur, sont des modulateurs de l’activité cellulaire des ostéoclastes et des ostéoblastes pouvant possiblement mener à la prévention des pertes de densité minérale osseuse (DMO), il était attendu que leur utilisation réduirait le risque de fracture. Une étude de cas-témoin intra-cohorte a été conduite. Bien qu’aucune réduction du risque de fracture suivant l’utilisation de DMARD biologiques n’ait pu être démontrée (OR : 1,03, 95% CI : 0,42 - 2,53), l’étude établit le taux d’incidence de fractures ostéoporotiques non vertébrales dans une population canadienne atteinte de PAR (11/1 000 personnes - années) et souligne le rôle d’importants facteurs de risque. La prévalence élevée de l’ostéoporose dans la population atteinte de PAR justifie que l’on accorde plus d’attention à la prévention des fractures. Finalement, une troisième étude explore l’impact de la dissémination massive, en 2002, des lignes directrices du traitement de l’ostéoporose au Canada sur la gestion pharmacologique de l’ostéoporose et sur les taux d’incidence de fractures ostéoporotiques non vertébrales chez une population de patients PAR âgés de 50 ans et plus entre 1998 et 2008. Étant donné la disponibilité des traitements efficaces pour l’ostéoporose depuis le milieu des années 1990 et l’évolution des lignes directrices de traitement, une réduction du taux de fractures était attendue. Quelques études canadiennes ont démontré une réduction des fractures suivant une utilisation étendue des médicaments contre l’ostéoporose et de l’ostéodensitométrie dans une population générale, mais aucune ne s’est attardée plus particulièrement sur une population adulte atteinte de PAR. Dans cette étude observationnelle utilisant une approche de série chronologique, aucune réduction du taux de fracture après 2002 (période suivant la dissémination des lignes directrices) n’a pu être démontrée. Cependant, l’utilisation des médicaments pour l’ostéoporose, le passage d’ostéodensitométrie, ainsi que la provision de soins pour l’ostéoporose en post-fracture ont augmenté. Cette étude démontre que malgré des années de disponibilité de traitements efficaces et d’investissement dans le développement et la promotion de lignes directrices de traitement, l’effet bénéfique au niveau de la réduction des fractures ne s’est toujours pas concrétisé dans la population atteinte de PAR, au cours de la période à l’étude. Ces travaux sont les premiers à examiner, à l’aide d’une banque de données administratives, des sujets atteints de PAR sur une période s’étalant sur 11 ans, permettant non seulement l’étude des changements de pratique clinique suivant l’apparition de nouveaux traitements ou bien de nouvelles lignes directrices, mais également de leur impact sur la santé. De plus, via l’étude des déterminants de traitement, les résultats offrent des pistes de solution afin de combler l’écart entre la pratique observée et les recommandations cliniques. Enfin, les résultats de ces études bonifient la littérature concernant la qualité des soins pharmacologiques chez les patients PAR et de la prévention des fractures.
Resumo:
Introduction. In utero, l’infection des membranes maternelles et fœtales, la chorioamniotite, passe souvent inaperçue et, en particulier lorsque associée à une acidémie, due à l’occlusion du cordon ombilical (OCO), comme il se produirait au cours du travail, peut entrainer des lésions cérébrales et avoir des répercussions neurologiques péri - et postnatales à long terme chez le fœtus. Il n'existe actuellement aucun moyen de détecter précocement ces conditions pathologiques in utéro afin de prévenir ou de limiter ces atteintes. Hypothèses. 1)l’électroencéphalogramme (EEG) fœtal obtenu du scalp fœtal pourrait servir d’outil auxiliaire à la surveillance électronique fœtale du rythme cardiaque fœtal (RCF) pour la détection précoce d'acidémie fœtale et d'agression neurologique; 2) la fréquence d’échantillonnage de l’ECG fœtal (ECGf) a un impact important sur le monitoring continu de la Variabilité du Rythme Cardiaque (VRCf) dans la prédiction de l’acidémie fœtale ; 3) les patrons de la corrélation de la VRCf aux cytokines pro-inflammatoires refléteront les états de réponses spontanées versus inflammatoires de la Voie Cholinergique Anti-inflammatoire (VCA); 4) grâce au développement d’un modèle de prédictions mathématiques, la prédiction du pH et de l’excès de base (EB) à la naissance sera possible avec seulement une heure de monitoring d’ECGf. Méthodes. Dans une série d’études fondamentales et cliniques, en utilisant respectivement le mouton et une cohorte de femmes en travail comme modèle expérimental et clinique , nous avons modélisé 1) une situation d’hypoxie cérébrale résultant de séquences d’occlusion du cordon ombilical de sévérité croissante jusqu’à atteindre un pH critique limite de 7.00 comme méthode expérimentale analogue au travail humain pour tester les première et deuxième hypothèses 2) un inflammation fœtale modérée en administrant le LPS à une autre cohorte animale pour vérifier la troisième hypothèse et 3) un modèle mathématique de prédictions à partir de paramètres et mesures validés cliniquement qui permettraient de déterminer les facteurs de prédiction d’une détresse fœtale pour tester la dernière hypothèse. Résultats. Les séries d’OCO répétitives se sont soldés par une acidose marquée (pH artériel 7.35±0.01 à 7.00±0.01), une diminution des amplitudes à l'électroencéphalogramme( EEG) synchronisé avec les décélérations du RCF induites par les OCO accompagnées d'une baisse pathologique de la pression artérielle (PA) et une augmentation marquée de VRCf avec hypoxie-acidémie aggravante à 1000 Hz, mais pas à 4 Hz, fréquence d’échantillonnage utilisée en clinique. L’administration du LPS entraîne une inflammation systémique chez le fœtus avec les IL-6 atteignant un pic 3 h après et des modifications de la VRCf retraçant précisément ce profil temporel des cytokines. En clinique, avec nos cohortes originale et de validation, un modèle statistique basée sur une matrice de 103 mesures de VRCf (R2 = 0,90, P < 0,001) permettent de prédire le pH mais pas l’EB, avec une heure d’enregistrement du RCF avant la poussée. Conclusions. La diminution de l'amplitude à l'EEG suggère un mécanisme d'arrêt adaptatif neuroprotecteur du cerveau et suggère que l'EEG fœtal puisse être un complément utile à la surveillance du RCF pendant le travail à haut risque chez la femme. La VRCf étant capable de détecter une hypoxie-acidémie aggravante tôt chez le fœtus à 1000Hz vs 4 Hz évoque qu’un mode d'acquisition d’ECG fœtal plus sensible pourrait constituer une solution. Des profils distinctifs de mesures de la VRCf, identifiés en corrélation avec les niveaux de l'inflammation, ouvre une nouvelle voie pour caractériser le profil inflammatoire de la réponse fœtale à l’infection. En clinique, un monitoring de chevet de prédiction du pH et EB à la naissance, à partir de mesures de VRCf permettrait des interprétations visuelles plus explicites pour des prises de décision plus exactes en obstétrique au cours du travail.
Resumo:
La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution.
Resumo:
Ce texte porte sur l’analyse sémantique de la logique déontique. Nous analyserons de façon critique un texte de Schotch (1981) portant sur une interprétation de la logique déontique dans le cadre d’une sémantique non-kripkéenne. Nous laisserons de côté les choix relatifs à la syntaxe de son système afin de se concentrer sur l’analyse sémantique qu’il expose contre la logique déontique et sur celle qu’il propose en retour. Avant de voir le détail de son raisonnement, nous présenterons brièvement quelques notions de logique modale afin de faciliter la compréhension de l’argument de Schotch. Nous présenterons ensuite l’argument de l’auteur contre la logique déontique afin de pouvoir exposer sa solution, ce qui ouvrira la porte à une lecture critique de son analyse.
Resumo:
The dual-beam thermal lens technique has been found to be very effective for the measurement of fluorescence quantum yields of dye solutions. The concentration-dependence of the quantum yield of rhodamine B in methanol is studied here using this technique. The observed results are in line with the conclusion that the reduction in the quantum yield in the quenching region is essentially due to the non-radiative relaxation of the absorbed energy. The thermal lens has been found to become abberated above 40 mW of pump laser power. This low value for the upper limit of pump power is due to the fact that the medium is a resonantly absorbing one.
Resumo:
In this thesis the author has presented qualitative studies of certain Kdv equations with variable coefficients. The well-known KdV equation is a model for waves propagating on the surface of shallow water of constant depth. This model is considered as fitting into waves reaching the shore. Renewed attempts have led to the derivation of KdV type equations in which the coefficients are not constants. Johnson's equation is one such equation. The researcher has used this model to study the interaction of waves. It has been found that three-wave interaction is possible, there is transfer of energy between the waves and the energy is not conserved during interaction.
Resumo:
We consider a first order implicit time stepping procedure (Euler scheme) for the non-stationary Stokes equations in smoothly bounded domains of R3. Using energy estimates we can prove optimal convergence properties in the Sobolev spaces Hm(G) (m = 0;1;2) uniformly in time, provided that the solution of the Stokes equations has a certain degree of regularity. For the solution of the resulting Stokes resolvent boundary value problems we use a representation in form of hydrodynamical volume and boundary layer potentials, where the unknown source densities of the latter can be determined from uniquely solvable boundary integral equations’ systems. For the numerical computation of the potentials and the solution of the boundary integral equations a boundary element method of collocation type is used. Some simulations of a model problem are carried out and illustrate the efficiency of the method.
Resumo:
Biotinylated and non-biotinylated copolymers of ethylene oxide (EO) and 2-(diethylamino)ethyl methacrylate (DEAEMA) were synthesized by the atom transfer radical polymerization technique (ATRP). The chemical compositions of the copolymers as determined by NMR are represented by PEO₁₁₃PDEAEMA₇₀ and biotin-PEO₁₀₄PDEAEMA₉₃ respectively. The aggregation behavior of these polymers in aqueous solutions at different pHs and ionic strengths was studied using a combination of potentiometric titration, dynamic light scattering (DLS), static light scattering (SLS), and transmission electron microscopy (TEM). Both PEO-b-PDEAEMA and biotin-PEO-b-PDEAEMA diblock copolymers form micelles at high pH with hydrodynamic radii (Rh) of about 19 and 23 nm, respectively. At low pH, the copolymers are dispersed as unimers in solution with Rh of about 6-7 nm. However, at a physiological salt concentration (cs) of about 0.16M NaCl and a pH of 7-8, the copolymers form large loosely packed Guassian chains, which were not present at the low cs of 0.001M NaCl. The critical micelle concentrations (CMC) and the cytotoxicity of the copolymers were investigated to determine a suitable polymer concentration range for future biological applications. Both PEO-b-PDEAEMA and biotin-PEO-b-PDEAEMA diblock copolymers possess identical CMC values of about 0.0023 mg/g, while the cytotoxicity test indicated that the copolymers are not toxic up to 0.05mg/g (> 83% cell survival at this concentration).
Resumo:
One of the tantalising remaining problems in compositional data analysis lies in how to deal with data sets in which there are components which are essential zeros. By an essential zero we mean a component which is truly zero, not something recorded as zero simply because the experimental design or the measuring instrument has not been sufficiently sensitive to detect a trace of the part. Such essential zeros occur in many compositional situations, such as household budget patterns, time budgets, palaeontological zonation studies, ecological abundance studies. Devices such as nonzero replacement and amalgamation are almost invariably ad hoc and unsuccessful in such situations. From consideration of such examples it seems sensible to build up a model in two stages, the first determining where the zeros will occur and the second how the unit available is distributed among the non-zero parts. In this paper we suggest two such models, an independent binomial conditional logistic normal model and a hierarchical dependent binomial conditional logistic normal model. The compositional data in such modelling consist of an incidence matrix and a conditional compositional matrix. Interesting statistical problems arise, such as the question of estimability of parameters, the nature of the computational process for the estimation of both the incidence and compositional parameters caused by the complexity of the subcompositional structure, the formation of meaningful hypotheses, and the devising of suitable testing methodology within a lattice of such essential zero-compositional hypotheses. The methodology is illustrated by application to both simulated and real compositional data