976 resultados para Symmetry-breaking instability
Resumo:
Chaque année, environ 1 à 1,25 million d’individus subiront une chirurgie cardiaque. [1] Environ 36 000 chirurgies cardiaques sont effectuées au Canada et 8000 procédures au Québec (http://www.ccs.ca). Le vieillissement de la population aura pour conséquence que la chirurgie cardiaque sera offerte à des patients de plus en plus à risque de complications, principalement en raison d’une co-morbidité plus importante, d’un risque de maladie coronarienne plus élevée, [2] d’une réserve physiologique réduite et par conséquent un risque plus élevé de mortalité à la suite d’une chirurgie cardiaque. L’une des complications significatives à la suite d’une chirurgie cardiaque est le sevrage difficile de la circulation extracorporelle. Ce dernier inclut la période au début du sevrage de la circulation extracorporelle et s’étend jusqu’au départ du patient de la salle d’opération. Lorsque le sevrage de la circulation extracorporelle est associé à une défaillance ventriculaire droite, la mortalité sera de 44 % à 86 %. [3-7] Par conséquent le diagnostic, l’identification des facteurs de risque, la compréhension du mécanisme, la prévention et le traitement du sevrage difficile de la circulation extracorporelle seront d’une importance majeure dans la sélection et la prise en charge des patients devant subir une chirurgie cardiaque. Les hypothèses de cette thèse sont les suivantes : 1) le sevrage difficile de la circulation extracorporelle est un facteur indépendant de mortalité et de morbidité, 2) le mécanisme du sevrage difficile de la circulation extracorporelle peut être approché d’une façon systématique, 3) la milrinone administrée par inhalation représente une alternative préventive et thérapeutique chez le patient à risque d’un sevrage difficile de la circulation extracorporelle après la chirurgie cardiaque.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
We study a general class of priority-based allocation problems with weak priority orders and identify conditions under which there exists a strategy-proof mechanism which always chooses an agent-optimal stable, or constrained efficient, matching. A priority structure for which these two requirements are compatible is called solvable. For the general class of priority-based allocation problems with weak priority orders,we introduce three simple necessary conditions on the priority structure. We show that these conditions completely characterize solvable environments within the class of indifferences at the bottom (IB) environments, where ties occur only at the bottom of the priority structure. This generalizes and unifies previously known results on solvable and unsolvable environments established in school choice, housing markets and house allocation with existing tenants. We show how the previously known solvable cases can be viewed as extreme cases of solvable environments. For sufficiency of our conditions we introduce a version of the agent-proposing deferred acceptance algorithm with exogenous and preference-based tie-breaking.
Resumo:
We study markets with indivisible goods where monetary compensations are not possible. Each individual is endowed with an object and a preference relation over all objects. When preferences are strict, Gale's top trading cycle algorithm finds the unique core allocation. When preferences are not necessarily strict, we use an exogenous profile of tie-breakers to resolve any ties in individuals' preferences and apply Gale's top trading cycle algorithm for the resulting profile of strict preferences. We provide a foundation of these simple extensions of Gale's top trading cycle algorithm from strict preferences to weak preferences. We show that Gale's top trading cycle algorithm with fixed tie-breaking is characterized by individual rationality, strategy-proofness, weak efficiency, non-bossiness, and consistency. Our result supports the common practice in applications to break ties in weak preferences using some fixed exogenous criteria and then to use a 'good and simple' rule for the resulting strict preferences. This reinforces the market-based approach even in the presence of indifferences because always competitive allocations are chosen.
Resumo:
Cette thèse étudie la stabilité et l’instabilité politique des régimes hybrides. Elle pose la question suivante : dans quelles conditions l’autorité des élites au pouvoir est-elle reconnue ou contestée? Notre réponse s’articule en lien avec le caractère inclusif ou exclusif de la coalition dirigeante : c’est-à-dire, l’alliance stratégique des élites dirigeantes avec les groupes sociaux dominants. L’inclusion de ces derniers favorise le consentement et la stabilité; leur exclusion entraîne l’affrontement et l’instabilité politique. Sa composition dépend (i) du degré de violence organisée extra-légale et (ii) du degré de pénétration de l’État sur le territoire et dans l’économie. La première variable permet d’identifier quel groupe social au sein de l’État (militaires) ou du régime (partis d’opposition) est dominant et influence les formes de communication politique avec les élites dirigeantes. La deuxième variable permet d’identifier quel groupe social au sein de l’État (fonctionnaires) ou de la société (chefs locaux) est dominant et oriente les rapports entre les régions et le pouvoir central. L’apport de la recherche est d’approfondir notre compréhension des institutions politiques dans les régimes hybrides en mettant l’accent sur l’identité des groupes sociaux dominants dans un contexte donné. La thèse propose un modèle simple, flexible et original permettant d’appréhender des relations causales autrement contre-intuitives. En ce sens, la stabilité politique est également possible dans un pays où l’État est faible et/ou aux prises avec des mouvements de rébellion; et l’instabilité dans un contexte inverse. Tout dépend de la composition de la coalition dirigeante. Afin d’illustrer les liens logiques formulés et d’exposer les nuances de notre théorie, nous employons une analyse historique comparative de la coalition dirigeante en Malaisie (1957-2010), en Indonésie (1945-1998), au Sénégal (1960-2010) et au Paraguay (1945-2008). La principale conclusion est que les deux variables sont incontournables. L’une sans l’autre offre nécessairement une explication incomplète des alliances politiques qui forgent les conditions de stabilité et d'instabilité dans les régimes hybrides.
Resumo:
Le mouvement de la marche est un processus essentiel de l'activité humaine et aussi le résultat de nombreuses interactions collaboratives entre les systèmes neurologiques, articulaires et musculo-squelettiques fonctionnant ensemble efficacement. Ceci explique pourquoi une analyse de la marche est aujourd'hui de plus en plus utilisée pour le diagnostic (et aussi la prévention) de différents types de maladies (neurologiques, musculaires, orthopédique, etc.). Ce rapport présente une nouvelle méthode pour visualiser rapidement les différentes parties du corps humain liées à une possible asymétrie (temporellement invariante par translation) existant dans la démarche d'un patient pour une possible utilisation clinique quotidienne. L'objectif est de fournir une méthode à la fois facile et peu dispendieuse permettant la mesure et l'affichage visuel, d'une manière intuitive et perceptive, des différentes parties asymétriques d'une démarche. La méthode proposée repose sur l'utilisation d'un capteur de profondeur peu dispendieux (la Kinect) qui est très bien adaptée pour un diagnostique rapide effectué dans de petites salles médicales car ce capteur est d'une part facile à installer et ne nécessitant aucun marqueur. L'algorithme que nous allons présenter est basé sur le fait que la marche saine possède des propriétés de symétrie (relativement à une invariance temporelle) dans le plan coronal.
Resumo:
À travers cette thèse, nous revisitons les différentes étapes qui ont conduit à la découverte des isolants topologiques, suite à quoi nous nous penchons sur la question à savoir si une phase topologiquement non-triviale peut coexister avec un état de symétrie brisée. Nous abordons les concepts les plus importants dans la description de ce nouvel état de la matière, et tentons de comprendre les conséquences fascinantes qui en découlent. Il s’agit d’un champ de recherche fortement alimenté par la théorie, ainsi, l’étude du cadre théorique est nécessaire pour atteindre une compréhension profonde du sujet. Le chapitre 1 comprend un retour sur l’effet de Hall quantique, afin de motiver les sections subséquentes. Le chapitre 2 présente la première réalisation d’un isolant topologique à deux dimensions dans un puits quantique de HgTe/CdTe, suite à quoi ces résultats sont généralisés à trois dimensions. Nous verrons ensuite comment incorporer des principes de topologie dans la caractérisation d’un système spécifique, à l’aide d’invariants topologiques. Le chapitre 3 introduit le premier dérivé de l’état isolant topologique, soit l’isolant topologique antiferromagnétique (ITAF). Après avoir motivé théoriquement le sujet et introduit un invariant propre à ce nouvel état ITAF, qui est couplé à l’ordre de Néel, nous explorons, dans les chapitres 4 et 5, deux candidats de choix pour la phase ITAF : GdBiPt et NdBiPt.
Resumo:
The thesis presents the dynamics of a polymer chain under tension. It includes existing theories of polymer fracture, important theories of reaction rates, the rate using multidimensional transition state theory and apply it to the case of polyethylene etc. The main findings of the study are; the life time of the bond is somewhat sensitive to the potential lead to rather different answers, for a given potential a rough estimate of the rate can be obtained by a simples approximation that considers the dynamics of only the bond that breaks and neglects the coupling to neighboring bonds. Dynamics of neighboring bonds would decrease the rate, but usually not more than by one order of magnitude, for the breaking of polyethylene, quantum effects are important only for temperatures below 150K, the lifetime strongly depends on the strain and as the strain varies over a narrow range, the life varies rapidly from 105 seconds to 10_5 seconds, if we change one unit of the polymer by a foreign atom, say by one sulphure atom, in the main chain itself, by a weaker bond, the rate is found to increase by orders of magnitude etc.
Resumo:
Ultrasonic is a good tool to investigate the elastic properties of crystals. It enables one to determine all the elastic constants, Poisson’s ratios, volume compressibility and bulk modulus of crystals from velocity measurements. It also enables one to demonstrate the anisotropy of elastic properties by plotting sections of the surfaces of phase velocity, slowness, group velocity, Young’s modulus and linear compressibility along the a-b, b-c and a-c planes. They also help one to understand more about phonon amplification and help to interpret various phenomena associated with ultrasonic wave propagation, thermal conductivity, phonon transport etc. Study of nonlinear optical crystals is very important from an application point of view. Hundreds of new NLO materials are synthesized to meet the requirements for various applications. Inorganic, organic and organometallic or semiorganic classes of compounds have been studied for several reasons. Semiorganic compounds have some advantages over their inorganic and inorganic counterparts with regard to their mechanical properties. High damage resistance, high melting point, good transparency and non-hygroscopy are some of the basic requirements for a material to be suitable for device fabrication. New NLO materials are being synthesized and investigation of the mechanical and elastic properties of these crystals is very important to test the suitability of these materials for technological applications
Resumo:
The photoemission optogalvanic (POG) effect has been investigated in a neon-neodymium hollow cathode discharge using cw laser excitation. Both positive and negative effects were observed. It was found that the amplitude of the POG signal was unstable near the instability region of the discharge.
Resumo:
This thesis work is dedicated to use the computer-algebraic approach for dealing with the group symmetries and studying the symmetry properties of molecules and clusters. The Maple package Bethe, created to extract and manipulate the group-theoretical data and to simplify some of the symmetry applications, is introduced. First of all the advantages of using Bethe to generate the group theoretical data are demonstrated. In the current version, the data of 72 frequently applied point groups can be used, together with the data for all of the corresponding double groups. The emphasize of this work is placed to the applications of this package in physics of molecules and clusters. Apart from the analysis of the spectral activity of molecules with point-group symmetry, it is demonstrated how Bethe can be used to understand the field splitting in crystals or to construct the corresponding wave functions. Several examples are worked out to display (some of) the present features of the Bethe program. While we cannot show all the details explicitly, these examples certainly demonstrate the great potential in applying computer algebraic techniques to study the symmetry properties of molecules and clusters. A special attention is placed in this thesis work on the flexibility of the Bethe package, which makes it possible to implement another applications of symmetry. This implementation is very reasonable, because some of the most complicated steps of the possible future applications are already realized within the Bethe. For instance, the vibrational coordinates in terms of the internal displacement vectors for the Wilson's method and the same coordinates in terms of cartesian displacement vectors as well as the Clebsch-Gordan coefficients for the Jahn-Teller problem are generated in the present version of the program. For the Jahn-Teller problem, moreover, use of the computer-algebraic tool seems to be even inevitable, because this problem demands an analytical access to the adiabatic potential and, therefore, can not be realized by the numerical algorithm. However, the ability of the Bethe package is not exhausted by applications, mentioned in this thesis work. There are various directions in which the Bethe program could be developed in the future. Apart from (i) studying of the magnetic properties of materials and (ii) optical transitions, interest can be pointed out for (iii) the vibronic spectroscopy, and many others. Implementation of these applications into the package can make Bethe a much more powerful tool.
Resumo:
A program is presented for the construction of relativistic symmetry-adapted molecular basis functions. It is applicable to 36 finite double point groups. The algorithm, based on the projection operator method, automatically generates linearly independent basis sets. Time reversal invariance is included in the program, leading to additional selection rules in the non-relativistic limit.
Resumo:
Many 3D objects in the world around us are strongly constrained. For instance, not only cultural artifacts but also many natural objects are bilaterally symmetric. Thoretical arguments suggest and psychophysical experiments confirm that humans may be better in the recognition of symmetric objects. The hypothesis of symmetry-induced virtual views together with a network model that successfully accounts for human recognition of generic 3D objects leads to predictions that we have verified with psychophysical experiments.
Resumo:
This white paper reports emerging findings at the end of Phase I of the Lean Aircraft Initiative in the Policy focus group area. Specifically, it provides details about research on program instability. Its objective is to discuss high-level findings detailing: 1) the relative contribution of different factors to a program’s overall instability; 2) the cost impact of program instability on acquisition programs; and 3) some strategies recommended by program managers for overcoming and/or mitigating the negative effects of program instability on their programs. Because this report comes as this research is underway, this is not meant to be a definitive document on the subject. Rather, is it anticipated that this research may potentially produce a number of reports on program instability-related topics. The government managers of military acquisition programs rated annual budget or production rate changes, changes in requirements, and technical difficulties as the three top contributors, respectively, to program instability. When asked to partition actual variance in their program’s planned cost and schedule to each of these factors, it was found that the combined effects of unplanned budget and requirement changes accounted for 5.2% annual cost growth and 20% total program schedule slip. At a rate of approximately 5% annual cost growth from these factors, it is easy to see that even conservative estimates of the cost benefits to be gained from acquisition reforms and process improvements can quickly be eclipsed by the added cost associated with program instability. Program management practices involving the integration of stakeholders from throughout the value chain into the decision making process were rated the most effective at avoiding program instability. The use of advanced information technologies was rated the most effective at mitigating the negative impact of program instability.
Resumo:
This white paper reports emerging findings at the end of Phase I of the Lean Aircraft Initiative in the Policy focus group area. Specifically, it provides details about research on program instability. Its objective is to discuss high-level findings detailing: 1) the relative contribution of different factors to a program’s overall instability; 2) the cost impact of program instability on acquisition programs; and 3) some strategies recommended by program managers for overcoming and/or mitigating the negative effects of program instability on their programs. Because this report comes as this research is underway, this is not meant to be a definitive document on the subject. Rather, is it anticipated that this research may potentially produce a number of reports on program instability-related topics. The government managers of military acquisition programs rated annual budget or production rate changes, changes in requirements, and technical difficulties as the three top contributors, respectively, to program instability. When asked to partition actual variance in their program’s planned cost and schedule to each of these factors, it was found that the combined effects of unplanned budget and requirement changes accounted for 5.2% annual cost growth and 20% total program schedule slip. At a rate of approximately 5% annual cost growth from these factors, it is easy to see that even conservative estimates of the cost benefits to be gained from acquisition reforms and process improvements can quickly be eclipsed by the added cost associated with program instability. Program management practices involving the integration of stakeholders from throughout the value chain into the decision making process were rated the most effective at avoiding program instability. The use of advanced information technologies was rated the most effective at mitigating the negative impact of program instability.