902 resultados para discrete and continuum models


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The present research focused on the pathways through which the symptoms of posttraumatic stress disorder (PTSD) may negatively impact intimacy. Previous research has confirmed a link between self-reported PTSD symptoms and intimacy; however, a thorough examination of mediating paths, partner effects, and secondary traumatization has not yet been realized. With a sample of 297 heterosexual couples, intraindividual and dyadic models were developed to explain the relationships between PTSD symptoms and intimacy in the context of interdependence theory, attachment theory, and models of selfpreservation (e.g., fight-or-flight). The current study replicated the findings of others and has supported a process in which affective (alexithymia, negative affect, positive affect) and communication (demand-withdraw behaviour, self-concealment, and constructive communication) pathways mediate the intraindividual and dyadic relationships between PTSD symptoms and intimacy. Moreover, it also found that the PTSD symptoms of each partner were significantly related; however, this was only the case for those dyads in which the partners had disclosed most everything about their traumatic experiences. As such, secondary traumatization was supported. Finally, although the overall pattern of results suggest a total negative effect of PTSD symptoms on intimacy, a sex difference was evident such that the direct effect of the woman's PTSD symptoms were positively associated with both her and her partner's intimacy. I t is possible that the Tend-andBefriend model of threat response, wherein women are said to foster social bonds in the face of distress, may account for this sex difference. Overall, however, it is clear that PTSD symptoms were negatively associated with relationship quality and attention to this impact in the development of diagnostic criteria and treatment protocols is necessary.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In response to a looming leadership shortage, leadership development for teachers has become an increasingly important area of interest around the world. A review of the literature identified the key components of educational leadership development programs as effective curriculum, leadership practice, relationship building, and reflection. A gap in the research was found regarding the use of voluntary committee work as a vehicle for leadership practice. The purpose of this study was to explore teachers' perceptions of their experiences within board-level committees to determine the key factors that contributed, positively or negatively, to their leadership,pevelopment. A qualitative research design was employed using semistructured interviews with 8 participants. The key findings included a list of factors perceived by teachers as either supporting or hindering their leadership development. The supporting factors were: (a) leadership practice, (b) mentors and role models, (c) relationships and networks, and (d) positive outcomes for students. The hindering factors were: (a) lack of follow through and support, (b) committee members with a careerist approach to the experience, (c) personal and political agendas, and (d) overcommitment leading to burnout. Recommendations for practice focused on strategies to enhanc~_ the committee experience as a tool for leadership development. Recommendations for theory and research suggested more research be done on each of the 8 key factors, perceptions associated with teachers choosing to follow a leadership path, and how school boards can structure the committee process as an effective leadership development tool. This study provides a starting point for educators to begin to intentionally design, develop, and deliver voluntary committee experiences as a tool for leadership development.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis examines the performance of Canadian fixed-income mutual funds in the context of an unobservable market factor that affects mutual fund returns. We use various selection and timing models augmented with univariate and multivariate regime-switching structures. These models assume a joint distribution of an unobservable latent variable and fund returns. The fund sample comprises six Canadian value-weighted portfolios with different investing objectives from 1980 to 2011. These are the Canadian fixed-income funds, the Canadian inflation protected fixed-income funds, the Canadian long-term fixed-income funds, the Canadian money market funds, the Canadian short-term fixed-income funds and the high yield fixed-income funds. We find strong evidence that more than one state variable is necessary to explain the dynamics of the returns on Canadian fixed-income funds. For instance, Canadian fixed-income funds clearly show that there are two regimes that can be identified with a turning point during the mid-eighties. This structural break corresponds to an increase in the Canadian bond index from its low values in the early 1980s to its current high values. Other fixed-income funds results show latent state variables that mimic the behaviour of the general economic activity. Generally, we report that Canadian bond fund alphas are negative. In other words, fund managers do not add value through their selection abilities. We find evidence that Canadian fixed-income fund portfolio managers are successful market timers who shift portfolio weights between risky and riskless financial assets according to expected market conditions. Conversely, Canadian inflation protected funds, Canadian long-term fixed-income funds and Canadian money market funds have no market timing ability. We conclude that these managers generally do not have positive performance by actively managing their portfolios. We also report that the Canadian fixed-income fund portfolios perform asymmetrically under different economic regimes. In particular, these portfolio managers demonstrate poorer selection skills during recessions. Finally, we demonstrate that the multivariate regime-switching model is superior to univariate models given the dynamic market conditions and the correlation between fund portfolios.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sustainability of change for improvement initiatives has been widely reported as a global challenge both within and outside health care settings. The purpose of this study was to examine the extent to which factors related to staff training and involvement, staff behaviour, and clinical leaders’ and senior leaders’ engagement and support impact the long term sustainability of practice changes for BPSO health care organizations who have implemented Registered Nursing Association of Ontario’s (RNAO) Best Practice Guidelines. Semi structured interviews with eleven organizational leaders’ from ten health care organizations were conducted to explore the unique experiences, views and perspectives on factors related to staff, clinical leaders and senior leaders and their involvement and impact on the long term sustainability of clinical practice changes within organizations who had implemented Registered Nursing Association of Ontario’s (RNAO) Best Practice Guidelines (BPGs). The interviews were coded and analyzed using thematic content analysis. Further analysis identified patterns and themes in relation to: 1. The National Health Service (NHS) Sustainability Model which was used as the theoretical framework for this research; and 2. Organizations found to have sustained practice changes longer term verses organizations that did not. Six organizations were found to have sustained practice changes while the remaining four were found to have been unsuccessful in their efforts to sustain the changes. Five major findings in relation to sustainability emerged from this study. First is the importance of early and sustained engagement and frontline staff, managers, and clinical leaders in planning, implementation and ongoing development of BPGs through use of working groups and champions models. Second is the importance of ongoing provision of formal training, tools and resources to all key stakeholders during and after the implementation phase and efforts made to embed changes in current processes whenever possible to ensure sustainability. Third is to ensure staff and management are receptive to the proposed change(s) and/or have been given the necessary background information and rationale so they understand and can support the need for the change. Fourth is the need for early and sustained fiscal and human resources dedicated to supporting BPG implementation and the ongoing use of the BPGs already in place. Fifth is ensuring clinical leaders are trusted, influential, respected and seen as clinical resources by frontline staff. The significance of this study lies in a greater understanding of the influence and impact of factors related to staff on the long term sustainability of implemented practice changes within health care organizations. This study has implications for clinical practice, policy, education and research in relation to sustainability in health care.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we introduce a new approach for volatility modeling in discrete and continuous time. We follow the stochastic volatility literature by assuming that the variance is a function of a state variable. However, instead of assuming that the loading function is ad hoc (e.g., exponential or affine), we assume that it is a linear combination of the eigenfunctions of the conditional expectation (resp. infinitesimal generator) operator associated to the state variable in discrete (resp. continuous) time. Special examples are the popular log-normal and square-root models where the eigenfunctions are the Hermite and Laguerre polynomials respectively. The eigenfunction approach has at least six advantages: i) it is general since any square integrable function may be written as a linear combination of the eigenfunctions; ii) the orthogonality of the eigenfunctions leads to the traditional interpretations of the linear principal components analysis; iii) the implied dynamics of the variance and squared return processes are ARMA and, hence, simple for forecasting and inference purposes; (iv) more importantly, this generates fat tails for the variance and returns processes; v) in contrast to popular models, the variance of the variance is a flexible function of the variance; vi) these models are closed under temporal aggregation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we test a version of the conditional CAPM with respect to a local market portfolio, proxied by the Brazilian stock index during the 1976-1992 period. We also test a conditional APT model by using the difference between the 30-day rate (Cdb) and the overnight rate as a second factor in addition to the market portfolio in order to capture the large inflation risk present during this period. The conditional CAPM and APT models are estimated by the Generalized Method of Moments (GMM) and tested on a set of size portfolios created from a total of 25 securities exchanged on the Brazilian markets. The inclusion of this second factor proves to be crucial for the appropriate pricing of the portfolios.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, we test a version of the conditional CAPM with respect to a local market portfolio, proxied by the Brazilian stock index during the 1976-1992 period. We also test a conditional APT model by using the difference between the 30-day rate (Cdb) and the overnight rate as a second factor in addition to the market portfolio in order to capture the large inflation risk present during this period. the conditional CAPM and APT models are estimated by the Generalized Method of Moments (GMM) and tested on a set of size portfolios created from a total of 25 securities exchanged on the Brazilian markets. the inclusion of this second factor proves to be crucial for the appropriate pricing of the portfolios.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les modèles à sur-représentation de zéros discrets et continus ont une large gamme d'applications et leurs propriétés sont bien connues. Bien qu'il existe des travaux portant sur les modèles discrets à sous-représentation de zéro et modifiés à zéro, la formulation usuelle des modèles continus à sur-représentation -- un mélange entre une densité continue et une masse de Dirac -- empêche de les généraliser afin de couvrir le cas de la sous-représentation de zéros. Une formulation alternative des modèles continus à sur-représentation de zéros, pouvant aisément être généralisée au cas de la sous-représentation, est présentée ici. L'estimation est d'abord abordée sous le paradigme classique, et plusieurs méthodes d'obtention des estimateurs du maximum de vraisemblance sont proposées. Le problème de l'estimation ponctuelle est également considéré du point de vue bayésien. Des tests d'hypothèses classiques et bayésiens visant à déterminer si des données sont à sur- ou sous-représentation de zéros sont présentées. Les méthodes d'estimation et de tests sont aussi évaluées au moyen d'études de simulation et appliquées à des données de précipitation agrégées. Les diverses méthodes s'accordent sur la sous-représentation de zéros des données, démontrant la pertinence du modèle proposé. Nous considérons ensuite la classification d'échantillons de données à sous-représentation de zéros. De telles données étant fortement non normales, il est possible de croire que les méthodes courantes de détermination du nombre de grappes s'avèrent peu performantes. Nous affirmons que la classification bayésienne, basée sur la distribution marginale des observations, tiendrait compte des particularités du modèle, ce qui se traduirait par une meilleure performance. Plusieurs méthodes de classification sont comparées au moyen d'une étude de simulation, et la méthode proposée est appliquée à des données de précipitation agrégées provenant de 28 stations de mesure en Colombie-Britannique.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’observation d’un modèle pratiquant une habileté motrice promeut l’apprentissage de l’habileté en question. Toutefois, peu de chercheurs se sont attardés à étudier les caractéristiques d’un bon modèle et à mettre en évidence les conditions d’observation pouvant optimiser l’apprentissage. Dans les trois études composant cette thèse, nous avons examiné les effets du niveau d’habileté du modèle, de la latéralité du modèle, du point de vue auquel l’observateur est placé, et du mode de présentation de l’information sur l’apprentissage d’une tâche de timing séquentielle composée de quatre segments. Dans la première expérience de la première étude, les participants observaient soit un novice, soit un expert, soit un novice et un expert. Les résultats des tests de rétention et de transfert ont révélé que l’observation d’un novice était moins bénéfique pour l’apprentissage que le fait d’observer un expert ou une combinaison des deux (condition mixte). Par ailleurs, il semblerait que l’observation combinée de modèles novice et expert induise un mouvement plus stable et une meilleure généralisation du timing relatif imposé comparativement aux deux autres conditions. Dans la seconde expérience, nous voulions déterminer si un certain type de performance chez un novice (très variable, avec ou sans amélioration de la performance) dans l’observation d’une condition mixte amenait un meilleur apprentissage de la tâche. Aucune différence significative n’a été observée entre les différents types de modèle novices employés dans l’observation de la condition mixte. Ces résultats suggèrent qu’une observation mixte fournit une représentation précise de ce qu’il faut faire (modèle expert) et que l’apprentissage est d’autant plus amélioré lorsque l’apprenant peut contraster cela avec la performance de modèles ayant moins de succès. Dans notre seconde étude, des participants droitiers devaient observer un modèle à la première ou à la troisième personne. L’observation d’un modèle utilisant la même main préférentielle que soi induit un meilleur apprentissage de la tâche que l’observation d’un modèle dont la dominance latérale est opposée à la sienne, et ce, quel que soit l’angle d’observation. Ce résultat suggère que le réseau d’observation de l’action (AON) est plus sensible à la latéralité du modèle qu’à l’angle de vue de l’observateur. Ainsi, le réseau d’observation de l’action semble lié à des régions sensorimotrices du cerveau qui simulent la programmation motrice comme si le mouvement observé était réalisé par sa propre main dominante. Pour finir, dans la troisième étude, nous nous sommes intéressés à déterminer si le mode de présentation (en direct ou en vidéo) influait sur l’apprentissage par observation et si cet effet est modulé par le point de vue de l’observateur (première ou troisième personne). Pour cela, les participants observaient soit un modèle en direct soit une présentation vidéo du modèle et ceci avec une vue soit à la première soit à la troisième personne. Nos résultats ont révélé que l’observation ne diffère pas significativement selon le type de présentation utilisée ou le point de vue auquel l’observateur est placé. Ces résultats sont contraires aux prédictions découlant des études d’imagerie cérébrale ayant montré une activation plus importante du cortex sensorimoteur lors d’une observation en direct comparée à une observation vidéo et de la première personne comparée à la troisième personne. Dans l’ensemble, nos résultats indiquent que le niveau d’habileté du modèle et sa latéralité sont des déterminants importants de l’apprentissage par observation alors que le point de vue de l’observateur et le moyen de présentation n’ont pas d’effets significatifs sur l’apprentissage d’une tâche motrice. De plus, nos résultats suggèrent que la plus grande activation du réseau d’observation de l’action révélée par les études en imagerie mentale durant l’observation d’une action n’induit pas nécessairement un meilleur apprentissage de la tâche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le problème de tarification qui nous intéresse ici consiste à maximiser le revenu généré par les usagers d'un réseau de transport. Pour se rendre à leurs destinations, les usagers font un choix de route et utilisent des arcs sur lesquels nous imposons des tarifs. Chaque route est caractérisée (aux yeux de l'usager) par sa "désutilité", une mesure de longueur généralisée tenant compte à la fois des tarifs et des autres coûts associés à son utilisation. Ce problème a surtout été abordé sous une modélisation déterministe de la demande selon laquelle seules des routes de désutilité minimale se voient attribuer une mesure positive de flot. Le modèle déterministe se prête bien à une résolution globale, mais pèche par manque de réalisme. Nous considérons ici une extension probabiliste de ce modèle, selon laquelle les usagers d'un réseau sont alloués aux routes d'après un modèle de choix discret logit. Bien que le problème de tarification qui en résulte est non linéaire et non convexe, il conserve néanmoins une forte composante combinatoire que nous exploitons à des fins algorithmiques. Notre contribution se répartit en trois articles. Dans le premier, nous abordons le problème d'un point de vue théorique pour le cas avec une paire origine-destination. Nous développons une analyse de premier ordre qui exploite les propriétés analytiques de l'affectation logit et démontrons la validité de règles de simplification de la topologie du réseau qui permettent de réduire la dimension du problème sans en modifier la solution. Nous établissons ensuite l'unimodalité du problème pour une vaste gamme de topologies et nous généralisons certains de nos résultats au problème de la tarification d'une ligne de produits. Dans le deuxième article, nous abordons le problème d'un point de vue numérique pour le cas avec plusieurs paires origine-destination. Nous développons des algorithmes qui exploitent l'information locale et la parenté des formulations probabilistes et déterministes. Un des résultats de notre analyse est l'obtention de bornes sur l'erreur commise par les modèles combinatoires dans l'approximation du revenu logit. Nos essais numériques montrent qu'une approximation combinatoire rudimentaire permet souvent d'identifier des solutions quasi-optimales. Dans le troisième article, nous considérons l'extension du problème à une demande hétérogène. L'affectation de la demande y est donnée par un modèle de choix discret logit mixte où la sensibilité au prix d'un usager est aléatoire. Sous cette modélisation, l'expression du revenu n'est pas analytique et ne peut être évaluée de façon exacte. Cependant, nous démontrons que l'utilisation d'approximations non linéaires et combinatoires permet d'identifier des solutions quasi-optimales. Finalement, nous en profitons pour illustrer la richesse du modèle, par le biais d'une interprétation économique, et examinons plus particulièrement la contribution au revenu des différents groupes d'usagers.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La polyarthrite rhumatoïde (PR) est une maladie auto-immune chronique. Elle est caractérisée par une inflammation persistante touchant de multiples petites articulations, causant douleurs, rougeurs, gonflements et déformations. Des études menées auprès de patients et d’animaux ont démontré que certains auto-anticorps, cytokines et enzymes tissue-déstructives sont des médiateurs importants dans le développement de la PR. Au cours des deux dernières décennies, les traitements de fond (DMARDs en anglais) ont été démontrés très efficaces pour traiter la PR. D'autre part, des effets secondaires ont été rapportés pour ces traitements, par exemple l'augmentation du risque d'infections opportunistes. L’objectif de ce travail est d’acquérir des connaissances sur le rôle du TL1A (TNF-like molécule 1 A; TNFSF15) et son partenaire Nob1 (Pno1 ; YOR145c) dans la pathogenèse de la PR afin de découvrir de nouveaux médicaments contre ces molécules dans l'avenir. TL1A est un membre de la famille du TNF. Il déclenche des signaux co-stimulateurs via le récepteur de mort 3 (DR3) et induit la prolifération ainsi que la production des cytokines pro inflammatoires par les lymphocytes. Des données multiples suggèrent l'implication de la cascade TL1A-DR3 dans plusieurs maladies auto-immunes. Donc, nous avons proposé les hypothèses suivantes:1) la production locale de TL1A dans les articulations est un composant d’un cercle vicieux qui aggrave la PR; 2) dans la PR, la production de TL1A dans les organes lymphoïde augmente la production d’auto-anticorps pathogénique. Au cours de ce travail, nous avons démontré que la TL1A aggrave la maladie chez les souris où l’arthrite a été induite par le collagène (AIC). Par ailleurs, nous avons constaté que l’expression de TL1A est élevée dans les tissus atteints de PR ainsi que dans les ganglions lymphatiques drainant de la souris AIC. Mécaniquement, nous avons découvert que la TL1A est induite par le TNF-α et IL-17 produits par les cellules T in vitro. Ces résultats montrent directement que les TL1A-DR3 jouent un rôle essentiel dans la pathogenèse de la PR. De plus, afin de poursuivre notre étude, la TL1A a été génétiquement supprimée dans les souris (TL1A KO). Nous avons montré que les souris TL1A KO n’ont aucune anomalie apparente et aucun dysfonctionnement du système immunitaire dans des conditions normales. Cependant, ces souris manifestent des AIC améliorées et une réduction significative des niveaux d'anticorps, anti-collagène du type II i dans le sérum. Nous avons trouvé que les ganglions lymphatiques de drainage (dLNs) de souris KO étaient plus petites avec une cellularité inférieure comparativement aux souris WT de 14 jours après l’immunisation. De plus, nous avons découvert que le DR3 a été exprimé par les cellules plasmatiques dans l’étape de la différenciation terminale et ces cellules surviennent mieux en présence de TL1A. La conclusion de cette étude apporte des nouvelles connaissances sur le rôle de TL1A qui amplifie les réponses humorales d’AIC. Nous avons suggéré que TL1A pourrait augmenter la réponse d’initiation d'anticorps contre collagène II (CII) ainsi que prolonger la survie des cellules plasmatiques. Une autre molécule qui nous intéresse est Pno1. Des études antérieures menées chez la levure ont suggéré que Pno1 est essentielle pour la néogénèse du protéasome et du ribosome Le protéasome étant crucial pour la différenciation terminale des cellules plasmatiques pendant les réponses humorales chez les mammifères, nous avons donc supposé que Pno1 joue un rôle dans la production d'anticorps pathogenique dans la PR via la voie du protéasome. Nous avons donc généré des souris génétiquement modifiées pour Pno1 afin d’étudier la fonction de Pno1 in vivo. Cependant, une mutation non-sens dans le Pno1 provoque une létalité embryonnaire à un stade très précoce chez les souris. D'autre part, une réduction de 50% de Pno1 ou une surexpression de Pno1 n’ont aucun effet ni sur le fonctionnent des cellules T et B, ni sur les activités du protéasome ainsi que sur la réponse humorale dans l’AIC. Ces résultats suggèrent que Pno1 est une molécule essentielle sans redondance. Par conséquent, il n’est pas une cible appropriée pour le développement de médicaments thérapeutiques. En conclusion, nos études ont révélé que la TL1A n’est pas essentielle pour maintenir les fonctions du système immunitaire dans des conditions normales. En revanche, il joue un rôle critique dans la pathogenèse de la PR en favorisant l'inflammation locale et la réponse humorale contre des auto-antigènes. Par conséquent, une inhibition de la TL1A pourrait être une stratégie thérapeutique pour le traitement de la PR. Au contraire, Pno1 est essentiel pour la fonction normale des cellules. Une délétion totale pourrait entraîner des conséquences graves. Il n’est pas une cible appropriée pour développer des médicaments de la PR.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction: La circulation extracorporelle (CEC) peut entraîner une dysfonction endothéliale pulmonaire et l’hypertension pulmonaire. Le SN50 agit au niveau de la signalisation cellulaire pour prévenir ces réactions à la CEC et pourrait renverser la dysfonction endothéliale pulmonaire post-CEC sans effets néfastes sur l’hémodynamie. Méthodes: Quatre groups de porcs ont reçu un parmi quatre traîtements avant de subir 90 minutes de CEC et 60 minutes de reperfusion: (1) milrinone nébulisé; (2) sildenafil nébulisé; (3) placebo nébulisé; et (4) SN-50 intraveineux. Un monitoring hémodynamique invasif a été utilisé. La réactivité vasculaire des artères pulmonaires de deuxième ordre a été évaluée face à l’acétylcholine et la bradykinine. Résultats: Le sildénafil produit une augmentation significative de la pression de l’artère pulmonaire (PAP) moyenne à 60 minutes de reperfusion par rapport au début de la chirurgie. Les relaxations dépendantes de l’endothélium face à la bradykinine étaient meilleurs dans les groupes milrinone et SN-50 et surtout dans le groupe sildénafil par rapport au groupe placébo. Le SN-50 produisait de moins bonnes relaxations dépendantes de l’endothélium face à l’acétylcholine que les autres traitements incluant placébo. Conclusion: Le sildénafil prévient mieux la dysfonction endothéliale pulmonaire que les autres traitements. Les bénéfices du SN-50 sont possiblement sous-estimés vu que la dose n’a pas pu être ajustée à la durée de CEC. Le sildenafil inhalé mérite une étude plus importante chez l’humain et le SN-50 dans un model de CEC animal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper presents gamma stochastic volatility models and investigates its distributional and time series properties. The parameter estimators obtained by the method of moments are shown analytically to be consistent and asymptotically normal. The simulation results indicate that the estimators behave well. The insample analysis shows that return models with gamma autoregressive stochastic volatility processes capture the leptokurtic nature of return distributions and the slowly decaying autocorrelation functions of squared stock index returns for the USA and UK. In comparison with GARCH and EGARCH models, the gamma autoregressive model picks up the persistence in volatility for the US and UK index returns but not the volatility persistence for the Canadian and Japanese index returns. The out-of-sample analysis indicates that the gamma autoregressive model has a superior volatility forecasting performance compared to GARCH and EGARCH models.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this paper, a family of bivariate distributions whose marginals are weighted distributions in the original variables is studied. The relationship between the failure rates of the derived and original models are obtained. These relationships are used to provide some characterizations of specific bivariate models

Relevância:

100.00% 100.00%

Publicador:

Resumo:

An electronic theory is developed, which describes the ultrafast demagnetization in itinerant ferromagnets following the absorption of a femtosecond laser pulse. The present work intends to elucidate the microscopic physics of this ultrafast phenomenon by identifying its fundamental mechanisms. In particular, it aims to reveal the nature of the involved spin excitations and angular-momentum transfer between spin and lattice, which are still subjects of intensive debate. In the first preliminary part of the thesis the initial stage of the laser-induced demagnetization process is considered. In this stage the electronic system is highly excited by spin-conserving elementary excitations involved in the laser-pulse absorption, while the spin or magnon degrees of freedom remain very weakly excited. The role of electron-hole excitations on the stability of the magnetic order of one- and two-dimensional 3d transition metals (TMs) is investigated by using ab initio density-functional theory. The results show that the local magnetic moments are remarkably stable even at very high levels of local energy density and, therefore, indicate that these moments preserve their identity throughout the entire demagnetization process. In the second main part of the thesis a many-body theory is proposed, which takes into account these local magnetic moments and the local character of the involved spin excitations such as spin fluctuations from the very beginning. In this approach the relevant valence 3d and 4p electrons are described in terms of a multiband model Hamiltonian which includes Coulomb interactions, interatomic hybridizations, spin-orbit interactions, as well as the coupling to the time-dependent laser field on the same footing. An exact numerical time evolution is performed for small ferromagnetic TM clusters. The dynamical simulations show that after ultra-short laser pulse absorption the magnetization of these clusters decreases on a time scale of hundred femtoseconds. In particular, the results reproduce the experimentally observed laser-induced demagnetization in ferromagnets and demonstrate that this effect can be explained in terms of the following purely electronic non-adiabatic mechanism: First, on a time scale of 10–100 fs after laser excitation the spin-orbit coupling yields local angular-momentum transfer between the spins and the electron orbits, while subsequently the orbital angular momentum is very rapidly quenched in the lattice on the time scale of one femtosecond due to interatomic electron hoppings. In combination, these two processes result in a demagnetization within hundred or a few hundred femtoseconds after laser-pulse absorption.