974 resultados para IMPROVES MUSCULAR PERFORMANCE


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Summary This dissertation explores how stakeholder dialogue influences corporate processes, and speculates about the potential of this phenomenon - particularly with actors, like non-governmental organizations (NGOs) and other representatives of civil society, which have received growing attention against a backdrop of increasing globalisation and which have often been cast in an adversarial light by firms - as a source of teaming and a spark for innovation in the firm. The study is set within the context of the introduction of genetically-modified organisms (GMOs) in Europe. Its significance lies in the fact that scientific developments and new technologies are being generated at an unprecedented rate in an era where civil society is becoming more informed, more reflexive, and more active in facilitating or blocking such new developments, which could have the potential to trigger widespread changes in economies, attitudes, and lifestyles, and address global problems like poverty, hunger, climate change, and environmental degradation. In the 1990s, companies using biotechnology to develop and offer novel products began to experience increasing pressure from civil society to disclose information about the risks associated with the use of biotechnology and GMOs, in particular. Although no harmful effects for humans or the environment have been factually demonstrated even to date (2008), this technology remains highly-contested and its introduction in Europe catalysed major companies to invest significant financial and human resources in stakeholder dialogue. A relatively new phenomenon at the time, with little theoretical backing, dialogue was seen to reflect a move towards greater engagement with stakeholders, commonly defined as those "individuals or groups with which. business interacts who have a 'stake', or vested interest in the firm" (Carroll, 1993:22) with whom firms are seen to be inextricably embedded (Andriof & Waddock, 2002). Regarding the organisation of this dissertation, Chapter 1 (Introduction) describes the context of the study, elaborates its significance for academics and business practitioners as an empirical work embedded in a sector at the heart of the debate on corporate social responsibility (CSR). Chapter 2 (Literature Review) traces the roots and evolution of CSR, drawing on Stakeholder Theory, Institutional Theory, Resource Dependence Theory, and Organisational Learning to establish what has already been developed in the literature regarding the stakeholder concept, motivations for engagement with stakeholders, the corporate response to external constituencies, and outcomes for the firm in terms of organisational learning and change. I used this review of the literature to guide my inquiry and to develop the key constructs through which I viewed the empirical data that was gathered. In this respect, concepts related to how the firm views itself (as a victim, follower, leader), how stakeholders are viewed (as a source of pressure and/or threat; as an asset: current and future), corporate responses (in the form of buffering, bridging, boundary redefinition), and types of organisational teaming (single-loop, double-loop, triple-loop) and change (first order, second order, third order) were particularly important in building the key constructs of the conceptual model that emerged from the analysis of the data. Chapter 3 (Methodology) describes the methodology that was used to conduct the study, affirms the appropriateness of the case study method in addressing the research question, and describes the procedures for collecting and analysing the data. Data collection took place in two phases -extending from August 1999 to October 2000, and from May to December 2001, which functioned as `snapshots' in time of the three companies under study. The data was systematically analysed and coded using ATLAS/ti, a qualitative data analysis tool, which enabled me to sort, organise, and reduce the data into a manageable form. Chapter 4 (Data Analysis) contains the three cases that were developed (anonymised as Pioneer, Helvetica, and Viking). Each case is presented in its entirety (constituting a `within case' analysis), followed by a 'cross-case' analysis, backed up by extensive verbatim evidence. Chapter 5 presents the research findings, outlines the study's limitations, describes managerial implications, and offers suggestions for where more research could elaborate the conceptual model developed through this study, as well as suggestions for additional research in areas where managerial implications were outlined. References and Appendices are included at the end. This dissertation results in the construction and description of a conceptual model, grounded in the empirical data and tied to existing literature, which portrays a set of elements and relationships deemed important for understanding the impact of stakeholder engagement for firms in terms of organisational learning and change. This model suggests that corporate perceptions about the nature of stakeholder influence the perceived value of stakeholder contributions. When stakeholders are primarily viewed as a source of pressure or threat, firms tend to adopt a reactive/defensive posture in an effort to manage stakeholders and protect the firm from sources of outside pressure -behaviour consistent with Resource Dependence Theory, which suggests that firms try to get control over extemal threats by focussing on the relevant stakeholders on whom they depend for critical resources, and try to reverse the control potentially exerted by extemal constituencies by trying to influence and manipulate these valuable stakeholders. In situations where stakeholders are viewed as a current strategic asset, firms tend to adopt a proactive/offensive posture in an effort to tap stakeholder contributions and connect the organisation to its environment - behaviour consistent with Institutional Theory, which suggests that firms try to ensure the continuing license to operate by internalising external expectations. In instances where stakeholders are viewed as a source of future value, firms tend to adopt an interactive/innovative posture in an effort to reduce or widen the embedded system and bring stakeholders into systems of innovation and feedback -behaviour consistent with the literature on Organisational Learning, which suggests that firms can learn how to optimize their performance as they develop systems and structures that are more adaptable and responsive to change The conceptual model moreover suggests that the perceived value of stakeholder contribution drives corporate aims for engagement, which can be usefully categorised as dialogue intentions spanning a continuum running from low-level to high-level to very-high level. This study suggests that activities aimed at disarming critical stakeholders (`manipulation') providing guidance and correcting misinformation (`education'), being transparent about corporate activities and policies (`information'), alleviating stakeholder concerns (`placation'), and accessing stakeholder opinion ('consultation') represent low-level dialogue intentions and are experienced by stakeholders as asymmetrical, persuasive, compliance-gaining activities that are not in line with `true' dialogue. This study also finds evidence that activities aimed at redistributing power ('partnership'), involving stakeholders in internal corporate processes (`participation'), and demonstrating corporate responsibility (`stewardship') reflect high-level dialogue intentions. This study additionally finds evidence that building and sustaining high-quality, trusted relationships which can meaningfully influence organisational policies incline a firm towards the type of interactive, proactive processes that underpin the development of sustainable corporate strategies. Dialogue intentions are related to type of corporate response: low-level intentions can lead to buffering strategies; high-level intentions can underpin bridging strategies; very high-level intentions can incline a firm towards boundary redefinition. The nature of corporate response (which encapsulates a firm's posture towards stakeholders, demonstrated by the level of dialogue intention and the firm's strategy for dealing with stakeholders) favours the type of learning and change experienced by the organisation. This study indicates that buffering strategies, where the firm attempts to protect itself against external influences and cant' out its existing strategy, typically lead to single-loop learning, whereby the firm teams how to perform better within its existing paradigm and at most, improves the performance of the established system - an outcome associated with first-order change. Bridging responses, where the firm adapts organisational activities to meet external expectations, typically leads a firm to acquire new behavioural capacities characteristic of double-loop learning, whereby insights and understanding are uncovered that are fundamentally different from existing knowledge and where stakeholders are brought into problem-solving conversations that enable them to influence corporate decision-making to address shortcomings in the system - an outcome associated with second-order change. Boundary redefinition suggests that the firm engages in triple-loop learning, where the firm changes relations with stakeholders in profound ways, considers problems from a whole-system perspective, examining the deep structures that sustain the system, producing innovation to address chronic problems and develop new opportunities - an outcome associated with third-order change. This study supports earlier theoretical and empirical studies {e.g. Weick's (1979, 1985) work on self-enactment; Maitlis & Lawrence's (2007) and Maitlis' (2005) work and Weick et al's (2005) work on sensegiving and sensemaking in organisations; Brickson's (2005, 2007) and Scott & Lane's (2000) work on organisational identity orientation}, which indicate that corporate self-perception is a key underlying factor driving the dynamics of organisational teaming and change. Such theorizing has important implications for managerial practice; namely, that a company which perceives itself as a 'victim' may be highly inclined to view stakeholders as a source of negative influence, and would therefore be potentially unable to benefit from the positive influence of engagement. Such a selfperception can blind the firm from seeing stakeholders in a more positive, contributing light, which suggests that such firms may not be inclined to embrace external sources of innovation and teaming, as they are focussed on protecting the firm against disturbing environmental influences (through buffering), and remain more likely to perform better within an existing paradigm (single-loop teaming). By contrast, a company that perceives itself as a 'leader' may be highly inclined to view stakeholders as a source of positive influence. On the downside, such a firm might have difficulty distinguishing when stakeholder contributions are less pertinent as it is deliberately more open to elements in operating environment (including stakeholders) as potential sources of learning and change, as the firm is oriented towards creating space for fundamental change (through boundary redefinition), opening issues to entirely new ways of thinking and addressing issues from whole-system perspective. A significant implication of this study is that potentially only those companies who see themselves as a leader are ultimately able to tap the innovation potential of stakeholder dialogue.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A common operation in wireless ad hoc networks is the flooding of broadcast messages to establish network topologies and routing tables. The flooding of broadcast messages is, however, a resource consuming process. It might require the retransmission of messages by most network nodes. It is, therefore, very important to optimize this operation. In this paper, we first analyze the multipoint relaying (MPR) flooding mechanism used by the Optimized Link State Routing (OLSR) protocol to distribute topology control (TC) messages among all the system nodes. We then propose a new flooding method, based on the fusion of two key concepts: distance-enabled multipoint relaying and connected dominating set (CDS) flooding. We present experimental simulationsthat show that our approach improves the performance of previous existing proposals.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In this work, we present an integral scheduling system for non-dedicated clusters, termed CISNE-P, which ensures the performance required by the local applications, while simultaneously allocating cluster resources to parallel jobs. Our approach solves the problem efficiently by using a social contract technique. This kind of technique is based on reserving computational resources, preserving a predetermined response time to local users. CISNE-P is a middleware which includes both a previously developed space-sharing job scheduler and a dynamic coscheduling system, a time sharing scheduling component. The experimentation performed in a Linux cluster shows that these two scheduler components are complementary and a good coordination improves global performance significantly. We also compare two different CISNE-P implementations: one developed inside the kernel, and the other entirely implemented in the user space.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The aim of this thesis is to examine whether the pricing anomalies exists in the Finnish stock markets by comparing the performance of quantile portfolios that are formed on the basis of either individual valuation ratios, composite value measures or combined value and momentum indicators. All the research papers included in the thesis show evidence of value anomalies in the Finnish stock markets. In the first paper, the sample of stocks over the 1991-2006 period is divided into quintile portfolios based on four individual valuation ratios (i.e., E/P, EBITDA/EV, B/P, and S/P) and three hybrids of them (i.e. composite value measures). The results show the superiority of composite value measures as selection criterion for value stocks, particularly when EBITDA/EV is employed as earnings multiple. The main focus of the second paper is on the impact of the holding period length on performance of value strategies. As an extension to the first paper, two more individual ratios (i.e. CF/P and D/P) are included in the comparative analysis. The sample of stocks over 1993- 2008 period is divided into tercile portfolios based on six individual valuation ratios and three hybrids of them. The use of either dividend yield criterion or one of three composite value measures being examined results in best value portfolio performance according to all performance metrics used. Parallel to the findings of many international studies, our results from performance comparisons indicate that for the sample data employed, the yearly reformation of portfolios is not necessarily optimal in order to maximally gain from the value premium. Instead, the value investor may extend his holding period up to 5 years without any decrease in long-term portfolio performance. The same holds also for the results of the third paper that examines the applicability of data envelopment analysis (DEA) method in discriminating the undervalued stocks from overvalued ones. The fourth paper examines the added value of combining price momentum with various value strategies. Taking account of the price momentum improves the performance of value portfolios in most cases. The performance improvement is greatest for value portfolios that are formed on the basis of the 3-composite value measure which consists of D/P, B/P and EBITDA/EV ratios. The risk-adjusted performance can be enhanced further by following 130/30 long-short strategy in which the long position of value winner stocks is leveraged by 30 percentages while simultaneously selling short glamour loser stocks by the same amount. Average return of the long-short position proved to be more than double stock market average coupled with the volatility decrease. The fifth paper offers a new approach to combine value and momentum indicators into a single portfolio-formation criterion using different variants of DEA models. The results throughout the 1994-2010 sample period shows that the top-tercile portfolios outperform both the market portfolio and the corresponding bottom-tercile portfolios. In addition, the middle-tercile portfolios also outperform the comparable bottom-tercile portfolios when DEA models are used as a basis for stock classification criteria. To my knowledge, such strong performance differences have not been reported in earlier peer-reviewed studies that have employed the comparable quantile approach of dividing stocks into portfolios. Consistently with the previous literature, the division of the full sample period into bullish and bearish periods reveals that the top-quantile DEA portfolios lose far less of their value during the bearish conditions than do the corresponding bottom portfolios. The sixth paper extends the sample period employed in the fourth paper by one year (i.e. 1993- 2009) covering also the first years of the recent financial crisis. It contributes to the fourth paper by examining the impact of the stock market conditions on the main results. Consistently with the fifth paper, value portfolios lose much less of their value during bearish conditions than do stocks on average. The inclusion of a momentum criterion somewhat adds value to an investor during bullish conditions, but this added value turns to negative during bearish conditions. During bear market periods some of the value loser portfolios perform even better than their value winner counterparts. Furthermore, the results show that the recent financial crisis has reduced the added value of using combinations of momentum and value indicators as portfolio formation criteria. However, since the stock markets have historically been bullish more often than bearish, the combination of the value and momentum criteria has paid off to the investor despite the fact that its added value during bearish periods is negative, on an average.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Mass-produced paper electronics (large area organic printed electronics on paper-based substrates, “throw-away electronics”) has the potential to introduce the use of flexible electronic applications in everyday life. While paper manufacturing and printing have a long history, they were not developed with electronic applications in mind. Modifications to paper substrates and printing processes are required in order to obtain working electronic devices. This should be done while maintaining the high throughput of conventional printing techniques and the low cost and recyclability of paper. An understanding of the interactions between the functional materials, the printing process and the substrate are required for successful manufacturing of advanced devices on paper. Based on the understanding, a recyclable, multilayer-coated paper-based substrate that combines adequate barrier and printability properties for printed electronics and sensor applications was developed in this work. In this multilayer structure, a thin top-coating consisting of mineral pigments is coated on top of a dispersion-coated barrier layer. The top-coating provides well-controlled sorption properties through controlled thickness and porosity, thus enabling optimizing the printability of functional materials. The penetration of ink solvents and functional materials stops at the barrier layer, which not only improves the performance of the functional material but also eliminates potential fiber swelling and de-bonding that can occur when the solvents are allowed to penetrate into the base paper. The multi-layer coated paper under consideration in the current work consists of a pre-coating and a smoothing layer on which the barrier layer is deposited. Coated fine paper may also be used directly as basepaper, ensuring a smooth base for the barrier layer. The top layer is thin and smooth consisting of mineral pigments such as kaolin, precipitated calcium carbonate, silica or blends of these. All the materials in the coating structure have been chosen in order to maintain the recyclability and sustainability of the substrate. The substrate can be coated in steps, sequentially layer by layer, which requires detailed understanding and tuning of the wetting properties and topography of the barrier layer versus the surface tension of the top-coating. A cost competitive method for industrial scale production is the curtain coating technique allowing extremely thin top-coatings to be applied simultaneously with a closed and sealed barrier layer. The understanding of the interactions between functional materials formulated and applied on paper as inks, makes it possible to create a paper-based substrate that can be used to manufacture printed electronics-based devices and sensors on paper. The multitude of functional materials and their complex interactions make it challenging to draw general conclusions in this topic area. Inevitably, the results become partially specific to the device chosen and the materials needed in its manufacturing. Based on the results, it is clear that for inks based on dissolved or small size functional materials, a barrier layer is beneficial and ensures the functionality of the printed material in a device. The required active barrier life time depends on the solvents or analytes used and their volatility. High aspect ratio mineral pigments, which create tortuous pathways and physical barriers within the barrier layer limit the penetration of solvents used in functional inks. The surface pore volume and pore size can be optimized for a given printing process and ink through a choice of pigment type and coating layer thickness. However, when manufacturing multilayer functional devices, such as transistors, which consist of several printed layers, compromises have to be made. E.g., while a thick and porous top-coating is preferable for printing of source and drain electrodes with a silver particle ink, a thinner and less absorbing surface is required to form a functional semiconducting layer. With the multilayer coating structure concept developed in this work, it was possible to make the paper substrate suitable for printed functionality. The possibility of printing functional devices, such as transistors, sensors and pixels in a roll-to-roll process on paper is demonstrated which may enable introducing paper for use in disposable “onetime use” or “throwaway” electronics and sensors, such as lab-on-strip devices for various analyses, consumer packages equipped with product quality sensors or remote tracking devices.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les réseaux optiques à commutation de rafales (OBS) sont des candidats pour jouer un rôle important dans le cadre des réseaux optiques de nouvelle génération. Dans cette thèse, nous nous intéressons au routage adaptatif et au provisionnement de la qualité de service dans ce type de réseaux. Dans une première partie de la thèse, nous nous intéressons à la capacité du routage multi-chemins et du routage alternatif (par déflection) à améliorer les performances des réseaux OBS, pro-activement pour le premier et ré-activement pour le second. Dans ce contexte, nous proposons une approche basée sur l’apprentissage par renforcement où des agents placés dans tous les nœuds du réseau coopèrent pour apprendre, continuellement, les chemins du routage et les chemins alternatifs optimaux selon l’état actuel du réseau. Les résultats numériques montrent que cette approche améliore les performances des réseaux OBS comparativement aux solutions proposées dans la littérature. Dans la deuxième partie de cette thèse, nous nous intéressons au provisionnement absolu de la qualité de service où les performances pire-cas des classes de trafic de priorité élevée sont garanties quantitativement. Plus spécifiquement, notre objectif est de garantir la transmission sans pertes des rafales de priorité élevée à l’intérieur du réseau OBS tout en préservant le multiplexage statistique et l’utilisation efficace des ressources qui caractérisent les réseaux OBS. Aussi, nous considérons l’amélioration des performances du trafic best effort. Ainsi, nous proposons deux approches : une approche basée sur les nœuds et une approche basée sur les chemins. Dans l’approche basée sur les nœuds, un ensemble de longueurs d’onde est assigné à chaque nœud du bord du réseau OBS pour qu’il puisse envoyer son trafic garanti. Cette assignation prend en considération les distances physiques entre les nœuds du bord. En outre, nous proposons un algorithme de sélection des longueurs d’onde pour améliorer les performances des rafales best effort. Dans l’approche basée sur les chemins, le provisionnement absolu de la qualité de service est fourni au niveau des chemins entre les nœuds du bord du réseau OBS. À cette fin, nous proposons une approche de routage et d’assignation des longueurs d’onde qui a pour but la réduction du nombre requis de longueurs d’onde pour établir des chemins sans contentions. Néanmoins, si cet objectif ne peut pas être atteint à cause du nombre limité de longueurs d’onde, nous proposons de synchroniser les chemins en conflit sans le besoin pour des équipements additionnels. Là aussi, nous proposons un algorithme de sélection des longueurs d’onde pour les rafales best effort. Les résultats numériques montrent que l’approche basée sur les nœuds et l’approche basée sur les chemins fournissent le provisionnement absolu de la qualité de service pour le trafic garanti et améliorent les performances du trafic best effort. En outre, quand le nombre de longueurs d’ondes est suffisant, l’approche basée sur les chemins peut accommoder plus de trafic garanti et améliorer les performances du trafic best effort par rapport à l’approche basée sur les nœuds.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le biais de confusion est un défi majeur des études observationnelles, surtout s'ils sont induits par des caractéristiques difficiles, voire impossibles, à mesurer dans les banques de données administratives de soins de santé. Un des biais de confusion souvent présents dans les études pharmacoépidémiologiques est la prescription sélective (en anglais « prescription channeling »), qui se manifeste lorsque le choix du traitement dépend de l'état de santé du patient et/ou de son expérience antérieure avec diverses options thérapeutiques. Parmi les méthodes de contrôle de ce biais, on retrouve le score de comorbidité, qui caractérise l'état de santé d'un patient à partir de médicaments délivrés ou de diagnostics médicaux rapportés dans les données de facturations des médecins. La performance des scores de comorbidité fait cependant l'objet de controverses car elle semble varier de façon importante selon la population d'intérêt. Les objectifs de cette thèse étaient de développer, valider, et comparer les performances de deux scores de comorbidité (un qui prédit le décès et l’autre qui prédit l’institutionnalisation), développés à partir des banques de services pharmaceutiques de la Régie de l'assurance-maladie du Québec (RAMQ) pour leur utilisation dans la population âgée. Cette thèse vise également à déterminer si l'inclusion de caractéristiques non rapportées ou peu valides dans les banques de données administratives (caractéristiques socio-démographiques, troubles mentaux ou du sommeil), améliore la performance des scores de comorbidité dans la population âgée. Une étude cas-témoins intra-cohorte fut réalisée. La cohorte source consistait en un échantillon aléatoire de 87 389 personnes âgées vivant à domicile, répartie en une cohorte de développement (n=61 172; 70%) et une cohorte de validation (n=26 217; 30%). Les données ont été obtenues à partir des banques de données de la RAMQ. Pour être inclus dans l’étude, les sujets devaient être âgés de 66 ans et plus, et être membres du régime public d'assurance-médicaments du Québec entre le 1er janvier 2000 et le 31 décembre 2009. Les scores ont été développés à partir de la méthode du Framingham Heart Study, et leur performance évaluée par la c-statistique et l’aire sous les courbes « Receiver Operating Curves ». Pour le dernier objectif qui est de documenter l’impact de l’ajout de variables non-mesurées ou peu valides dans les banques de données au score de comorbidité développé, une étude de cohorte prospective (2005-2008) a été réalisée. La population à l'étude, de même que les données, sont issues de l'Étude sur la Santé des Aînés (n=1 494). Les variables d'intérêt incluaient statut marital, soutien social, présence de troubles de santé mentale ainsi que troubles du sommeil. Tel que décrit dans l'article 1, le Geriatric Comorbidity Score (GCS) basé sur le décès, a été développé et a présenté une bonne performance (c-statistique=0.75; IC95% 0.73-0.78). Cette performance s'est avérée supérieure à celle du Chronic Disease Score (CDS) lorsqu'appliqué dans la population à l'étude (c-statistique du CDS : 0.47; IC 95%: 0.45-0.49). Une revue de littérature exhaustive a montré que les facteurs associés au décès étaient très différents de ceux associés à l’institutionnalisation, justifiant ainsi le développement d'un score spécifique pour prédire le risque d'institutionnalisation. La performance de ce dernier s'est avérée non statistiquement différente de celle du score de décès (c-statistique institutionnalisation : 0.79 IC95% 0.77-0.81). L'inclusion de variables non rapportées dans les banques de données administratives n'a amélioré que de 11% la performance du score de décès; le statut marital et le soutien social ayant le plus contribué à l'amélioration observée. En conclusion, de cette thèse, sont issues trois contributions majeures. D'une part, il a été démontré que la performance des scores de comorbidité basés sur le décès dépend de la population cible, d'où l'intérêt du Geriatric Comorbidity Score, qui fut développé pour la population âgée vivant à domicile. D'autre part, les médicaments associés au risque d'institutionnalisation diffèrent de ceux associés au risque de décès dans la population âgé, justifiant ainsi le développement de deux scores distincts. Cependant, les performances des deux scores sont semblables. Enfin, les résultats indiquent que, dans la population âgée, l'absence de certaines caractéristiques ne compromet pas de façon importante la performance des scores de comorbidité déterminés à partir de banques de données d'ordonnances. Par conséquent, les scores de comorbidité demeurent un outil de recherche important pour les études observationnelles.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les cortices sensoriels sont des régions cérébrales essentielles pour la perception. En particulier, le cortex visuel traite l’information visuelle en provenance de la rétine qui transite par le thalamus. Les neurones sont les unités fonctionnelles qui transforment l'information sensorielle en signaux électriques, la transfèrent vers le cortex et l'intègrent. Les neurones du cortex visuel sont spécialisés et analysent différents aspects des stimuli visuels. La force des connections entre les neurones peut être modulée par la persistance de l'activité pré-synaptique et induit une augmentation ou une diminution du signal post-synaptique à long terme. Ces modifications de la connectivité synaptique peuvent induire la réorganisation de la carte corticale, c’est à dire la représentation de ce stimulus et la puissance de son traitement cortical. Cette réorganisation est connue sous le nom de plasticité corticale. Elle est particulièrement active durant la période de développement, mais elle s’observe aussi chez l’adulte, par exemple durant l’apprentissage. Le neurotransmetteur acétylcholine (ACh) est impliqué dans de nombreuses fonctions cognitives telles que l’apprentissage ou l’attention et il est important pour la plasticité corticale. En particulier, les récepteurs nicotiniques et muscariniques du sous-type M1 et M2 sont les récepteurs cholinergiques impliqués dans l’induction de la plasticité corticale. L’objectif principal de la présente thèse est de déterminer les mécanismes de plasticité corticale induits par la stimulation du système cholinergique au niveau du télencéphale basal et de définir les effets sur l’amélioration de la perception sensorielle. Afin d’induire la plasticité corticale, j’ai jumelé des stimulations visuelles à des injections intracorticales d’agoniste cholinergique (carbachol) ou à une stimulation du télencéphale basal (neurones cholinergiques qui innervent le cortex visuel primaire). J'ai analysé les potentiels évoqués visuels (PEVs) dans le cortex visuel primaire des rats pendant 4 à 8 heures après le couplage. Afin de préciser l’action de l’ACh sur l’activité des PEVs dans V1, j’ai injecté individuellement l’antagoniste des récepteurs muscariniques, nicotiniques, α7 ou NMDA avant l’infusion de carbachol. La stimulation du système cholinergique jumelée avec une stimulation visuelle augmente l’amplitude des PEVs durant plus de 8h. Le blocage des récepteurs muscarinique, nicotinique et NMDA abolit complètement cette amélioration, tandis que l’inhibition des récepteurs α7 a induit une augmentation instantanée des PEVs. Ces résultats suggèrent que l'ACh facilite à long terme la réponse aux stimuli visuels et que cette facilitation implique les récepteurs nicotiniques, muscariniques et une interaction avec les récepteur NMDA dans le cortex visuel. Ces mécanismes sont semblables à la potentiation à long-terme, évènement physiologique lié à l’apprentissage. L’étape suivante était d’évaluer si l’effet de l’amplification cholinergique de l’entrée de l’information visuelle résultait non seulement en une modification de l’activité corticale mais aussi de la perception visuelle. J’ai donc mesuré l’amélioration de l’acuité visuelle de rats adultes éveillés exposés durant 10 minutes par jour pendant deux semaines à un stimulus visuel de type «réseau sinusoïdal» couplé à une stimulation électrique du télencéphale basal. L’acuité visuelle a été mesurée avant et après le couplage des stimulations visuelle et cholinergique à l’aide d’une tâche de discrimination visuelle. L’acuité visuelle du rat pour le stimulus d’entrainement a été augmentée après la période d’entrainement. L’augmentation de l’acuité visuelle n’a pas été observée lorsque la stimulation visuelle seule ou celle du télencéphale basal seul, ni lorsque les fibres cholinergiques ont été lésées avant la stimulation visuelle. Une augmentation à long terme de la réactivité corticale du cortex visuel primaire des neurones pyramidaux et des interneurones GABAergiques a été montrée par l’immunoréactivité au c-Fos. Ainsi, lorsque couplé à un entrainement visuel, le système cholinergique améliore les performances visuelles pour l’orientation et ce probablement par l’optimisation du processus d’attention et de plasticité corticale dans l’aire V1. Afin d’étudier les mécanismes pharmacologiques impliqués dans l’amélioration de la perception visuelle, j’ai comparé les PEVs avant et après le couplage de la stimulation visuelle/cholinergique en présence d’agonistes/antagonistes sélectifs. Les injections intracorticales des différents agents pharmacologiques pendant le couplage ont montré que les récepteurs nicotiniques et M1 muscariniques amplifient la réponse corticale tandis que les récepteurs M2 muscariniques inhibent les neurones GABAergiques induisant un effet excitateur. L’infusion d’antagoniste du GABA corrobore l’hypothèse que le système inhibiteur est essentiel pour induire la plasticité corticale. Ces résultats démontrent que l’entrainement visuel jumelé avec la stimulation cholinergique améliore la plasticité corticale et qu’elle est contrôlée par les récepteurs nicotinique et muscariniques M1 et M2. Mes résultats suggèrent que le système cholinergique est un système neuromodulateur qui peut améliorer la perception sensorielle lors d’un apprentissage perceptuel. Les mécanismes d’amélioration perceptuelle induits par l’acétylcholine sont liés aux processus d’attention, de potentialisation à long-terme et de modulation de la balance d’influx excitateur/inhibiteur. En particulier, le couplage de l’activité cholinergique avec une stimulation visuelle augmente le ratio de signal / bruit et ainsi la détection de cibles. L’augmentation de la concentration cholinergique corticale potentialise l’afférence thalamocorticale, ce qui facilite le traitement d’un nouveau stimulus et diminue la signalisation cortico-corticale minimisant ainsi la modulation latérale. Ceci est contrôlé par différents sous-types de récepteurs cholinergiques situés sur les neurones GABAergiques ou glutamatergiques des différentes couches corticales. La présente thèse montre qu’une stimulation électrique dans le télencéphale basal a un effet similaire à l’infusion d’agoniste cholinergique et qu’un couplage de stimulations visuelle et cholinergique induit la plasticité corticale. Ce jumelage répété de stimulations visuelle/cholinergique augmente la capacité de discrimination visuelle et améliore la perception. Cette amélioration est corrélée à une amplification de l’activité neuronale démontrée par immunocytochimie du c-Fos. L’immunocytochimie montre aussi une différence entre l’activité des neurones glutamatergiques et GABAergiques dans les différentes couches corticales. L’injection pharmacologique pendant la stimulation visuelle/cholinergique suggère que les récepteurs nicotiniques, muscariniques M1 peuvent amplifier la réponse excitatrice tandis que les récepteurs M2 contrôlent l’activation GABAergique. Ainsi, le système cholinergique activé au cours du processus visuel induit des mécanismes de plasticité corticale et peut ainsi améliorer la capacité perceptive. De meilleures connaissances sur ces actions ouvrent la possibilité d’accélérer la restauration des fonctions visuelles lors d’un déficit ou d’amplifier la fonction cognitive.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La moxonidine, un médicament antihypertenseur sympatholytique de type imidazolinique, agit au niveau de la médulla du tronc cérébral pour diminuer la pression artérielle, suite à l’activation sélective du récepteur aux imidazolines I1 (récepteur I1, aussi nommé nischarine). Traitement avec de la moxonidine prévient le développement de l’hypertrophie du ventricule gauche chez des rats hypertendus (SHR), associé à une diminution de la synthèse et une élévation transitoire de la fragmentation d’ADN, des effets antiprolifératifs et apoptotiques. Ces effets se présentent probablement chez les fibroblastes, car l’apoptose des cardiomyocytes pourrait détériorer la fonction cardiaque. Ces effets apparaissent aussi avec des doses non hypotensives de moxonidine, suggérant l’existence d’effets cardiaques directes. Le récepteur I1 se trouvé aussi dans les tissus cardiaques; son activation ex vivo par la moxonidine stimule la libération de l’ANP, ce qui montre que les récepteurs I1 cardiaques sont fonctionnels malgré l’absence de stimulation centrale. Sur la base de ces informations, en plus du i) rôle des peptides natriurétiques comme inhibiteurs de l’apoptose cardiaque et ii) des études qui lient le récepteur I1 avec la maintenance de la matrix extracellulaire, on propose que, à part les effets sympatholytiques centrales, les récepteurs I1 cardiaques peuvent contrôler la croissance-mort cellulaire. L’activation du récepteur I1 peut retarder la progression des cardiopathies vers la défaillance cardiaque, en inhibant des signaux mal adaptatifs de prolifération et apoptose. Des études ont été effectuées pour : 1. Explorer les effets in vivo sur la structure et la fonction cardiaque suite au traitement avec moxonidine chez le SHR et le hamster cardiomyopathique. 2. Définir les voies de signalisation impliquées dans les changements secondaires au traitement avec moxonidine, spécifiquement sur les marqueurs inflammatoires et les voies de signalisation régulant la croissance et la survie cellulaire (MAPK et Akt). 3. Explorer les effets in vitro de la surexpression et l’activation du récepteur I1 sur la survie cellulaire dans des cellules HEK293. 4. Rechercher la localisation, régulation et implication dans la croissance-mort cellulaire du récepteur I1 in vitro (cardiomyocytes et fibroblastes), en réponse aux stimuli associés au remodelage cardiaque : norépinephrine, cytokines (IL-1β, TNF-α) et oxydants (H2O2). Nos études démontrent que la moxonidine, en doses hypotensives et non-hypotensives, améliore la structure et la performance cardiaque chez le SHR par des mécanismes impliquant l’inhibition des cytokines et des voies de signalisation p38 MAPK et Akt. Chez le hamster cardiomyopathique, la moxonidine améliore la fonction cardiaque, module la réponse inflammatoire/anti-inflammatoire et atténue la mort cellulaire et la fibrose cardiaque. Les cellules HEK293 surexprimant la nischarine survivent et prolifèrent plus en réponse à la moxonidine; cet effet est associé à l’inhibition des voies ERK, JNK et p38 MAPK. La surexpression de la nischarine protège aussi de la mort cellulaire induite par le TNF-α, l’IL-1β et le H2O2. En outre, le récepteur I1 s’exprime dans les cardiomyocytes et fibroblastes, son activation inhibe la mort des cardiomyocytes et la prolifération des fibroblastes induite par la norépinephrine, par des effets différentiels sur les MAPK et l’Akt. Dans des conditions inflammatoires, la moxonidine/récepteur aux imidazolines I1 protège les cardiomyocytes et facilite l’élimination des myofibroblastes par des effets contraires sur JNK, p38 MAPK et iNOS. Ces études démontrent le potentiel du récepteur I1/nischarine comme cible anti-hypertrophique et anti-fibrose à niveau cardiaque. L’identification des mécanismes cardioprotecteurs de la nischarine peut amener au développement des traitements basés sur la surexpression de la nischarine chez des patients avec hypertrophie ventriculaire. Finalement, même si l’effet antihypertenseur des agonistes du récepteur I1 centraux est salutaire, le développement de nouveaux agonistes cardiosélectifs du récepteur I1 pourrait donner des bénéfices additionnels chez des patients non hypertendus.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Axial brain slices containing similar anatomical structures are retrieved using features derived from the histogram of Local binary pattern (LBP). A rotation invariant description of texture in terms of texture patterns and their strength is obtained with the incorporation of local variance to the LBP, called Modified LBP (MOD-LBP). In this paper, we compare Histogram based Features of LBP (HF/LBP), against Histogram based Features of MOD-LBP (HF/MOD-LBP) in retrieving similar axial brain images. We show that replacing local histogram with a local distance transform based similarity metric further improves the performance of MOD-LBP based image retrieval

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El Objetivo fue aplicar un método didáctico diseñado para estudiantes de Promoción y Prevención del programa de Fisioterapia de la Universidad del Rosario, en Colombia, con el fin de facilitar sus acciones de educación en salud con la comunidad. Metodología: el proyecto incluyó tres fases: la revisión teórica de las competencias del docente en la práctica y los diferentes métodos empleados para desarrollar acciones de promoción y prevención en el trabajo comunitario, el diseño del método y su aplicación con los estudiantes y, finalmente, la evaluación y el respectivo análisis de resultados. Resultados: se evidenció que frente al desarrollo de otras experiencias docentes, la aplicación de un método didáctico con los estudiantes les permitía desarrollar hábilmente sus competencias para el trabajo con grupos poblacionales. Conclusiones: la aplicación de un método didáctico en práctica favorece la adquisición de herramientas pedagógicas por los estudiantes y mejora su desempeño en el desarrollo de las actividades programadas.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Se describe el caso de un varón de 59 años,con diagnóstico de enfermedad pulmonar obstructiva crónica (EPOC) severa, producto del consumo de cigarrillo. En la evaluación, presenta deficiencias en la capacidad aeróbica, en el desempeño muscular, en la ventilación e intercambio gaseoso, con alteración de sus volúmenes pulmonares, las cuales le ocasionaron limitación funcional y restricción en la realización de las actividades de la vida diaria. Se inició un plan de cuidado y acondicionamiento físico, consistente en incrementar la fuerza y resistencia de miembros inferiores y superiores, entrenamiento de músculos respiratorios y un plan de educación individual y grupal acerca del conocimiento y manejo de la enfermedad, además se le brindó soporte psicoterapéutico. Los resultados del programa mostraron efectos positivos en su condición de salud, en general, y en la disminución de su limitación funcional.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Introducción: El programa de Tutores Pares-TP es una iniciativa creada en la EMCS de la Universidad del Rosario que brinda acompañamiento académico a través de estudiantes-tutores a pares menos avanzados. Éste entrega a sus Tutores sistemáticamente, herramientas para desempeñarse armónicamente en el ejercicio de guía y provee habilidades para el manejo del saber. Este estudio busca explorar posibles ´impactos´ generados tras la participación de estudiantes de medicina como TPs dentro de un programa estructurado. Materiales y métodos: Estudio cualitativo que involucró la construcción y aplicación de encuestas a grupos focales –TPs, Docentes y Familiares- creadas a partir de seis ejes/categorías que enmarcan al médico ideal. Las respuestas obtenidas de preguntas cerradas –en escala valorativa- y de naturaleza abierta fueron sometidas a análisis descriptivo –modas- y triangulación. Resultados: 41 tutores, agrupados en 4 grupos de análisis, evidenciaron un impacto general positivo con predominio en habilidades interpersonales (60%,65%,66%,45%, respectivamente), funciones/actividades basadas en la práctica y mejoramiento (57%,67%,60%,45%) y la forma como se emplean los conocimientos (47%,70%,67%,48%). Ocho docentes encuestados consideraron relevante el impacto del programa en habilidades interpersonales-(49%), conocimientos-(42%) y la interacción con colegas-(38%). En los padres de familia hay consenso en el cambio en habilidades interpersonales, funciones basadas en la práctica y mejoramiento y en actitudes-valores ético/morales. Dichos resultados están en paralelo con las observaciones plasmadas en las preguntas abiertas. Conclusiones: Se evidenció un impacto general positivo en la formación y desempeño profesional tras la participación como TPs dentro del programa; hallazgo que soporta aquellos publicados de experiencias académicas similares.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Phytochemical-rich foods have been shown to be effective at reversing age-related deficits in memory in both animals and humans. We show that a supplementation with a blueberry diet (2% w/w) for 12 weeks improves the performance of aged animals in spatial working memory tasks. This improvement emerged within 3 weeks and persisted for the remainder of the testing period. Memory performance correlated well with the activation of cAMP-response element-binding protein (CREB) and increases in both pro- and mature levels of brain-derived neurotrophic factor (BDNF) in the hippocampus. Changes in CREB and BDNF in aged and blueberry-supplemented animals were accompanied by increases in the phosphorylation state of extracellular signal-related kinase (ERK1/2), rather than that of calcium calmodulin kinase (CaMKII and CaMKIV) or protein kinase A. Furthermore, age and blueberry supplementation were linked to changes in the activation state of Akt, mTOR, and the levels of Arc/Arg3.1 in the hippocampus, suggesting that pathways involved in de novo protein synthesis may be involved. Although causal relationships cannot be made among supplementation, behavior, and biochemical parameters, the measurement of anthocyanins and flavanols in the brain following blueberry supplementation may indicate that changes in spatial working memory in aged animals are linked to the effects of flavonoids on the ERK-CREB-BDNF pathway. (c) 2008 Elsevier Inc. All Fights reserved.