906 resultados para Model driven architecture (MDA) initiative


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Prostate cancer is relatively unique to man. There is no naturally occurring prostate cancer in the mouse. Pre-clinical studies involve the establishment of a genetically engineered mouse prostate cancer model with features close to those of the human situation. A new knock-in mouse adenocarcinoma prostate (KIMAP) model was established, which showed close-to-human kinetics of tumor development. In order to determine if the similar kinetics is associated with heterogeneous tumor architecture similar to the human situation, we utilized a new mouse histological grading system (Gleason analogous grading system) similar to the Gleason human grading system and flow cytometry DNA analysis to measure and compare the adenocarcinoma of the KIMAP model with human prostate cancer. Sixty KIMAP prostate cancer samples from 60 mice were measured and compared with human prostate cancer. Flow cytometry DNA analysis was performed on malignant prostate tissues obtained from KIMAP models. Mice with prostate cancer from KIMAP models showed a 53.3% compound histological score rate, which was close to the human clinical average (50%) and showed a significant correlation with age (P = 0.001). Flow cytometry analyses demonstrated that most KIMAP tumor tissues were diploid, analogous to the human situation. The similarities of the KIMAP mouse model with tumors of the human prostate suggest the use of this experimental model to complement studies of human prostate cancer.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Experimental models of sepsis-induced pulmonary alterations are important for the study of pathogenesis and for potential intervention therapies. The objective of the present study was to characterize lung dysfunction (low PaO2 and high PaCO2, and increased cellular infiltration, protein extravasation, and malondialdehyde (MDA) production assessed in bronchoalveolar lavage) in a sepsis model consisting of intraperitoneal (ip) injection of Escherichia coli and the protective effects of pentoxifylline (PTX). Male Wistar rats (weighing between 270 and 350 g) were injected ip with 10(7) or 10(9) CFU/100 g body weight or saline and samples were collected 2, 6, 12, and 24 h later (N = 5 each group). PaO2, PaCO2 and pH were measured in blood, and cellular influx, protein extravasation and MDA concentration were measured in bronchoalveolar lavage. In a second set of experiments either PTX or saline was administered 1 h prior to E. coli ip injection (N = 5 each group) and the animals were observed for 6 h. Injection of 10(7) or 10(9) CFU/100 g body weight of E. coli induced acidosis, hypoxemia, and hypercapnia. An increased (P < 0.05) cell influx was observed in bronchoalveolar lavage, with a predominance of neutrophils. Total protein and MDA concentrations were also higher (P < 0.05) in the septic groups compared to control. A higher tumor necrosis factor-alpha (P < 0.05) concentration was also found in these animals. Changes in all parameters were more pronounced with the higher bacterial inoculum. PTX administered prior to sepsis reduced (P < 0.05) most functional alterations. These data show that an E. coli ip inoculum is a good model for the induction of lung dysfunction in sepsis, and suitable for studies of therapeutic interventions.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Technological innovations and the advent of digitalization have led retail business into one of its biggest transformations of all time. Consumer behaviour has changed rapidly and the customers are ever more powerful, demanding, tech-savvy and moving on various plat-forms. These attributes will continue to drive the development and robustly restructure the architecture of value creation in the retail business. The largest retail category, grocery yet awaits for a real disruption, but the signals for major change are already on the horizon. The first wave of online grocery retail was introduced in the mid 1990’s and it throve until millennium. Many overreactions, heavy investments and the burst IT-bubble almost stag-nated the whole industry for a long period of time. The second wave started with a venge-ance around 2010. Some research was carried out during the first wave from a single-viewpoint of online grocery retail, but without a comprehensive approach to online-offline business model integration. Now the accelerating growth of e-business has initiated an increased interest to examine the transformation from traditional business models towards e-business models and their integration on the companies’ traditional business models. This research strove to examine how can we recognize and analyze how digitalization and online channels are affecting the business models of grocery retail, by using business mod-el canvas as an analysis tool. Furthermore business model innovation and omnichannel retail were presented and suggested as potential solutions for these changes. 21 experts in online grocery industry were being interviewed. The thoughts of the informants were being qualitatively analysed by using an analysis tool called the business model canvas. The aim of this research was to portray a holistic view on the Omnichannel grocery retail business model, and the value chain, in which the case company Arina along with its partners are operating. The key conclusions exhibited that online grocery retail business model is not an alterna-tive model nor a substitute for the traditional grocery retail business model, though all of the business model elements are to some extent affected by it, but rather a complementary business model that should be integrated into the prevailing, conventional grocery retail business model. A set of business model elements, such as value proposition and distribu-tion channels were recognized as the most important ones and sources of innovation within these components were being illustrated. Segments for online grocery retail were empiri-cally established as polarized niche markets in contrast of the segmented mass-market of the conventional grocery retail. Business model innovation was proven to be a considera-ble method and a conceptual framework, by which to come across with new value proposi-tions that create competitive advantage for the company in the contemporary, changing business environment. Arina as a retailer can be considered as a industry model innovator, since it has initiated an entire industry in its market area, where other players have later on embarked on, and in which the contributors of the value chain, such as Posti depend on it to a great extent. Consumer behaviour clearly affects and appears everywhere in the digi-talized grocery trade and it drives customers to multiple platforms where retailers need to be present. Omnichannel retail business model was suggested to be the solution, in which the new technologies are being utilized, contemporary consumer behaviour is embedded in decision-making and all of the segments and their value propositions are being served seamlessly across the channels.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The awareness and concern of our environment together with legislation have set more and more tightening demands for energy efficiency of non-road mobile machinery (NRMM). Integrated electro-hydraulic energy converter (IEHEC) has been developed in Lappeenranta University of Technology (LUT). The elimination of resistance flow, and the recuperation of energy makes it very efficient alternative. The difficulties of IEHEC machine to step to the market has been the requirement of one IEHEC machine per one actuator. The idea is to switch IEHEC between two actuators of log crane using fast on/off valves. The control system architecture is introduced. The system has been simulated in co-simulation using two different software. The simulated responses of pump-controlled system is compared to the responses of the conventional valve-controlled system.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The purpose of this thesis is to focus on credit risk estimation. Different credit risk estimation methods and characteristics of credit risk are discussed. The study is twofold, including an interview of a credit risk specialist and a quantitative section. Quantitative section applies the KMV model to estimate credit risk of 12 sample companies from three different industries: automobile, banking and financial sector and technology. Timeframe of the estimation is one year. On the basis of the KMV model and the interview, implications for analysis of credit risk are discussed. The KMV model yields consistent results with the existing credit ratings. However, banking and financial sector requires calibration of the model due to high leverage of the industry. Credit risk is considerably driven by leverage, value and volatility of assets. Credit risk models produce useful information on credit worthiness of a business. Yet, quantitative models often require qualitative support in the decision-making situation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Palynomorphs from two siliciclastic margins were examined to gain insights into continental margin architecture. Sea level change is thought to be one of the primary controls on continental margin architecture. Because Late Neogene glacioeustasy has been well studied marine sediments deposited during the Late Neogene were examined to test this concept. Cores from the outer shelf and upper slope were taken from the New Jersey margin in the western North Atlantic Ocean and from the Sunda Shelf margin in the South China Sea. Continental margin architecture is often described in a sequence stratigraphic context. One of the main goals of both coring projects was to test the theoretical sequence stratigraphic models developed by a research group at Exxon (e.g. Wilgus et al., 1988). Palynomorphs provide one of the few methods of inferring continental margin architecture in monotonous, siliciclastic marine sediments where calcareous sediments are rare (e.g. New Jersey margin). In this study theoretical models of the palynological signature expected in sediment packages deposited during the various increments of a glacioeustatic cycle were designed. These models were based on the modem palynomorph trends and taphonomic factors thought to control palynomorph distribution. Both terrestrial (pollen and spores) and marine (dinocysts) palynomorphs were examined. The palynological model was then compared with New Jersey margin and Sunda Shelf margin sediments. The predicted palynological trends provided a means of identifying a complete cycle of glacioeustatic change (Oxygen Isotope Stage 5e to present) in the uppermost 80 meters of sediment on the slope at the New Jersey margin. Sediment availability, not sea meters of sediment on the slope at the New Jersey margin. Sediment availability, not sea level change, is thought to be the major factor controlling margin architecture during the late Pleistocene here at the upper slope. This is likely a function of the glacial scouring of the continents which significantly increases sediment availability during glacial stages. The subaerially exposed continental shelf during the lowstand periods would have been subject to significant amounts of erosion fi:om the proglacial rivers flowing fi-om the southern regions of the ice-sheet. The slope site is non-depositional today and was also non-depositional during the last full interglacial period. The palynomorph data obtained fi-om the South China Sea indicate that the major difference between the New Jersey Margin sites and the Sunda Shelf margin sites is the variation in sediment supply and the rate of sediment accumulation. There was significantly less variation in sediment supply between glacial and interglacial periods and less overall sediment accumulation at the Sunda Shelf margin. The data presented here indicate that under certain conditions the theoretical palynological models allow the identification of individual sequence stratigraphic units and therefore, allow inferences regarding continental margin architecture. The major condition required in this approach is that a complete and reliable database of the contemporaneous palynomorphs be available.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Peer education involves peers offering credible and reliable information about sensitive life issues through the means of an informal peer group setting (Topping & Ehly, 1998). The purpose of this instrumental case study was to examine the processes of peer education through the exploration of two teams within a young adult tobacco control initiative, Leave the Pack Behind (LTPB). This qualitative case study examined two peer education teams over an eight-month period. Interviews, focus groups and observations were conducted with 12 participants across two peer education teams. Findings show the complexities of the processes of peer education including a connection between the stages of change and the changing role of the peer educator across stages of the empowerment process. Peer education teams and factors in the macro environment were also found to impact the process of peer education. This study provides a new definition for the process of peer education: peer education is a fluid process of knowledge exchange in which peer educators adopt different styles of facilitation as people move through stages of empowerment and change. This study contributes to the academic hterature upon the processes of peer education by providing a definition, a model and an overall understanding through an ecological and empowerment framework. The findings from this study suggest peer educators can be further trained to: use specific peer educational approaches that fit with student smoker's stage of change; better understand their position as a peer educator on the LTPB team; understand the reciprocal relationship between the macro environment and the peer education teams having an effect on one another.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il existe somme toute peu de théories du projet offrant une modélisation construite à partir de la complexité et de la diversité du projet d’architecture. Pourtant,certaines situations rassemblant parfois plusieurs dizaines de projets s’offrent d’elles-mêmes comme des situations comparatives et expérimentales : les concours d’architecture, d’urbanisme et de paysage. Le Laboratoire d’étude de l’architecture potentielle de l’Université de Montréal (Aménagement), après avoir développé un système d’archivage numérique des concours canadiens, a entrepris, avec le soutien du Groupement d’intérêt public « Europe des projets architecturaux et urbains », de développer la base de données documentaire des concours d’idées Europan. Au-delà des questions d’archivage numérique, se profilent clairement des possibilités de théorisation s’appuyant sur les logiques d’une base de données, en particulier sur la constitution du diagramme entités et relations, modélisation indispensable à sa traduction informatique. Cette recherche entreprend une première mise à jour de ces éléments conceptuels et tend à montrer que la base de données est un véritable modèle théorique du projet ouvrant sur de nouvelles avenues de recherche et de connaissance.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’augmentation du nombre d’usagers de l’Internet a entraîné une croissance exponentielle dans les tables de routage. Cette taille prévoit l’atteinte d’un million de préfixes dans les prochaines années. De même, les routeurs au cœur de l’Internet peuvent facilement atteindre plusieurs centaines de connexions BGP simultanées avec des routeurs voisins. Dans une architecture classique des routeurs, le protocole BGP s’exécute comme une entité unique au sein du routeur. Cette architecture comporte deux inconvénients majeurs : l’extensibilité (scalabilité) et la fiabilité. D’un côté, la scalabilité de BGP est mesurable en termes de nombre de connexions et aussi par la taille maximale de la table de routage que l’interface de contrôle puisse supporter. De l’autre côté, la fiabilité est un sujet critique dans les routeurs au cœur de l’Internet. Si l’instance BGP s’arrête, toutes les connexions seront perdues et le nouvel état de la table de routage sera propagé tout au long de l’Internet dans un délai de convergence non trivial. Malgré la haute fiabilité des routeurs au cœur de l’Internet, leur résilience aux pannes est augmentée considérablement et celle-ci est implantée dans la majorité des cas via une redondance passive qui peut limiter la scalabilité du routeur. Dans cette thèse, on traite les deux inconvénients en proposant une nouvelle approche distribuée de BGP pour augmenter sa scalabilité ainsi que sa fiabilité sans changer la sémantique du protocole. L’architecture distribuée de BGP proposée dans la première contribution est faite pour satisfaire les deux contraintes : scalabilité et fiabilité. Ceci est accompli en exploitant adéquatement le parallélisme et la distribution des modules de BGP sur plusieurs cartes de contrôle. Dans cette contribution, les fonctionnalités de BGP sont divisées selon le paradigme « maître-esclave » et le RIB (Routing Information Base) est dupliqué sur plusieurs cartes de contrôle. Dans la deuxième contribution, on traite la tolérance aux pannes dans l’architecture élaborée dans la première contribution en proposant un mécanisme qui augmente la fiabilité. De plus, nous prouvons analytiquement dans cette contribution qu’en adoptant une telle architecture distribuée, la disponibilité de BGP sera augmentée considérablement versus une architecture monolithique. Dans la troisième contribution, on propose une méthode de partitionnement de la table de routage que nous avons appelé DRTP pour diviser la table de BGP sur plusieurs cartes de contrôle. Cette contribution vise à augmenter la scalabilité de la table de routage et la parallélisation de l’algorithme de recherche (Best Match Prefix) en partitionnant la table de routage sur plusieurs nœuds physiquement distribués.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La conception architecturale du logis, individuel ou collectif, est un défi majeur pour les architectes depuis l'avènement de la modernité. Au début du 21ième siècle, la multiplicité des conditions démographiques et celle de la mobilité des personnes sous-tendent la complexité de l'élaboration de prototypes ou de modèles d'habitation. Que peut-on apprendre des expériences menées dans ce domaine après la seconde guerre mondiale aux États-Unis ? Ce mémoire de maîtrise est consacré à l'étude d’un cas particulier celui du programme de création architecturale réalisée en Californie de 1945 à 1966, connu sous le nom de : «Case Study House Program». Ce programme, dirigé par John Entenza, éditeur de la revue Arts and Architecture, rassemblait de nombreux architectes dont les plus célèbres sont Charles et Ray Eames, Richard Neutra, Craig Ellwood et Pierre Koenig, tous auteurs de maisons modernes devenues oeuvres canoniques dans l’histoire de l’architecture. L'analyse détaillé de ce cas et de ses retombées devrait permettre de mieux cerner les aspects suivants: la portée critique du CSHP (case study house program) qui s'opposait aux modèles dominants du marché immobilier, modèles généralement inspirés de styles traditionnels; le potentiel et les limites d'une telle démarche face à la demande sociale; la dimension anticipatrice des propositions du CSHP pour la conception de logis mieux adaptés aux besoins du 21ième siècle, en particulier ceux qui découlent des changements démographiques et de la mobilité géographiques des personnes; la valeur d'exemple du CSHP pour mieux comprendre les fondements de la résistance du public aux innovations architecturales, autant du point de vue technique que du point de vue esthétique.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Un système, décrit avec un grand nombre d'éléments fortement interdépendants, est complexe, difficile à comprendre et à maintenir. Ainsi, une application orientée objet est souvent complexe, car elle contient des centaines de classes avec de nombreuses dépendances plus ou moins explicites. Une même application, utilisant le paradigme composant, contiendrait un plus petit nombre d'éléments, faiblement couplés entre eux et avec des interdépendances clairement définies. Ceci est dû au fait que le paradigme composant fournit une bonne représentation de haut niveau des systèmes complexes. Ainsi, ce paradigme peut être utilisé comme "espace de projection" des systèmes orientés objets. Une telle projection peut faciliter l'étape de compréhension d'un système, un pré-requis nécessaire avant toute activité de maintenance et/ou d'évolution. De plus, il est possible d'utiliser cette représentation, comme un modèle pour effectuer une restructuration complète d'une application orientée objets opérationnelle vers une application équivalente à base de composants tout aussi opérationnelle. Ainsi, La nouvelle application bénéficiant ainsi, de toutes les bonnes propriétés associées au paradigme composants. L'objectif de ma thèse est de proposer une méthode semi-automatique pour identifier une architecture à base de composants dans une application orientée objets. Cette architecture doit, non seulement aider à la compréhension de l'application originale, mais aussi simplifier la projection de cette dernière dans un modèle concret de composant. L'identification d'une architecture à base de composants est réalisée en trois grandes étapes: i) obtention des données nécessaires au processus d'identification. Elles correspondent aux dépendances entre les classes et sont obtenues avec une analyse dynamique de l'application cible. ii) identification des composants. Trois méthodes ont été explorées. La première utilise un treillis de Galois, la seconde deux méta-heuristiques et la dernière une méta-heuristique multi-objective. iii) identification de l'architecture à base de composants de l'application cible. Cela est fait en identifiant les interfaces requises et fournis pour chaque composant. Afin de valider ce processus d'identification, ainsi que les différents choix faits durant son développement, j'ai réalisé différentes études de cas. Enfin, je montre la faisabilité de la projection de l'architecture à base de composants identifiée vers un modèle concret de composants.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les immunoglobulines intraveineuses (IVIg) constituent une préparation polyclonale d’IgG isolée et regroupée à partir du plasma sanguin de multiples donneurs. Initialement utilisé comme traitement de remplacement chez les patients souffrant d’immunodéficience primaire ou secondaire, les IVIg sont maintenant largement utilisées dans le traitement de plusieurs conditions auto-immunes, allergiques ou inflammatoires à une dose élevée, dite immunomodulatrice. Différents mécanismes d’action ont été postulés au fil des années pour expliquer l’effet thérapeutique des IVIg dans les maladies auto-immunes et inflammatoires. Entre autre, un nombre grandissant de données issues de modèles expérimentaux chez l’animal et l’humain suggère que les IVIg induisent l’expansion et augmentent l’action suppressive des cellules T régulatrices (Tregs), par un mécanisme qui demeure encore inconnu. Également, les patients atteints de maladies auto-immunes ou inflammatoires présentent souvent un nombre abaissé de Tregs par rapport aux individus sains. Ainsi, une meilleure compréhension des mécanismes par lesquels les IVIg modulent les cellules T régulatrices est requise afin de permettre un usage plus rationnel de ce produit sanguin en tant qu’alternative thérapeutique dans le traitement des maladies auto-immunes et inflammatoires. Par le biais d’un modèle expérimental d’allergie respiratoire induite par un allergène, nous avons démontré que les IVIg diminuaient significativement l’inflammation au niveau des voies aériennes ce, en association avec une différenciation des Tregs à partir des cellules T non régulatrices du tissu pulmonaire. Nous avons également démontré qu’au sein de notre modèle expérimental, l’effet anti-inflammatoire des IVIg était dépendant des cellules dendritiques CD11c+ (CDs) pulmonaires, puisque cet effet pouvait être complètement reproduit par le transfert adoptif de CDs provenant de souris préalablement traitées par les IVIg. À cet effet, il est déjà établi que les IVIg peuvent moduler l’activation et les propriétés des CDs pour favoriser la tolérance immunitaire et que ces cellules seraient cruciales pour l’induction périphérique des Tregs. C’est pourquoi, nous avons cherché à mieux comprendre comment les IVIg exercent leur effet sur ces cellules. Pour la première fois, nous avons démontré que la fraction d’IgG riche en acide sialique (SA-IVIg) (constituant 2-5% de l’ensemble des IgG des donneurs) interagit avec un récepteur dendritique inhibiteur de type lectine C (DCIR) et active une cascade de signalement intracellulaire initiée par la phosphorylation du motif ITIM qui est responsable des changements observés en faveur de la tolérance immunitaire auprès des cellules dendritiques et des Tregs. L’activité anti-inflammatoire de la composante SA-IVIg a déjà été décrite dans des études antérieures, mais encore une fois le mécanisme par lequel ce traitement modifie la fonction des CDs n’a pas été établi. Nous avons finalement démontré que le récepteur DCIR facilite l’internalisation des molécules d’IgG liées au récepteur et que cette étape est cruciale pour permettre l’induction périphérique des Tregs. En tant que produit sanguin, les IVIg constitue un traitement précieux qui existe en quantité limitée. La caractérisation des mécanismes d’action des IVIg permettra une meilleure utilisation de ce traitement dans un vaste éventail de pathologies auto-immunes et inflammatoires.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dans le cadre de la Western Climate Iniative, le Québec a déployé en 2012, un système de plafonnement et d’échange de droits d’émission de gaz à effet de serre (SPEDE). Il s’agit de l’un des premiers régimes de ce type en Amérique du Nord et celui-ci pourrait à terme, constituer l'un des maillons d’un marché commun du carbone à l’échelle du continent. Toutefois, le SPEDE appartient à une catégorie d’instruments économiques de protection de l’environnement encore peu connue des juristes. Il s’inscrit en effet dans la régulation économique de l’environnement et repose sur des notions tirées de la théorie économique, dont la rareté, la propriété et le marché. La thèse s’insère donc dans le dialogue entre juristes et économistes autour de la conception et de la mise en œuvre de ce type d’instrument. Afin d’explorer son architecture et de révéler les enjeux juridiques qui le traversent, nous avons eu recours à la méthode de l’analyse économique du droit. Celle-ci permet notamment de montrer les dynamiques d'incitation et d’efficacité qui sont à l'œuvre dans les règles qui encadrent le SPEDE. Elle permet également à donner un aperçu du rôle décisif joué par la formulation des règles de droit dans l’opérationnalisation des hypothèses économiques sous-jacentes à cette catégorie d’instrument. L’exploration est menée par l’entremise d’une modélisation progressive de l’échange de droits d’émission qui prend en compte les coûts de transaction. Le modèle proposé dans la thèse met ainsi en lumière, de manière générale, les points de friction qui sont susceptibles de survenir aux différentes étapes de l'échange de droits d'émission et qui peuvent faire obstacle à son efficacité économique. L’application du modèle aux règles du SPEDE a permis de contribuer à l’avancement des connaissances en donnant aux juristes un outil permettant de donner une cohérence et une intelligibilité à l’analyse des règles de l’échange. Elle a ainsi fourni une nomenclature des règles encadrant l’échange de droits d’émission. Cette nomenclature fait ressortir les stratégies de diversification de l’échange, d’institutionnalisation de ses modalités ainsi que les enjeux de la surveillance des marchés, dont celui des instruments dérivés adossés aux droits d’émission, dans un contexte de fragmentation des autorités de tutelle.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The main goal of this thesis is to study the dynamics of Josephson junction system in the presence of an external rf-biasing.A system of two chaotically synchronized Josephson junction is studied.The change in the dynamics of the system in the presence of at phase difference between the applied fields is considered. Control of chaos is very important from an application point of view. The role Of phase difference in controlling chaos is discussed.An array of three Josephson junctions iS studied for the effect of phase difference on chaos and synchronization and the argument is extended for a system of N Josephson junctions. In the presence of a phase difference between the external fields, the system exhibits periodic behavior with a definite phase relationship between all the three junctions.Itdeals with an array of three Josephson junctions with a time delay in the coupling term. It is observed that only the outer systems synchronize while the middle system remain uncorrelated with t-he other two. The effect of phase difference between the applied fields and time-delay on system dynamics and synchronization is also studied. We study the influence of an applied ac biasing on a serniannular Josephson junction. It is found the magnetic field along with the biasing induces creation and annihilation of fluxons in the junction. The I-V characteristics of the junction is studied by considering the surface loss term also in the model equation. The system is found to exhibit chaotic behavior in the presence of ac biasing.