15 resultados para Model-Driven Development

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse a pour but d’améliorer l’automatisation dans l’ingénierie dirigée par les modèles (MDE pour Model Driven Engineering). MDE est un paradigme qui promet de réduire la complexité du logiciel par l’utilisation intensive de modèles et des transformations automatiques entre modèles (TM). D’une façon simplifiée, dans la vision du MDE, les spécialistes utilisent plusieurs modèles pour représenter un logiciel, et ils produisent le code source en transformant automatiquement ces modèles. Conséquemment, l’automatisation est un facteur clé et un principe fondateur de MDE. En plus des TM, d’autres activités ont besoin d’automatisation, e.g. la définition des langages de modélisation et la migration de logiciels. Dans ce contexte, la contribution principale de cette thèse est de proposer une approche générale pour améliorer l’automatisation du MDE. Notre approche est basée sur la recherche méta-heuristique guidée par les exemples. Nous appliquons cette approche sur deux problèmes importants de MDE, (1) la transformation des modèles et (2) la définition précise de langages de modélisation. Pour le premier problème, nous distinguons entre la transformation dans le contexte de la migration et les transformations générales entre modèles. Dans le cas de la migration, nous proposons une méthode de regroupement logiciel (Software Clustering) basée sur une méta-heuristique guidée par des exemples de regroupement. De la même façon, pour les transformations générales, nous apprenons des transformations entre modèles en utilisant un algorithme de programmation génétique qui s’inspire des exemples des transformations passées. Pour la définition précise de langages de modélisation, nous proposons une méthode basée sur une recherche méta-heuristique, qui dérive des règles de bonne formation pour les méta-modèles, avec l’objectif de bien discriminer entre modèles valides et invalides. Les études empiriques que nous avons menées, montrent que les approches proposées obtiennent des bons résultats tant quantitatifs que qualitatifs. Ceux-ci nous permettent de conclure que l’amélioration de l’automatisation du MDE en utilisant des méthodes de recherche méta-heuristique et des exemples peut contribuer à l’adoption plus large de MDE dans l’industrie à là venir.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La recherche en génie logiciel a depuis longtemps tenté de mieux comprendre le processus de développement logiciel, minimalement, pour en reproduire les bonnes pratiques, et idéalement, pour pouvoir le mécaniser. On peut identifier deux approches majeures pour caractériser le processus. La première approche, dite transformationnelle, perçoit le processus comme une séquence de transformations préservant certaines propriétés des données à l’entrée. Cette idée a été récemment reprise par l’architecture dirigée par les modèles de l’OMG. La deuxième approche consiste à répertorier et à codifier des solutions éprouvées à des problèmes récurrents. Les recherches sur les styles architecturaux, les patrons de conception, ou les cadres d’applications s’inscrivent dans cette approche. Notre travail de recherche reconnaît la complémentarité des deux approches, notamment pour l’étape de conception: dans le cadre du développement dirigé par les modèles, nous percevons l’étape de conception comme l’application de patrons de solutions aux modèles reçus en entrée. Il est coutume de définir l’étape de conception en termes de conception architecturale, et conception détaillée. La conception architecturale se préoccupe d’organiser un logiciel en composants répondant à un ensemble d’exigences non-fonctionnelles, alors que la conception détaillée se préoccupe, en quelque sorte, du contenu de ces composants. La conception architecturale s’appuie sur des styles architecturaux qui sont des principes d’organisation permettant d’optimiser certaines qualités, alors que la conception détaillée s’appuie sur des patrons de conception pour attribuer les responsabilités aux classes. Les styles architecturaux et les patrons de conception sont des artefacts qui codifient des solutions éprouvées à des problèmes récurrents de conception. Alors que ces artefacts sont bien documentés, la décision de les appliquer reste essentiellement manuelle. De plus, les outils proposés n’offrent pas un support adéquat pour les appliquer à des modèles existants. Dans cette thèse, nous nous attaquons à la conception détaillée, et plus particulièrement, à la transformation de modèles par application de patrons de conception, en partie parce que les patrons de conception sont moins complexes, et en partie parce que l’implémentation des styles architecturaux passe souvent par les patrons de conception. Ainsi, nous proposons une approche pour représenter et appliquer les patrons de conception. Notre approche se base sur la représentation explicite des problèmes résolus par ces patrons. En effet, la représentation explicite du problème résolu par un patron permet : (1) de mieux comprendre le patron, (2) de reconnaître l’opportunité d’appliquer le patron en détectant une instance de la représentation du problème dans les modèles du système considéré, et (3) d’automatiser l’application du patron en la représentant, de façon déclarative, par une transformation d’une instance du problème en une instance de la solution. Pour vérifier et valider notre approche, nous l’avons utilisée pour représenter et appliquer différents patrons de conception et nous avons effectué des tests pratiques sur des modèles générés à partir de logiciels libres.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La multiplication des formations professionnelles universitaires (FPU) a poussé plusieurs chercheurs à s’intéresser aux caractéristiques de ces formations, leur perméabilité à une multitude de pressions étant l’une des plus fréquemment relevées. Ainsi, les unités responsables de FPU sont confrontées à des pressions diverses et souvent contradictoires. Si les écrits scientifiques sur les FPU témoignent bien de cette réalité, ceux-ci nous informent moins bien de la manière dont les unités responsables de ce type de formation répondent à ces pressions. Cette thèse a donc fait appel à plusieurs concepts de l’approche institutionnelle issue de la sociologie des organisations pour analyser l’évolution récente de la FPU destinée aux directions d’établissement scolaire (DES) du Québec, un champ qui a connu d’importantes transformations au cours des vingt-cinq dernières années. Construite sur une étude de cas interprétative dite à « unités enchâssées » (Yin, 2003), cette thèse s’est intéressée à l’évolution de cette formation dans deux unités universitaires francophones : le Département d’administration et fondements de l’éducation de l’Université de Montréal et le Département de gestion de l’éducation et de la formation de l’Université de Sherbrooke. Couvrant la période allant des années universitaires 1988-1989 à 2008-2009, elle repose sur une analyse du discours produit par les deux unités sélectionnées, et, dans une moindre mesure, par les organisations qui composent le champ organisationnel de la formation des DES au Québec. Pour ce faire, trois corpus documentaires distincts ont été assemblés et une série d’entrevues (dix par unités) ont été réalisées auprès d’informateurs-clés (doyens, directeurs de département/section, responsables de formation). Les résultats montrent comment ces unités tendent à se rendre isomorphes à leur environnement, et comment cela se fait en réponse à des pressions institutionnelles et de compétition diverses émanant d’un champ organisationnel en pleine transformation. En fait, poussée par des changements plus profonds touchant l’administration scolaire, cette transformation amène un champ organisationnel plus structuré, où les attentes concernant la FPU destinée aux DES sont plus explicites. Cela n’est pas sans conséquence sur l’évolution de la formation dans les deux unités. En effet, celle-ci connaît des changements importants, dont plusieurs convergent autour d’une logique de professionnalisation, d’un archétype spécifique de formation (un continuum de formation de 2e cycle, au cœur duquel se trouve un diplôme de deuxième cycle) et d’outils conséquents (conditions d’admission et populations étudiantes élargies; flexibilité dans la structure du programme et professionnalisation des activités; équipes enseignantes plus diversifiées). Les deux unités n’apparaissent cependant pas impuissantes devant ces pressions. Les résultats témoignent d’un certain niveau d’agence des deux unités, qui déploient un éventail de stratégies en réaction à ces pressions. Ces stratégies évoluent au cours de la période observée et visent surtout à gérer la situation de « pluralisme institutionnel » à laquelle elles sont confrontées, notamment entre les pressions externes de nature plus professionnalisantes, et les pressions intraorganisationnelles de nature plus académisantes. Ainsi, plusieurs des stratégies et tactiques composant la typologie d’Oliver (1991) ont été observées, les stratégies de compromis et de manipulation occupant, dans les deux unités, une place de plus en plus importante au gré de l’évolution du champ. La mise en œuvre de ces stratégies vise surtout à maintenir la légitimité de leur offre de formation devant des pressions plurielles et parfois contradictoires. Les résultats montrent aussi que la nature de l’entrepreneuriat institutionnel en place détermine en grande partie les stratégies qu’elles déploient. Cet « entrepreneuriat » est au cœur de l’évolution de la formation. Cependant, les résultats montrent aussi comment celui-ci est en partie contraint ou, a contrario, stimulé par les choix historiques qui ont été faits par les unités et leur université, et par l’empreinte et les dépendances de sentier qui en découlent. Ces résultats apportent un éclairage « institutionnaliste » sur la manière dont deux unités universitaires ont réagi, à une période donnée, aux pressions diverses provenant de leur environnement. Ils brossent un portrait complexe et nuancé qui vient à la fois (1) approfondir notre compréhension de cette spécificité des FPU, (2) approfondir notre compréhension de l’évolution récente de la FPU destinée aux DES québécoises, et (3) confirmer la puissance d’analyse de plusieurs concepts tirés de l’approche institutionnelle.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L’ingénierie dirigée par les modèles (IDM) est un paradigme d’ingénierie du logiciel bien établi, qui préconise l’utilisation de modèles comme artéfacts de premier ordre dans les activités de développement et de maintenance du logiciel. La manipulation de plusieurs modèles durant le cycle de vie du logiciel motive l’usage de transformations de modèles (TM) afin d’automatiser les opérations de génération et de mise à jour des modèles lorsque cela est possible. L’écriture de transformations de modèles demeure cependant une tâche ardue, qui requiert à la fois beaucoup de connaissances et d’efforts, remettant ainsi en question les avantages apportés par l’IDM. Afin de faire face à cette problématique, de nombreux travaux de recherche se sont intéressés à l’automatisation des TM. L’apprentissage de transformations de modèles par l’exemple (TMPE) constitue, à cet égard, une approche prometteuse. La TMPE a pour objectif d’apprendre des programmes de transformation de modèles à partir d’un ensemble de paires de modèles sources et cibles fournis en guise d’exemples. Dans ce travail, nous proposons un processus d’apprentissage de transformations de modèles par l’exemple. Ce dernier vise à apprendre des transformations de modèles complexes en s’attaquant à trois exigences constatées, à savoir, l’exploration du contexte dans le modèle source, la vérification de valeurs d’attributs sources et la dérivation d’attributs cibles complexes. Nous validons notre approche de manière expérimentale sur 7 cas de transformations de modèles. Trois des sept transformations apprises permettent d’obtenir des modèles cibles parfaits. De plus, une précision et un rappel supérieurs à 90% sont enregistrés au niveau des modèles cibles obtenus par les quatre transformations restantes.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

On présente une nouvelle approche de simulation pour la fonction de densité conjointe du surplus avant la ruine et du déficit au moment de la ruine, pour des modèles de risque déterminés par des subordinateurs de Lévy. Cette approche s'inspire de la décomposition "Ladder height" pour la probabilité de ruine dans le Modèle Classique. Ce modèle, déterminé par un processus de Poisson composé, est un cas particulier du modèle plus général déterminé par un subordinateur, pour lequel la décomposition "Ladder height" de la probabilité de ruine s'applique aussi. La Fonction de Pénalité Escomptée, encore appelée Fonction Gerber-Shiu (Fonction GS), a apporté une approche unificatrice dans l'étude des quantités liées à l'événement de la ruine été introduite. La probabilité de ruine et la fonction de densité conjointe du surplus avant la ruine et du déficit au moment de la ruine sont des cas particuliers de la Fonction GS. On retrouve, dans la littérature, des expressions pour exprimer ces deux quantités, mais elles sont difficilement exploitables de par leurs formes de séries infinies de convolutions sans formes analytiques fermées. Cependant, puisqu'elles sont dérivées de la Fonction GS, les expressions pour les deux quantités partagent une certaine ressemblance qui nous permet de nous inspirer de la décomposition "Ladder height" de la probabilité de ruine pour dériver une approche de simulation pour cette fonction de densité conjointe. On présente une introduction détaillée des modèles de risque que nous étudions dans ce mémoire et pour lesquels il est possible de réaliser la simulation. Afin de motiver ce travail, on introduit brièvement le vaste domaine des mesures de risque, afin d'en calculer quelques unes pour ces modèles de risque. Ce travail contribue à une meilleure compréhension du comportement des modèles de risques déterminés par des subordinateurs face à l'éventualité de la ruine, puisqu'il apporte un point de vue numérique absent de la littérature.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La transformation de modèles consiste à transformer un modèle source en un modèle cible conformément à des méta-modèles source et cible. Nous distinguons deux types de transformations. La première est exogène où les méta-modèles source et cible représentent des formalismes différents et où tous les éléments du modèle source sont transformés. Quand elle concerne un même formalisme, la transformation est endogène. Ce type de transformation nécessite généralement deux étapes : l’identification des éléments du modèle source à transformer, puis la transformation de ces éléments. Dans le cadre de cette thèse, nous proposons trois principales contributions liées à ces problèmes de transformation. La première contribution est l’automatisation des transformations des modèles. Nous proposons de considérer le problème de transformation comme un problème d'optimisation combinatoire où un modèle cible peut être automatiquement généré à partir d'un nombre réduit d'exemples de transformations. Cette première contribution peut être appliquée aux transformations exogènes ou endogènes (après la détection des éléments à transformer). La deuxième contribution est liée à la transformation endogène où les éléments à transformer du modèle source doivent être détectés. Nous proposons une approche pour la détection des défauts de conception comme étape préalable au refactoring. Cette approche est inspirée du principe de la détection des virus par le système immunitaire humain, appelée sélection négative. L’idée consiste à utiliser de bonnes pratiques d’implémentation pour détecter les parties du code à risque. La troisième contribution vise à tester un mécanisme de transformation en utilisant une fonction oracle pour détecter les erreurs. Nous avons adapté le mécanisme de sélection négative qui consiste à considérer comme une erreur toute déviation entre les traces de transformation à évaluer et une base d’exemples contenant des traces de transformation de bonne qualité. La fonction oracle calcule cette dissimilarité et les erreurs sont ordonnées selon ce score. Les différentes contributions ont été évaluées sur d’importants projets et les résultats obtenus montrent leurs efficacités.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Au cours des dernières décennies, le thème de la conciliation travail-famille s’est taillé une place importante dans le discours populaire, médiatique et politique tant au Québec, dans les pays industrialisés que dans les organismes internationaux. L’expression désigne les défis que posent pour les individus, les couples, les familles, les milieux de travail et la société en général la relation nouvelle qui s’est développée entre ces deux sphères de vie avec le passage d’une société industrielle à une société dite postindustrielle. Ces défis perçus, ressentis, identifiés et définis différemment par l’un ou l’autre de ces acteurs se sont traduits par l’inscription de cette question à l’agenda politique des gouvernements, ici comme ailleurs. L’objet de la recherche est de comprendre les dynamiques entourant le développement des actions de l’État québécois sur le thème de la conciliation travail-famille. La recherche s’intéresse aux acteurs (Intérêts) qui ont participé aux processus de développement des mesures de conciliation travail-famille et au contexte Institutionnel qui encadre leurs interactions avec les décideurs. À ce titre, la recherche permet de vérifier si le développement de la politique familiale québécoise peut être situé dans ce qui a été désigné comme le « modèle québécois de développement ». La variable « Idée » complète le cadre théorique de l’analyse du développement de la politique de conciliation travail-famille au Québec selon l’approche dite « des 3 I ».

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des sciences infirmières en vue de l’obtention du grade de Maître ès sciences (M.Sc.) en sciences infirmières option formation des sciences infirmières

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Les immunoglobulines intraveineuses (IVIg) constituent une préparation polyclonale d’IgG isolée et regroupée à partir du plasma sanguin de multiples donneurs. Initialement utilisé comme traitement de remplacement chez les patients souffrant d’immunodéficience primaire ou secondaire, les IVIg sont maintenant largement utilisées dans le traitement de plusieurs conditions auto-immunes, allergiques ou inflammatoires à une dose élevée, dite immunomodulatrice. Différents mécanismes d’action ont été postulés au fil des années pour expliquer l’effet thérapeutique des IVIg dans les maladies auto-immunes et inflammatoires. Entre autre, un nombre grandissant de données issues de modèles expérimentaux chez l’animal et l’humain suggère que les IVIg induisent l’expansion et augmentent l’action suppressive des cellules T régulatrices (Tregs), par un mécanisme qui demeure encore inconnu. Également, les patients atteints de maladies auto-immunes ou inflammatoires présentent souvent un nombre abaissé de Tregs par rapport aux individus sains. Ainsi, une meilleure compréhension des mécanismes par lesquels les IVIg modulent les cellules T régulatrices est requise afin de permettre un usage plus rationnel de ce produit sanguin en tant qu’alternative thérapeutique dans le traitement des maladies auto-immunes et inflammatoires. Par le biais d’un modèle expérimental d’allergie respiratoire induite par un allergène, nous avons démontré que les IVIg diminuaient significativement l’inflammation au niveau des voies aériennes ce, en association avec une différenciation des Tregs à partir des cellules T non régulatrices du tissu pulmonaire. Nous avons également démontré qu’au sein de notre modèle expérimental, l’effet anti-inflammatoire des IVIg était dépendant des cellules dendritiques CD11c+ (CDs) pulmonaires, puisque cet effet pouvait être complètement reproduit par le transfert adoptif de CDs provenant de souris préalablement traitées par les IVIg. À cet effet, il est déjà établi que les IVIg peuvent moduler l’activation et les propriétés des CDs pour favoriser la tolérance immunitaire et que ces cellules seraient cruciales pour l’induction périphérique des Tregs. C’est pourquoi, nous avons cherché à mieux comprendre comment les IVIg exercent leur effet sur ces cellules. Pour la première fois, nous avons démontré que la fraction d’IgG riche en acide sialique (SA-IVIg) (constituant 2-5% de l’ensemble des IgG des donneurs) interagit avec un récepteur dendritique inhibiteur de type lectine C (DCIR) et active une cascade de signalement intracellulaire initiée par la phosphorylation du motif ITIM qui est responsable des changements observés en faveur de la tolérance immunitaire auprès des cellules dendritiques et des Tregs. L’activité anti-inflammatoire de la composante SA-IVIg a déjà été décrite dans des études antérieures, mais encore une fois le mécanisme par lequel ce traitement modifie la fonction des CDs n’a pas été établi. Nous avons finalement démontré que le récepteur DCIR facilite l’internalisation des molécules d’IgG liées au récepteur et que cette étape est cruciale pour permettre l’induction périphérique des Tregs. En tant que produit sanguin, les IVIg constitue un traitement précieux qui existe en quantité limitée. La caractérisation des mécanismes d’action des IVIg permettra une meilleure utilisation de ce traitement dans un vaste éventail de pathologies auto-immunes et inflammatoires.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Introduction: La circulation extracorporelle (CEC) peut entraîner une dysfonction endothéliale pulmonaire et l’hypertension pulmonaire. Le SN50 agit au niveau de la signalisation cellulaire pour prévenir ces réactions à la CEC et pourrait renverser la dysfonction endothéliale pulmonaire post-CEC sans effets néfastes sur l’hémodynamie. Méthodes: Quatre groups de porcs ont reçu un parmi quatre traîtements avant de subir 90 minutes de CEC et 60 minutes de reperfusion: (1) milrinone nébulisé; (2) sildenafil nébulisé; (3) placebo nébulisé; et (4) SN-50 intraveineux. Un monitoring hémodynamique invasif a été utilisé. La réactivité vasculaire des artères pulmonaires de deuxième ordre a été évaluée face à l’acétylcholine et la bradykinine. Résultats: Le sildénafil produit une augmentation significative de la pression de l’artère pulmonaire (PAP) moyenne à 60 minutes de reperfusion par rapport au début de la chirurgie. Les relaxations dépendantes de l’endothélium face à la bradykinine étaient meilleurs dans les groupes milrinone et SN-50 et surtout dans le groupe sildénafil par rapport au groupe placébo. Le SN-50 produisait de moins bonnes relaxations dépendantes de l’endothélium face à l’acétylcholine que les autres traitements incluant placébo. Conclusion: Le sildénafil prévient mieux la dysfonction endothéliale pulmonaire que les autres traitements. Les bénéfices du SN-50 sont possiblement sous-estimés vu que la dose n’a pas pu être ajustée à la durée de CEC. Le sildenafil inhalé mérite une étude plus importante chez l’humain et le SN-50 dans un model de CEC animal.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A fundamental goal in neurobiology is to understand the development and organization of neural circuits that drive behavior. In the embryonic spinal cord, the first motor activity is a slow coiling of the trunk that is sensory-independent and therefore appears to be centrally driven. Embryos later become responsive to sensory stimuli and eventually locomote, behaviors that are shaped by the integration of central patterns and sensory feedback. In this thesis I used a simple vertebrate model, the zebrafish, to investigate in three manners how developing spinal networks control these earliest locomotor behaviors. For the first part of this thesis, I characterized the rapid transition of the spinal cord from a purely electrical circuit to a hybrid network that relies on both chemical and electrical synapses. Using genetics, lesions and pharmacology we identified a transient embryonic behavior preceding swimming, termed double coiling. I used electrophysiology to reveal that spinal motoneurons had glutamate-dependent activity patterns that correlated with double coiling as did a population of descending ipsilateral glutamatergic interneurons that also innervated motoneurons at this time. This work (Knogler et al., Journal of Neuroscience, 2014) suggests that double coiling is a discrete step in the transition of the motor network from an electrically coupled circuit that can only produce simple coils to a spinal network driven by descending chemical neurotransmission that can generate more complex behaviors. In the second part of my thesis, I studied how spinal networks filter sensory information during self-generated movement. In the zebrafish embryo, mechanosensitive sensory neurons fire in response to light touch and excite downstream commissural glutamatergic interneurons to produce a flexion response, but spontaneous coiling does not trigger this reflex. I performed electrophysiological recordings to show that these interneurons received glycinergic inputs during spontaneous fictive coiling that prevented them from firing action potentials. Glycinergic inhibition specifically of these interneurons and not other spinal neurons was due to the expression of a unique glycine receptor subtype that enhanced the inhibitory current. This work (Knogler & Drapeau, Frontiers in Neural Circuits, 2014) suggests that glycinergic signaling onto sensory interneurons acts as a corollary discharge signal for reflex inhibition during movement. v In the final part of my thesis I describe work begun during my masters and completed during my doctoral degree studying how homeostatic plasticity is expressed in vivo at central synapses following chronic changes in network activity. I performed whole-cell recordings from spinal motoneurons to show that excitatory synaptic strength scaled up in response to decreased network activity, in accordance with previous in vitro studies. At the network level, I showed that homeostatic plasticity mechanisms were not necessary to maintain the timing of spinal circuits driving behavior, which appeared to be hardwired in the developing zebrafish. This study (Knogler et al., Journal of Neuroscience, 2010) provided for the first time important in vivo results showing that synaptic patterning is less plastic than synaptic strength during development in the intact animal. In conclusion, the findings presented in this thesis contribute widely to our understanding of the neural circuits underlying simple motor behaviors in the vertebrate spinal cord.