619 resultados para Problème 3SUM


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La transplantation d’îlots chez des sujets diabétiques permet la normalisation de leur glycémie mais nécessite l’utilisation d’immunosuppresseurs. Afin d’éliminer l’utilisation de ceux-ci, une capsule d’alginate capable d’immunoprotéger l’îlot a été proposée. Cependant, un problème persiste : la survie de l’implant est limitée. Deux moyens afin d’améliorer ce facteur seront présentés dans ce mémoire: l’utilisation d’alginate purifié et la co-encapsulation des îlots avec des cellules canaliculaires pancréatiques. La première étude rapporte un aspect nouveau : les effets directs de l’alginate non-purifié, versus purifié, sur la survie d’îlots encapsulés. Ceci est démontré in vitro sur la viabilité à long terme des îlots, leur fonction et l’incidence de leur mort cellulaire par apoptose et nécrose. Ces investigations ont permis de conclure que l’alginate purifié permet de maintenir à long terme une meilleure survie et fonction des îlots. De plus, cette étude ajoute un autre rôle aux contaminants de l’alginate en plus de celui d’initier la réaction immunitaire de l’hôte; celle-ci étant indirectement reliée à la mort des îlots encapsulés. La deuxième étude consiste à déterminer les impacts possibles d’une co-encapsulation d’îlots de Langerhans avec des cellules canaliculaires pancréa-tiques. Les résultats obtenus démontrent que cette co-encapsulation n’améliore pas la survie des îlots microencapsulés, par des tests de viabilité et de morts cellulaires, ni leur fonction in vivo testée par des implantations chez un modèle murin immmunodéficient. Pour conclure, la survie des îlots encapsulés peut être améliorée par la purification de l’alginate mais reste inchangée lors d’une co-encapsulation avec des cellules canaliculaires pancréatiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les tâches de vision artificielle telles que la reconnaissance d’objets demeurent irrésolues à ce jour. Les algorithmes d’apprentissage tels que les Réseaux de Neurones Artificiels (RNA), représentent une approche prometteuse permettant d’apprendre des caractéristiques utiles pour ces tâches. Ce processus d’optimisation est néanmoins difficile. Les réseaux profonds à base de Machine de Boltzmann Restreintes (RBM) ont récemment été proposés afin de guider l’extraction de représentations intermédiaires, grâce à un algorithme d’apprentissage non-supervisé. Ce mémoire présente, par l’entremise de trois articles, des contributions à ce domaine de recherche. Le premier article traite de la RBM convolutionelle. L’usage de champs réceptifs locaux ainsi que le regroupement d’unités cachées en couches partageant les même paramètres, réduit considérablement le nombre de paramètres à apprendre et engendre des détecteurs de caractéristiques locaux et équivariant aux translations. Ceci mène à des modèles ayant une meilleure vraisemblance, comparativement aux RBMs entraînées sur des segments d’images. Le deuxième article est motivé par des découvertes récentes en neurosciences. Il analyse l’impact d’unités quadratiques sur des tâches de classification visuelles, ainsi que celui d’une nouvelle fonction d’activation. Nous observons que les RNAs à base d’unités quadratiques utilisant la fonction softsign, donnent de meilleures performances de généralisation. Le dernière article quand à lui, offre une vision critique des algorithmes populaires d’entraînement de RBMs. Nous montrons que l’algorithme de Divergence Contrastive (CD) et la CD Persistente ne sont pas robustes : tous deux nécessitent une surface d’énergie relativement plate afin que leur chaîne négative puisse mixer. La PCD à "poids rapides" contourne ce problème en perturbant légèrement le modèle, cependant, ceci génère des échantillons bruités. L’usage de chaînes tempérées dans la phase négative est une façon robuste d’adresser ces problèmes et mène à de meilleurs modèles génératifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Conseil de sécurité est l’organe principal du système onusien chargé du maintien de la paix et de la sécurité internationales. Face à une situation illégale, il ne peut donc l’ignorer et s’en désintéresser. Cependant, la perpétration d’un acte à la légalité controversée par l’un ou plusieurs de ses membres permanents peut nous laisser entendre que l’organe politique onusien aura des difficultés à remplir son rôle. Les membres permanents vont tenter d’instrumentaliser le Conseil de sécurité afin de diminuer l’illégalité de la situation. Ceci pose avec acuité le problème du contrôle de son activité en matière de maintien de la paix. L’accomplissement d’un acte illégal par un ou plusieurs membres permanents du Conseil de sécurité nécessite alors de réfléchir à des moyens d’ordre juridique pour limiter son pouvoir. Cette réflexion s’avère particulièrement pressante lorsque le Conseil est confronté à une occupation de guerre impliquant ses membres permanents ou, lorsqu’il crée ou autorise des opérations de paix de grandes envergures suite à un conflit armé impliquant ses membres permanents. Afin de limiter les prérogatives du Conseil de sécurité, le régime juridique de l’occupation tel qu’énoncé par le Règlement de La Haye (IV) de 1907 et la IVe Convention de Genève de 1949 devrait être appliquer par l’organe politique onusien lorsqu’il intervient dans une situation d’occupation de guerre impliquant ses membres permanents. L’objectif est d’éviter qu’il n’attribue aux puissances occupantes des missions qui dépassent le cadre juridique imposé par le droit des conflits armés. L’autorisation, par le Conseil de sécurité d’opérations de paix, telles qu’une administration civile transitoire ou une force multinationale avec un mandat de la paix avec recours à la force armée, suite à un conflit armé impliquant ses propres membres permanents, ouvre le débat sur leur réglementation. Alors, il sera proposé une interprétation progressiste de la définition de l’occupation telle qu’énoncée par le Règlement de La Haye (IV) de 1907 et la IVe Convention de Genève de 1949 afin d’y intégrer ces nouvelles formes d’occupations pacifiques, présentant de grandes similitudes avec les occupations de guerre. Ainsi, le régime juridique de l’occupation pourra leur être appliqué.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le gène Solanum chacoense Fertilization-Related Kinase 1 (ScFRK1) code pour une protéine de la famille des MAPKK kinases exprimée spécifiquement dans les ovules. Son transcrit s’accumule principalement dans la zone micropylaire du sac embryonnaire à l’anthèse et diminue rapidement après pollinisation. Ces résultats suggèrent un rôle possible avant ou pendant la fécondation. Bien qu'aucune expression ne soit détectée dans le pollen à maturité, la protéine est cependant présente dans les cellules mères de microspores. Des plantes transgéniques sous-exprimant ScFRK1 ne montrent aucun phénotype au niveau des tissus végétatifs, mais présentent de petits fruits dépourvus de graines. L’étude microscopique du gamétophyte femelle révèle que son développement ne progresse pas au-delà du stade de la mégaspore fonctionnelle et une grande proportion de sacs embryonnaires anormaux est corrélée avec une faible expression de ScFRK1. De plus, la production de pollen viable diminue en fonction de la baisse des niveaux d’expression du gène, ce qui pourrait s’expliquer par un problème au cours de la mitose I. Puisque l’intégrité du sac embryonnaire est essentielle au guidage des tubes polliniques, nous avons conçu un système de guidage semi-in vivo permettant d’évaluer la capacité des ovules du mutant ScFRK1 à les attirer. L’attraction est sévèrement affectée dans de telles conditions, ce qui confirme l'implication des cellules de la zone micropylaire comme source attractive. Notre système nous a également permis de démontrer que le guidage est très spécifique à l’espèce et que cette attraction constitue un mécanisme important favorisant la spéciation et la maintenance des barrières interspécifiques dans la reproduction sexuée des végétaux.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire traite de la construction d’un espace social citoyen à partir de l’analyse du travail d’intervention de deux organismes locaux situés à Trou du Nord (Haïti). Il s’agit d’explorer les manières dont les membres se représentent et s’approprient leur statut de citoyen. Pour mettre l’emphase sur les mécanismes associatifs et sociaux qui interviennent dans la construction de ce que nous nommons "espace social citoyen", nous avons mené une recherche qualitative dont la charpente interprétative est conçue avec l’aide des outils théorico-pratiques de la politique de participation (Barber, 1997) et l’intervention sociale collective (Lamoureux, 1991). Nous avançons l’hypothèse centrale que les pratiques associatives sont le vecteur de la construction d’un espace social citoyen à Trou du Nord. Cette hypothèse centrale est soutenue par deux hypothèses opératoires portant sur les conditions d’exercice de citoyenneté et l’affirmation individuelle de l’appartenance des membres à l’espace commun. Nous avons recueilli quatorze entretiens semi-directifs effectués avec les membres de l’Assemblée Populaire Veye Yo Trou du Nord (APVT) et du Rassemblement des Militants Solidaires de Trou du Nord (RAMSO). Les résultats de la recherche indiquent que les membres de ces deux organisations manifestent une grande volonté de contribuer au développement de leur localité et au «mieux-être» de la population. Leur implication directe dans les affaires politiques et sociales s’accompagne des exigences pour que l’État prenne en charge ses responsabilités vis-à-vis de ses citoyens. Cette liberté d’action repose sur le partage de leurs expériences individuelles et sur une grande connaissance des divers aspects des réalités locales auxquelles sont confrontés quotidiennement les citoyens. Ces deux groupes sont conçus comme des espaces de sociabilité, des lieux publics et dynamiques issus de l’activité commune et des divers types d’interactions au niveau local. Toujours d’après l’analyse, les membres de ces deux groupes interviennent sur un problème d’ensemble collectif au niveau local sans pour autant négliger leurs propres intérêts. Ils s’inscrivent dans le jeu de marchandage électoral et apprennent à leurs membres à se comporter comme une communauté d’intérêts et d’actions, elle-même inscrite dans l’ensemble des interactions, des processus et des dynamiques de résolution des problèmes au niveau local. Un tel constat vient à la fois valider certaines de nos hypothèses tout en révélant les limites de l’idée de la construction d’un espace social citoyen. D’une part, la volonté de contribuer au «mieux-être» de la population, la nécessité de prendre la parole, d’exprimer les problèmes collectifs et individuels, le souci d’avoir un contrôle sur l’action des dirigeants élus sont autant d’enjeux qui leur ont permis de passer de leur vécu particulier à une vision plus large des intérêts collectifs et à la définition des tâches qu’ils estiment correspondre au rôle citoyen qui leur incombe. D’autre part, leur positionnement dans le champ politique notamment au moment des élections les fait apparaître comme des groupes partisans, c'est-à-dire qu’ils ne sont pas toujours dans la construction de l’intérêt général. Nous concluons que ce double aspect s’avère nécessaire aussi bien à la construction de l’espace social citoyen qu’au fonctionnement démocratique au niveau local. Car, en plus de se définir comme citoyens et d’affirmer leur appartenance communautaire, les membres développent les capacités critiques face aux gestes et actes posés autant par les dirigeants locaux que par l’État haïtien lui-même. Ils acquièrent aussi les habilités de participer, même dans les interstices, aux jeux sociopolitiques faisant partie du processus de renforcement de la citoyenneté et d’un système démocratique en construction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les infections à Salmonella Typhimurium constituent un problème de taille pour l’industrie porcine et la santé publique car cet animal est un réservoir pour les infections chez l’homme. De plus, on observe, chez des souches appartenant au lysotype (LT) 104, des résistances multiples aux antimicrobiens associées à des septicémies chez les porcs en engraissement, ce qui peut contribuer à la contamination des carcasses. Il faut donc contrôler l’infection au niveau du troupeau. Pour ce faire, il importe donc de mieux caractériser ces souches, comprendre la pathogénie de l’infection et identifier des facteurs de virulence. L’objectif principal de cette étude était de caractériser des isolats de S. Typhimurium provenant de porcs septicémiques et de les comparer avec ceux de porcs sains. Une banque d’isolats provenant de porcs septicémiques (ASC) et de porcs sains à l’abattoir (SSC) était constituée. Le lysotype des isolats a été identifié et ceux-ci ont été caractérisés selon le profil de résistance aux antimicrobiens, le SDS-PAGE et l’immunobuvardage et le PFGE. Chez les isolats ASC, LT 104 représentait 36.4% des isolats et chez les isolats SSC la proportion était de 51.5%. Les isolats pouvaient être résistants jusqu’à douze antimicrobiens, peu importe leur origine. Il n’a toutefois pas été possible d’associer une protéine spécifique au groupe d’isolats ASC. Parmi les souches LT 104, plusieurs groupes génétiques ont été identifiés. Les différentes étapes de la pathogénie de Salmonella ont ensuite été évaluées, dont l’adhésion et l’invasion des isolats des deux banques sur des cellules intestinales humaines. Nos résultats ont démontré que les isolats ASC avaient un pouvoir accru d’invasion comparés aux isolats SSC (P=0.003). Pour un sous-groupe d’isolats sélectionnés selon leur taux d’invasion, des tests de phagocytose, d’apoptose et d’adhésion au mucus intestinal ont été effectués en utilisant la cytométrie en flux. La survie des bactéries après la phagocytose a aussi été évaluée et la méthode MATS a été utilisée pour évaluer l'adhésion aux solvants. Les pourcentages de phagocytose chez les isolats SSC par les monocytes porcins étaient plus élevés que chez les isolats ASC à 15 minutes (P=0.02). Nous n’avons trouvé aucune différence significative pour les autres méthodes utilisées. Nous avons ensuite comparé le génome d’un isolat ASC (#36) à celui d’un isolat SSC (#1) par le SSH pour identifier des facteurs de virulence potentiels. Des clones correspondant à des gènes retrouvés sur le chromosome ainsi que sur des plasmides ont été identifiés. Ces résultats nous ont dirigés vers l’analyse des profils plasmidiques de tous les isolats. Les différents profils étaient retrouvés autant chez les isolats ASC que chez les isolats SSC. Deux profils (PL14 et PL20) étaient observés plus fréquemment chez les isolats LT 104 que chez les isolats d’autres lysotypes (P=0.01 et P=0.01, respectivement). Le séquençage d’un des plasmides de l’isolat ASC, démontrait la présence d’informations génétiques codant pour la réplication et une bêta-galactosidase-α. Il serait intéressant de préciser le rôle exact de ces gènes dans l’infection. Nos travaux suggèrent que les isolats de S. Typhimurium provenant de porcs septicémiques se distinguent par un pouvoir d’invasion accru ainsi que par des taux de phagocytose plus faibles dans les phases initiales de l’infection. Cette étude aura donc permis d’accroître les connaissances sur la pathogénie des infections à S. Typhimurium chez le porc.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de ce mémoire est de décrire et expliquer le traitement des jeunes filles traduites devant la Cour des jeunes délinquants de Montréal durant toute la période de son existence, soit de 1912 à 1950. Une analyse statistique a tout d’abord été utilisée sur un échantillon de 1 465 jeunes filles pour lesquelles nous avions des données quantitatives provenant du plumitif de la cour. Une analyse documentaire a ensuite été utilisée sur un sous-échantillon de 126 mineures pour lesquelles nous avions accès aux divers documents contenus dans leur dossier judiciaire. L’analyse met particulièrement en évidence la différence d’application de la loi en fonction du sexe des mineurs traduits devant la cour. Les jeunes filles sont poursuivies pour des motifs différents de ceux pour lesquels on poursuit les garçons : elles sont particulièrement poursuivies pour des infractions spécifiques aux mineurs telles que l’incorrigibilité, les infractions à caractère sexuel, la désertion ou la protection. Les garçons, quant à eux, sont davantage poursuivis pour des infractions prévues au Code criminel (notamment le vol). Les mineures sont plus souvent amenées devant la cour par leurs parents plutôt que par les officiers de la cour et se voient imposer des mesures différentes de celles qu’on impose aux garçons pour une même infraction. Le placement est ainsi plus fréquemment utilisé chez les filles que chez les garçons et la probation plus fréquemment utilisée chez ces derniers. La définition de ce qui pose problème chez ces mineures et les solutions souhaitables pour y remédier varient en fonction des différents acteurs (les agents de probation, les officiers de la cour, les parents et les mineures elles-mêmes).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les raves sont des événements festifs dédiés à la musique techno et à la danse qui se distinguent des autres lieux de rassemblement tels que les bars et les discothèques notamment par le fait qu’ils se déroulent toute la nuit dans un lieu aménagé pour l’occasion et qu’il n’y a généralement pas de vente d’alcool. La consommation de drogues de synthèse telles que l’ecstasy et les speeds y est toutefois largement répandue. La tenue de ces rassemblements pose une série de problèmes du point de vue des autorités policières, tels que la présence de trafiquants de drogues ainsi que la sécurité des lieux où se déroulent les raves. Dans le contexte particulier de ces événements, les pratiques de contrôle social sont soumises à un certain nombre d’ambiguïtés. Le but général de l’étude est de permettre une compréhension de la façon dont se déterminent et s’appliquent les règles qui visent à encadrer la tenue de ce type de rassemblements. Trois objectifs spécifiques sont poursuivis, soit 1) de comprendre comment on a tenté de réguler ce type d’événements à Montréal, 2) de comprendre comment les différents acteurs responsables de l’organisation et du bon déroulement des événements établissent une série de règles, aussi bien formelles qu’informelles, et négocient leur application dans le cadre de leur pratique, et 3) de comprendre comment ces acteurs identifient certaines situations comme constituant un problème et éventuellement, y réagissent. La principale méthode de recueil des données a consisté à réaliser des entretiens semi-dirigés avec des promoteurs d’événements rave, des agents de sécurité ainsi que d’autres personnes impliquées dans le milieu telles que policier, pompier, artistes de la scène rave et intervenants. L’observation participante lors d’événements rave fut utilisée comme méthode complémentaire. L’étude démontre comment le service de police s’est vu confronté avec les raves à un vide juridique et comment l’encadrement de ce type d’événements s’est plutôt exercé par le service de prévention des incendies. Les autorités ont également tenté d’encadrer le phénomène par des modifications à certaines règlementations, dont celles sur les permis d’alcool. L’étude démontre également de quelle manière et en fonction de quoi les différents acteurs du milieu négocient les règles en cours d’action dans un contexte où la frontière entre le licite et l’illicite est floue.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le projet de recherche porte sur l'étude des problèmes de conception et de planification d'un réseau optique de longue distance, aussi appelé réseau de coeur (OWAN-Optical Wide Area Network en anglais). Il s'agit d'un réseau qui transporte des flots agrégés en mode commutation de circuits. Un réseau OWAN relie différents sites à l'aide de fibres optiques connectées par des commutateurs/routeurs optiques et/ou électriques. Un réseau OWAN est maillé à l'échelle d'un pays ou d’un continent et permet le transit des données à très haut débit. Dans une première partie du projet de thèse, nous nous intéressons au problème de conception de réseaux optiques agiles. Le problème d'agilité est motivé par la croissance de la demande en bande passante et par la nature dynamique du trafic. Les équipements déployés par les opérateurs de réseaux doivent disposer d'outils de configuration plus performants et plus flexibles pour gérer au mieux la complexité des connexions entre les clients et tenir compte de la nature évolutive du trafic. Souvent, le problème de conception d'un réseau consiste à prévoir la bande passante nécessaire pour écouler un trafic donné. Ici, nous cherchons en plus à choisir la meilleure configuration nodale ayant un niveau d'agilité capable de garantir une affectation optimale des ressources du réseau. Nous étudierons également deux autres types de problèmes auxquels un opérateur de réseau est confronté. Le premier problème est l'affectation de ressources du réseau. Une fois que l'architecture du réseau en termes d'équipements est choisie, la question qui reste est de savoir : comment dimensionner et optimiser cette architecture pour qu'elle rencontre le meilleur niveau possible d'agilité pour satisfaire toute la demande. La définition de la topologie de routage est un problème d'optimisation complexe. Elle consiste à définir un ensemble de chemins optiques logiques, choisir les routes physiques suivies par ces derniers, ainsi que les longueurs d'onde qu'ils utilisent, de manière à optimiser la qualité de la solution obtenue par rapport à un ensemble de métriques pour mesurer la performance du réseau. De plus, nous devons définir la meilleure stratégie de dimensionnement du réseau de façon à ce qu'elle soit adaptée à la nature dynamique du trafic. Le second problème est celui d'optimiser les coûts d'investissement en capital(CAPEX) et d'opération (OPEX) de l'architecture de transport proposée. Dans le cas du type d'architecture de dimensionnement considérée dans cette thèse, le CAPEX inclut les coûts de routage, d'installation et de mise en service de tous les équipements de type réseau installés aux extrémités des connexions et dans les noeuds intermédiaires. Les coûts d'opération OPEX correspondent à tous les frais liés à l'exploitation du réseau de transport. Étant donné la nature symétrique et le nombre exponentiel de variables dans la plupart des formulations mathématiques développées pour ces types de problèmes, nous avons particulièrement exploré des approches de résolution de type génération de colonnes et algorithme glouton qui s'adaptent bien à la résolution des grands problèmes d'optimisation. Une étude comparative de plusieurs stratégies d'allocation de ressources et d'algorithmes de résolution, sur différents jeux de données et de réseaux de transport de type OWAN démontre que le meilleur coût réseau est obtenu dans deux cas : une stratégie de dimensionnement anticipative combinée avec une méthode de résolution de type génération de colonnes dans les cas où nous autorisons/interdisons le dérangement des connexions déjà établies. Aussi, une bonne répartition de l'utilisation des ressources du réseau est observée avec les scénarios utilisant une stratégie de dimensionnement myope combinée à une approche d'allocation de ressources avec une résolution utilisant les techniques de génération de colonnes. Les résultats obtenus à l'issue de ces travaux ont également démontré que des gains considérables sont possibles pour les coûts d'investissement en capital et d'opération. En effet, une répartition intelligente et hétérogène de ressources d’un réseau sur l'ensemble des noeuds permet de réaliser une réduction substantielle des coûts du réseau par rapport à une solution d'allocation de ressources classique qui adopte une architecture homogène utilisant la même configuration nodale dans tous les noeuds. En effet, nous avons démontré qu'il est possible de réduire le nombre de commutateurs photoniques tout en satisfaisant la demande de trafic et en gardant le coût global d'allocation de ressources de réseau inchangé par rapport à l'architecture classique. Cela implique une réduction substantielle des coûts CAPEX et OPEX. Dans nos expériences de calcul, les résultats démontrent que la réduction de coûts peut atteindre jusqu'à 65% dans certaines jeux de données et de réseau.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le diabète de type 2 et l'obésité sont des problèmes de santé majeurs et les peuples autochtones sont particulièrement à risque. Pour remédier à ce problème largement répandu dans les populations autochtones canadiennes pour qui la médication moderne n’est pas culturellement adaptée, notre équipe s’est donné comme objectif d’étudier les activités potentielles antidiabétique et anti-obésité de la pharmacopée traditionnelle des Cris de la Baie James. Le but de cette étude est de tester l’hypothèse selon laquelle certaines plantes médicinales pourraient inhiber l'absorption intestinale du glucose, une activité anti-hyperglycémique qui, par la même occasion, contribuerait à combattre l’obésité. Les extraits éthanoliques de dix-sept plantes médicinales de la forêt boréale ont été testés dans des cellules intestinales Caco-2 et comparés à l’effet d’inhibiteurs compétitifs connus, tels que la phlorizine et la phlorétine. Ces inhibiteurs sont des composés polyphénoliques qui partagent de nombreuses caractéristiques structurelles avec des constituants moléculaires de plusieurs plantes Cri. Les résultats démontrent que treize des dix-sept extraits de plantes ont inhibé de façon significative l'absorption intestinale du 3H-D-glucose. Pour valider ces effets in vivo, quatre extraits ont été administrés à des rats Wistar par gavage intragastrique (250 mg/kg) en même temps qu’un bolus de glucose (3 g/kg). Suite à ce gavage, deux de ces extraits ont restreint l’augmentation de la glycémie d'environ 40% par rapport à un contrôle sans extrait. Ces résultats indiquent qu’une inhibition compétitive de l'absorption intestinale du glucose peut être atteinte par des extraits bruts de plantes médicinales. La prise de ces plantes durant les repas aiderait à un meilleur contrôle post-prandial de la glycémie, particulièrement chez les personnes à risque.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La recherche en génie logiciel a depuis longtemps tenté de mieux comprendre le processus de développement logiciel, minimalement, pour en reproduire les bonnes pratiques, et idéalement, pour pouvoir le mécaniser. On peut identifier deux approches majeures pour caractériser le processus. La première approche, dite transformationnelle, perçoit le processus comme une séquence de transformations préservant certaines propriétés des données à l’entrée. Cette idée a été récemment reprise par l’architecture dirigée par les modèles de l’OMG. La deuxième approche consiste à répertorier et à codifier des solutions éprouvées à des problèmes récurrents. Les recherches sur les styles architecturaux, les patrons de conception, ou les cadres d’applications s’inscrivent dans cette approche. Notre travail de recherche reconnaît la complémentarité des deux approches, notamment pour l’étape de conception: dans le cadre du développement dirigé par les modèles, nous percevons l’étape de conception comme l’application de patrons de solutions aux modèles reçus en entrée. Il est coutume de définir l’étape de conception en termes de conception architecturale, et conception détaillée. La conception architecturale se préoccupe d’organiser un logiciel en composants répondant à un ensemble d’exigences non-fonctionnelles, alors que la conception détaillée se préoccupe, en quelque sorte, du contenu de ces composants. La conception architecturale s’appuie sur des styles architecturaux qui sont des principes d’organisation permettant d’optimiser certaines qualités, alors que la conception détaillée s’appuie sur des patrons de conception pour attribuer les responsabilités aux classes. Les styles architecturaux et les patrons de conception sont des artefacts qui codifient des solutions éprouvées à des problèmes récurrents de conception. Alors que ces artefacts sont bien documentés, la décision de les appliquer reste essentiellement manuelle. De plus, les outils proposés n’offrent pas un support adéquat pour les appliquer à des modèles existants. Dans cette thèse, nous nous attaquons à la conception détaillée, et plus particulièrement, à la transformation de modèles par application de patrons de conception, en partie parce que les patrons de conception sont moins complexes, et en partie parce que l’implémentation des styles architecturaux passe souvent par les patrons de conception. Ainsi, nous proposons une approche pour représenter et appliquer les patrons de conception. Notre approche se base sur la représentation explicite des problèmes résolus par ces patrons. En effet, la représentation explicite du problème résolu par un patron permet : (1) de mieux comprendre le patron, (2) de reconnaître l’opportunité d’appliquer le patron en détectant une instance de la représentation du problème dans les modèles du système considéré, et (3) d’automatiser l’application du patron en la représentant, de façon déclarative, par une transformation d’une instance du problème en une instance de la solution. Pour vérifier et valider notre approche, nous l’avons utilisée pour représenter et appliquer différents patrons de conception et nous avons effectué des tests pratiques sur des modèles générés à partir de logiciels libres.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'imputation est souvent utilisée dans les enquêtes pour traiter la non-réponse partielle. Il est bien connu que traiter les valeurs imputées comme des valeurs observées entraîne une sous-estimation importante de la variance des estimateurs ponctuels. Pour remédier à ce problème, plusieurs méthodes d'estimation de la variance ont été proposées dans la littérature, dont des méthodes adaptées de rééchantillonnage telles que le Bootstrap et le Jackknife. Nous définissons le concept de double-robustesse pour l'estimation ponctuelle et de variance sous l'approche par modèle de non-réponse et l'approche par modèle d'imputation. Nous mettons l'emphase sur l'estimation de la variance à l'aide du Jackknife qui est souvent utilisé dans la pratique. Nous étudions les propriétés de différents estimateurs de la variance à l'aide du Jackknife pour l'imputation par la régression déterministe ainsi qu'aléatoire. Nous nous penchons d'abord sur le cas de l'échantillon aléatoire simple. Les cas de l'échantillonnage stratifié et à probabilités inégales seront aussi étudiés. Une étude de simulation compare plusieurs méthodes d'estimation de variance à l'aide du Jackknife en terme de biais et de stabilité relative quand la fraction de sondage n'est pas négligeable. Finalement, nous établissons la normalité asymptotique des estimateurs imputés pour l'imputation par régression déterministe et aléatoire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La Fibrose Kystique (FK) est une maladie dégénérative qui entraine une dégénération des poumons dû au problème de clairance mucociliaire (CMC). Le volume de surface liquide (SL) couvrant les cellules pulmonaires est essentiel à la clairance de mucus et au combat contre les infections. Les nucléotides extracellulaires jouent un rôle important dans la CMC des voies aériennes, en modifiant le volume de la SL pulmonaire. Cependant, les mécanismes du relâchement de l’ATP et de leurs déplacements à travers la SL, restent inconnus. Des études ultérieures démontrent que l’exocytose d’ATP mécano-sensible et Ca2+-dépendant, dans les cellules A549, est amplifié par les actions synergétiques autocrine/paracrine des cellules avoisinantes. Nous avions comme but de confirmer la présence de la boucle purinergique dans plusieurs modèles de cellules épithéliales et de développer un système nous permettant d’observer directement la SL. Nous avons démontrés que la boucle purinergique est fonctionnelle dans les modèles de cellules épithéliales examinés, mis appart les cellules Calu-3. L’utilisation de modulateur de la signalisation purinergique nous a permis d’observer que le relâchement d’ATP ainsi que l’augmentation du [Ca2+]i suivant un stress hypotonique, sont modulés par le biais de cette boucle purinergique et des récepteurs P2Y. De plus, nous avons développé un système de microscopie qui permet d’observer les changements de volume de SL en temps réel. Notre système permet de contrôler la température et l’humidité de l’environnement où se trouvent les cellules, reproduisant l’environnement pulmonaire humain. Nous avons démontré que notre système peut identifier même les petits changements de volume de SL.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les naines brunes sont des astres incapables de déclencher et soutenir des réactions nucléaires dans leur cœur. En l’absence de cette source d’énergie, leur luminosité diminue avec le temps jusqu’à leur extinction complète. Leur flux aux longueurs d’onde de 0,8 à 2,35 μm est particulièrement altéré par l’humidité contenue dans l’atmosphère terrestre, ce qui complique l’étude de ces astres. Le but de la présente recherche est de vérifier si la division par un spectre d’étoile A0 est un moyen de corriger l’altération causée par l’atmosphère terrestre sur cette partie de leur spectre. Tout d’abord, des notions, pertinentes à la compréhension de ce travail, sont abordées. L’introduction présente quelques notions sur les naines brunes et sur l’atmosphère terrestre. Le deuxième chapitre concerne le traitement des données. Il traite de la calibration, de la mise en évidence du problème de non-répétabilité de la position de la fente du spectromètre SIMON ainsi que de ses causes. Il porte aussi sur l’uniformisation de la réponse des pixels et de la soustraction du ciel pour extraire les spectres. La méthode employée pour étudier l’effet de l’atmosphère terrestre sur les spectres de naines brunes y est présentée. Le troisième chapitre analyse les résultats obtenus par l’utilisation de l’étoile de référence de type A0 comme calibration pour corriger le spectre de naine brune, en assumant un même effet de l’atmosphère terrestre sur les deux types d’astres. Nous ne pouvons conclure, avec certitude, que l’absorption tellurique affecte de la même façon les deux spectres ni de quelle façon exactement ils sont affectés. Une recherche supplémentaire nécessitant de nouvelles prises de données à des masses d’air et à des taux d’humidité variés est requise.