566 resultados para Systèmes differentiels linéaires
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
Les avancés dans le domaine de l’intelligence artificielle, permettent à des systèmes informatiques de résoudre des tâches de plus en plus complexes liées par exemple à la vision, à la compréhension de signaux sonores ou au traitement de la langue. Parmi les modèles existants, on retrouve les Réseaux de Neurones Artificiels (RNA), dont la popularité a fait un grand bond en avant avec la découverte de Hinton et al. [22], soit l’utilisation de Machines de Boltzmann Restreintes (RBM) pour un pré-entraînement non-supervisé couche après couche, facilitant grandement l’entraînement supervisé du réseau à plusieurs couches cachées (DBN), entraînement qui s’avérait jusqu’alors très difficile à réussir. Depuis cette découverte, des chercheurs ont étudié l’efficacité de nouvelles stratégies de pré-entraînement, telles que l’empilement d’auto-encodeurs traditionnels(SAE) [5, 38], et l’empilement d’auto-encodeur débruiteur (SDAE) [44]. C’est dans ce contexte qu’a débuté la présente étude. Après un bref passage en revue des notions de base du domaine de l’apprentissage machine et des méthodes de pré-entraînement employées jusqu’à présent avec les modules RBM, AE et DAE, nous avons approfondi notre compréhension du pré-entraînement de type SDAE, exploré ses différentes propriétés et étudié des variantes de SDAE comme stratégie d’initialisation d’architecture profonde. Nous avons ainsi pu, entre autres choses, mettre en lumière l’influence du niveau de bruit, du nombre de couches et du nombre d’unités cachées sur l’erreur de généralisation du SDAE. Nous avons constaté une amélioration de la performance sur la tâche supervisée avec l’utilisation des bruits poivre et sel (PS) et gaussien (GS), bruits s’avérant mieux justifiés que celui utilisé jusqu’à présent, soit le masque à zéro (MN). De plus, nous avons démontré que la performance profitait d’une emphase imposée sur la reconstruction des données corrompues durant l’entraînement des différents DAE. Nos travaux ont aussi permis de révéler que le DAE était en mesure d’apprendre, sur des images naturelles, des filtres semblables à ceux retrouvés dans les cellules V1 du cortex visuel, soit des filtres détecteurs de bordures. Nous aurons par ailleurs pu montrer que les représentations apprises du SDAE, composées des caractéristiques ainsi extraites, s’avéraient fort utiles à l’apprentissage d’une machine à vecteurs de support (SVM) linéaire ou à noyau gaussien, améliorant grandement sa performance de généralisation. Aussi, nous aurons observé que similairement au DBN, et contrairement au SAE, le SDAE possédait une bonne capacité en tant que modèle générateur. Nous avons également ouvert la porte à de nouvelles stratégies de pré-entraînement et découvert le potentiel de l’une d’entre elles, soit l’empilement d’auto-encodeurs rebruiteurs (SRAE).
Resumo:
La fertilisation phosphatée est très répandue dans les pratiques agricoles Nord-Américaines. Bien que généralement très efficace pour augmenter la production végétale, son utilisation peut engendrer certaines contaminations environnementales. Afin de diminuer ce problème, plusieurs pratiques de gestion sont envisagées. Parmi celles-ci, on retrouve l’intéressante possibilité de manipuler la flore microbienne car cette dernière est reconnue pour son implication dans bons nombres de processus fondamentaux liés à la fertilité du sol. Cette étude a démontré que lors d’essais en champs, la forme de fertilisant ajouté au sol ainsi que la dose de phosphore (P) appliquée avaient un impact sur la distribution des microorganismes dans les différentes parcelles. Une première expérience menée sur une culture de luzerne en prairie semi-aride a montré que les échantillons provenant de parcelles ayant reçu différentes doses de P présentaient des différences significatives dans leurs communautés bactériennes et fongiques. La communauté de CMA est restée similaire entre les différents traitements. Une deuxième expérience fut menée pendant trois saisons consécutives afin de déterminer l’effet de différentes formes de fertilisation organiques et minérale ajustées selon une dose unique de P sur les populations bactériennes et fongiques d’une culture intensive de maïs en rotation avec du soja. Les résultats des analyses ont montrés que les populations varient selon le type de fertilisation reçu et que les changements sont indépendants du type de végétaux cultivé. Par contre, les populations microbiennes subissent une variation plus marquée au cours de la saison de culture. La technique de DGGE a permis d’observer les changements frappant la diversité microbienne du sol mais n’a permis d’identifier qu’une faible proportion des organismes en cause. Parallèlement à cette deuxième étude, une seconde expérience au même site fut menée sur la communauté de champignons mycorhiziens à arbuscules (CMA) puisqu’il s’agit d’organismes vivant en symbiose mutualiste avec la majorité des plantes et favorisant la nutrition de même que l’augmentation de la résistance aux stress de l’hôte. Ceci permit d’identifier et de comparer les différents CMA présents dans des échantillons de sol et de racines de maïs et soja. Contrairement aux bactéries et aux champignons en général, les CMA présentaient une diversité très stable lors des différents traitements. Par contre, au cours des trois années expérimentales, il a été noté que certains ribotypes étaient significativement plus liés au sol ou aux racines. Finalement, l’ensemble de l’étude a démontré que la fertilisation phosphatée affecte la structure des communautés microbiennes du sol dans les systèmes évalués. Cependant, lors de chaque expérience, la date d’échantillonnage jouait également un rôle prépondérant sur la distribution des organismes. Plusieurs paramètres du sol furent aussi mesurés et ils présentaient aussi une variation au cours de la saison. L’ensemble des interactions possibles entre ces différents paramètres qui, dans certains cas, variaient selon le traitement appliqué, aurait alors probablement plus d’impact sur la biodiversité microbienne que la seule fertilisation.
Resumo:
Les hydrogels de polysaccharide sont des biomatériaux utilisés comme matrices à libération contrôlée de médicaments et comme structures modèles pour l’étude de nombreux systèmes biologiques dont les biofilms bactériens et les mucus. Dans tous les cas, le transport de médicaments ou de nutriments à l’intérieur d’une matrice d’hydrogel joue un rôle de premier plan. Ainsi, l’étude des propriétés de transport dans les hydrogels s’avère un enjeu très important au niveau de plusieurs applications. Dans cet ouvrage, le curdlan, un polysaccharide neutre d’origine bactérienne et formé d’unités répétitives β-D-(1→3) glucose, est utilisé comme hydrogel modèle. Le curdlan a la propriété de former des thermogels de différentes conformations selon la température à laquelle une suspension aqueuse est incubée. La caractérisation in situ de la formation des hydrogels de curdlan thermoréversibles et thermo-irréversibles a tout d’abord été réalisée par spectroscopie infrarouge à transformée de Fourier (FT-IR) en mode réflexion totale atténuée à température variable. Les résultats ont permis d’optimiser les conditions de gélation, menant ainsi à la formation reproductible des hydrogels. Les caractérisations structurales des hydrogels hydratés, réalisées par imagerie FT-IR, par microscopie électronique à balayage en mode environnemental (eSEM) et par microscopie à force atomique (AFM), ont permis de visualiser les différentes morphologies susceptibles d’influencer la diffusion d’analytes dans les gels. Nos résultats montrent que les deux types d’hydrogels de curdlan ont des architectures distinctes à l’échelle microscopique. La combinaison de la spectroscopie de résonance magnétique nucléaire (RMN) à gradients pulsés et de l’imagerie RMN a permis d’étudier l’autodiffusion et la diffusion mutuelle sur un même système dans des conditions expérimentales similaires. Nous avons observé que la diffusion des molécules dans les gels est ralentie par rapport à celle mesurée en solution aqueuse. Les mesures d’autodiffusion, effectuées sur une série d’analytes de diverses tailles dans les deux types d’hydrogels de curdlan, montrent que le coefficient d’autodiffusion relatif décroit en fonction de la taille de l’analyte. De plus, nos résultats suggèrent que l’équivalence entre les coefficients d’autodiffusion et de diffusion mutuelle dans les hydrogels de curdlan thermo-irréversibles est principalement due au fait que l’environnement sondé par les analytes durant une expérience d’autodiffusion est représentatif de celui exploré durant une expérience de diffusion mutuelle. Dans de telles conditions, nos résultats montrent que la RMN à gradients pulsés peut s’avérer une approche très avantageuse afin de caractériser des systèmes à libération contrôlée de médicaments. D’autres expériences de diffusion mutuelle, menées sur une macromolécule de dextran, montrent un coefficient de diffusion mutuelle inférieur au coefficient d’autodiffusion sur un même gel de curdlan. L’écart mesuré entre les deux modes de transport est attribué au volume différent de l’environnement sondé durant les deux mesures. Les coefficients d’autodiffusion et de diffusion mutuelle similaires, mesurés dans les deux types de gels de curdlan pour les différents analytes étudiés, suggèrent une influence limitée de l’architecture microscopique de ces gels sur leurs propriétés de transport. Il est conclu que les interactions affectant la diffusion des analytes étudiés dans les hydrogels de curdlan se situent à l’échelle moléculaire.
Resumo:
La résilience est la capacité à s’adapter aux menaces et à atténuer ou éviter un risque, elle peut être trouvée dans des bâtiments résistant aux dangers ou dans des systèmes sociaux adaptables (Pelling, 2003). Par conséquence, ce concept peut aussi être compris comme la capacité de reconstruire un quartier avec des composants plus solides et plus viables. Presque quatre ans après l’ouragan Katrina, la Nouvelle-Orléans est considérée comme un laboratoire à ciel ouvert. Le niveau de résilience de ses communautés peut y être examiné. L’état actuel de la reconstitution de ses quartiers diffère largement des uns aux autres. L’arrondissement historique de Holy Cross est l’un des plus vieux quartiers de la ville, cette communauté vulnérable est connue pour son patrimoine culturel, apparent non seulement dans son architecture unique, mais aussi ses relations sociales. Un des principaux défi de la reconstruction du quartier de Holly Cross est de trouver une façon de concilier la préservation du patrimoine bâti et de son tissu urbain ancien avec de nouveaux plans de développement, afin de créer une communauté durable. Cette étude examine les rôles des acteurs impliqués dans le processus de reconstruction et leur efficacité sur la création d’un Holy Cross plus durable, résistant et abordable, afin d’encourager le retour de ses résidents. Elle présente également les efforts actuels pour proposer des projets de reconstruction durables tout en préservant le caractère patrimonial du quartier.
Resumo:
Les infrastructures linéaires sont reconnues pour faciliter la dispersion de plantes indésirables dans leur emprise et les habitats adjacents. Toutefois, les impacts des emprises de lignes électriques ont été peu étudiés, particulièrement en milieux humides. Cette étude a examiné la végétation des emprises de lignes électriques et de leurs habitats adjacents dans 23 tourbières ombrotrophes (bogs) et 11 minérotrophes (fens). Dans les fens, la dispersion des espèces indésirables est facilitée le long des emprises et certaines espèces peuvent se propager à plus de 43 m dans les habitats adjacents. Au contraire, ces infrastructures ne semblent pas favoriser la dispersion des espèces indésirables dans les bogs puisque leur présence était limitée à la marge des sites et était négligeable dans les habitats tourbeux adjacents. Finalement, les caractéristiques intrinsèques des tourbières, telles leur degré de minérotrophie (bog ou fen) et leur structure végétale (tourbière ouverte, semi-forestière ou forestière) semblent grandement influencer l’envahissement.
Resumo:
Les interneurones GABAergiques constituent une population mineure de cellules par rapport aux neurones glutamatergiques dans le néocortex. Cependant ils contrôlent fortement l'excitabilité neuronale, la dynamique des réseaux neuronaux et la plasticité synaptique. L'importance des circuits GABAergiques dans le processus fonctionnel et la plasticité des réseaux corticaux est soulignée par des résultats récents qui montrent que des modifications très précises et fiables des circuits GABAergiques sont associées à divers troubles du développement neurologique et à des défauts dans les fonctions cérébrales. De ce fait, la compréhension des mécanismes cellulaires et moléculaires impliquant le développement des circuits GABAergiques est la première étape vers une meilleure compréhension de la façon dont les anomalies de ces processus peuvent se produire. La molécule d’adhésion cellulaire neurale (NCAM) appartient à la super-famille des immunoglobulines de reconnaissance cellulaire et est impliquée dans des interactions homophiliques et hétérophiliques avec d’autres molécules. Même si plusieurs rôles de NCAM ont été démontrés dans la croissance neuronale, la fasciculation axonale, la formation et la maturation de synapses, de même que dans la plasticité cellulaire de plusieurs systèmes, le rôle de NCAM dans la formation des synapses GABAergiques reste inconnu. Ce projet visait donc à déterminer le rôle précis de NCAM dans le processus de maturation des synapses GABAergiques dans le néocortex, en modulant son expression à différentes étapes du développement. L’approche choisie a été de supprimer NCAM dans des cellules GABAergiques à paniers avant la maturation des synapses (EP12-18), pendant la maturation (EP16-24), ou durant le maintien de celles-ci (EP24-32). Les méthodes utilisées ont été le clonage moléculaire, l’imagerie confocale, la culture de coupes organotypiques et des techniques morphométriques de quantification de l’innervation GABAergique. Nos résultats montrent que l’inactivation de NCAM durant la phase de maturation des synapses périsomatiques (EP16-24) cause une réduction du nombre de synapses GABAergiques périsomatiques et du branchement de ces axones. En revanche, durant la phase de maintien (EP26-32), l’inactivation de NCAM n’a pas affecté ces paramètres des synapses GABAergiques. Or, il existe trois isoformes de NCAM (NCAM120, 140 et 180) qui pourraient jouer des rôles différents dans les divers types cellulaires ou à des stades développementaux différents. Nos données montrent que NCAM120 et 140 sont nécessaires à la maturation des synapses périsomatiques GABAergiques. Cependant, NCAM180, qui est l’isoforme la plus étudiée et caractérisée, ne semble pas être impliquée dans ce processus. De plus, l’inactivation de NCAM n’a pas affecté la densité des épines dendritiques ou leur longueur. Elle est donc spécifique aux synapses périsomatiques GABAeriques. Finalement, nos résultats suggèrent que le domaine conservé C-terminal KENESKA est essentiel à la maturation des synapses périsomatiques GABAergiques. Des expériences futures nous aiderons à mieux comprendre la mécanistique et les différentes voies de signalisation impliquées.
Resumo:
Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.
Resumo:
Problématique : L’arrivée des tests de pharmacogénétique a été annoncée dans les médias et la littérature scientifique telle une révolution, un tournant vers la médecine personnalisée. En réalité, cette révolution se fait toujours attendre. Plusieurs barrières législatives, scientifiques, professionnelles et éthiques sont décrites dans la littérature comme étant la cause du délai de la translation des tests de pharmacogénétique, du laboratoire vers la clinique. Cet optimisme quant à l’arrivée de la pharmacogénétique et ces barrières existent-elles au Québec? Quel est le contexte de translation des tests de pharmacogénétique au Québec? Actuellement, il n’existe aucune donnée sur ces questions. Il est pourtant essentiel de les évaluer. Alors que les attentes et les pressions pour l’intégration rapide de technologies génétiques sont de plus en plus élevées sur le système de santé québécois, l’absence de planification et de mécanisme de translation de ces technologies font craindre une translation et une utilisation inadéquates. Objectifs : Un premier objectif est d’éclairer et d’enrichir sur les conditions d’utilisation et de translation ainsi que sur les enjeux associés aux tests de pharmacogénétique dans le contexte québécois. Un deuxième objectif est de cerner ce qui est véhiculé sur la PGt dans différentes sources, dont les médias. Il ne s’agit pas d’évaluer si la pharmacogénétique devrait être intégrée dans la clinique, mais de mettre en perspective les espoirs véhiculés et la réalité du terrain. Ceci afin d’orienter la réflexion quant au développement de mécanismes de translation efficients et de politiques associées. Méthodologie : L’analyse des discours de plusieurs sources documentaires (n=167) du Québec et du Canada (1990-2005) et d’entretiens avec des experts québécois (n=19) a été effectuée. Quatre thèmes ont été analysés : 1) le positionnement et les perceptions envers la pharmacogénétique; 2) les avantages et les risques reliés à son utilisation; 3) les rôles et les tensions entre professionnels; 4) les barrières et les solutions de translation. Résultats : L’analyse des représentations véhiculées sur la pharmacogénétique dans les sources documentaires se cristallise autour de deux pôles. Les représentations optimistes qui révèlent une fascination envers la médecine personnalisée, créant des attentes (« Génohype ») en regard de l’arrivée de la pharmacogénétique dans la clinique. Les représentations pessimistes qui révèlent un scepticisme (« Génomythe ») envers l’arrivée de la pharmacogénétique et qui semblent imprégnés par l’historique des représentations médiatiques négatives de la génétique. Quant à l’analyse des entretiens, celle-ci a permis de mettre en lumière le contexte actuel du terrain d’accueil. En effet, selon les experts interviewés, ce contexte comporte des déficiences législatives et un dysfonctionnement organisationnel qui font en sorte que l’utilisation des tests de pharmacogénétique est limitée, fragmentée et non standardisée. S’ajoute à ceci, le manque de données probantes et de dialogue entre des acteurs mal ou peu informés, la résistance et la crainte de certains professionnels. Discussion : Plusieurs changements dans la réglementation des systèmes d’innovation ainsi que dans le contexte d’accueil seront nécessaires pour rendre accessibles les tests de pharmacogénétique dans la pratique clinique courante. Des mécanismes facilitateurs de la translation des technologies et des facteurs clés de réussite sont proposés. Enfin, quelques initiatives phares sont suggérées. Conclusion : Des efforts au niveau international, national, provincial et local sont indispensables afin de résoudre les nombreux obstacles de la translation des tests de pharmacogénétique au Québec et ainsi planifier l’avenir le plus efficacement et sûrement possible.
Resumo:
Parmi les indicateurs de la mondialisation, le secret bancaire est au centre d'un débat animé en ce moment historique, caractérisé par la globalisation de l'économie, les exigences de sécurité croissantes, l'urgence de la lutte contre le blanchiment des capitaux provenant d’activités criminelles et l’internationalisation expansive des réseaux bancaires. La tendance vers le renforcement de la coopération internationale, met en discussion la forte sauvegarde du secret bancaire de plusieurs pays. La question dirimante est plutôt claire. Il s'agit, effectivement, de savoir jusqu'à quel point le secret, dans sa conception la plus inextensible et inflexible, devient par contre un instrument décisif pour contourner les règles communes,faire une concurrence déloyale sur les marchés et assurer des véritables crimes, par exemple de type terroriste. Pour faire évoluer les situations jugées problématiques, la démarche parallèle des trois organismes BÂLE, l’OCDE puis le GAFI est d’autant plus significative, qu’elle a été inspirée par les préoccupations exprimées au sein du G7 sur les dangers que présenteraient pour l’économie internationale certaines activités financières accomplies sur et à partir de ces territoires. L’ordre public justifie aussi la mise en place de mesures particulières en vue d’enrayer le blanchiment des capitaux provenant du trafic des stupéfiants. Selon les pays, des systèmes plus ou moins ingénieux tentent de concilier la nécessaire information des autorités publiques et le droit au secret bancaire, élément avancé de la protection de la vie privée dont le corollaire est, entre autres, l’article 7 et 8 de la Charte canadienne des droits et libertés et l’article 8 de la Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales du citoyen, et donc de l’atteinte à ces libertés. Nous le verrons, les prérogatives exorbitantes dont bénéficient l’État, l’administration ou certains tiers, par l’exercice d’un droit de communication et d’échange d’information, constituent une véritable atteinte au principe sacré de la vie privée et du droit à la confidentialité. Cette pénétration de l’État ou de l’administration au coeur des relations privilégiées entre la banque et son client trouve certainement une justification irréfutable lorsque la protection est celle de l’intérêt public, de la recherche d’une solution juridique et judiciaire. Mais cela crée inévitablement des pressions internes et des polémiques constantes,indépendamment de l’abus de droit que l’on peut malheureusement constater dans l’usage et l’exercice de certaines prérogatives.
Resumo:
La fixation de l’azote diatomique est un processus très important à la vie, vu sa nécessité dans la biosynthèse de plusieurs molécules de base; acides aminés, acides nucléiques, etc. La réduction de l’azote en ammoniaque est catalysée par la nitrogénase, une enzyme consommatrice de beaucoup d’énergie étant donné qu’elle nécessite 20 à 30 moles d’ATP pour la réduction d’une mole d’azote. De ce fait une régulation rigoureuse est exigée afin de minimiser le gaspillage d’énergie. Plusieurs systèmes de contrôle sont connus, aussi bien au niveau post-traductionnel que traductionnel. Chez la bactérie photosynthétique pourpre non-sulfureuse R. capsulatus, la régulation de l’activité de la nitrogénase nécessite une panoplie de protéines dont la protéine membranaire AmtB, qui est impliquée dans le transport et la perception d’ammonium, et les protéines PII qui jouent plusieurs rôles clés dans la régulation de l’assimilation d’azote. Suite à l’ajout de l’ammonium dans le milieu, une inhibition réversible de l’activité de la nitrogénase est déclenchée via un mécanisme d’ADP-ribosylation de la nitrogénase. La séquestration de GlnK (une protéine PII) par l’AmtB permet à DraT, une ADP-ribosyltransférase, d’ajouter un groupement ADP-ribose sur la protéine-Fe de la nitrogénase l’empêchant ainsi de former un complexe avec la protéine-MoFe. Donc, le transfert d’électrons est bloqué, engendrant ainsi l’inhibition de l’activité de la nitrogénase qui dure aussi long que la concentration d’azote fixé reste élevé, phénomène appelé le « Switch-off/Switch-on » de la nitrogénase. Dans ce mémoire, pour mieux comprendre ce phénomène de régulation, des mutations ponctuelles au niveau de certains résidus conservés de la protéine AmtB, dont D338, G367, H193 et W237, étaient générées par mutagénèse dirigée, afin d’examiner d’avantage leur rôle dans le transport d’ammonium, la formation du complexe AmtB-GlnK, ainsi que dans le « Switch-off » et l’ADP-ribosylation. Les résultats permettent de conclure l’importance et la nécessité de certains résidus telle que le G367 dans la régulation de la nitrogénase et le transport d’ammonium, contrairement au résidu D338 qui ne semble pas être impliqué directement dans la régulation de l’activité de la nitrogénase. Ces résultats suggèrent d’autres hypothèses sur les rôles des acides aminés spécifiques d’AmtB dans ses fonctions comme transporteur et senseur d’ammonium.
Resumo:
Ce mémoire s’intéresse à la relation entre des archéologues et des Atikamekw de la communauté de Wemotaci, située en Haute-Mauricie. Cette relation est abordée sous l’angle de la transmission des savoirs. En effet, archéologues et Amérindiens possèdent des systèmes de connaissances distincts et c’est de la dynamique de rencontre entre ces deux corpus de savoirs dont il est ici question. Contrairement à ce que décrit généralement la littérature, les différences de conceptions à divers niveaux comme le rapport au passé, au territoire ou à l’objet n’empêchent pas une reconnaissance mutuelle des savoirs entre les archéologues et les Atikamekw. Chacun des groupes acquiert et intègre même les connaissances de l’autre selon ses préoccupations et ses besoins. Cette transmission des connaissances ne se limite pas à l’échange entre les archéologues et les Atikamekw, elle a également eu lieu entre les différentes générations amérindiennes. À travers une histoire où se conjuguent colonisation, éducation et sédentarisation, les savoirs des Atikamekw se trouvent au cœur du changement. C’est ainsi que la pratique archéologique peut devenir un moyen pour mettre en valeur des connaissances autochtones en permettant une rencontre intergénérationnelle sur un terrain de fouilles archéologiques. Enfin, dans un contexte où les nations autochtones désirent participer à tout ce qui concerne la protection de leur patrimoine culturel, l’archéologie peut également devenir un outil de réappropriation culturelle.
Resumo:
L'application de classifieurs linéaires à l'analyse des données d'imagerie cérébrale (fMRI) a mené à plusieurs percées intéressantes au cours des dernières années. Ces classifieurs combinent linéairement les réponses des voxels pour détecter et catégoriser différents états du cerveau. Ils sont plus agnostics que les méthodes d'analyses conventionnelles qui traitent systématiquement les patterns faibles et distribués comme du bruit. Dans le présent projet, nous utilisons ces classifieurs pour valider une hypothèse portant sur l'encodage des sons dans le cerveau humain. Plus précisément, nous cherchons à localiser des neurones, dans le cortex auditif primaire, qui détecteraient les modulations spectrales et temporelles présentes dans les sons. Nous utilisons les enregistrements fMRI de sujets soumis à 49 modulations spectro-temporelles différentes. L'analyse fMRI au moyen de classifieurs linéaires n'est pas standard, jusqu'à maintenant, dans ce domaine. De plus, à long terme, nous avons aussi pour objectif le développement de nouveaux algorithmes d'apprentissage automatique spécialisés pour les données fMRI. Pour ces raisons, une bonne partie des expériences vise surtout à étudier le comportement des classifieurs. Nous nous intéressons principalement à 3 classifieurs linéaires standards, soient l'algorithme machine à vecteurs de support (linéaire), l'algorithme régression logistique (régularisée) et le modèle bayésien gaussien naïf (variances partagées).
Resumo:
Il est connu que ceux qui ne s’informent pas sur leur passé seront toujours condamnés à répéter les mêmes erreurs et pour déterminer où aller il faut d’abord savoir d’où on vient . La thèse se penche sur l’analyse de plus de deux siècles d’histoire de l’appareil judiciaire malgache à la lumière du concept d’indépendance de la magistrature. L’auteur porte une analyse rétrospective sur une assez longue période qui s’étend de la fin du XVIIIème siècle à nos jours au cours de laquelle il essaie de comprendre l’ensemble des situations ayant prévalu dans le pays témoin, avant, pendant et après la colonisation française. Cette thèse tente d’apporter des argumentaires nouveaux et une méthodologie d’approche nouvelle dans l’analyse de l’appareil judiciaire d’un pays anciennement colonisé. Il s’agit de mettre de côté certaines idées reçues sur les situations des systèmes juridiques des pays anciennement colonisés, notamment malgache et africains. L’étude remet en cause quelques préjugés d’antan qui marquent encore les esprits relativement aux situations précoloniales, à l’arrivée des modèles juridiques occidentaux et plus particulièrement au concept d’indépendance de la magistrature et sa consistance actuelle dans les anciennes colonies, à l’instar de la Grande Île. A travers l'étude du cas particulier de Madagascar, la thèse apporte des réponses à plusieurs questions suscitées par l’acculturation du système juridique des anciennes colonies à partir de leur contact avec les modèles juridiques occidentaux. La question spécifique de recherche consiste à déterminer si le concept d’indépendance de la magistrature est déjà entré dans le système juridique des pays anciennement colonisés comme Madagascar. Pour l’auteur, le concept d’indépendance de la magistrature tel que compris en Occident n’a jamais fait son véritable entrée à Madagascar. Le cadre théorique adopté pour la vérification de l’hypothèse combine le positivisme juridique avec les approches anthropologique et sociologique et se distingue des recherches presque exclusivement positivistes antérieures. Dans la première partie, l’auteur propose le cadre théorique de recherche et rapporte les modes de règlements des conflits à l’époque précoloniale. L’analyse anthropologique de la période a démontré que le concept d’indépendance de la magistrature fut inconnu des traditions judiciaires précoloniales même si une certaine influence occidentale imprégnait le processus de métissage spontanée diligenté par les souverains successifs. Dans la seconde partie, l’auteur livre une analyse de la période coloniale et postcoloniale jusqu’à l’époque contemporaine. Pour la période coloniale, l’ouvrage relate, d’une part, les multiples mesures prises durant les années coloniales, qui éloignèrent le modèle juridique colonial implanté à Madagascar du modèle juridique français original de la métropole. D’autre part, il mesure les impacts de l’instauration du modèle colonial sur les traditions juridiques malgaches précoloniales. Contrairement aux idées reçues, le modèle juridique français et tous ses concepts clés, notamment le concept de séparation des pouvoirs et celui d’indépendance de la magistrature ne furent pas transmis à Madagascar par le fait de la conquête. Ensuite, il a survolé la magistrature des trois républiques successives depuis l’indépendance acquise en 1960. En premier lieu, par une analyse résolument positiviste l’auteur analyse les imperfections initiales des choix et des mesures prises lors de la mise en place du nouveau système juridique de la jeune république durant les premières années de l’indépendance et dont la magistrature malgache est encore tributaire aujourd’hui. En second lieu, par une démarche à la fois positiviste et sociologique, il démontre que les valeurs du concept d’indépendance de la magistrature, reconnues par le système politique et timidement repris par le système juridique, n’ont pas réussi jusqu’ici à pénétrer le cœur de ce dernier
Resumo:
La Loi sur le système de justice pénale pour les adolescents est récente en matière de justice des mineurs. Sa mise en vigueur en avril 2003 a précisé et changé les critères de la détermination de la peine. Le présent mémoire vise à mieux cerner ce sur quoi les juges se fondent pour prendre leurs décisions. À cette fin, une analyse de la jurisprudence disponible ainsi que des entrevues avec des juges oeuvrant à la chambre de la jeunesse de Montréal ont été effectuées. L’application des dispositions relatives aux objectifs et aux principes propres à la détermination de la peine a suscité des commentaires de la part des juges et des difficultés ont été soulevées. Des balises ont également été établies par les juges dans le cadre de leur pratique. Ils les suivent pour déterminer les peines. Il en ressort que le système de justice pour mineurs se rapproche du système de justice pour adultes, dont les interventions sont davantage centrées sur l’infraction que sur l’infracteur. Les juges semblent néanmoins accorder une attention particulière pour que ces deux systèmes de justice demeurent différents, et ce malgré le rapprochement constaté. De plus, il ressort qu’un équilibre est recherché entre deux principes directeurs : la proportionnalité de la peine à la gravité de l’infraction et au degré de responsabilité de l’adolescent, ainsi que la réadaptation et la réinsertion sociale de ce dernier.