1000 resultados para Nombre de cromosomes de les plantes
Resumo:
En dépit du nombre croissant d’études cliniques sur le canal artériel (CA), des failles méthodologiques entretiennent plusieurs incertitudes concernant l’efficacité et la sécurité des traitements chez les bébés nés prématurés. L’objectif de cette recherche était de comparer les concentrations de prostaglandine E2 (PGE2) et les mesures du flux mésentérique par échographie Doppler chez les enfants nés prématurément et ayant un canal artériel traité à l’ibuprofène par voie intraveineuse ou entérale, en utilisant la méthodologie randomisée contrôlée et à double insu. Dans notre étude pilote, 20 nouveau-nés prématurés de moins de 34 semaines ayant un CA symptomatique confirmé par échocardiographie, furent randomisés au traitement à l’ibuprofène par voie intraveineuse ou entérale. La voie d’administration fut maintenue à l’insu de l’équipe traitante, des cardiologues et des investigateurs. Des dosages des prostaglandines plasmatiques ont été mesurés avant le début du traitement ainsi que 3, 24 et 48 h après le début du traitement. Les mesures du flux mésentérique ont été effectuées avant le traitement à l’ibuprofène ainsi que 1 h et 3 h après le traitement. Nous avons démontré à partir de nos observations que les niveaux plasmatiques de prostaglandines E2 diminuent chez les patients ayant répondu au traitement à l’ibuprofène, indépendamment de la voie d’administration. Nous n’avons pas observé de changement dans l’évolution des dosages de PGE2 chez les patients qui n’ont pas répondu au traitement. Les paramètres mesurés par échographie Doppler au niveau de l’artère mésentérique supérieure n’étaient pas affectés par la voie d’administration du traitement à l’ibuprofène, intraveineuse ou entérale. La présente étude suggère ainsi que le traitement du CA par ibuprofène intraveineux ou entéral n’influe pas sur le flux sanguin mesuré par échographie Doppler. La baisse de la prostaglandine E2 coïncide avec la fermeture du CA, et son dosage pourrait jouer un rôle dans la gestion du traitement. Nous avons démontré la faisabilité d’une étude clinique randomisée à double insu dans le traitement du canal artériel; une méthodologie qui devrait désormait être employé dans la recherche clinique sur les traitements de la persistance du CA.
Resumo:
Nous étudions la gestion de centres d'appels multi-compétences, ayant plusieurs types d'appels et groupes d'agents. Un centre d'appels est un système de files d'attente très complexe, où il faut généralement utiliser un simulateur pour évaluer ses performances. Tout d'abord, nous développons un simulateur de centres d'appels basé sur la simulation d'une chaîne de Markov en temps continu (CMTC), qui est plus rapide que la simulation conventionnelle par événements discrets. À l'aide d'une méthode d'uniformisation de la CMTC, le simulateur simule la chaîne de Markov en temps discret imbriquée de la CMTC. Nous proposons des stratégies pour utiliser efficacement ce simulateur dans l'optimisation de l'affectation des agents. En particulier, nous étudions l'utilisation des variables aléatoires communes. Deuxièmement, nous optimisons les horaires des agents sur plusieurs périodes en proposant un algorithme basé sur des coupes de sous-gradients et la simulation. Ce problème est généralement trop grand pour être optimisé par la programmation en nombres entiers. Alors, nous relaxons l'intégralité des variables et nous proposons des méthodes pour arrondir les solutions. Nous présentons une recherche locale pour améliorer la solution finale. Ensuite, nous étudions l'optimisation du routage des appels aux agents. Nous proposons une nouvelle politique de routage basé sur des poids, les temps d'attente des appels, et les temps d'inoccupation des agents ou le nombre d'agents libres. Nous développons un algorithme génétique modifié pour optimiser les paramètres de routage. Au lieu d'effectuer des mutations ou des croisements, cet algorithme optimise les paramètres des lois de probabilité qui génèrent la population de solutions. Par la suite, nous développons un algorithme d'affectation des agents basé sur l'agrégation, la théorie des files d'attente et la probabilité de délai. Cet algorithme heuristique est rapide, car il n'emploie pas la simulation. La contrainte sur le niveau de service est convertie en une contrainte sur la probabilité de délai. Par après, nous proposons une variante d'un modèle de CMTC basé sur le temps d'attente du client à la tête de la file. Et finalement, nous présentons une extension d'un algorithme de coupe pour l'optimisation stochastique avec recours de l'affectation des agents dans un centre d'appels multi-compétences.
Resumo:
La vasculopathie du greffon est une pathologie caractérisée par un rétrécissement progressif et oblitérant des vaisseaux sanguins menant à une ischémie et une perte de fonction du greffon. Le rétrécissement vasculaire est dû à une accumulation de matrice extracellulaire (MEC) et de cellules mononuclées positives pour l’actine musculaire lisse alpha (alphaSMA) dont les cellules souches mésenchymateuses, le tout formant une néointima oblitérante. Cette pathologie est la cause principale de la perte des greffons rénaux et cardiaques à long terme. Le rejet vasculaire aigu est un prédicteur de la vasculopathie du greffon. L’équipe du Dr Hébert a démontré que l’apoptose endothéliale, qui joue un rôle important dans le développement du rejet vasculaire, initie la libération de LG3, un fragment du protéoglycan perlécan. Les taux sanguins et urinaires de LG3 sont augmentés chez les receveurs d’allogreffe rénale avec rejet vasculaire et vasculopathie du greffon. Les résultats obtenus en laboratoire durant ma maîtrise ont permis de mieux caractériser l’impact du LG3 sur un type cellulaire important participant à la formation de néointima : les cellules souches mésenchymateuses. Mes travaux ont démontré que le LG3 induit à la fois la migration horizontale des MSC et la transmigration des MSC. Cette migration est dépendante de la voie de signalisation d’ERK1/2, précédemment identifiée comme voie centrale dans la formation de néointima. De plus, nos résultats démontrent que la kinase Src est activée en amont de l’activation de la voie MAPK. La migration horizontale et la transmigration induites par le LG3 sont aussi dépendantes des intégrines alpha2beta1, ainsi que l’activation de la voie MAPK. Dans un modèle de transplantation murin, nous avons également démontré que l’injection sérique de LG3 recombinant favorise l’accumulation de cellules positives pour alphaSMA dans la néointima. En outre, lorsque le receveur est déficient pour l’intégrine alpha2, mais que le greffon est sauvage, la formation de néointima induite par l’injection de LG3 est diminuée dans le greffon suggérant que les cellules du receveur jouent un rôle important dans la formation de la néointima. Enfin, nous avons démontré que l’injection de LG3 augmente aussi le nombre de cellules positives pour la forme phosphorylée d’ERK1/2 (p-ERK1/2) dans la néointima du greffon et que cette accumulation est dépendante de la présence des intégrines 2 1 chez les cellules du receveur.Lorsque le receveur est sauvage, il y a une augmentation du nombre de cellules positives pour p-ERK1/2. L’investigation de ces mécanismes dans le remodelage vasculaire expose de nouvelles opportunités pour inhiber la réponse cellulaire qui mène au remodelage inadapté lors d’un dommage vasculaire chronique et ainsi prolonger la survie du greffon.
Resumo:
Mycobacterium avium subsp. paratuberculosis (MAP) cause la maladie de Johne, une maladie chronique et incurable affectant les ruminants partout dans le monde. Plusieurs pays ont mis en place des programmes de contrôle afin de prévenir la transmission entre et au sein des troupeaux. Afin d’arriver à prévenir et contrôler cette maladie, une bonne compréhension des facteurs de risque impliqués dans la transmission est essentielle. Des tests diagnostiques performants et à coût abordable sont aussi nécessaires afin de détecter la présence du MAP et/ou les animaux infectés. L’objectif de la première étude était de réviser systématiquement la littérature scientifique concernant les facteurs de risque associés à la transmission du MAP aux génisses laitières. La présence d’une association significative entre les facteurs de risque concernant l’environnement néonatal, le colostrum, le lait, le logement des veaux et le contact des veaux avec le fumier de vaches adultes et la transmission du MAP a été compilée de 23 articles. Le contact des veaux avec le fumier de vaches adultes est le facteur de risque le plus important dans la transmission du MAP. L’objectif de la seconde étude était d’évaluer la relation entre le nombre d’échantillons de l’environnement positifs pour le MAP et la prévalence individuelle d’excrétion fécale dans les troupeaux laitiers entravés du Québec. Le nombre de cultures positives d’échantillons de l’environnement s’est avéré associé à la prévalence individuelle d’excrétion fécale du MAP. Une association significative a été trouvée entre la présence d’une forte charge bactérienne dans un échantillon de fumier individuel et la détection du MAP dans l’environnement.
Resumo:
Cette étude porte sur l’analyse de l’identité, en termes de fonction, des monuments érigés sous tumulus dans le territoire actuel de la Bulgarie. Ces monuments sont généralement datés du Ve au IIIe siècle avant notre ère et ont été associés aux peuples thraces qui ont évolué sur ce territoire durant cette époque. Les monuments thraces sous tumulus, aux structures en blocs de pierre ou en moellons, ou d’un mélange de matériaux et de techniques différentes, ont été invariablement recouverts de monticules de terre dès l’Antiquité. Les tumuli ainsi obtenus ont été utilisés à différentes fins par les peuples locaux jusqu’à l’époque moderne. Les études plus ou moins détaillées des monuments thraces sous tumulus, qui ont débuté dès la fin du XIXe siècle de notre ère, ainsi que l’accumulation rapide de nouveaux exemplaires durant les deux dernières décennies, ont permis de constater une grande variabilité de formes architecturales en ce qui a trait aux différentes composantes de ces constructions. Cette variabilité a poussé certains chercheurs à proposer des typologies des monuments afin de permettre une meilleure maîtrise des données, mais aussi dans le but d’appuyer des hypothèses portant sur les origines des différents types de constructions sous tumulus, ou sur les origines des différentes formes architectoniques identifiées dans leurs structures. Des hypothèses portant sur la fonction de ces monuments, à savoir, sur l’usage qu’en ont fait les peuples thraces antiques, ont également été émises : certains chercheurs ont argumenté pour un usage funéraire, d’autres pour une fonction cultuelle. Un débat de plus en plus vif s’est développé durant les deux dernières décennies entre chercheurs de l’un et de l’autre camp intellectuel. Il a été constamment alimenté par de nouvelles découvertes sur le terrain, ainsi que par la multiplication des publications portant sur les monuments thraces sous tumulus. Il est, de ce fait, étonnant de constater que ni les hypothèses portant sur les origines possibles de ces constructions, ni celles ayant trait à leurs fonctions, n’ont été basées sur des données tangibles – situation qui a eu pour résultat la désignation des monuments thraces par « tombes-temples-mausolées », étiquette chargée sinon d’un sens précis, du moins d’une certaine connotation, à laquelle le terme « hérôon » a été ajouté relativement récemment. Notre étude propose de dresser un tableau actuel des recherches portant sur les monuments thraces sous tumulus, ainsi que d’analyser les détails de ce tableau, non pas dans le but de trancher en faveur de l’une ou de l’autre des hypothèses mentionnées, mais afin d’expliquer les origines et la nature des problèmes que les recherches portant sur ces monuments ont non seulement identifiés, mais ont également créés. Soulignant un fait déjà noté par plusieurs chercheurs-thracologues, celui du manque frappant de données archéologiques exactes et précises dans la grande majorité des publications des monuments thraces, nous avons décidé d’éviter la tendance optimiste qui persiste dans les études de ces derniers et qui consiste à baser toute analyse sur le plus grand nombre de trouvailles possible dans l’espoir de dresser un portrait « complet » du contexte archéologique immédiat des monuments ; portrait qui permettrait au chercheur de puiser les réponses qui en émergeraient automatiquement, puisqu’il fournirait les éléments nécessaires pour placer l’objet de l’analyse – les monuments – dans un contexte historique précis, reconstitué séparément. Ce manque de données précises nous a porté à concentrer notre analyse sur les publications portant sur les monuments, ainsi qu’à proposer une approche théoriquement informée de l’étude de ces derniers, en nous fondant sur les discussions actuelles portant sur les méthodes et techniques des domaines de l’archéologie, de l’anthropologie et de l’histoire – approche étayée dans la première partie de cette thèse. Les éléments archéologiques (avant tout architecturaux) qui ont servi de base aux différentes hypothèses portant sur les constructions monumentales thraces sont décrits et analysés dans le deuxième volet de notre étude. Sur la base de cette analyse, et en employant la méthodologie décrite et argumentée dans le premier volet de notre thèse, nous remettons en question les différentes hypothèses ayant trait à l’identité des monuments. L’approche de l’étude des monuments thraces sous tumulus que nous avons adoptée tient compte tant de l’aspect méthodologique des recherches portant sur ceux-ci, que des données sur lesquelles les hypothèses présentées dans ces recherches ont été basées. Nous avons porté une attention particulière à deux aspects différents de ces recherches : celui du vocabulaire technique et théorique implicitement ou explicitement employé par les spécialistes et celui de la façon dont la perception de l’identité des monuments thraces a été affectée par l’emploi de ce vocabulaire. Ces analyses nous ont permis de reconstituer, dans le dernier volet de la présente étude, l’identité des monuments thraces telle qu’implicitement ou explicitement perçue par les thracologues et de comparer cette restitution à celle que nous proposons sur la base de nos propres études et observations. À son tour, cette comparaison des restitutions des différentes fonctions des monuments permet de conclure que celle optant pour une fonction funéraire, telle que nous la reconstituons dans cette thèse, est plus économe en inférences et mieux argumentée que celle identifiant les monuments thraces de lieux de culte. Cependant, l’impossibilité de réfuter complètement l’hypothèse des « tombes-temples » (notamment en raison du manque de données), ainsi que certains indices que nous avons repérés dans le contexte architectural et archéologique des monuments et qui pourraient supporter des interprétations allant dans le sens d’une telle identification de ces derniers, imposent, d’après nous, la réévaluation de la fonction des constructions thraces sous tumulus sur la base d’une restitution complète des pratiques cultuelles thraces d’après les données archéologiques plutôt que sur la base d’extrapolations à partir des textes grecs anciens. À notre connaissance, une telle restitution n’a pas encore été faite. De plus, le résultat de notre analyse des données archéologiques ayant trait aux monuments thraces sous tumulus, ainsi que des hypothèses et, plus généralement, des publications portant sur les origines et les fonctions de ces monuments, nous ont permis de constater que : 1) aucune des hypothèses en question ne peut être validée en raison de leur recours démesuré à des extrapolations non argumentées (que nous appelons des « sauts d’inférence ») ; 2) le manque flagrant de données ou, plus généralement, de contextes archéologiques précis et complets ne permet ni l’élaboration de ces hypothèses trop complexes, ni leur validation, justifiant notre approche théorique et méthodologique tant des monuments en question, que des études publiées de ceux-ci ; 3) le niveau actuel des connaissances et l’application rigoureuse d’une méthodologie d’analyse permettent d’argumenter en faveur de la réconciliation des hypothèses « funéraires » et « cultuelles » – fait qui ne justifie pas l’emploi d’étiquettes composites comme « templestombes », ni les conclusions sur lesquelles ces étiquettes sont basées ; 4) il y a besoin urgent dans le domaine de l’étude des monuments thraces d’une redéfinition des approches méthodologiques, tant dans les analyses théoriques des données que dans le travail sur le terrain – à défaut de procéder à une telle redéfinition, l’identité des monuments thraces sous tumulus demeurera une question d’opinion et risque de se transformer rapidement en une question de dogmatisme.
Resumo:
À partir d’un dispositif théorique et méthodologique emprunté au structuralisme figuratif de Gilbert Durand, ce mémoire propose une exploration du Mythe de la Fin du Monde dans quelques unes de ses manifestations romanesques et théâtrales. Les postulats de base qui fondent notre démarche sont au nombre de trois : a) l’œuvre littéraire possède toujours un substrat mythique ; b) un mythe représente un noyau de mythèmes, dont le trait définitoire est la redondance ; c) il n’y a pas de version privilégiée ou primitive du mythe, qui doit être vu comme une constante de l’esprit humain. Au niveau des applications pratiques, notre travail s’articule en deux démarches complémentaires, reprises d’une section à l’autre. Dans un premier temps, en nous appuyant sur le corpus romanesque – où le mythe nous semble abondant et complet – nous identifions les redondances internes et génériques que nous qualifions de «mythèmes». Dans un second temps, nous vérifions la présence et le fonctionnement de ces mythèmes dans le corpus dramatique.
Resumo:
Des études récentes ont démontré une augmentation de la prévalence de l’infertilité au Canada ainsi qu’une augmentation fulgurante de l’utilisation de la procréation assistée. Le Québec s’est doté en 2010 d’un programme de financement de la procréation assistée visant un accès universel ainsi que la protection de la santé des mères et des enfants. Les diverses parties prenantes attribuent un certain nombre de lacunes à ce programme, incluant l’absence de mesures de prévention et de promotion de la santé visant à réduire la prévalence de l’infertilité. En effet, une proportion significative de cas d’infertilité découle de facteurs modifiables et relatifs aux modes de vie tels que le tabagisme, les infections transmises sexuellement et par le sang, les problèmes de poids, les toxines environnementales et l’âge. De plus, l’âge maternel avancé ainsi que l’usage de la procréation assistée comportent des risques pour la santé des mères et des enfants au sujet desquels la population ne possède pas une connaissance suffisante. Des approches en amont ont été proposées par diverses organisations et dans divers pays, toutefois, peu ont été adoptées. Force est de constater que ces initiatives représentent de grands défis au point de vue de l’acceptabilité sociale, en raison de la nature sensible du sujet et d’une grande valorisation sociale de l’autonomie reproductive. L’éthique des communications en santé permet d’identifier ces défis qui touchent l’usage de tactiques persuasives, le risque de stigmatisation et l’attribution indue d’une responsabilité. Si leur élaboration tient compte de ces enjeux, les campagnes de communications en santé ont le potentiel d’informer adéquatement la population afin de favoriser l’autonomie et la santé reproductive des individus, sans causer de dommage iatrogénique. L’éthique de l’ « empowerment », qui requiert l’attribution d’une responsabilité individuelle de nature prospective, l’apport de ressources concrètes et l’implication des communautés, permet d’identifier les besoins en termes de solutions législatives favorisant des contextes socioéconomiques qui soutiennent la santé reproductive et l’autonomie reproductive.
Resumo:
Cette recherche vise à apporter un éclairage sur les facteurs déterminants de la concertation économique. De manière spécifique, elle poursuit trois principaux objectifs. Premièrement, nous cherchons à définir la notion de dialogue social et les termes qui y sont généralement associés tels que la concertation, la consultation, le tripartisme, le partenariat, la négociation collective, etc. Deuxièmement, nous faisons le point sur l’État du dialogue social au Québec, notamment en décrivant son évolution historique, les acteurs impliqués, les objets abordés et les instances de dialogue. Certaines comparaisons entre la culture québécoise de concertation et celles caractérisant d’autres cultures (Canada, États-Unis, Europe) sont par ailleurs présentées. De plus, ce tour d’horizon des différents lieux de dialogue social permettra de mieux saisir les composantes de la concertation en lien avec le développement économique, plus particulièrement, sur les façons de planifier le développement économique d’une manière socialement responsable (Papadakis, 2010). Troisièmement, une analyse empirique des facteurs déterminants de la concertation économique est effectuée. Pour atteindre les objectifs et répondre à notre question de recherche, nous articulons cette recherche en deux phases. Dans un premier temps, une cartographie des instances de dialogue social au Québec et la collecte de données auprès d’instances québécoises sont établies. Cette première phase permet également d’identifier quels sont les facteurs déterminants de la concertation économique généralement reconnus au sein de la littérature. Afin de mieux saisir ces facteurs et par conséquent, bonifier le modèle d’analyse, l’étude s’appuie sur une série d’entretiens exploratoires réalisés au Québec, mais aussi en France où la culture de dialogue social économique semble plus développée. Ce mouvement itératif entre la littérature et les entretiens exploratoires effectués permet de construire un modèle d’analyse des facteurs déterminants de la concertation économique. Dans un second temps, ce modèle d’analyse est testé en se concentrant sur deux organismes de concertation économique au Québec. Au sein de ces organismes ont été rencontrés des acteurs syndicaux, patronaux et gouvernementaux. L’entretien a été retenu comme la méthode de collecte de données utilisée auprès des individus (Gavard-Perret, Gotteland, Haon et Jolibert, 2008) et plus spécifiquement, des entretiens semi-directifs auprès des répondants afin de leur laisser la liberté de s’exprimer de façon plus large sur les questions et possiblement apporter de nouveaux éléments pouvant enrichir le modèle. La méthode de l’appariement logique sert à analyser les réponses aux questionnaires d’entrevues (Yin, 1994) et à les comparer aux propositions de recherche. Au plan théorique, l’apport des théories néo-institutionnalistes permet d’approfondir nos constats en lien avec la naissance et le développement des institutions de dialogue social. L’analyse de nos résultats nous permet de vérifier la théorie sur la création des institutions qui se veut la prise de conscience d’une problématique par les acteurs qui perçoivent leur implication au sein des institutions comme une façon de résoudre cette situation. Nous vérifions également la notion d’acteur dominant via le double rôle de l’acteur gouvernemental comme participant et comme donneur d’argent. Finalement, notre recherche a permis de confirmer notre modèle d’analyse tout en le raffinant par l’ajout de nouveaux facteurs déterminants de la concertation économique. Les entrevues que nous avons réalisées nous ont permis d’apporter des nuances et de préciser la portée des facteurs déterminants tirés de la littérature. Notre analyse confirme trois de nos propositions de recherche telle que formulées et deux autres le sont que partiellement. Nos constats confirment en effet que la volonté réelle des parties à travailler ensemble, la présence d’intérêts communs et la participation de l’État sont tous des facteurs qui ont un impact positif sur la concertation économique. La question de la confiance est nécessaire pour la poursuite de la concertation. En appui aux travaux antérieurs sur la question, nous avons observé que la confiance entre les acteurs influence positivement le déroulement de la concertation économique. Nous avons toutefois constaté qu’un certain niveau de méfiance réside entre les acteurs qui participent à ce processus, ces derniers représentant des organisations distinctes qui ont leurs intérêts propres. Pour permettre la concertation entre acteurs, le niveau de confiance doit être plus élevé que le niveau de méfiance. Nos observations nous ont aussi permis d’établir des liens entre la présence des facteurs déterminants et l’atteinte de résultats par la concertation, mais nous ne pouvons pas déterminer leur importance relative: nous ne pouvons donc pas prétendre qu’un plus grand nombre de facteurs réunis va assurer la réussite du processus de concertation ou s’il s’agit plutôt de la présence de certains facteurs qui auraient plus d’impact sur les résultats. Notre recherche fournit un apport important à la littérature sur la concertation puisqu’elle a permis de cerner de nouveaux facteurs déterminants à la réussite de ce processus. Les entretiens réalisés ont montré que le « contrôle des égos » des acteurs de la concertation et la mise en place de mécanismes permettant une intégration réussie des nouveaux participants au processus constituent des facteurs à ne pas négliger. De plus, notre recherche a permis de raffiner notre modèle conceptuel puisque nous avons été en mesure de cerner différents sous-facteurs qui permettent d’approfondir l’analyse des facteurs déterminants de la concertation. Notre recherche comporte toutefois certaines limites puisque les institutions comparées présentent des différences importantes en termes de culture et le nombre restreint d’organisme étudié limite grandement la généralisation des résultats.
Resumo:
La maintenance du logiciel est une phase très importante du cycle de vie de celui-ci. Après les phases de développement et de déploiement, c’est celle qui dure le plus longtemps et qui accapare la majorité des coûts de l'industrie. Ces coûts sont dus en grande partie à la difficulté d’effectuer des changements dans le logiciel ainsi que de contenir les effets de ces changements. Dans cette perspective, de nombreux travaux ont ciblé l’analyse/prédiction de l’impact des changements sur les logiciels. Les approches existantes nécessitent de nombreuses informations en entrée qui sont difficiles à obtenir. Dans ce mémoire, nous utilisons une approche probabiliste. Des classificateurs bayésiens sont entraînés avec des données historiques sur les changements. Ils considèrent les relations entre les éléments (entrées) et les dépendances entre changements historiques (sorties). Plus spécifiquement, un changement complexe est divisé en des changements élémentaires. Pour chaque type de changement élémentaire, nous créons un classificateur bayésien. Pour prédire l’impact d’un changement complexe décomposé en changements élémentaires, les décisions individuelles des classificateurs sont combinées selon diverses stratégies. Notre hypothèse de travail est que notre approche peut être utilisée selon deux scénarios. Dans le premier scénario, les données d’apprentissage sont extraites des anciennes versions du logiciel sur lequel nous voulons analyser l’impact de changements. Dans le second scénario, les données d’apprentissage proviennent d’autres logiciels. Ce second scénario est intéressant, car il permet d’appliquer notre approche à des logiciels qui ne disposent pas d’historiques de changements. Nous avons réussi à prédire correctement les impacts des changements élémentaires. Les résultats ont montré que l’utilisation des classificateurs conceptuels donne les meilleurs résultats. Pour ce qui est de la prédiction des changements complexes, les méthodes de combinaison "Voting" et OR sont préférables pour prédire l’impact quand le nombre de changements à analyser est grand. En revanche, quand ce nombre est limité, l’utilisation de la méthode Noisy-Or ou de sa version modifiée est recommandée.
Resumo:
L’émergence de nouvelles applications et de nouveaux services (tels que les applications multimédias, la voix-sur-IP, la télévision-sur-IP, la vidéo-sur-demande, etc.) et le besoin croissant de mobilité des utilisateurs entrainent une demande de bande passante de plus en plus croissante et une difficulté dans sa gestion dans les réseaux cellulaires sans fil (WCNs), causant une dégradation de la qualité de service. Ainsi, dans cette thèse, nous nous intéressons à la gestion des ressources, plus précisément à la bande passante, dans les WCNs. Dans une première partie de la thèse, nous nous concentrons sur la prédiction de la mobilité des utilisateurs des WCNs. Dans ce contexte, nous proposons un modèle de prédiction de la mobilité, relativement précis qui permet de prédire la destination finale ou intermédiaire et, par la suite, les chemins des utilisateurs mobiles vers leur destination prédite. Ce modèle se base sur : (a) les habitudes de l’utilisateur en terme de déplacements (filtrées selon le type de jour et le moment de la journée) ; (b) le déplacement courant de l’utilisateur ; (c) la connaissance de l’utilisateur ; (d) la direction vers une destination estimée ; et (e) la structure spatiale de la zone de déplacement. Les résultats de simulation montrent que ce modèle donne une précision largement meilleure aux approches existantes. Dans la deuxième partie de cette thèse, nous nous intéressons au contrôle d’admission et à la gestion de la bande passante dans les WCNs. En effet, nous proposons une approche de gestion de la bande passante comprenant : (1) une approche d’estimation du temps de transfert intercellulaire prenant en compte la densité de la zone de déplacement en terme d’utilisateurs, les caractéristiques de mobilité des utilisateurs et les feux tricolores ; (2) une approche d’estimation de la bande passante disponible à l’avance dans les cellules prenant en compte les exigences en bande passante et la durée de vie des sessions en cours ; et (3) une approche de réservation passive de bande passante dans les cellules qui seront visitées pour les sessions en cours et de contrôle d’admission des demandes de nouvelles sessions prenant en compte la mobilité des utilisateurs et le comportement des cellules. Les résultats de simulation indiquent que cette approche réduit largement les ruptures abruptes de sessions en cours, offre un taux de refus de nouvelles demandes de connexion acceptable et un taux élevé d’utilisation de la bande passante. Dans la troisième partie de la thèse, nous nous penchons sur la principale limite de la première et deuxième parties de la thèse, à savoir l’évolutivité (selon le nombre d’utilisateurs) et proposons une plateforme qui intègre des modèles de prédiction de mobilité avec des modèles de prédiction de la bande passante disponible. En effet, dans les deux parties précédentes de la thèse, les prédictions de la mobilité sont effectuées pour chaque utilisateur. Ainsi, pour rendre notre proposition de plateforme évolutive, nous proposons des modèles de prédiction de mobilité par groupe d’utilisateurs en nous basant sur : (a) les profils des utilisateurs (c’est-à-dire leur préférence en termes de caractéristiques de route) ; (b) l’état du trafic routier et le comportement des utilisateurs ; et (c) la structure spatiale de la zone de déplacement. Les résultats de simulation montrent que la plateforme proposée améliore la performance du réseau comparée aux plateformes existantes qui proposent des modèles de prédiction de la mobilité par groupe d’utilisateurs pour la réservation de bande passante.
Resumo:
L’hypertension artérielle essentielle (HTA) est une pathologie complexe, multifactorielle et à forte composante génétique. L’impact de la variabilité dans le nombre de copies sur l’HTA est encore peu connu. Nous envisagions que des variants dans le nombre de copies (CNVs) communs pourraient augmenter ou diminuer le risque pour l’HTA. Nous avons exploré cette hypothèse en réalisant des associations pangénomiques de CNVs avec l’HTA et avec l’HTA et le diabète de type 2 (DT2), chez 21 familles du Saguenay-Lac-St-Jean (SLSJ) caractérisées par un développement précoce de l’HTA et de la dyslipidémie. Pour la réplication, nous disposions, d’une part, de 3349 sujets diabétiques de la cohorte ADVANCE sélectionnés pour des complications vasculaires. D’autre part, de 187 sujets de la cohorte Tchèque Post-MONICA (CTPM), choisis selon la présence/absence d’albuminurie et/ou de syndrome métabolique. Finalement, 134 sujets de la cohorte CARTaGENE ont été analysés pour la validation fonctionnelle. Nous avons détecté deux nouveaux loci, régions de CNVs (CNVRs) à effets quantitatifs sur 17q21.31, associés à l’hypertension et au DT2 chez les sujets SLSJ et associés à l’hypertension chez les diabétiques ADVANCE. Un modèle statistique incluant les deux variants a permis de souligner le rôle essentiel du locus CNVR1 sur l’insulino-résistance, la précocité et la durée du diabète, ainsi que sur le risque cardiovasculaire. CNVR1 régule l’expression du pseudogène LOC644172 dont le dosage est associé à la prévalence de l’HTA, du DT2 et plus particulièrement au risque cardiovasculaire et à l’âge vasculaire (P<2×10-16). Nos résultats suggèrent que les porteurs de la duplication au locus CNVR1 développent précocement une anomalie de la fonction bêta pancréatique et de l’insulino-résistance, dues à un dosage élevé de LOC644172 qui perturberait, en retour, la régulation du gène paralogue fonctionnel, MAPK8IP1. Nous avons également avons identifié six CNVRs hautement hérités et associés à l'HTA chez les sujets SLSJ. Le score des effets combinés de ces CNVRs est apparu positivement et étroitement relié à la prévalence de l’HTA (P=2×10-10) et à l’âge de diagnostic de l’HTA. Dans la population SLSJ, le score des effets combinés présente une statistique C, pour l’HTA, de 0.71 et apparaît aussi performant que le score de risque Framingham pour la prédiction de l’HTA chez les moins de 25 ans. Un seul nouveau locus de CNVR sur 19q13.12, où la délétion est associée à un risque pour l’HTA, a été confirmé chez les Caucasiens CTPM. Ce CNVR englobe le gène FFAR3. Chez la souris, il a été démontré que l’action hypotensive du propionate est en partie médiée par Ffar3, à travers une interférence entre la flore intestinale et les systèmes cardiovasculaire et rénal. Les CNVRs identifiées dans cette étude, affectent des gènes ou sont localisées dans des QTLs reliés majoritairement aux réponses inflammatoires et immunitaires, au système rénal ainsi qu’aux lésions/réparations rénales ou à la spéciation. Cette étude suggère que l’étiologie de l’HTA ou de l’HTA associée au DT2 est affectée par des effets additifs ou interactifs de CNVRs.
Resumo:
Ce travail se situe dans la perspective des études sur la protection des savoirs traditionnels contre la biopiraterie commise par quelques industries pharmaceutiques et cosmétiques. Malgré le débat qui s’est déroulé à ce sujet après la signature de la Convention sur la diversité biologique, ces patrimoines culturels continuent d’être largement menacés. L’étude se propose d’analyser les mécanismes capables de protéger contre la biopiraterie les savoirs traditionnels associés à la biodiversité qui intéressent l’industrie pharmaceutique, et ce, par le biais des droits de propriété intellectuelle existants aussi bien à l’échelle internationale que dans le cadre des législations nationales. Ces mécanismes sont évalués quant à leur efficacité, en vue d’en identifier les plus intéressants, susceptibles d’être adoptés soit par des pays qui ne disposent pas encore de législation en matière de protection des savoirs traditionnels soit pour être utilisés dans le cadre international. Avec cet objectif, le présent travail dressera un panorama concernant la législation du Brésil, du Costa Rica et du Pérou. En outre, seront mises en exergue par la suite les différentes conventions en lien avec les savoirs traditionnels, à savoir la Convention sur la diversité biologique, le Protocole de Nagoya, le Comité intergouvernemental de la propriété intellectuelle relative aux ressources génétiques, aux savoirs traditionnels et au folklore de l’Organisation mondiale de la propriété intellectuelle. L’analyse menée a mis en lumière un certain nombre de dispositions assez efficaces pouvant être utilisées de façon optimale par des pays ne disposant pas de législation en matière de protection des savoirs traditionnels ou encore pouvant être intégrées dans des traités internationaux en la matière, afin de rendre lesdits traités plus efficaces sur le plan pratique. Bien plus, ladite analyse démontre que l’Accord sur les aspects des droits de propriété intellectuelle qui touchent au commerce est actuellement l’accord le plus coercitif et le plus contraignant lorsque l’on veut mener une lutte efficace contre la biopiraterie. Par ailleurs, en s’appuyant sur des fondements théoriques constructivistes, notre analyse essaye de démontrer que les pays du Sud, riches en biodiversité et en savoirs traditionnels, peuvent véritablement impulser un mouvement en faveur d’une législation internationale efficace en matière de protection des savoirs traditionnels
Resumo:
L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.
Resumo:
Essai doctoral présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Doctorat (D.Psy) en psychologie option psychologie clinique
Resumo:
Cette thèse propose une redéfinition de la notion de frontière dans le contexte américain, avec pour point de départ les romans de trois voix littéraires issues de trois minorités ethniques : Sandra Cisneros (Caramelo), Cristina Garcia (The Agüero Sisters) et David Plante (The Family et The Native). Je conceptualise la frontière comme fluctuation entre mouvement et immobilité, entre porosité et imperméabilité. Dans le premier chapitre, je fournis des repères sur la théorie des frontières et j'analyse les avancées de ce champ d'étude, du concept de terre frontalière (“Borderland Theories”) jusqu'aux récits d'immigration. Je propose un cadre conceptuel que j'appelle « Écrire la frontière à partir de la perspective de la frontière », lequel permet une lecture neuve des récits de frontière, et une redéfinition de la notion elle-même. Prise comme perspective, la frontière est une dynamique vivante, ce qui la rend plurielle et impossible à fixer définitivement; aussi les récits de frontière présentent-ils une grande variété d’expériences, toutes liées à des moments et à des points de vue uniques. Dans le second chapitre, j’analyse la porosité des frontières dans le contexte géopolitique contemporain, en mettant en lumière comment la colonisation, la mondialisation économique et l’immigration sont autant de mécanismes de transgression des frontières qui suivent des orientations transnationales, dénationales et postnationales. Dans le troisième chapitre, j’étudie la résurgence des frontières dans la vie des immigrants qui habitent aux États-Unis. J’identifie l’insécurité capitaliste ainsi que la marchandisation de l’espace et de l’ethnicité comme étant à l'origine du renforcement des frontières délimitant les quartiers ethniques; génératrices de stéréotypes négatifs, ces divisions physiques deviennent une technologie d’exclusion et d’injustice sociale. Le dernier chapitre présente une lecture des aspects esthétiques de la frontière, voyant comment ils peuvent contribuer à écrire la frontière à partir de la perspective de la frontière. Dans les textes à l'étude, j'examine de près la problématisation du concept de représentation, la multiplicité des points de vue narratifs, l’inaccessibilité du réel, et la partialité de la médiation. Mots clés : Théories et écrits sur les frontières, minorités ethniques aux États-Unis, multiculturalisme, culture, immigration, mondialisation, espace, place, territoire, état-nation, nationalisme, histoire, langue et langage, représentation, communauté, justice sociale, citoyenneté