432 resultados para classification des Systèmes de Recommandation
Resumo:
Les avancés dans le domaine de l’intelligence artificielle, permettent à des systèmes informatiques de résoudre des tâches de plus en plus complexes liées par exemple à la vision, à la compréhension de signaux sonores ou au traitement de la langue. Parmi les modèles existants, on retrouve les Réseaux de Neurones Artificiels (RNA), dont la popularité a fait un grand bond en avant avec la découverte de Hinton et al. [22], soit l’utilisation de Machines de Boltzmann Restreintes (RBM) pour un pré-entraînement non-supervisé couche après couche, facilitant grandement l’entraînement supervisé du réseau à plusieurs couches cachées (DBN), entraînement qui s’avérait jusqu’alors très difficile à réussir. Depuis cette découverte, des chercheurs ont étudié l’efficacité de nouvelles stratégies de pré-entraînement, telles que l’empilement d’auto-encodeurs traditionnels(SAE) [5, 38], et l’empilement d’auto-encodeur débruiteur (SDAE) [44]. C’est dans ce contexte qu’a débuté la présente étude. Après un bref passage en revue des notions de base du domaine de l’apprentissage machine et des méthodes de pré-entraînement employées jusqu’à présent avec les modules RBM, AE et DAE, nous avons approfondi notre compréhension du pré-entraînement de type SDAE, exploré ses différentes propriétés et étudié des variantes de SDAE comme stratégie d’initialisation d’architecture profonde. Nous avons ainsi pu, entre autres choses, mettre en lumière l’influence du niveau de bruit, du nombre de couches et du nombre d’unités cachées sur l’erreur de généralisation du SDAE. Nous avons constaté une amélioration de la performance sur la tâche supervisée avec l’utilisation des bruits poivre et sel (PS) et gaussien (GS), bruits s’avérant mieux justifiés que celui utilisé jusqu’à présent, soit le masque à zéro (MN). De plus, nous avons démontré que la performance profitait d’une emphase imposée sur la reconstruction des données corrompues durant l’entraînement des différents DAE. Nos travaux ont aussi permis de révéler que le DAE était en mesure d’apprendre, sur des images naturelles, des filtres semblables à ceux retrouvés dans les cellules V1 du cortex visuel, soit des filtres détecteurs de bordures. Nous aurons par ailleurs pu montrer que les représentations apprises du SDAE, composées des caractéristiques ainsi extraites, s’avéraient fort utiles à l’apprentissage d’une machine à vecteurs de support (SVM) linéaire ou à noyau gaussien, améliorant grandement sa performance de généralisation. Aussi, nous aurons observé que similairement au DBN, et contrairement au SAE, le SDAE possédait une bonne capacité en tant que modèle générateur. Nous avons également ouvert la porte à de nouvelles stratégies de pré-entraînement et découvert le potentiel de l’une d’entre elles, soit l’empilement d’auto-encodeurs rebruiteurs (SRAE).
Resumo:
La résilience est la capacité à s’adapter aux menaces et à atténuer ou éviter un risque, elle peut être trouvée dans des bâtiments résistant aux dangers ou dans des systèmes sociaux adaptables (Pelling, 2003). Par conséquence, ce concept peut aussi être compris comme la capacité de reconstruire un quartier avec des composants plus solides et plus viables. Presque quatre ans après l’ouragan Katrina, la Nouvelle-Orléans est considérée comme un laboratoire à ciel ouvert. Le niveau de résilience de ses communautés peut y être examiné. L’état actuel de la reconstitution de ses quartiers diffère largement des uns aux autres. L’arrondissement historique de Holy Cross est l’un des plus vieux quartiers de la ville, cette communauté vulnérable est connue pour son patrimoine culturel, apparent non seulement dans son architecture unique, mais aussi ses relations sociales. Un des principaux défi de la reconstruction du quartier de Holly Cross est de trouver une façon de concilier la préservation du patrimoine bâti et de son tissu urbain ancien avec de nouveaux plans de développement, afin de créer une communauté durable. Cette étude examine les rôles des acteurs impliqués dans le processus de reconstruction et leur efficacité sur la création d’un Holy Cross plus durable, résistant et abordable, afin d’encourager le retour de ses résidents. Elle présente également les efforts actuels pour proposer des projets de reconstruction durables tout en préservant le caractère patrimonial du quartier.
Resumo:
Les systèmes Matériels/Logiciels deviennent indispensables dans tous les aspects de la vie quotidienne. La présence croissante de ces systèmes dans les différents produits et services incite à trouver des méthodes pour les développer efficacement. Mais une conception efficace de ces systèmes est limitée par plusieurs facteurs, certains d'entre eux sont: la complexité croissante des applications, une augmentation de la densité d'intégration, la nature hétérogène des produits et services, la diminution de temps d’accès au marché. Une modélisation transactionnelle (TLM) est considérée comme un paradigme prometteur permettant de gérer la complexité de conception et fournissant des moyens d’exploration et de validation d'alternatives de conception à des niveaux d’abstraction élevés. Cette recherche propose une méthodologie d’expression de temps dans TLM basée sur une analyse de contraintes temporelles. Nous proposons d'utiliser une combinaison de deux paradigmes de développement pour accélérer la conception: le TLM d'une part et une méthodologie d’expression de temps entre différentes transactions d’autre part. Cette synergie nous permet de combiner dans un seul environnement des méthodes de simulation performantes et des méthodes analytiques formelles. Nous avons proposé un nouvel algorithme de vérification temporelle basé sur la procédure de linéarisation des contraintes de type min/max et une technique d'optimisation afin d'améliorer l'efficacité de l'algorithme. Nous avons complété la description mathématique de tous les types de contraintes présentées dans la littérature. Nous avons développé des méthodes d'exploration et raffinement de système de communication qui nous a permis d'utiliser les algorithmes de vérification temporelle à différents niveaux TLM. Comme il existe plusieurs définitions du TLM, dans le cadre de notre recherche, nous avons défini une méthodologie de spécification et simulation pour des systèmes Matériel/Logiciel basée sur le paradigme de TLM. Dans cette méthodologie plusieurs concepts de modélisation peuvent être considérés séparément. Basée sur l'utilisation des technologies modernes de génie logiciel telles que XML, XSLT, XSD, la programmation orientée objet et plusieurs autres fournies par l’environnement .Net, la méthodologie proposée présente une approche qui rend possible une réutilisation des modèles intermédiaires afin de faire face à la contrainte de temps d’accès au marché. Elle fournit une approche générale dans la modélisation du système qui sépare les différents aspects de conception tels que des modèles de calculs utilisés pour décrire le système à des niveaux d’abstraction multiples. En conséquence, dans le modèle du système nous pouvons clairement identifier la fonctionnalité du système sans les détails reliés aux plateformes de développement et ceci mènera à améliorer la "portabilité" du modèle d'application.
Resumo:
Parmi les indicateurs de la mondialisation, le secret bancaire est au centre d'un débat animé en ce moment historique, caractérisé par la globalisation de l'économie, les exigences de sécurité croissantes, l'urgence de la lutte contre le blanchiment des capitaux provenant d’activités criminelles et l’internationalisation expansive des réseaux bancaires. La tendance vers le renforcement de la coopération internationale, met en discussion la forte sauvegarde du secret bancaire de plusieurs pays. La question dirimante est plutôt claire. Il s'agit, effectivement, de savoir jusqu'à quel point le secret, dans sa conception la plus inextensible et inflexible, devient par contre un instrument décisif pour contourner les règles communes,faire une concurrence déloyale sur les marchés et assurer des véritables crimes, par exemple de type terroriste. Pour faire évoluer les situations jugées problématiques, la démarche parallèle des trois organismes BÂLE, l’OCDE puis le GAFI est d’autant plus significative, qu’elle a été inspirée par les préoccupations exprimées au sein du G7 sur les dangers que présenteraient pour l’économie internationale certaines activités financières accomplies sur et à partir de ces territoires. L’ordre public justifie aussi la mise en place de mesures particulières en vue d’enrayer le blanchiment des capitaux provenant du trafic des stupéfiants. Selon les pays, des systèmes plus ou moins ingénieux tentent de concilier la nécessaire information des autorités publiques et le droit au secret bancaire, élément avancé de la protection de la vie privée dont le corollaire est, entre autres, l’article 7 et 8 de la Charte canadienne des droits et libertés et l’article 8 de la Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales du citoyen, et donc de l’atteinte à ces libertés. Nous le verrons, les prérogatives exorbitantes dont bénéficient l’État, l’administration ou certains tiers, par l’exercice d’un droit de communication et d’échange d’information, constituent une véritable atteinte au principe sacré de la vie privée et du droit à la confidentialité. Cette pénétration de l’État ou de l’administration au coeur des relations privilégiées entre la banque et son client trouve certainement une justification irréfutable lorsque la protection est celle de l’intérêt public, de la recherche d’une solution juridique et judiciaire. Mais cela crée inévitablement des pressions internes et des polémiques constantes,indépendamment de l’abus de droit que l’on peut malheureusement constater dans l’usage et l’exercice de certaines prérogatives.
Resumo:
Il est connu que ceux qui ne s’informent pas sur leur passé seront toujours condamnés à répéter les mêmes erreurs et pour déterminer où aller il faut d’abord savoir d’où on vient . La thèse se penche sur l’analyse de plus de deux siècles d’histoire de l’appareil judiciaire malgache à la lumière du concept d’indépendance de la magistrature. L’auteur porte une analyse rétrospective sur une assez longue période qui s’étend de la fin du XVIIIème siècle à nos jours au cours de laquelle il essaie de comprendre l’ensemble des situations ayant prévalu dans le pays témoin, avant, pendant et après la colonisation française. Cette thèse tente d’apporter des argumentaires nouveaux et une méthodologie d’approche nouvelle dans l’analyse de l’appareil judiciaire d’un pays anciennement colonisé. Il s’agit de mettre de côté certaines idées reçues sur les situations des systèmes juridiques des pays anciennement colonisés, notamment malgache et africains. L’étude remet en cause quelques préjugés d’antan qui marquent encore les esprits relativement aux situations précoloniales, à l’arrivée des modèles juridiques occidentaux et plus particulièrement au concept d’indépendance de la magistrature et sa consistance actuelle dans les anciennes colonies, à l’instar de la Grande Île. A travers l'étude du cas particulier de Madagascar, la thèse apporte des réponses à plusieurs questions suscitées par l’acculturation du système juridique des anciennes colonies à partir de leur contact avec les modèles juridiques occidentaux. La question spécifique de recherche consiste à déterminer si le concept d’indépendance de la magistrature est déjà entré dans le système juridique des pays anciennement colonisés comme Madagascar. Pour l’auteur, le concept d’indépendance de la magistrature tel que compris en Occident n’a jamais fait son véritable entrée à Madagascar. Le cadre théorique adopté pour la vérification de l’hypothèse combine le positivisme juridique avec les approches anthropologique et sociologique et se distingue des recherches presque exclusivement positivistes antérieures. Dans la première partie, l’auteur propose le cadre théorique de recherche et rapporte les modes de règlements des conflits à l’époque précoloniale. L’analyse anthropologique de la période a démontré que le concept d’indépendance de la magistrature fut inconnu des traditions judiciaires précoloniales même si une certaine influence occidentale imprégnait le processus de métissage spontanée diligenté par les souverains successifs. Dans la seconde partie, l’auteur livre une analyse de la période coloniale et postcoloniale jusqu’à l’époque contemporaine. Pour la période coloniale, l’ouvrage relate, d’une part, les multiples mesures prises durant les années coloniales, qui éloignèrent le modèle juridique colonial implanté à Madagascar du modèle juridique français original de la métropole. D’autre part, il mesure les impacts de l’instauration du modèle colonial sur les traditions juridiques malgaches précoloniales. Contrairement aux idées reçues, le modèle juridique français et tous ses concepts clés, notamment le concept de séparation des pouvoirs et celui d’indépendance de la magistrature ne furent pas transmis à Madagascar par le fait de la conquête. Ensuite, il a survolé la magistrature des trois républiques successives depuis l’indépendance acquise en 1960. En premier lieu, par une analyse résolument positiviste l’auteur analyse les imperfections initiales des choix et des mesures prises lors de la mise en place du nouveau système juridique de la jeune république durant les premières années de l’indépendance et dont la magistrature malgache est encore tributaire aujourd’hui. En second lieu, par une démarche à la fois positiviste et sociologique, il démontre que les valeurs du concept d’indépendance de la magistrature, reconnues par le système politique et timidement repris par le système juridique, n’ont pas réussi jusqu’ici à pénétrer le cœur de ce dernier
Resumo:
La suffocation est une forme d’asphyxie dans laquelle l’oxygène ne peut atteindre le sang. Il existe divers types de suffocation dont la suffocation par confinement/ environnementale, les étouffements externe et interne, et les asphyxies traumatique/ positionnelle. La littérature scientifique sur la suffocation est relativement pauvre, étant principalement constituée de revues de cas et de quelques séries de cas limités à un contexte particulier de suffocation. Dans le contexte actuel d’une médecine basée sur les preuves, les ouvrages de médecine légale n’ont guère d’études pour appuyer leurs enseignements, tirés essentiellement de l’expérience personnelle de générations de médecins légistes. Le présent projet vise à palier ce manque de données sur la suffocation, un type de décès pourtant important en pratique médico-légale. Il s’agit d’une étude rétrospective de six ans portant sur tous les cas de suffocation non-chimique ayant été autopsiés au Laboratoire de sciences judiciaires et de médecine légale. À notre connaissance, cette étude est la première à établir le portrait systématique des morts par suffocation non-chimique en milieu médico-légal. Elle permet, entre autres, de confirmer les modes de décès usuels par catégorie de suffocation, le type de victime et les contextes courants. Généralement, les résultats concordent avec la littérature, appuyant ainsi le savoir commun des pathologistes sur la suffocation non-chimique. Toutefois, certaines dissimilitudes ont été notées quant aux modes de décès lors de l’étouffement externe. Par ailleurs, les questions reliées à la classification des asphyxies et aux définitions souvent contradictoires sont discutées. En un effort de normalisation, ce projet souligne les divergences retrouvées dans les classifications usuelles et tente d’en dégager les définitions courantes afin de proposer un modèle de classification unifié.
Resumo:
Alors que certains mécanismes pourtant jugés cruciaux pour la transformation de la pluie en débit restent peu ou mal compris, le concept de connectivité hydrologique a récemment été proposé pour expliquer pourquoi certains processus sont déclenchés de manière épisodique en fonction des caractéristiques des événements de pluie et de la teneur en eau des sols avant l’événement. L’adoption de ce nouveau concept en hydrologie reste cependant difficile puisqu’il n’y a pas de consensus sur la définition de la connectivité, sa mesure, son intégration dans les modèles hydrologiques et son comportement lors des transferts d’échelles spatiales et temporelles. Le but de ce travail doctoral est donc de préciser la définition, la mesure, l’agrégation et la prédiction des processus liés à la connectivité hydrologique en s’attardant aux questions suivantes : 1) Quel cadre méthodologique adopter pour une étude sur la connectivité hydrologique ?, 2) Comment évaluer le degré de connectivité hydrologique des bassins versants à partir de données de terrain ?, et 3) Dans quelle mesure nos connaissances sur la connectivité hydrologique doivent-elles conduire à la modification des postulats de modélisation hydrologique ? Trois approches d’étude sont différenciées, soit i) une approche de type « boite noire », basée uniquement sur l’exploitation des données de pluie et de débits sans examiner le fonctionnement interne du bassin versant ; ii) une approche de type « boite grise » reposant sur l’étude de données géochimiques ponctuelles illustrant la dynamique interne du bassin versant ; et iii) une approche de type « boite blanche » axée sur l’analyse de patrons spatiaux exhaustifs de la topographie de surface, la topographie de subsurface et l’humidité du sol. Ces trois approches sont ensuite validées expérimentalement dans le bassin versant de l’Hermine (Basses Laurentides, Québec). Quatre types de réponses hydrologiques sont distingués en fonction de leur magnitude et de leur synchronisme, sachant que leur présence relative dépend des conditions antécédentes. Les forts débits enregistrés à l’exutoire du bassin versant sont associés à une contribution accrue de certaines sources de ruissellement, ce qui témoigne d’un lien hydraulique accru et donc d’un fort degré de connectivité hydrologique entre les sources concernées et le cours d’eau. Les aires saturées couvrant des superficies supérieures à 0,85 ha sont jugées critiques pour la genèse de forts débits de crue. La preuve est aussi faite que les propriétés statistiques des patrons d’humidité du sol en milieu forestier tempéré humide sont nettement différentes de celles observées en milieu de prairie tempéré sec, d’où la nécessité d’utiliser des méthodes de calcul différentes pour dériver des métriques spatiales de connectivité dans les deux types de milieux. Enfin, la double existence de sources contributives « linéaires » et « non linéaires » est mise en évidence à l’Hermine. Ces résultats suggèrent la révision de concepts qui sous-tendent l’élaboration et l’exécution des modèles hydrologiques. L’originalité de cette thèse est le fait même de son sujet. En effet, les objectifs de recherche poursuivis sont conformes à la théorie hydrologique renouvelée qui prône l’arrêt des études de particularismes de petite échelle au profit de l’examen des propriétés émergentes des bassins versants telles que la connectivité hydrologique. La contribution majeure de cette thèse consiste ainsi en la proposition d’une définition unifiée de la connectivité, d’un cadre méthodologique, d’approches de mesure sur le terrain, d’outils techniques et de pistes de solution pour la modélisation des systèmes hydrologiques.
Resumo:
Lors de ces dix dernières années, le coût de la maintenance des systèmes orientés objets s'est accru jusqu' à compter pour plus de 70% du coût total des systèmes. Cette situation est due à plusieurs facteurs, parmi lesquels les plus importants sont: l'imprécision des spécifications des utilisateurs, l'environnement d'exécution changeant rapidement et la mauvaise qualité interne des systèmes. Parmi tous ces facteurs, le seul sur lequel nous ayons un réel contrôle est la qualité interne des systèmes. De nombreux modèles de qualité ont été proposés dans la littérature pour contribuer à contrôler la qualité. Cependant, la plupart de ces modèles utilisent des métriques de classes (nombre de méthodes d'une classe par exemple) ou des métriques de relations entre classes (couplage entre deux classes par exemple) pour mesurer les attributs internes des systèmes. Pourtant, la qualité des systèmes par objets ne dépend pas uniquement de la structure de leurs classes et que mesurent les métriques, mais aussi de la façon dont celles-ci sont organisées, c'est-à-dire de leur conception, qui se manifeste généralement à travers les patrons de conception et les anti-patrons. Dans cette thèse nous proposons la méthode DEQUALITE, qui permet de construire systématiquement des modèles de qualité prenant en compte non seulement les attributs internes des systèmes (grâce aux métriques), mais aussi leur conception (grâce aux patrons de conception et anti-patrons). Cette méthode utilise une approche par apprentissage basée sur les réseaux bayésiens et s'appuie sur les résultats d'une série d'expériences portant sur l'évaluation de l'impact des patrons de conception et des anti-patrons sur la qualité des systèmes. Ces expériences réalisées sur 9 grands systèmes libres orientés objet nous permettent de formuler les conclusions suivantes: • Contre l'intuition, les patrons de conception n'améliorent pas toujours la qualité des systèmes; les implantations très couplées de patrons de conception par exemple affectent la structure des classes et ont un impact négatif sur leur propension aux changements et aux fautes. • Les classes participantes dans des anti-atrons sont beaucoup plus susceptibles de changer et d'être impliquées dans des corrections de fautes que les autres classes d'un système. • Un pourcentage non négligeable de classes sont impliquées simultanément dans des patrons de conception et dans des anti-patrons. Les patrons de conception ont un effet positif en ce sens qu'ils atténuent les anti-patrons. Nous appliquons et validons notre méthode sur trois systèmes libres orientés objet afin de démontrer l'apport de la conception des systèmes dans l'évaluation de la qualité.
Resumo:
L’atmosphère terrestre est très riche en azote (N2). Mais cet azote diatomique est sous une forme très stable, inutilisable par la majorité des êtres vivants malgré qu’il soit indispensable pour la synthèse de matériels organiques. Seuls les procaryotes diazotrophiques sont capables de vivre avec le N2 comme source d’azote. La fixation d’azote est un processus qui permet de produire des substances aminées à partir de l’azote gazeux présent dans l’atmosphère (78%). Cependant, ce processus est très complexe et nécessite la biosynthèse d’une vingtaine de protéines et la consommation de beaucoup d’énergie (16 molécules d’ATP par mole de N2 fixé). C’est la raison pour laquelle ce phénomène est rigoureusement régulé. Les bactéries photosynthétiques pourpres non-sulfureuses sont connues pour leur capacité de faire la fixation de l’azote. Les études faites à la lumière, dans le mode de croissance préféré de ces bactéries (photosynthèse anaérobie), ont montré que la nitrogénase (enzyme responsable de la fixation du diazote) est sujet d’une régulation à trois niveaux: une régulation transcriptionnelle de NifA (protéine activatrice de la transcription des gènes nif), une régulation post-traductionnelle de l’activité de NifA envers l’activation de la transcription des autres gènes nif, et la régulation post-traductionnelle de l’activité de la nitrogénase quand les cellules sont soumises à un choc d’ammoniaque. Le système de régulation déjà décrit fait intervenir essentiellement une protéine membranaire, AmtB, et les deux protéines PII, GlnB et GlnK. Il est connu depuis long temps que la nitrogénase est aussi régulée quand une culture photosynthétique est exposée à la noirceur, mais jusqu’aujourd’hui, on ignore encore la nature des systèmes intervenants dans cette régulation. Ainsi, parmi les questions qui peuvent se poser: quelles sont les protéines qui interviennent dans l’inactivation de la nitrogénase lorsqu’une culture anaérobie est placée à la noirceur? Une analyse de plusieurs souches mutantes, amtB- , glnK- , glnB- et amtY- poussées dans différentes conditions de limitation en azote, serait une façon pour répondre à ces interrogations. Alors, avec le suivi de l’activité de la nitrogénase et le Western Blot, on a montré que le choc de noirceur provoquerait un "Switch-off" de l’activité de la nitrogénase dû à une ADP-ribosylation de la protéine Fe. On a réussit aussi à montrer que ii tout le système déjà impliqué dans la réponse à un choc d’ammoniaque, est également nécessaire pour une réponse à un manque de lumière ou d’énergie (les protéines AmtB, GlnK, GlnB, DraG, DraT et AmtY). Or, Rhodobacter capsulatus est capable de fixer l’azote et de croitre aussi bien dans la micro-aérobie à la noirceur que dans des conditions de photosynthèse anaérobies, mais jusqu'à maintenant sa régulation dans l’obscurité est peu étudiée. L’étude de la fixation d’azote à la noirceur nous a permis de montrer que le complexe membranaire Rnf n’est pas nécessaire à la croissance de R. capsulatus dans de telles conditions. Dans le but de développer une façon d’étudier la régulation de la croissance dans ce mode, on a tout d’abord essayé d’identifier les conditions opératoires (O2, [NH4 + ]) permettant à R. capsulatus de fixer l’azote en microaérobie. L’optimisation de cette croissance a montré que la concentration optimale d’oxygène nécessaire est de 10% mélangé avec de l’azote.
Resumo:
L'hétérogénéité de réponses dans un groupe de patients soumis à un même régime thérapeutique doit être réduite au cours d'un traitement ou d'un essai clinique. Deux approches sont habituellement utilisées pour atteindre cet objectif. L'une vise essentiellement à construire une observance active. Cette approche se veut interactive et fondée sur l'échange ``médecin-patient '', ``pharmacien-patient'' ou ``vétérinaire-éleveurs''. L'autre plutôt passive et basée sur les caractéristiques du médicament, vise à contrôler en amont cette irrégularité. L'objectif principal de cette thèse était de développer de nouvelles stratégies d'évaluation et de contrôle de l'impact de l'irrégularité de la prise du médicament sur l'issue thérapeutique. Plus spécifiquement, le premier volet de cette recherche consistait à proposer des algorithmes mathématiques permettant d'estimer efficacement l'effet des médicaments dans un contexte de variabilité interindividuelle de profils pharmacocinétiques (PK). Cette nouvelle méthode est fondée sur l'utilisation concommitante de données \textit{in vitro} et \textit{in vivo}. Il s'agit de quantifier l'efficience ( c-à-dire efficacité plus fluctuation de concentrations \textit{in vivo}) de chaque profil PK en incorporant dans les modèles actuels d'estimation de l'efficacité \textit{in vivo}, la fonction qui relie la concentration du médicament de façon \textit{in vitro} à l'effet pharmacodynamique. Comparativement aux approches traditionnelles, cette combinaison de fonction capte de manière explicite la fluctuation des concentrations plasmatiques \textit{in vivo} due à la fonction dynamique de prise médicamenteuse. De plus, elle soulève, à travers quelques exemples, des questions sur la pertinence de l'utilisation des indices statiques traditionnels ($C_{max}$, $AUC$, etc.) d'efficacité comme outil de contrôle de l'antibiorésistance. Le deuxième volet de ce travail de doctorat était d'estimer les meilleurs temps d'échantillonnage sanguin dans une thérapie collective initiée chez les porcs. Pour ce faire, nous avons développé un modèle du comportement alimentaire collectif qui a été par la suite couplé à un modèle classique PK. À l'aide de ce modèle combiné, il a été possible de générer un profil PK typique à chaque stratégie alimentaire particulière. Les données ainsi générées, ont été utilisées pour estimer les temps d'échantillonnage appropriés afin de réduire les incertitudes dues à l'irrégularité de la prise médicamenteuse dans l'estimation des paramètres PK et PD . Parmi les algorithmes proposés à cet effet, la méthode des médianes semble donner des temps d'échantillonnage convenables à la fois pour l'employé et pour les animaux. Enfin, le dernier volet du projet de recherche a consisté à proposer une approche rationnelle de caractérisation et de classification des médicaments selon leur capacité à tolérer des oublis sporadiques. Méthodologiquement, nous avons, à travers une analyse globale de sensibilité, quantifié la corrélation entre les paramètres PK/PD d'un médicament et l'effet d'irrégularité de la prise médicamenteuse. Cette approche a consisté à évaluer de façon concomitante l'influence de tous les paramètres PK/PD et à prendre en compte, par la même occasion, les relations complexes pouvant exister entre ces différents paramètres. Cette étude a été réalisée pour les inhibiteurs calciques qui sont des antihypertenseurs agissant selon un modèle indirect d'effet. En prenant en compte les valeurs des corrélations ainsi calculées, nous avons estimé et proposé un indice comparatif propre à chaque médicament. Cet indice est apte à caractériser et à classer les médicaments agissant par un même mécanisme pharmacodynamique en terme d'indulgence à des oublis de prises médicamenteuses. Il a été appliqué à quatre inhibiteurs calciques. Les résultats obtenus étaient en accord avec les données expérimentales, traduisant ainsi la pertinence et la robustesse de cette nouvelle approche. Les stratégies développées dans ce projet de doctorat sont essentiellement fondées sur l'analyse des relations complexes entre l'histoire de la prise médicamenteuse, la pharmacocinétique et la pharmacodynamique. De cette analyse, elles sont capables d'évaluer et de contrôler l'impact de l'irrégularité de la prise médicamenteuse avec une précision acceptable. De façon générale, les algorithmes qui sous-tendent ces démarches constitueront sans aucun doute, des outils efficients dans le suivi et le traitement des patients. En outre, ils contribueront à contrôler les effets néfastes de la non-observance au traitement par la mise au point de médicaments indulgents aux oublis
Resumo:
Il est connu que les problèmes d'ambiguïté de la langue ont un effet néfaste sur les résultats des systèmes de Recherche d'Information (RI). Toutefois, les efforts de recherche visant à intégrer des techniques de Désambiguisation de Sens (DS) à la RI n'ont pas porté fruit. La plupart des études sur le sujet obtiennent effectivement des résultats négatifs ou peu convaincants. De plus, des investigations basées sur l'ajout d'ambiguïté artificielle concluent qu'il faudrait une très haute précision de désambiguation pour arriver à un effet positif. Ce mémoire vise à développer de nouvelles approches plus performantes et efficaces, se concentrant sur l'utilisation de statistiques de cooccurrence afin de construire des modèles de contexte. Ces modèles pourront ensuite servir à effectuer une discrimination de sens entre une requête et les documents d'une collection. Dans ce mémoire à deux parties, nous ferons tout d'abord une investigation de la force de la relation entre un mot et les mots présents dans son contexte, proposant une méthode d'apprentissage du poids d'un mot de contexte en fonction de sa distance du mot modélisé dans le document. Cette méthode repose sur l'idée que des modèles de contextes faits à partir d'échantillons aléatoires de mots en contexte devraient être similaires. Des expériences en anglais et en japonais montrent que la force de relation en fonction de la distance suit généralement une loi de puissance négative. Les poids résultant des expériences sont ensuite utilisés dans la construction de systèmes de DS Bayes Naïfs. Des évaluations de ces systèmes sur les données de l'atelier Semeval en anglais pour la tâche Semeval-2007 English Lexical Sample, puis en japonais pour la tâche Semeval-2010 Japanese WSD, montrent que les systèmes ont des résultats comparables à l'état de l'art, bien qu'ils soient bien plus légers, et ne dépendent pas d'outils ou de ressources linguistiques. La deuxième partie de ce mémoire vise à adapter les méthodes développées à des applications de Recherche d'Information. Ces applications ont la difficulté additionnelle de ne pas pouvoir dépendre de données créées manuellement. Nous proposons donc des modèles de contextes à variables latentes basés sur l'Allocation Dirichlet Latente (LDA). Ceux-ci seront combinés à la méthodes de vraisemblance de requête par modèles de langue. En évaluant le système résultant sur trois collections de la conférence TREC (Text REtrieval Conference), nous observons une amélioration proportionnelle moyenne de 12% du MAP et 23% du GMAP. Les gains se font surtout sur les requêtes difficiles, augmentant la stabilité des résultats. Ces expériences seraient la première application positive de techniques de DS sur des tâches de RI standard.
Resumo:
Du fait de la montée des périls environnementaux, le concept de résilience fait l’objet d’une attention croissante dans le champ du développement. Il a d’abord été exploré dans le champ des analyses systémiques, celui des systèmes socio-écologiques en particulier. Il convient toutefois, d’une part d’interroger la pertinence et la portée de ce concept au niveau microéconomique, d’autre part d’interroger les liens qui l’unissent au développement durable. Le cadre conceptuel proposé articule l’approche par les capabilités et l’analyse économique de la gestion des risques, permettant de mettre en avant les capacités d’action face aux risques et de réaction face aux chocs. Il conduit à envisager la possibilité de faire de la résilience une finalité d’un développement durable. Ceci soulève deux difficultés majeures, tenant à la complexité de l’analyse des capacités d’action individuelles, et à l’articulation de ces capacités avec des dynamiques collectives.
Resumo:
Les oligonucléotides (ONs) antisens présentent un fort potentiel en tant qu’agents thérapeutiques. Toutefois, leurs propriétés physicochimiques limitent leur utilisation en thérapie génique. Pour pallier aux divers obstacles, des systèmes de vectorisation, tels que les micelles polyioniques (PICMs), ont été développés. Grâce à leur structure unique, les micelles protégent l’ON contre une dégradation prématurée et le couplage d’un ligand à leur surface augmente leur spécificité et leur internalisation. Dans d’autres systèmes, un polymère adjuvant aux propriétés pH-sensibles peut être ajouté pour faciliter la sortie de l’endosome et augmenter l’efficacité de l’ON. L’objectif général de ce mémoire était de mettre au point des PICMs ternaires ciblées pour l’administration d’ONs. Ces micelles assureraient à la fois l’internalisation cellulaire de leur cargaison en interagissant avec des récepteurs cellulaires et sa fuite de l’endosome grâce à un mécanisme de déstabilisation de la membrane endosomale. Pour cela, des PICMs composées d’un copolymère cationique de type poly(éthylène glycol)-bloc-poly(méthacrylate d’(alkylamino)éthyle) et d’un copolymère d’acide méthacrylique ont été préparées. Les propriétés physicochimiques de ces vecteurs ont démontré qu’ils permettaient une condensation efficace de l’acide nucléique et ce, indépendamment de la nature du polymère cationique et de l’acide nucléique. Finalement, une approche de couplage par pont disulfure a été développée afin de greffer au copolymère un fragment d’anticorps dirigé contre les récepteurs de la transferrine. En conclusion, ces travaux démontrent la versatilité et le potentiel des PICMs ternaires en tant que vecteurs d’acide nucléique, et proposent une méthodologie de couplage d’un ligand afin de formuler des PICMs ciblées.
Resumo:
Les données sur l'utilisation des médicaments sont généralement recueillies dans la recherche clinique. Pourtant, aucune méthode normalisée pour les catégoriser n’existe, que ce soit pour la description des échantillons ou pour l'étude de l'utilisation des médicaments comme une variable. Cette étude a été conçue pour développer un système de classification simple, sur une base empirique, pour la catégorisation d'utilisation des médicaments. Nous avons utilisé l'analyse factorielle pour réduire le nombre de groupements de médicaments possible. Cette analyse a fait émerger un modèle de constellations de consommation de médicaments qui semble caractériser des groupes cliniques spécifiques. Pour illustrer le potentiel de la technique, nous avons appliqué ce système de classification des échantillons où les troubles du sommeil sont importants: syndrome de fatigue chronique et l'apnée du sommeil. Notre méthode de classification a généré 5 facteurs qui semblent adhérer de façon logique. Ils ont été nommés: Médicaments cardiovasculaire/syndrome métabolique, Médicaments pour le soulagement des symptômes, Médicaments psychotropes, Médicaments préventifs et Médicaments hormonaux. Nos résultats démontrent que le profil des médicaments varie selon l'échantillon clinique. Le profil de médicament associé aux participants apnéiques reflète les conditions de comorbidité connues parmi ce groupe clinique, et le profil de médicament associé au Syndrome de fatigue chronique semble refléter la perception commune de cette condition comme étant un trouble psychogène
Resumo:
La phagocytose est un processus cellulaire par lequel de larges particules sont internalisées dans une vésicule, le phagosome. Lorsque formé, le phagosome acquiert ses propriétés fonctionnelles à travers un processus complexe de maturation nommé la biogénèse du phagolysosome. Cette voie implique une série d’interactions rapides avec les organelles de l’appareil endocytaire permettant la transformation graduelle du phagosome nouvellement formé en phagolysosome à partir duquel la dégradation protéolytique s’effectue. Chez l’amibe Dictyostelium discoideum, la phagocytose est employée pour ingérer les bactéries de son environnement afin de se nourrir alors que les organismes multicellulaires utilisent la phagocytose dans un but immunitaire, où des cellules spécialisées nommées phagocytes internalisent, tuent et dégradent les pathogènes envahissant de l’organisme et constitue la base de l’immunité innée. Chez les vertébrés à mâchoire cependant, la transformation des mécanismes moléculaires du phagosome en une organelle perfectionnée pour l’apprêtement et la présentation de peptides antigéniques place cette organelle au centre de l’immunité innée et de l’immunité acquise. Malgré le rôle crucial auquel participe cette organelle dans la réponse immunitaire, il existe peu de détails sur la composition protéique et l’organisation fonctionnelles du phagosome. Afin d’approfondir notre compréhension des divers aspects qui relient l’immunité innée et l’immunité acquise, il devient essentiel d’élargir nos connaissances sur les fonctions moléculaire qui sont recrutées au phagosome. Le profilage par protéomique à haut débit de phagosomes isolés fut extrêmement utile dans la détermination de la composition moléculaire de cette organelle. Des études provenant de notre laboratoire ont révélé les premières listes protéiques identifiées à partir de phagosomes murins sans toutefois déterminer le ou les rôle(s) de ces protéines lors du processus de la phagocytose (Brunet et al, 2003; Garin et al, 2001). Au cours de la première étude de cette thèse (Stuart et al, 2007), nous avons entrepris la caractérisation fonctionnelle du protéome entier du phagosome de la drosophile en combinant diverses techniques d’analyses à haut débit (protéomique, réseaux d’intéractions protéique et ARN interférent). En utilisant cette stratégie, nous avons identifié 617 protéines phagosomales par spectrométrie de masse à partir desquelles nous avons accru cette liste en construisant des réseaux d’interactions protéine-protéine. La contribution de chaque protéine à l’internalisation de bactéries fut ensuite testée et validée par ARN interférent à haut débit et nous a amené à identifier un nouveau régulateur de la phagocytose, le complexe de l’exocyst. En appliquant ce modèle combinatoire de biologie systémique, nous démontrons la puissance et l’efficacité de cette approche dans l’étude de processus cellulaire complexe tout en créant un cadre à partir duquel il est possible d’approfondir nos connaissances sur les différents mécanismes de la phagocytose. Lors du 2e article de cette thèse (Boulais et al, 2010), nous avons entrepris la caractérisation moléculaire des étapes évolutives ayant contribué au remodelage des propriétés fonctionnelles de la phagocytose au cours de l’évolution. Pour ce faire, nous avons isolé des phagosomes à partir de trois organismes distants (l’amibe Dictyostelium discoideum, la mouche à fruit Drosophila melanogaster et la souris Mus musculus) qui utilisent la phagocytose à des fins différentes. En appliquant une approche protéomique à grande échelle pour identifier et comparer le protéome et phosphoprotéome des phagosomes de ces trois espèces, nous avons identifié un cœur protéique commun à partir duquel les fonctions immunitaires du phagosome se seraient développées. Au cours de ce développement fonctionnel, nos données indiquent que le protéome du phagosome fut largement remodelé lors de deux périodes de duplication de gènes coïncidant avec l’émergence de l’immunité innée et acquise. De plus, notre étude a aussi caractérisée en détail l’acquisition de nouvelles protéines ainsi que le remodelage significatif du phosphoprotéome du phagosome au niveau des constituants du cœur protéique ancien de cette organelle. Nous présentons donc la première étude approfondie des changements qui ont engendré la transformation d’un compartiment phagotrophe à une organelle entièrement apte pour la présentation antigénique.