283 resultados para Équation différentielle à délai
Resumo:
La cryptococcose chez les patients atteints du VIH-1 est principalement causée par Cryptococcus neoformans var. grubii tandis que Cryptococcus gattii infecte surtout les personnes immunocompétentes. Afin d’élucider les mécanismes causant la susceptibilité différentielle à l’égard de ces deux espèces de Cryptococcus dans le contexte de l’infection au VIH-1, nous avons utilisé un modèle novateur de la cryptococcose chez la souris transgénique CD4C/HIVMutA, qui exprime les gènes nef, env et rev du VIH-1. L’expression du transgène VIH-1 a augmenté le recrutement pulmonaire des macrophages alvéolaires mais a diminué celui des lymphocytes T CD4+ et CD8+ en réponse à l’infection par le C. neoformans ou le C. gattii. La production pulmonaire des chimiokines MCP-1 (CCL2) et RANTES (CCL5) était également réduite chez les souris transgéniques infectées par l’une ou l’autre de ces espèces de Cryptococcus. La production pulmonaire de MIP-1α, MIP-1β, TNF-α, TGF-β, IL-2, IL-4 et IL-13 était augmentée chez la souris infectée au C. neoformans comparativement à C. gattii. In vitro, les macrophages alvéolaires prélevés chez la souris Tg et stimulés par des agonistes ont produit davantage de MIP-1β, alors que les chimiokines MCP-1 et RANTES n’ont pas été détectées.
Resumo:
Grâce à leur flexibilité et à leur facilité d’installation, les réseaux maillés sans fil (WMNs) permettent un déploiement d’une infrastructure à faible coût. Ces réseaux étendent la couverture des réseaux filaires permettant, ainsi, une connexion n’importe quand et n’importe où. Toutefois, leur performance est dégradée par les interférences et la congestion. Ces derniers causent des pertes de paquets et une augmentation du délai de transmission d’une façon drastique. Dans cette thèse, nous nous intéressons au routage adaptatif et à la stabilité dans ce type de réseaux. Dans une première partie de la thèse, nous nous intéressons à la conception d’une métrique de routage et à la sélection des passerelles permettant d’améliorer la performance des WMNs. Dans ce contexte nous proposons un protocole de routage à la source basé sur une nouvelle métrique. Cette métrique permet non seulement de capturer certaines caractéristiques des liens tels que les interférences inter-flux et intra-flux, le taux de perte des paquets mais également la surcharge des passerelles. Les résultats numériques montrent que la performance de cette métrique est meilleure que celle des solutions proposées dans la littérature. Dans une deuxième partie de la thèse, nous nous intéressons à certaines zones critiques dans les WMNs. Ces zones se trouvent autour des passerelles qui connaissent une concentration plus élevé du trafic ; elles risquent de provoquer des interférences et des congestions. À cet égard, nous proposons un protocole de routage proactif et adaptatif basé sur l’apprentissage par renforcement et qui pénalise les liens de mauvaise qualité lorsqu’on s’approche des passerelles. Un chemin dont la qualité des liens autour d’une passerelle est meilleure sera plus favorisé que les autres chemins de moindre qualité. Nous utilisons l’algorithme de Q-learning pour mettre à jour dynamiquement les coûts des chemins, sélectionner les prochains nœuds pour faire suivre les paquets vers les passerelles choisies et explorer d’autres nœuds voisins. Les résultats numériques montrent que notre protocole distribué, présente de meilleurs résultats comparativement aux protocoles présentés dans la littérature. Dans une troisième partie de cette thèse, nous nous intéressons aux problèmes d’instabilité des réseaux maillés sans fil. En effet, l’instabilité se produit à cause des changements fréquents des routes qui sont causés par les variations instantanées des qualités des liens dues à la présence des interférences et de la congestion. Ainsi, après une analyse de l’instabilité, nous proposons d’utiliser le nombre de variations des chemins dans une table de routage comme indicateur de perturbation des réseaux et nous utilisons la fonction d’entropie, connue dans les mesures de l’incertitude et du désordre des systèmes, pour sélectionner les routes stables. Les résultats numériques montrent de meilleures performances de notre protocole en comparaison avec d’autres protocoles dans la littérature en termes de débit, délai, taux de perte des paquets et l’indice de Gini.
Resumo:
Le défi face aux changements climatiques ne consiste pas seulement à gérer les conséquences déjà existantes, mais aussi celles à venir. Les déplacements de population représentent sans aucun doute l’une de ces conséquences, pour laquelle nous devons réfléchir sans délai puisque les déplacements ont déjà débuté. Le Bangladesh est le symbole des déplacements de population reliés aux changements climatiques. Une configuration géographique propice aux désastres naturels, une densité de population élevée, une forte dépendance aux ressources naturelles et d’autres facteurs socio-économiques, constituent les raisons sous-jacentes à la vulnérabilité du Bangladesh. Les médias ont tôt fait d’alarmer la communauté sur les répercussions des changements climatiques sur la société civile et le droit international s’y attarde de façon plus sérieuse. De quelles protections bénéficient ces déplacés climatiques? Cette question fait d’ailleurs surgir de nouvelles problématiques juridiques. Nous nous rendrons vite à l’évidence que les déplacements, qu’ils soient à l’intérieur ou l’extérieur des frontières, ne sont susceptibles d’aucune protection internationale. Face à ce vide juridique, plusieurs propositions ont été envisagées et analysées par les chercheurs. Fuir ou rester : voici les deux choix de la population. Nous verrons que ces choix peuvent être largement influencés par les décisions gouvernementales. Cela nous amènera à nous questionner sur la perception du Bangladesh face à la migration climatique. Ce pays considère-t-il la migration comme une stratégie ou plutôt comme un échec à l’adaptation?
Resumo:
Ce mémoire présente une analyse indirecte détaillée des niveaux de la fécondité de la population canadienne au XIXe siècle. L’exploitation des recensements canadiens de 1852 et 1881 est rendue possible grâce au Programme de recherche en démographie historique (PRDH) constituant ainsi la source de données sur laquelle s'appuie ce mémoire. Une analyse critique du recensement canadien de 1852 établit qu’il est représentatif pour ce qui est de l’âge des individus, du sexe, de l’état matrimonial, du lieu de naissance et du type de maison habitée, malgré la destruction de près d’un tiers de ses manuscrits avant d’avoir été transposés sur microfilm. De plus, l’impact de l’absence totale ou partielle des données pour les villes est mitigé, car moins de 10 % de la population était établi en ville cette année-là. L’utilisation de micro-données censitaires permet d’élaborer différentes mesures de la fécondité, telles que le rapport enfants par femme et la méthode des enfants propres. Des résultats inédits sont d'ailleurs présentés, notamment à l’aide du recensement de 1852, car ces données n’ont pas encore été exploitées, permettant ainsi d’allonger dans le temps l’analyse de la fécondité.Une analyse différentielle du risque qu’ont les femmes mariées âgées entre 40 et 49 ans vivant avec un enfant de moins de 5 ans a démontré que la fécondité effective était plus élevée chez les femmes catholiques nées au Canada, appartenant au groupe d’âge plus jeune (40-44 ans), vivant en zone rurale et ayant un mari cultivateur. Nous concluons que ces associations sont évidentes autant en 1852 qu’en 1881.
Resumo:
Contexte : Pour les patients atteints d’une polyarthrite rhumatoïde débutante (PARD), l’utilisation de médicaments antirhumatismaux à longue durée d’action améliore les résultats pour les patients de manière significative. Les patients traités par un rhumatologue ont une plus grande probabilité de recevoir des traitements et donc d’avoir de meilleurs résultats de santé. Toutefois, les délais observés entre le début des symptômes et une première visite avec un rhumatologue sont souvent supérieurs à la recommandation de trois mois énoncée par les guides de pratiques. Au Québec, le temps d’attente pour voir un rhumatologue à la suite d’une demande de consultation est généralement long et contribue aux délais totaux. Objectifs : Nous avons évalué la capacité d’un programme d’accès rapide avec un triage effectué par une infirmière à correctement identifier les patients avec PARD et à réduire leur temps d’attente, dans le but d’améliorer le processus de soin. Méthodes : Une infirmière a évalué tous les nouveaux patients référés en 2009 et 2010 dans une clinique de rhumatologie située en banlieue de Montréal. Un niveau de priorité leur a été attribué sur la base du contenu de la demande de consultation, de l’information obtenue à la suite d’une entrevue téléphonique avec le patient et, si requis, d’un examen partiel des articulations. Les patients avec PARD, avec une arthrite inflammatoire non différentiée, ou atteints d’une autre pathologie rhumatologique aiguë étaient priorisés et obtenaient un rendez-vous le plus rapidement possible. Les principales mesures de résultat étudiées étaient la validité (sensibilité et spécificité) du triage pour les patients atteints de PARD ainsi que les délais entre la demande de consultation et la première visite avec un rhumatologue. Résultats : Parmi les 701 patients nouvellement référés, 65 ont eu un diagnostic final de PARD. Le triage a correctement identifié 85,9% de ces patients et a correctement identifié 87,2% des patients avec l’une des pathologies prioritaires. Le délai médian entre la demande de consultation et la première visite était de 22 jours pour les patients atteints de PARD et de 115 pour tous les autres. Discussion et conclusion : Ce programme d’accès rapide avec triage effectué par une infirmière a correctement identifié la plupart des patients atteints de PARD, lesquels ont pu être vus rapidement en consultation par le rhumatologue. Considérant qu’il s’agit d’un programme qui requiert beaucoup d’investissement de temps et de personnel, des enjeux de faisabilités doivent être résolus avant de pouvoir implanter un tel type de programme dans un système de soins de santé ayant des ressources très limitées.
Resumo:
Introduction & Objectifs : Pour assurer l’analgésie postopératoire, l’anesthésiste dispose, en plus des différentes classes de médicaments administrés par voie orale ou intraveineuse, de diverses techniques pour bloquer l’influx nerveux douloureux en administrant les anesthésiques locaux (AL) de manière centrale ou périphérique. La ropivacaïne (ROP), un AL à longue durée d’action, est un médicament de première intention partout dans le monde, en raison de sa grande efficacité et de son faible risque de toxicité. Contrairement à certains pays, la ROP n'est toujours pas indiquée au Canada pour la rachianesthésie (bloc central) en raison d'un manque de données probantes. Jusqu'à présent, les efforts de recherche ont essentiellement porté sur la sécurité ainsi que sur la durée d’action du médicament lorsqu’administré par voie spinale. De plus, les doses optimales de ROP pour l’anesthésie régionale périphérique ne sont pas encore précisément connues. La posologie devrait être adaptée au site d’administration ainsi qu’à l’intensité et la durée du stimulus produit par la chirurgie. Ultimement, cela permettrait aux cliniciens d’identifier le régime optimal en fonction des facteurs démographiques qui pourraient affecter la pharmacocinétique (PK) et la pharmacodynamie (PD) de l’AL (objectif global de ces travaux). Validation de la Méthode Analytique Manuscrit 1 : Une méthode analytique spécifique et sensible permettant de déterminer les concentrations plasmatiques de ROP a d’abord été optimisée et validée. Validation du Biomarqueur Manuscrit 2 : Nous avons ensuite mis au point et évalué la fiabilité d’une méthode quantitative basée sur la mesure du seuil de perception sensorielle (CPT) chez le volontaire sain. Ce test nécessite l’application d’un courant électrique transcutané qui augmente graduellement et qui, selon la fréquence choisie, est capable de stimuler spécifiquement les fibres nerveuses impliquées dans le cheminement de l’influx nerveux douloureux. Les résultats obtenus chez les volontaires sains indiquent que la mesure CPT est fiable, reproductible et permet de suivre l’évolution temporelle du bloc sensitif. Études cliniques Manuscrit 3 : Nous avons ensuite caractérisé, pendant plus de 72 h, l’absorption systémique de la ROP lorsqu’administrée pour un bloc du nerf fémoral chez 19 patients subissant une chirurgie du genou. Le modèle PK populationnel utilisé pour analyser nos résultats comporte une absorption biphasique durant laquelle une fraction de la dose administrée pénètre rapidement (temps d’absorption moyen : 27 min, IC % 19 – 38 min) dans le flux sanguin systémique pendant que l’autre partie, en provenance du site de dépôt, est redistribuée beaucoup plus lentement (demi-vie (T1/2) : 2.6 h, IC % 1.6 – 4.3 h) vers la circulation systémique. Une relation statistiquement significative entre l’âge de nos patients et la redistribution de l’AL suggère que la perméabilité tissulaire est augmentée avec l’âge. Manuscrit 4 : Une analyse PK-PD du comportement sensitif du bloc fémoral (CPT) a été effectuée. Le modèle développé a estimé à 20.2 ± 10.1 mg la quantité de ROP nécessaire au site d’action pour produire 90 % de l’effet maximal (AE90). À 2 X la AE90, le modèle prédit un début d’action de 23.4 ± 12.5 min et une durée de 22.9 ± 5.3 h. Il s’agit de la première étude ayant caractérisé le comportement sensitif d’un bloc nerveux périphérique. Manuscrit 5 : La troisième et dernière étude clinique a été conduite chez les patients qui devaient subir une chirurgie du genou sous rachianesthésie. Tout comme pour le bloc du nerf fémoral, le modèle PK le plus approprié pour nos données suggère que l’absorption systémique de la ROP à partir du liquide céphalo-rachidien est biphasique; c.à.d. une phase initiale (T1/2 : 49 min, IC %: 24 – 77 min) suivie (délai: 18 ± 2 min) d'une phase légèrement plus lente (T1/2 : 66 min, IC %: 36 – 97 min). L’effet maximal a été observé beaucoup plus rapidement, soit aux environs de 12.6 ± 4.9 min, avant de revenir aux valeurs de base 210 ± 55 min suivant l’administration de l’agent. Ces données ont permis d’estimer une AE50 de 7.3 ± 2.3 mg pour l'administration spinale. Conclusion : En somme, ces modèles peuvent être utilisés pour prédire l’évolution temporelle du bloc sensitif de l’anesthésie rachidienne et périphérique (fémorale), et par conséquent, optimiser l’utilisation clinique de la ROP en fonction des besoins des cliniciens, notamment en ce qui a trait à l’âge du patient.
Resumo:
L’intérêt marqué et simultané de plusieurs champs de recherche pour le développement des fonctions exécutives (FE) a permis de mettre en lumière le rôle primordial de ces fonctions dans plusieurs sphères du développement de la petite enfance jusqu’à l’âge adulte. Les mécanismes développementaux associés aux différences individuelles restent par ailleurs encore peu étudiés. Les deux articles empiriques qui constituent la thèse visent à documenter le rôle des comportements maternels observés en bas âge dans la prédiction des FE mesurées à l’âge préscolaire. Les deux articles s’inscrivent dans la foulée des travaux qui, selon une approche écologique (Bronfenbrenner, 1979), considèrent les effets d’interaction entre différents facteurs explicatifs pour mieux comprendre les mécanismes impliqués dans le développement de l’enfant. En ce sens, le premier article examine les interactions possibles entre le statut socioéconomique (SSE) de la famille et différentes dimensions du concept de sensibilité maternelle, dans la prédiction de deux dimensions des FE, soit les FE-conflit et les FE-inhibition. Dans le cadre de cette étude, 114 dyades mères-enfants ont participé à trois visites à domicile. Le SSE a été mesuré par questionnaire dans le cadre d’une première visite dans la famille lorsque les enfants avaient six mois, la sensibilité maternelle a été évaluée à 12 mois à partir du Tri de cartes de comportements maternels (Pederson & Moran, 1995) et les FE à 36 mois à partir d’une batterie de tâches choisie sur la base des orientations proposées par Carlson (2005). Le deuxième article explore, en se basant sur postulats de la Théorie de la susceptibilité différentielle (TSD), les possibles interactions entre différentes dimensions du concept de sensibilité maternelle et le tempérament de l’enfant, et ce également dans la prédiction des FE. Pour ce faire, 72 dyades ont également participé à trois visites à domicile. La sensibilité maternelle a été évaluée à 12 mois à partir du Tri de cartes de comportements maternels (Pederson & Moran, 1995), le tempérament à 15 mois à l’aide d’un questionnaire rempli par la mère (ICQ; Bates, Freeland, & Lounsbury, 1979) et les FE à 36 mois à partir de la même batterie de tâche (Carlson, 2005). Les résultats du premier article révèlent des interactions significatives entre le statut socioéconomique et certaines dimensions de comportements maternels, de telle sorte que des comportements maternels de meilleure qualité sont prédicteurs d’une meilleure performance aux tâches de FE, mais seulement chez les enfants provenant de familles relativement désavantagées sur le plan socioéconomique et essentiellement en ce qui concerne les FE-inhibition. Quant aux résultats du deuxième article, ils confirment les hypothèses de la Théorie de la susceptibilité différentielle, en révélant que les enfants ayant un tempérament difficile sont plus affectés par des comportements maternels hostiles, de même que par l’absence de comportements positifs et bénéficient davantage de la présence de comportements positifs et de l’absence de comportements négatifs, et ceci également au regard des FE-inhibition.
Resumo:
La fibrillation auriculaire (FA) est la forme d’arythmie la plus fréquente et représente environ un tiers des hospitalisations attribuables aux troubles du rythme cardiaque. Les mécanismes d’initiation et de maintenance de la FA sont complexes et multiples. Parmi ceux-ci, une contribution du système nerveux autonome a été identifiée mais son rôle exact demeure mal compris. Ce travail cible l’étude de la modulation induite par l’acétylcholine (ACh) sur l’initiation et le maintien de la FA, en utilisant un modèle de tissu bidimensionnel. La propagation de l’influx électrique sur ce tissu est décrite par une équation réaction-diffusion non-linéaire résolue sur un maillage rectangulaire avec une méthode de différences finies, et la cinétique d'ACh suit une évolution temporelle prédéfinie qui correspond à l’activation du système parasympathique. Plus de 4400 simulations ont été réalisées sur la base de 4 épisodes d’arythmies, 5 tailles différentes de région modulée par l’ACh, 10 concentrations d’ACh et 22 constantes de temps de libération et de dégradation d’ACh. La complexité de la dynamique des réentrées est décrite en fonction de la constante de temps qui représente le taux de variation d’ACh. Les résultats obtenus suggèrent que la stimulation vagale peut mener soit à une dynamique plus complexe des réentrées soit à l’arrêt de la FA en fonction des quatre paramètres étudiés. Ils démontrent qu’une décharge vagale rapide, représentée par des constantes de temps faibles combinées à une quantité suffisamment grande d’ACh, a une forte probabilité de briser la réentrée primaire provoquant une activité fibrillatoire. Cette activité est caractérisée par la création de plusieurs ondelettes à partir d’un rotor primaire sous l’effet de l’hétérogénéité du gradient de repolarisation causé par l’activité autonomique.
Resumo:
Au cours des dernières années, des méthodes non-invasives de stimulations permettant de moduler l’excitabilité des neurones suivant des lésions du système nerveux central ont été développées. Ces méthodes sont maintenant couramment utilisées pour étudier l’effet de l’inhibition du cortex contralésionnel sur la récupération motrice à la suite d’un accident vasculocérébral (AVC). Bien que plusieurs de ces études rapportent des résultats prometteurs, les paramètres permettant une récupération optimale demeurent encore inconnus. Chez les patients victimes d'un AVC, il est difficile de débuter les traitements rapidement et d'initier l’inhibition dans les heures suivant la lésion. L'impact de ce délai est toujours inconnu. De plus, aucune étude n’a jusqu’à maintenant évalué l’effet de la durée de l’inhibition sur la récupération du membre parétique. Dans le laboratoire du Dr Numa Dancause, nous avons utilisé un modèle bien établi de lésion ischémique chez le rat pour explorer ces questions. Nos objectifs étaient d’évaluer 1) si une inactivation de l’hémisphère contralésionnel initiée dans les heures qui suivent la lésion peut favoriser la récupération et 2) l’effet de la durée de l’inactivation sur la récupération du membre parétique. Suite à une lésion dans le cortex moteur induite par injections d’un vasoconstricteur, nous avons inactivé l’hémisphère contralésionnel à l’aide d’une pompe osmotique assurant l’infusion continue d’un agoniste du GABA (Muscimol). Dans différents groupes expérimentaux, nous avons inactivé l’hémisphère contralésionnel pour une durée de 3, 7 et 14 jours suivant la lésion. Dans un autre groupe, le Muscimol a été infusé pour 14 jours mais à un débit moindre de façon à pouvoir étudier le lien entre la fonction du membre non-parétique et la récupération du membre parétique. Les données comportementales de ces groupes ont été comparées à celles d’animaux ayant récupéré de façon spontanée d'une lésion similaire. Nos résultats indiquent que l’augmentation de la durée de l’inactivation (de 3 à 14 jours) accélère la récupération du membre parétique. De plus, les deux groupes ayant reçu une inactivation d'une durée de 14 jours ont montré une plus grande récupération fonctionnelle que le groupe n’ayant pas reçu d’inactivation de l’hémisphère contralésionnel, le groupe contrôle. Nos résultats suggèrent donc que l’inactivation de l’hémisphère contralésionnel initiée dans les heures suivant la lésion favorise la récupération du membre parétique. La durée d’inhibition la plus efficace (14 jours) dans notre modèle animal est beaucoup plus longues que celles utilisées jusqu’à maintenant chez l’homme. Bien qu’il soit difficile d’extrapoler la durée idéale à utiliser chez les patients à partir de nos données, nos résultats suggèrent que des traitements de plus longue durée pourraient être bénéfiques. Finalement, un message clair ressort de nos études sur la récupération fonctionnelle après un AVC: dans le développement de traitements basés sur l’inhibition de l’hémisphère contralésionnel, la durée de l’inactivation est un facteur clef à considérer.
Resumo:
On révise les prérequis de géométrie différentielle nécessaires à une première approche de la théorie de la quantification géométrique, c'est-à-dire des notions de base en géométrie symplectique, des notions de groupes et d'algèbres de Lie, d'action d'un groupe de Lie, de G-fibré principal, de connexion, de fibré associé et de structure presque-complexe. Ceci mène à une étude plus approfondie des fibrés en droites hermitiens, dont une condition d'existence de fibré préquantique sur une variété symplectique. Avec ces outils en main, nous commençons ensuite l'étude de la quantification géométrique, étape par étape. Nous introduisons la théorie de la préquantification, i.e. la construction des opérateurs associés à des observables classiques et la construction d'un espace de Hilbert. Des problèmes majeurs font surface lors de l'application concrète de la préquantification : les opérateurs ne sont pas ceux attendus par la première quantification et l'espace de Hilbert formé est trop gros. Une première correction, la polarisation, élimine quelques problèmes, mais limite grandement l'ensemble des observables classiques que l'on peut quantifier. Ce mémoire n'est pas un survol complet de la quantification géométrique, et cela n'est pas son but. Il ne couvre ni la correction métaplectique, ni le noyau BKS. Il est un à-côté de lecture pour ceux qui s'introduisent à la quantification géométrique. D'une part, il introduit des concepts de géométrie différentielle pris pour acquis dans (Woodhouse [21]) et (Sniatycki [18]), i.e. G-fibrés principaux et fibrés associés. Enfin, il rajoute des détails à quelques preuves rapides données dans ces deux dernières références.
Resumo:
Nous étudions la gestion de centres d'appels multi-compétences, ayant plusieurs types d'appels et groupes d'agents. Un centre d'appels est un système de files d'attente très complexe, où il faut généralement utiliser un simulateur pour évaluer ses performances. Tout d'abord, nous développons un simulateur de centres d'appels basé sur la simulation d'une chaîne de Markov en temps continu (CMTC), qui est plus rapide que la simulation conventionnelle par événements discrets. À l'aide d'une méthode d'uniformisation de la CMTC, le simulateur simule la chaîne de Markov en temps discret imbriquée de la CMTC. Nous proposons des stratégies pour utiliser efficacement ce simulateur dans l'optimisation de l'affectation des agents. En particulier, nous étudions l'utilisation des variables aléatoires communes. Deuxièmement, nous optimisons les horaires des agents sur plusieurs périodes en proposant un algorithme basé sur des coupes de sous-gradients et la simulation. Ce problème est généralement trop grand pour être optimisé par la programmation en nombres entiers. Alors, nous relaxons l'intégralité des variables et nous proposons des méthodes pour arrondir les solutions. Nous présentons une recherche locale pour améliorer la solution finale. Ensuite, nous étudions l'optimisation du routage des appels aux agents. Nous proposons une nouvelle politique de routage basé sur des poids, les temps d'attente des appels, et les temps d'inoccupation des agents ou le nombre d'agents libres. Nous développons un algorithme génétique modifié pour optimiser les paramètres de routage. Au lieu d'effectuer des mutations ou des croisements, cet algorithme optimise les paramètres des lois de probabilité qui génèrent la population de solutions. Par la suite, nous développons un algorithme d'affectation des agents basé sur l'agrégation, la théorie des files d'attente et la probabilité de délai. Cet algorithme heuristique est rapide, car il n'emploie pas la simulation. La contrainte sur le niveau de service est convertie en une contrainte sur la probabilité de délai. Par après, nous proposons une variante d'un modèle de CMTC basé sur le temps d'attente du client à la tête de la file. Et finalement, nous présentons une extension d'un algorithme de coupe pour l'optimisation stochastique avec recours de l'affectation des agents dans un centre d'appels multi-compétences.
Resumo:
Les diagnostics cliniques des maladies cardio-vasculaires sont principalement effectués à l’aide d’échographies Doppler-couleur malgré ses restrictions : mesures de vélocité dépendantes de l’angle ainsi qu’une fréquence d’images plus faible à cause de focalisation traditionnelle. Deux études, utilisant des approches différentes, adressent ces restrictions en utilisant l’imagerie à onde-plane, post-traitée avec des méthodes de délai et sommation et d’autocorrélation. L’objectif de la présente étude est de ré-implémenté ces méthodes pour analyser certains paramètres qui affecte la précision des estimations de la vélocité du flux sanguin en utilisant le Doppler vectoriel 2D. À l’aide d’expériences in vitro sur des flux paraboliques stationnaires effectuées avec un système Verasonics, l’impact de quatre paramètres sur la précision de la cartographie a été évalué : le nombre d’inclinaisons par orientation, la longueur d’ensemble pour les images à orientation unique, le nombre de cycles par pulsation, ainsi que l’angle de l’orientation pour différents flux. Les valeurs optimales sont de 7 inclinaisons par orientation, une orientation de ±15° avec 6 cycles par pulsation. La précision de la reconstruction est comparable à l’échographie Doppler conventionnelle, tout en ayant une fréquence d’image 10 à 20 fois supérieure, permettant une meilleure caractérisation des transitions rapides qui requiert une résolution temporelle élevée.
Resumo:
Projet réalisé en cotutelle avec Jacques Brodeur et Les Shipp
Resumo:
Il a été démontré que la torsion des têtes métatarsiennes est influencée par le mode de locomotion chez les primates et peut être utilisée pour déterminer la présence ou non d’une arche longitudinale chez les ancêtres hominines. Chez l’humain moderne, l’arche longitudinale rend le pied plus inversé que chez les grands singes, provoquant un léger basculement de l’axe dorsoplantaire de l’articulation proximale des métatarses. Ainsi, les têtes métatarsiennes subissent une torsion par rapport à l’axe de la diaphyse pour que leur surface plantaire reste parallèle au sol. Comme les femmes ont une arche longitudinale plus haute que les hommes et comme le port du soulier à semelles rigides provoque des changements morphologiques au niveau du pied, rendant l’arche longitudinale plus haute et l’hallux moins divergeant, il est attendu que la torsion métatarsienne soit différente selon le sexe et le type de soulier porté. Ce mémoire examine donc l’effet du contexte environnemental du pied et de la plasticité de la torsion des têtes métatarsiennes en comparant différentes populations humaines. L’échantillon disponible pour cette étude est constitué de 166 individus provenant de 18 sites archéologiques différents comprenant 57 hommes, 35 femmes et 74 individus de sexe indéterminé qui ont été divisés en quatre grands groupes : Amérindiens, Inuits, Militaires et Euro-canadiens. Il n’y a aucune différence de torsion entre les hommes et les femmes, ce qui suggère que la différence de hauteur de l’arche longitudinale entre les hommes et les femmes n’est pas assez importante pour être perçues au niveau de la torsion des têtes métatarsiennes. La topographie ne semble pas provoquer assez de modifications au niveau du pied pour provoquer une torsion différentielle des têtes métatarsiennes. Cependant, la surface du sol, plat ou accidenté, pourrait être un facteur modifiant ce trait. Finalement, le port de souliers constrictif à semelles dures comparativement aux souliers souples, tels les mocassins, provoque une torsion différentielle des têtes métatarsiennes. Les individus chaussant des souliers à semelles souples ont un premier métatarsien présentant une plus grande éversion et un troisième, quatrième et cinquième métatarsien présentant une plus petite éversion comparativement aux individus chaussant des souliers constrictifs. Ces résultats viennent appuyer l’hypothèse de la capacité plastique de la torsion des têtes métatarsiennes.
Resumo:
Le méthotrexate (MTX), un agent anti-cancéreux fréquemment utilisé en chimiothérapie, requiert généralement un suivi thérapeutique de la médication (Therapeutic Drug Monitoring, TDM) pour surveiller son niveau sanguin chez le patient afin de maximiser son efficacité tout en limitant ses effets secondaires. Malgré la fenêtre thérapeutique étroite entre l’efficacité et la toxicité, le MTX reste, à ce jour, un des agents anti-cancéreux les plus utilisés au monde. Les techniques analytiques existantes pour le TDM du MTX sont coûteuses, requièrent temps et efforts, sans nécessairement fournir promptement les résultats dans le délai requis. Afin d’accélérer le processus de dosage du MTX en TDM, une stratégie a été proposée basée sur un essai compétitif caractérisé principalement par le couplage plasmonique d’une surface métallique et de nanoparticules d’or. Plus précisément, l’essai quantitatif exploite la réaction de compétition entre le MTX et une nanoparticule d’or fonctionnalisée avec l’acide folique (FA-AuNP) ayant une affinité pour un récepteur moléculaire, la réductase humaine de dihydrofolate (hDHFR), une enzyme associée aux maladies prolifératives. Le MTX libre mixé avec les FA-AuNP, entre en compétition pour les sites de liaison de hDHFR immobilisés sur une surface active en SPR ou libres en solution. Par la suite, les FA-AuNP liées au hDHFR fournissent une amplification du signal qui est inversement proportionnelle à la concentration de MTX. La résonance des plasmons de surface (SPR) est généralement utilisée comme une technique spectroscopique pour l’interrogation des interactions biomoléculaires. Les instruments SPR commerciaux sont généralement retrouvés dans les grands laboratoires d’analyse. Ils sont également encombrants, coûteux et manquent de sélectivité dans les analyses en matrice complexe. De plus, ceux-ci n’ont pas encore démontré de l’adaptabilité en milieu clinique. Par ailleurs, les analyses SPR des petites molécules comme les médicaments n’ont pas été explorés de manière intensive dû au défi posé par le manque de la sensibilité de la technique pour cette classe de molécules. Les développements récents en science des matériaux et chimie de surfaces exploitant l’intégration des nanoparticules d’or pour l’amplification de la réponse SPR et la chimie de surface peptidique ont démontré le potentiel de franchir les limites posées par le manque de sensibilité et l’adsorption non-spécifique pour les analyses directes dans les milieux biologiques. Ces nouveaux concepts de la technologie SPR seront incorporés à un système SPR miniaturisé et compact pour exécuter des analyses rapides, fiables et sensibles pour le suivi du niveau du MTX dans le sérum de patients durant les traitements de chimiothérapie. L’objectif de cette thèse est d’explorer différentes stratégies pour améliorer l’analyse des médicaments dans les milieux complexes par les biocapteurs SPR et de mettre en perspective le potentiel des biocapteurs SPR comme un outil utile pour le TDM dans le laboratoire clinique ou au chevet du patient. Pour atteindre ces objectifs, un essai compétitif colorimétrique basé sur la résonance des plasmons de surface localisée (LSPR) pour le MTX fut établi avec des nanoparticules d’or marquées avec du FA. Ensuite, cet essai compétitif colorimétrique en solution fut adapté à une plateforme SPR. Pour les deux essais développés, la sensibilité, sélectivité, limite de détection, l’optimisation de la gamme dynamique et l’analyse du MTX dans les milieux complexes ont été inspectés. De plus, le prototype de la plateforme SPR miniaturisée fut validé par sa performance équivalente aux systèmes SPR existants ainsi que son utilité pour analyser les échantillons cliniques des patients sous chimiothérapie du MTX. Les concentrations de MTX obtenues par le prototype furent comparées avec des techniques standards, soit un essai immunologique basé sur la polarisation en fluorescence (FPIA) et la chromatographie liquide couplée avec de la spectrométrie de masse en tandem (LC-MS/MS) pour valider l’utilité du prototype comme un outil clinique pour les tests rapides de quantification du MTX. En dernier lieu, le déploiement du prototype à un laboratoire de biochimie dans un hôpital démontre l’énorme potentiel des biocapteurs SPR pour utilisation en milieux clinique.