416 resultados para Commande optimale


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : La douleur chronique non cancéreuse (DCNC) est prévalente, notamment en première ligne où l’on traite la plupart des maladies chroniques. Cette étude de cohorte vise à décrire l’usage des analgésiques, la prévalence et le traitement des effets secondaires des analgésiques utilisés, la satisfaction ainsi que les croyances et attitudes face à la douleur et son traitement chez des patients souffrant de DCNC et suivis en première ligne. Méthodologie : Des patients souffrant de DCNC (douleur qui dure depuis six mois et plus), ressentie au minimum deux fois par semaine avec une intensité d’au moins 4 sur une échelle de 0 à 10 (10 = la pire douleur possible) et qui possèdent une ordonnance active d’un médecin de famille pour un médicament contre la douleur, ont été recrutés à travers le Québec. Ils ont complété une entrevue téléphonique et un questionnaire auto-administré afin de documenter les caractéristiques de leur douleur, son impact psychosocial et émotionnel ainsi que leur satisfaction et croyances face à la douleur et son traitement. L’information concernant la pharmacothérapie reçue a été collectée en utilisant les banques de données administratives de la Régie d’assurance maladie du Québec et les dossierspatients des pharmacies communautaires. Résultats : Les 486 patients qui ont participé à l’étude avaient une moyenne d’âge de 58,4 ans. Ils ont rapporté une douleur qui dure en moyenne depuis 11,7 ans évaluée à 6,5 sur une échelle de 0 à 10. Sur la période d’une année, 52,9% des patients ont reçu des analgésiques prescrits par deux ou trois médecins de famille. Les analgésiques les plus dispensés étaient les anti-inflammatoires non stéroïdiens (72,2%) et les opioïdes (65,6%). Bien que 90% des patients ont rapporté des effets gastro-intestinaux, les proportions de ceux n’ayant pas reçu de médicaments pour soulager la constipation ou les nausées et/ou vomissements étaient respectivement 36,4% et 54,4%. Le niveau de satisfaction était faible, notamment face à l’information reçue concernant la douleur et son traitement. La peur des effets néfastes des analgésiques constitue la barrière face à l’optimisation de la pharmacothérapie de la douleur la plus souvent rapportée par les patients. Conclusion : En première ligne, la prise en charge de la douleur chronique non cancéreuse modérée à sévère paraît sous-optimale. Elle implique différents médecins de famille suggérant un manque de cohérence et de continuité. Les effets secondaires aux analgésiques sont prévalents et souvent non traités; la satisfaction est faible et les patients paraissent réticents à prendre les médicaments contre la douleur. Ces résultats indiquent clairement la nécessité d’optimiser la pharmacothérapie de ces patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'insuffisance cardiaque est une maladie à grande incidence dont le traitement définitif est difficile. Les pompes d'assistance ventriculaire ont été proposées comme thérapie alternative à long terme, mais la technologie est relativement jeune et selon son design, axial ou centrifuge, le dispositif favorise soit l'hémolyse, soit la stagnation de l'écoulement sanguin. Les pompes à écoulement mixte, combinant certaines propriétés des deux types, ont été proposées comme solution intermédiaire. Pour évaluer leurs performances, nous avons effectué des comparaisons numériques entre huit pompes, deux axiales, deux centrifuges, et quatre mixtes, en employant un modèle Windkessel du système cardiovasculaire avec paramètres optimisés pour l'insuffisance cardiaque résolu avec une méthode Radau IIA3, une méthode de résolution de système d'équations différentielles ordinaires L-stable appartenant à la famille des méthodes Runge-Kutta implicites. Nos résultats semblent suggérer que les pompes d'assistance mixtes ne démontrent qu'un léger avantage comparativement aux autres types en terme de performance optimale dans le cas de l'insuffisance cardiaque, mais il faudrait effectuer plus d'essais numériques avec un modèle plus complet, entre autres avec contrôles nerveux implémentés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En 1997, dans un souci de justice sociale et de solidarité entre tous les québécois, le gouvernement a instauré un Régime général d’assurance médicaments (RGAM) devant permettre de fournir à moindre coût et de manière équitable, des médicaments prescrits assurant une meilleure prise en charge de la maladie des individus. Depuis sa mise en place, le rythme soutenu d’évolution des coûts des médicaments remboursés par le Régime est le sujet d’un nombre croissant de débats. Le Québec ne fait pas figure d’exception car au cours des dernières décennies, la croissance des dépenses de médicaments des régimes d’assurance médicaments des pays industrialisés a connu un rythme de progression élevé, cela malgré l’instauration successive de mécanismes de régulation ciblant une utilisation optimale des médicaments et un meilleur contrôle de la trajectoire de leurs dépenses. La recherche propose une réflexion sur les cadres communs d’action dans lesquels ces outils de régulation sont implantés et évoluent. Elle s’intéresse à l’ensemble des facteurs relationnels et contextuels qui les constituent. Le devis de recherche s’appuie sur une étude de cas unique qu’est le processus menant à l’utilisation du médicament prescrit couvert par le RGAM. Il se compose de trois unités d’analyse identifiées comme étant des cibles importantes de régulation : l’inscription du médicament à la liste du RGAM, la prescription et l’accès au médicament couvert par le Régime. La perspective conceptuelle retenue est celle de l’analyse stratégique de Crozier et Friedberg (1987). La démarche analytique s’appuie sur des entrevues réalisées auprès des régulateurs, de fabricants de médicaments brevetés et de génériques, de médecins, de pharmaciens et de patients impliqués dans l’utilisation des médicaments remboursés par le RGAM et sur une revue du cadre réglementaire concernant ces acteurs, le médicament d’ordonnance et le RGAM. La recherche décrit et analyse la structuration du processus menant à l’utilisation du médicament couvert par le RGAM. Elle conduit au développement d’un construit organisationnel- le système d’action concret- fondé sur les interdépendances des cinq groupes d’acteurs et les relations de pouvoir qu’ils entretiennent entre eux. Ceux-ci évoluent dans des contextes organisationnels singuliers constitués d’enjeux, de stratégies et de ressources. Ils développent diverses stratégies pour accroître leurs possibilités d’action (capacités stratégiques) face aux problèmes qu’ils ont à résoudre. Les capacités stratégiques, inégales entre les groupes d’acteurs, découlent des relations de pouvoir qu’ils exercent entre eux et les amènent à occuper des positions différentes dans le système d’action concret. La recherche démontre qu’en fonction des capacités stratégiques dont ils disposent, les acteurs sont portés à s’approprier certaines règles en tentant de les influencer, de les contourner ou de ne pas les respecter. La connaissance empirique des cadres communs d’action permet d’établir les bases d’un système d’action concret dans un contexte de « phénomène organisation » (Friedberg, 1997). Cette connaissance d’une part, établit que les retombées de certaines stratégies d’acteurs peuvent s’avérer peu compatibles avec les objectifs du RGAM et, d’autre part, pose les limites de certains mécanismes de régulation en vigueur tout en questionnant les façons de concevoir la régulation dans un système complexe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce papier utilise les réseaux de neurones avec un algorithme incrémental comme outil de sélection des facteurs de risques les plus pertinents dans la maladie du cancer du sein. Les résultats témoignent de la pertinence de l’approche neuronale avec un algorithme incrémentale dans ce domaine de recherche. A partir d’un échantillon de 248 patientes atteintes par cette maladie, il nous a été possible de déterminer la combinaison optimale des facteurs permettant d’atteindre une bonne performance prédictive du type de tumeur maligne et bénigne.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilisation d’une méthode d’assimilation de données, associée à un modèle de convection anélastique, nous permet la reconstruction des structures physiques d’une partie de la zone convective située en dessous d’une région solaire active. Les résultats obtenus nous informent sur les processus d’émergence des tubes de champ magnétique au travers de la zone convective ainsi que sur les mécanismes de formation des régions actives. Les données solaires utilisées proviennent de l’instrument MDI à bord de l’observatoire spatial SOHO et concernent principalement la région active AR9077 lors de l’ ́évènement du “jour de la Bastille”, le 14 juillet 2000. Cet évènement a conduit à l’avènement d’une éruption solaire, suivie par une importante éjection de masse coronale. Les données assimilées (magnétogrammes, cartes de températures et de vitesses verticales) couvrent une surface de 175 méga-mètres de coté acquises au niveau photosphérique. La méthode d’assimilation de données employée est le “coup de coude direct et rétrograde”, une méthode de relaxation Newtonienne similaire à la méthode “quasi-linéaire inverse 3D”. Elle présente l’originalité de ne pas nécessiter le calcul des équations adjointes au modèle physique. Aussi, la simplicité de la méthode est un avantage numérique conséquent. Notre étude montre au travers d’un test simple l’applicabilité de cette méthode à un modèle de convection utilisé dans le cadre de l’approximation anélastique. Nous montrons ainsi l’efficacité de cette méthode et révélons son potentiel pour l’assimilation de données solaires. Afin d’assurer l’unicité mathématique de la solution obtenue nous imposons une régularisation dans tout le domaine simulé. Nous montrons enfin que l’intérêt de la méthode employée ne se limite pas à la reconstruction des structures convectives, mais qu’elle permet également l’interpolation optimale des magnétogrammes photosphériques, voir même la prédiction de leur évolution temporelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse comporte trois essais en microéconomie appliquée. En utilisant des modèles d’apprentissage (learning) et d’externalité de réseau, elle étudie le comportement des agents économiques dans différentes situations. Le premier essai de la thèse se penche sur la question de l’utilisation des ressources naturelles en situation d’incertitude et d’apprentissage (learning). Plusieurs auteurs ont abordé le sujet, mais ici, nous étudions un modèle d’apprentissage dans lequel les agents qui consomment la ressource ne formulent pas les mêmes croyances a priori. Le deuxième essai aborde le problème générique auquel fait face, par exemple, un fonds de recherche désirant choisir les meilleurs parmi plusieurs chercheurs de différentes générations et de différentes expériences. Le troisième essai étudie un modèle particulier d’organisation d’entreprise dénommé le marketing multiniveau (multi-level marketing). Le premier chapitre est intitulé "Renewable Resource Consumption in a Learning Environment with Heterogeneous beliefs". Nous y avons utilisé un modèle d’apprentissage avec croyances hétérogènes pour étudier l’exploitation d’une ressource naturelle en situation d’incertitude. Il faut distinguer ici deux types d’apprentissage : le adaptive learning et le learning proprement dit. Ces deux termes ont été empruntés à Koulovatianos et al (2009). Nous avons montré que, en comparaison avec le adaptive learning, le learning a un impact négatif sur la consommation totale par tous les exploitants de la ressource. Mais individuellement certains exploitants peuvent consommer plus la ressource en learning qu’en adaptive learning. En effet, en learning, les consommateurs font face à deux types d’incitations à ne pas consommer la ressource (et donc à investir) : l’incitation propre qui a toujours un effet négatif sur la consommation de la ressource et l’incitation hétérogène dont l’effet peut être positif ou négatif. L’effet global du learning sur la consommation individuelle dépend donc du signe et de l’ampleur de l’incitation hétérogène. Par ailleurs, en utilisant les variations absolues et relatives de la consommation suite à un changement des croyances, il ressort que les exploitants ont tendance à converger vers une décision commune. Le second chapitre est intitulé "A Perpetual Search for Talent across Overlapping Generations". Avec un modèle dynamique à générations imbriquées, nous avons étudié iv comment un Fonds de recherche devra procéder pour sélectionner les meilleurs chercheurs à financer. Les chercheurs n’ont pas la même "ancienneté" dans l’activité de recherche. Pour une décision optimale, le Fonds de recherche doit se baser à la fois sur l’ancienneté et les travaux passés des chercheurs ayant soumis une demande de subvention de recherche. Il doit être plus favorable aux jeunes chercheurs quant aux exigences à satisfaire pour être financé. Ce travail est également une contribution à l’analyse des Bandit Problems. Ici, au lieu de tenter de calculer un indice, nous proposons de classer et d’éliminer progressivement les chercheurs en les comparant deux à deux. Le troisième chapitre est intitulé "Paradox about the Multi-Level Marketing (MLM)". Depuis quelques décennies, on rencontre de plus en plus une forme particulière d’entreprises dans lesquelles le produit est commercialisé par le biais de distributeurs. Chaque distributeur peut vendre le produit et/ou recruter d’autres distributeurs pour l’entreprise. Il réalise des profits sur ses propres ventes et reçoit aussi des commissions sur la vente des distributeurs qu’il aura recrutés. Il s’agit du marketing multi-niveau (multi-level marketing, MLM). La structure de ces types d’entreprise est souvent qualifiée par certaines critiques de système pyramidal, d’escroquerie et donc insoutenable. Mais les promoteurs des marketing multi-niveau rejettent ces allégations en avançant que le but des MLMs est de vendre et non de recruter. Les gains et les règles de jeu sont tels que les distributeurs ont plus incitation à vendre le produit qu’à recruter. Toutefois, si cette argumentation des promoteurs de MLMs est valide, un paradoxe apparaît. Pourquoi un distributeur qui désire vraiment vendre le produit et réaliser un gain recruterait-il d’autres individus qui viendront opérer sur le même marché que lui? Comment comprendre le fait qu’un agent puisse recruter des personnes qui pourraient devenir ses concurrents, alors qu’il est déjà établi que tout entrepreneur évite et même combat la concurrence. C’est à ce type de question que s’intéresse ce chapitre. Pour expliquer ce paradoxe, nous avons utilisé la structure intrinsèque des organisations MLM. En réalité, pour être capable de bien vendre, le distributeur devra recruter. Les commissions perçues avec le recrutement donnent un pouvoir de vente en ce sens qu’elles permettent au recruteur d’être capable de proposer un prix compétitif pour le produit qu’il désire vendre. Par ailleurs, les MLMs ont une structure semblable à celle des multi-sided markets au sens de Rochet et Tirole (2003, 2006) et Weyl (2010). Le recrutement a un effet externe sur la vente et la vente a un effet externe sur le recrutement, et tout cela est géré par le promoteur de l’organisation. Ainsi, si le promoteur ne tient pas compte de ces externalités dans la fixation des différentes commissions, les agents peuvent se tourner plus ou moins vers le recrutement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des Sciences Infirmières En vue de l’obtention du grade de Maîtrise ès Sciences (M. Sc.) Option formation en sciences infirmière.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail d'intégration réalisé dans le cadre du cours PHT-6113.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Traditionnellement associée à la reproduction féminine, l'ocytocine (OT), une hormone peptidique synthétisée par les noyaux paraventriculaire et supraoptique de l'hypothalamus et sécrétée par l'hypophyse postérieure (neurohypophyse), a été récemment revue et a été démontrée avoir plusieurs nouveaux rôles dans le système cardio-vasculaire. En effet, notre laboratoire a montré que l’OT peut induire la différenciation des cellules souches embryonnaires (CSE) en cardiomyocytes (CM) fonctionnels. À l’aide du modèle cellulaire embryonnaire carcinomateux de souris P19, il a été démontré que ce processus survenait suite à la libération de la guanosine monophosphate cyclique (GMPc) dépendante du monoxyde d’azote. De même, il est connu que le peptide natriurétique auriculaire (ANP), un peptide produit, stocké et sécrété par les myocytes cardiaques, peut aussi induire la production du GMPc. De nombreuses études ont démontré que le cœur ayant subi un infarctus pouvait être régénéré à partir d’une population isolée de cellules souches et progénitrices transplantées. Une de ces populations de cellules, fréquemment isolées à partir d'organes provenant d'animaux aux stades de développement embryonnaire et adulte, appelée « Side Population » (SP), sont identifiées par cytométrie en flux (FACS) comme une population de cellules non marquées par le colorant fluorescent Hoechst 33342 (Ho). Les cellules SP expriment des protéines de transport spécifiques, de la famille ATP-binding cassette, qui ont pour rôle de transporter activement le colorant fluorescent Ho de leur cytoplasme. La sous-population de cellules SP isolée du cœur affiche un potentiel de différenciation cardiaque amélioré en réponse à un traitement avec l’OT. Récemment, l'hétérogénéité phénotypique et fonctionnelle des CSE a été mise en évidence, et cela a été corrélé avec la présence de sous-populations cellulaires ressemblant beaucoup aux cellules SP issues du cœur. Puisque l’ANP peut induire la production du GMPc et qu’il a été démontré que la différenciation cardiaque était médiée par la production du GMPc, alors nous émettons l'hypothèse selon laquelle l’ANP pourrait induire la différenciation cardiaque. Étant donné que les CSE sont composés d’un mélange de différents types cellulaires alors nous émettons aussi l’hypothèse selon laquelle l’utilisation d’une sous-population de CSE plus homogène renforcerait le potentiel de différenciation de l'ANP. Méthodes : Les SP ont été isolées des cellules P19 par FACS en utilisant la méthode d’exclusion du colorant fluorescent Ho. Puis, leur phénotype a été caractérisé par immunofluorescence (IF) pour les marqueurs de l’état indifférencié, d’auto-renouvellement et de pluripotence octamer-binding transcription factor 4 (OCT4) et stage-specific embryonic antigen-1 (SSEA1). Ensuite, la dose pharmacologique optimale d’ANP a été déterminée via des tests de cytotoxicité sur des cellules P19 (MTT assay). Pour induire la différenciation en cardiomyocytes, des cellules à l’état de sphéroïdes ont été formées à l’aide de la technique du « Hanging-Drop » sous la stimulation de l’ANP pendant 5 jours. Puis, des cryosections ont été faites dans les sphéroïdes afin de mettre en évidence la présence de marqueurs de cellules cardiaques progénitrices tels que GATA4, Nkx2.5 et un marqueur mitochondrial spécifique Tom22. Ensuite, les cellules SP P19 ont été stimulées dans les sphéroïdes cellulaires par le traitement avec de l'ANP (10-7 M) ou de l’OT (10-7 M), de l’antagoniste spécifique du guanylate cyclase particulé (GCp) A71915 (10-6 M), ainsi que la combinaison des inducteurs OT+ANP, OT+A71915, ANP+A71915. Après la mise en culture, la différenciation en cardiomyocytes a été identifié par l’apparition de colonies de cellules battantes caractéristiques des cellules cardiaques, par la détermination du phénotype cellulaire par IF, et enfin par l’extraction d'ARN et de protéines qui ont été utilisés pour le dosage du GMPc par RIA, l’expression des ARNm par RT-PCR et l’expression des protéines par immunobuvardage de type western. Résultats : Les sphéroïdes obtenus à l’aide de la technique du « Hanging-Drop » ont montré une hausse modeste de l’expression des ARNm suivants : OTR, ANP et GATA4 comparativement aux cellules cultivées en monocouches. Les sphéroïdes induits par l’ANP ont présenté une augmentation significative des facteurs de transcription cardiaque GATA4 et Nkx2.5 ainsi qu’un plus grand nombre de mitochondries caractérisé par une plus grande présence de Tom22. De plus, L’ANP a induit l’apparition de colonies de cellules battantes du jour 7 (stade précoce) au jour 14 (stade mature) de façon presque similaire à l’OT. Cependant, la combinaison de l’ANP avec l’OT n’a pas induit de colonies de cellules battantes suggérant un effet opposé à celui de l’OT. Par IF, nous avons quantifié (nombre de cellules positives) et caractérisé, du jour 6 au jour 14 de différenciation, le phénotype cardiaque de nos cellules en utilisant les marqueurs suivants : Troponine T Cardiaque, ANP, Connexines 40 et 43, l’isoforme ventriculaire de la chaîne légère de myosine (MLC-2v), OTR. Les SP différenciées sous la stimulation de l’ANP ont montré une augmentation significative du GMPc intracellulaire comparé aux cellules non différenciées. À notre grande surprise, l’antagoniste A71915 a induit une plus grande apparition de colonies de cellules battantes comparativement à l’OT et l’ANP à un jour précoce de différenciation cardiaque et l’ajout de l’OT ou de l’ANP a potentialisé ses effets, augmentant encore plus la proportion de colonies de cellules battantes. De plus, la taille des colonies de cellules battantes était encore plus importante que sous la simple stimulation de l’OT ou de l’ANP. Les analyses radioimmunologiques dans les cellules SP P19 stimulés avec l’ANP, A71915 et la combinaison des deux pendant 15min, 30min et 60min a montré que l’ANP stimule significativement la production du GMPc, cependant A71915 n’abolit pas les effets de l’ANP et celui-ci au contraire stimule la production du GMPc via des effets agonistes partiels. Conclusion : Nos résultats démontrent d’une part que l’ANP induit la différenciation des cellules SP P19 en CM fonctionnels. D’autre part, il semblerait que la voie de signalisation NPRA-B/GCp/GMPc soit impliquée dans le mécanisme de différenciation cardiaque puisque l’abolition du GMPc médiée par le GCp potentialise la différenciation cardiaque et il semblerait que cette voie de signalisation soit additive de la voie de signalisation induite par l’OT, NO/GCs/GMPc, puisque l’ajout de l’OT à l’antagoniste A71915 stimule plus fortement la différenciation cardiaque que l’OT ou l’A71915 seuls. Cela suggère que l’effet thérapeutique des peptides natriurétiques observé dans la défaillance cardiaque ainsi que les propriétés vasodilatatrices de certains antagonistes des récepteurs peptidiques natriurétiques inclus la stimulation de la différenciation des cellules souches en cardiomyocytes. Cela laisse donc à penser que les peptides natriurétiques ou les antagonistes des récepteurs peptidiques natriurétiques pourraient être une alternative très intéressante dans la thérapie cellulaire visant à induire la régénération cardiovasculaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les réseaux de nanotrous sont des structures plasmoniques ayant un énorme potentiel en tant que transducteurs pour la conception de biocapteurs. De telles structures sont prometteuses pour l’élaboration de biocapteurs capable d’effectuer du criblage à haut débit. L’intérêt de travailler avec des réseaux de nanotrous est dû à la simplicité d’excitation des polaritons de plasmons de surface en transmission directe, à la sensibilité et à la facilité de fabrication de ces senseurs. L’architecture de tels réseaux métalliques permet la conception de nanostructures ayant de multiples propriétés plasmoniques. L’intensité, la signature spectrale et la sensibilité du signal plasmonique sont grandement affectées par l’aspect physique du réseau de nanotrous. L’optimisation du signal plasmonique nécessite ainsi un ajustement du diamètre des trous, de la périodicité et de la composition métallique du réseau. L'agencement de l'ensemble de ces paramètres permet d'identifier une structure optimale possédant une périodicité de 1000 nm, un diamètre des nanotrous de 600-650 nm et un film métallique ayant une épaisseur de 125 nm d'or. Ce type de transducteur a une sensibilité en solution de 500-600 nm/RIU pour des bandes plasmoniques situées entre 600-700 nm. L'intérêt de travailler avec cette structure est la possibilité d'exciter les plasmons de polaritons de surface (SPPs) selon deux modes d'excitation : en transmission exaltée (EOT) ou en réflexion totale interne par résonance des plasmons de surface (SPR). Une comparaison entre les propriétés plasmoniques des senseurs selon les modes d'excitation permet de déterminer expérimentalement que le couplage de la lumière avec les ondes de SPP de Bloch (BW-SPPs) en transmission directe résulte en un champ électromagnétique davantage propagatif que localisé. D'un point de vue analytique, la biodétection de l'IgG en SPR est 6 fois plus sensible par rapport au mode EOT pour une même structure. Une étude du signal plasmonique associé au BW-SPP pour un certain mode de diffraction démontre que la distance de pénétration de ces structures en EOT est d'environ 140 nm. La limite de détection de l'IgG humain pour un réseau de nanotrous de 1000 nm de périodicité est d'environ 50 nM en EOT. Ce mémoire démontre la viabilité des réseaux de nanotrous pour effectuer de la biodétection par criblage à haut débit lors de prochaines recherches. L'investigation de l'effet de l'angle d'excitation en transmission exaltée par rapport au signal plasmonique associé au mode (1,0) d'un réseau de nanotrous de 820 nm d'or démontre que la sensibilité en solution n'est pas proportionnelle à la sensibilité en surface du senseur. En fait, une optimisation de l'angle d'incidence pour le mode (1,0) de diffraction des BW-SPP permet d'amplifier la sensibilité en surface du senseur jusqu'à 3-fois pour un angle de 13,3°. Ce mémoire démontre ainsi la nécessité d'optimiser l'angle d'excitation et les propriétés physiques du senseur afin de développer un transducteur de grande sensibilité basé sur l'excitation en transmission de réseaux de nanotrous.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La variabilité spatiale et temporelle de l’écoulement en rivière contribue à créer une mosaïque d’habitat dynamique qui soutient la diversité écologique. Une des questions fondamentales en écohydraulique est de déterminer quelles sont les échelles spatiales et temporelles de variation de l’habitat les plus importantes pour les organismes à divers stades de vie. L’objectif général de la thèse consiste à examiner les liens entre la variabilité de l’habitat et le comportement du saumon Atlantique juvénile. Plus spécifiquement, trois thèmes sont abordés : la turbulence en tant que variable d’habitat du poisson, les échelles spatiales et temporelles de sélection de l’habitat et la variabilité individuelle du comportement du poisson. À l’aide de données empiriques détaillées et d’analyses statistiques variées, nos objectifs étaient de 1) quantifier les liens causaux entre les variables d’habitat du poisson « usuelles » et les propriétés turbulentes à échelles multiples; 2) tester l’utilisation d’un chenal portatif pour analyser l’effet des propriétés turbulentes sur les probabilités de capture de proie et du comportement alimentaire des saumons juvéniles; 3) analyser les échelles spatiales et temporelles de sélection de l’habitat dans un tronçon l’été et l’automne; 4) examiner la variation individuelle saisonnière et journalière des patrons d’activité, d’utilisation de l’habitat et de leur interaction; 5) investiguer la variation individuelle du comportement spatial en relation aux fluctuations environnementales. La thèse procure une caractérisation détaillée de la turbulence dans les mouilles et les seuils et montre que la capacité des variables d’habitat du poisson usuelles à expliquer les propriétés turbulentes est relativement basse, surtout dans les petites échelles, mais varie de façon importante entre les unités morphologiques. D’un point de vue pratique, ce niveau de complexité suggère que la turbulence devrait être considérée comme une variable écologique distincte. Dans une deuxième expérience, en utilisant un chenal portatif in situ, nous n’avons pas confirmé de façon concluante, ni écarté l’effet de la turbulence sur la probabilité de capture des proies, mais avons observé une sélection préférentielle de localisations où la turbulence était relativement faible. La sélection d’habitats de faible turbulence a aussi été observée en conditions naturelles dans une étude basée sur des observations pour laquelle 66 poissons ont été marqués à l’aide de transpondeurs passifs et suivis pendant trois mois dans un tronçon de rivière à l’aide d’un réseau d’antennes enfouies dans le lit. La sélection de l’habitat était dépendante de l’échelle d’observation. Les poissons étaient associés aux profondeurs modérées à micro-échelle, mais aussi à des profondeurs plus élevées à l’échelle des patchs. De plus, l’étendue d’habitats utilisés a augmenté de façon asymptotique avec l’échelle temporelle. L’échelle d’une heure a été considérée comme optimale pour décrire l’habitat utilisé dans une journée et l’échelle de trois jours pour décrire l’habitat utilisé dans un mois. Le suivi individuel a révélé une forte variabilité inter-individuelle des patrons d’activité, certains individus étant principalement nocturnes alors que d’autres ont fréquemment changé de patrons d’activité. Les changements de patrons d’activité étaient liés aux variables environnementales, mais aussi à l’utilisation de l’habitat des individus, ce qui pourrait signifier que l’utilisation d’habitats suboptimaux engendre la nécessité d’augmenter l’activité diurne, quand l’apport alimentaire et le risque de prédation sont plus élevés. La variabilité inter-individuelle élevée a aussi été observée dans le comportement spatial. La plupart des poissons ont présenté une faible mobilité la plupart des jours, mais ont occasionnellement effectué des mouvements de forte amplitude. En fait, la variabilité inter-individuelle a compté pour seulement 12-17% de la variabilité totale de la mobilité des poissons. Ces résultats questionnent la prémisse que la population soit composée de fractions d’individus sédentaires et mobiles. La variation individuelle journalière suggère que la mobilité est une réponse à des changements des conditions plutôt qu’à un trait de comportement individuel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Problème de Tournées de Véhicules (PTV) est une clé importante pour gérér efficacement des systèmes logistiques, ce qui peut entraîner une amélioration du niveau de satisfaction de la clientèle. Ceci est fait en servant plus de clients dans un temps plus court. En terme général, il implique la planification des tournées d'une flotte de véhicules de capacité donnée basée à un ou plusieurs dépôts. Le but est de livrer ou collecter une certain quantité de marchandises à un ensemble des clients géographiquement dispersés, tout en respectant les contraintes de capacité des véhicules. Le PTV, comme classe de problèmes d'optimisation discrète et de grande complexité, a été étudié par de nombreux au cours des dernières décennies. Étant donné son importance pratique, des chercheurs dans les domaines de l'informatique, de la recherche opérationnelle et du génie industrielle ont mis au point des algorithmes très efficaces, de nature exacte ou heuristique, pour faire face aux différents types du PTV. Toutefois, les approches proposées pour le PTV ont souvent été accusées d'être trop concentrées sur des versions simplistes des problèmes de tournées de véhicules rencontrés dans des applications réelles. Par conséquent, les chercheurs sont récemment tournés vers des variantes du PTV qui auparavant étaient considérées trop difficiles à résoudre. Ces variantes incluent les attributs et les contraintes complexes observés dans les cas réels et fournissent des solutions qui sont exécutables dans la pratique. Ces extensions du PTV s'appellent Problème de Tournées de Véhicules Multi-Attributs (PTVMA). Le but principal de cette thèse est d'étudier les différents aspects pratiques de trois types de problèmes de tournées de véhicules multi-attributs qui seront modélisés dans celle-ci. En plus, puisque pour le PTV, comme pour la plupart des problèmes NP-complets, il est difficile de résoudre des instances de grande taille de façon optimale et dans un temps d'exécution raisonnable, nous nous tournons vers des méthodes approcheés à base d’heuristiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les biofilms sont des communautés structurées de micro-organismes enrobées dans une matrice extracellulaire. Les biofilms sont impliqués dans la persistance de plusieurs maladies infectieuses et la matrice extracellulaire du biofilm protège les bactéries contre les cellules du système immunitaire de l'hôte, les antibiotiques et les désinfectants. Récemment notre laboratoire a démontré que le zinc inhibe la formation de biofilm chez Actinobacillus pleuropneumoniae, une bactérie pathogène du porc. Le but de cette étude est d'évaluer l'effet du zinc sur la croissance et la formation du biofilm chez différentes bactéries pathogènes du porc, telles que Bordetella bronchiseptica, Escherichia coli, Haemophilus parasuis, Salmonella, Staphylococcus aureus et Streptococcus suis. Les bactéries ont été cultivées dans des plaques de 96 puits sous condition optimale de formation de biofilm et les biofilms ont été colorés au cristal violet. La présence du biofilm a été confirmée par microscopie confocale à balayage laser à l’aide du marqueur fluorescent FilmTracerTM FM ® 1-43. À des concentrations micromolaires, le zinc inhibe faiblement la croissance bactérienne et bloque d'une manière dose-dépendante la formation de biofilm d’A. pleuropneumoniae, Salmonella Typhimurium et H. parasuis. De plus, la formation de biofilm de E. coli, S. aureus et S. suis a été faiblement inhibée par le zinc. Nos résultats indiquent que le zinc a un effet inhibiteur sur la formation de biofilm de la plupart des pathogènes bactériens d'origine porcine. Cependant, le mécanisme sous-jacent de l'activité anti-biofilm du zinc reste à être caractérisé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’immunosuppression optimale après greffe d’organe solide est une balance délicate et propre à chaque individu entre le risque de rejet et les risques liés à une surexposition au traitement immunosuppresseur. L’évaluation de la fonction résiduelle des lymphocytes T après stimulation par un mitogène (pharmacodynamie effective) devrait permettre de mesurer l’effet direct des médicaments immunosuppresseurs sur leur cible. Nous avons étudié différents paramètres de pharmacodynamie effective chez 34 receveurs pédiatriques de greffe d’organes solides traités par tacrolimus et mycophénolate. Les tests proposés dans ce travail sont adaptés au milieu pédiatrique et à une réalisation en temps réel. La quantification du CD25 parmi les CD4 activés par l’OKT3 permet de distinguer deux groupes de patients selon leur degré d’immunosuppression. L’âge médian est plus bas et la concentration plasmatique médiane en MPA plus élevée dans le groupe de patients plus fortement immunosupprimés. L’étude des paramètres immunologiques pouvant influencer la réponse (sécrétion des interleukines, proportion des sous-populations lymphocytaires CD4, CD8, T naïfs et Trég) ainsi que l’étude du pouvoir de restauration de la fonction lymphocytaire par l’Il-2, la guanosine ou la xanthosine, ne permettent pas de mieux comprendre les variabilités interindividuelles observées. Ces résultats devront être confirmés sur une cohorte plus grande de patients afin de juger de leur intérêt en pratique clinique.