208 resultados para Commande optimale
Resumo:
La représentation d'une surface, son lissage et son utilisation pour l'identification, la comparaison, la classification, et l'étude des variations de volume, de courbure ou de topologie sont omniprésentes dans l'aire de la numérisation. Parmi les méthodes mathématiques, nous avons retenu les transformations difféomorphiques d'un pattern de référence. Il y a un grand intérêt théorique et numérique à approcher un difféomorphisme arbitraire par des difféomorphismes engendrés par des champs de vitesses. Sur le plan théorique la question est : "est-ce que le sous-groupe de difféomorphismes engendrés par des champs de vitesses est dense dans le groupe plus large de Micheletti pour la métrique de Courant ?" Malgré quelques progrès réalisés ici, cette question demeure ouverte. Les pistes empruntées ont alors convergé vers le sous-groupe de Azencott et de Trouvé et sa métrique dans le cadre de l'imagerie. Elle correspond à une notion de géodésique entre deux difféomorphismes dans leur sous-groupe. L'optimisation est utilisée pour obtenir un système d'équations état adjoint caractérisant la solution optimale du problème d'identification à partir des observations. Cette approche est adaptée à l'identification de surfaces obtenues par un numériseur tel que, par exemple, le scan d'un visage. Ce problème est beaucoup plus difficile que celui d'imagerie. On doit alors introduire un système de référence courbe et une surface à facettes pour les calculs. On donne la formulation du problème d'identification et du calcul du changement de volume par rapport à un scan de référence.
Resumo:
Thèse réalisée en cotutelle avec l’Université Charles-de-Gaulle – Lille-3 pour l'obtention du diplôme de doctorat en Langue et littérature françaises.
Resumo:
Les nanoparticules polymériques biodégradable (NPs) sont apparues ces dernières années comme des systèmes prometteurs pour le ciblage et la libération contrôlée de médicaments. La première partie de cette étude visait à développer des NPs biodégradables préparées à partir de copolymères fonctionnalisés de l’acide lactique (poly (D,L)lactide ou PLA). Les polymères ont été étudiés comme systèmes de libération de médicaments dans le but d'améliorer les performances des NPs de PLA conventionnelles. L'effet de la fonctionnalisation du PLA par insertion de groupements chimiques dans la chaîne du polymère sur les propriétés physico-chimiques des NPs a été étudié. En outre, l'effet de l'architecture du polymère (mode d'organisation des chaînes de polymère dans le copolymère obtenu) sur divers aspects de l’administration de médicament a également été étudié. Pour atteindre ces objectifs, divers copolymères à base de PLA ont été synthétisés. Plus précisément il s’agit de 1) copolymères du poly (éthylène glycol) (PEG) greffées sur la chaîne de PLA à 2.5% et 7% mol. / mol. de monomères d'acide lactique (PEG2.5%-g-PLA et PEG7%-g-PLA, respectivement), 2) des groupements d’acide palmitique greffés sur le squelette de PLA à une densité de greffage de 2,5% (palmitique acid2.5%-g-PLA), 3) de copolymère « multibloc » de PLA et de PEG, (PLA-PEG-PLA)n. Dans la deuxième partie, l'effet des différentes densités de greffage sur les propriétés des NPs de PEG-g-PLA (propriétés physico-chimiques et biologiques) a été étudié pour déterminer la densité optimale de greffage PEG nécessaire pour développer la furtivité (« long circulating NPs »). Enfin, les copolymères de PLA fonctionnalisé avec du PEG ayant montré les résultats les plus satisfaisants en regard des divers aspects d’administration de médicaments, (tels que taille et de distribution de taille, charge de surface, chargement de drogue, libération contrôlée de médicaments) ont été sélectionnés pour l'encapsulation de l'itraconazole (ITZ). Le but est dans ce cas d’améliorer sa solubilité dans l'eau, sa biodisponibilité et donc son activité antifongique. Les NPs ont d'abord été préparées à partir de copolymères fonctionnalisés de PLA, puis ensuite analysés pour leurs paramètres physico-chimiques majeurs tels que l'efficacité d'encapsulation, la taille et distribution de taille, la charge de surface, les propriétés thermiques, la chimie de surface, le pourcentage de poly (alcool vinylique) (PVA) adsorbé à la surface, et le profil de libération de médicament. L'analyse de la chimie de surface par la spectroscopie de photoélectrons rayon X (XPS) et la microscopie à force atomique (AFM) ont été utilisés pour étudier l'organisation des chaînes de copolymère dans la formulation des NPs. De manière générale, les copolymères de PLA fonctionnalisés avec le PEG ont montré une amélioration du comportement de libération de médicaments en termes de taille et distribution de taille étroite, d’amélioration de l'efficacité de chargement, de diminution de l'adsorption des protéines plasmatiques sur leurs surfaces, de diminution de l’internalisation par les cellules de type macrophages, et enfin une meilleure activité antifongique des NPs chargées avec ITZ. En ce qui concerne l'analyse de la chimie de surface, l'imagerie de phase en AFM et les résultats de l’XPS ont montré la possibilité de la présence de davantage de chaînes de PEG à la surface des NPs faites de PEG-g-PLA que de NPS faites à partie de (PLA-PEG-PLA)n. Nos résultats démontrent que les propriétés des NPs peuvent être modifiées à la fois par le choix approprié de la composition en polymère mais aussi par l'architecture de ceux-ci. Les résultats suggèrent également que les copolymères de PEG-g-PLA pourraient être utilisés efficacement pour préparer des transporteurs nanométriques améliorant les propriétés de certains médicaments,notamment la solubilité, la stabilité et la biodisponibilité.
Resumo:
Les processus mitochondriaux tels que la réplication et la traduction sont effectués par des complexes multiprotéiques. Par contre, le métabolisme et la voie de maturation des ARN mitochondriaux (p. ex précurseurs des ARNt et des ARNr) sont habituellement traités comme une suite de réactions catalysées par des protéines séparées. L’exécution fidèle et optimale de ces processus mitochondriaux, exige un couplage étroit nécessaire pour la canalisation des intermédiaires métaboliques. Or, les évidences en faveur de l'interconnexion postulée de ces processus cellulaires sont peu nombreuses et proviennent en grande partie des interactions protéine-protéine. Contrairement à la perception classique, nos résultats révèlent l’organisation des fonctions cellulaires telles que la transcription, la traduction, le métabolisme et la régulation en supercomplexes multifonctionnels stables, dans les mitochondries des champignons (ex Saccharomyces cerevisiae, Aspergillus nidulans et Neurospora crassa), des animaux (ex Bos taurus), des plantes (B. oleracea et Arabidopsis thaliana) et chez les bactéries (ex E. coli) à partir desquelles les mitochondries descendent. La composition de ces supercomplexes chez les champignons et les animaux est comparable à celle de levure, toutefois, chez les plantes et E. coli ils comportent des différences notables (ex, présence des enzymes spécifiques à la voie de biosynthèse des sucres et les léctines chez B. oleracea). Chez la levure, en accord avec les changements dûs à la répression catabolique du glucose, nos résultats révèlent que les supercomplexes sont dynamiques et que leur composition en protéines dépend des stimulis et de la régulation cellulaire. De plus, nous montrons que l’inactivation de la voie de biosynthèse des lipides de type II (FASII) perturbe l’assemblage et/ou la biogenèse du supercomplexe de la RNase P (responsable de la maturation en 5’ des précurseurs des ARNt), ce qui suggère que de multiples effets pléiotropiques peuvent être de nature structurale entre les protéines. Chez la levure et chez E. coli, nos études de la maturation in vitro des précurseurs des ARNt et de la protéomique révèlent l’association de la RNase P avec les enzymes de la maturation d’ARNt en 3’. En effet, la voie de maturation des pré-ARNt et des ARNr, et la dégradation des ARN mitochondriaux semblent êtres associées avec la machinerie de la traduction au sein d’un même supercomplexe multifonctionnel dans la mitochondrie de la levure. Chez E. coli, nous avons caractérisé un supercomplexe similaire qui inclut en plus de la RNase P: la PNPase, le complexe du RNA degradosome, l’ARN polymérase, quatre facteurs de transcription, neuf aminoacyl-tRNA synthétases, onze protéines ribosomiques, des chaperons et certaines protéines métaboliques. Ces résultats supposent l’association physique de la transcription, la voie de maturation et d’aminoacylation des ARNt, la dégradation des ARN. Le nombre de cas où les activités cellulaires sont fonctionnellement et structurellement associées est certainement à la hausse (ex, l’éditosome et le complexe de la glycolyse). En effet, l’organisation en supercomplexe multifonctionnel représente probablement l’unité fonctionnelle dans les cellules et les analyses de ces super-structures peuvent devenir la prochaine cible de la biologie structurale.
Resumo:
Introduction : Les enfants prématurés ont la particularité de naître alors que leur développement est souvent incomplet et nécessite la mise en œuvre de soins intensifs visant à poursuivre leur croissance en dehors de l’environnement utérin. Souvent cependant, le stade développemental de l’enfant ne lui permet pas d’assimiler une alimentation entérale du fait de l’immaturité de son système digestif. Le recours à une voie centrale délivrant les nutriments assurant le développement devient alors une nécessité. Ce type de nutrition, appelée nutrition parentérale (NP, ou total parenteral nutrition TPN), permet l’administration de molécules simples, directement dans le sang du prématuré. Il n’est toutefois pas exempt de risques puisqu’exposée à la lumière, la NP peut s’oxyder et générer des molécules oxydantes telles que des hydroperoxydes lipidiques susceptibles de se fragmenter par la suite en hydroxy-alkénals. Ceci devient problématique au vu de l’immaturité des systèmes de défenses antioxydants du nouveau-né prématuré. L’utilisation prolongée de la NP est d’ailleurs à l’origine de maladie hépatiques dans lesquelles le stress oxydant et la nécro-inflammation sont des composantes majeures. Nous avons émis l’hypothèse que l’infusion chez les enfants prématurés, d’aldéhydes d’origine lipidique est en relation avec le développement du stress oxydant et de l’inflammation hépatique. Objectif : Notre étude a consisté à évaluer la relation entre les quantités d’hydroxy-alkénals dans la NP et les effets hépatiques engendrés sur les marqueurs de stress oxydant et les voies de signalisation responsables d’une induction de processus inflammatoire. Dans ce but, nous avons cherché à mesurer la peroxydation lipidique dans l’émulsion lipidique de la NP et la conséquence de l’infusion en continue d’hydroxy-alkénals sur les marqueurs de stress oxydant, sur la voie de signalisation médiée par le Nuclear Factor κB et sur le déclenchement du processus inflammatoire hépatique. A la suite de ce travail, nous avons également travaillé sur des alternatives à la photoprotection, qui est la seule méthode réellement optimale pour réduire la peroxydation des lipides de la NP, mais cliniquement difficilement praticable. Résultats : Nos résultats ont mis en évidence la génération de 4-hydroxynonenal in vitro dans la NP, ce phénomène est augmenté par une exposition lumineuse. Dans ce cadre, nous avons montré l’inefficacité de l’ajout de multivitamines dans l’émulsion lipidique comme alternative à la photoprotection. Dans la validation biologique qui a suivi sur un modèle animal, nos résultats ont permis de démontrer que l’augmentation des adduits glutathion-hydroxynonenal était imputable à l’augmentation de 4-hydroxynonenal (4-HNE) dans la NP, et non à une peroxydation endogène. Nos données indiquent que la probable augmentation hépatique des niveaux de 4-HNE a conduit à une activation du NFκB responsable de l’activation de la transcription des gènes pro-inflammatoires du Tumour Necrosis Factor-α (TNF-α) et de l’interleukine-1 (IL-1). Nous avons alors évalué la capacité d’une émulsion lipidique enrichie en acides gras polyinsaturés (AGPI) n-3 à baisser les concentrations de 4-HNE dans la NP, mais également à moduler le stress oxydant et les marqueurs pro-inflammatoires. Enfin, nous avons démontré, en collaboration avec l’équipe du Dr Friel, que certains peptides isolés du lait humain (par un processus mimant la digestion) permettent également une modulation du stress oxydant et du processus inflammatoire. Conclusion : Le stress oxydant exogène issu de la NP a conduit par activation de facteurs de transcription intra-hépatiques au déclenchement d’un processus inflammatoire potentiellement responsable du développement de maladies hépatiques reliées à la NP telle que la cholestase. Dans ce sens, les AGPI n-3 et les peptides antioxydants peuvent se poser en tant qu’alternatives crédibles à la photoprotection.
Resumo:
L’approche par compétences est de plus en plus choisie pour guider les curriculums universitaires de formation professionnelle. Accordant un intérêt primordial au développement des compétences, les responsables des programmes élaborés selon cette approche doivent déterminer les stratégies pédagogiques qui seront les plus efficaces et qui permettront une participation active de l’étudiant. Depuis plus de 30 années (Cameron et Mitchell, 1993; Wellard et Bethune, 1996), le journal d’apprentissage favorise la construction des savoirs en pratique clinique et le développement de la pensée réflexive, une compétence nécessaire à la pratique des infirmières qui s’inspirent d’une vision spécifique de la discipline, comme celle du modèle de McGill (Kravitz et Frey, 1989; Thorpe, 2003). Malgré cela, les études sur les perceptions d’étudiants relativement au journal d’apprentissage sont rares, et ce, surtout au Canada (Epp, 2008). Il importe de s’intéresser aux perceptions d’étudiants afin d’atteindre l’efficacité optimale de l’outil. Le but de cette étude était d’explorer les perceptions d’étudiants au baccalauréat en sciences infirmières de l’utilisation du journal d’apprentissage. Elle a été réalisée auprès d’étudiants de 2e et 3e année, selon un devis de type qualitatif exploratoire. Les participants (n=52) ont rempli un formulaire constitué d’une mise en situation comprenant 5 questions ouvertes. L’analyse des données a fait émerger trois thèmes principaux de l’utilisation du journal soit : un outil personnel, un outil de communication et un outil d’apprentissage de la pratique. Des recommandations pour la formation et la recherche sont formulées.
Resumo:
La formation à distance (FAD) est de plus en plus utilisée dans le cadre de la formation des enseignants aux technologies de l’information et de la communication (TIC). Dans les pays en voie de développement, elle permet non seulement de réduire les coûts par rapport à une formation traditionnelle, mais aussi de modéliser des pratiques pédagogiques exemplaires qui permettent de maximiser le recours aux TIC. En ce sens, la formation continue des enseignants aux TIC par des cours à distance qui intègrent des forums de discussion offre plusieurs avantages pour ces pays. L’évaluation des apprentissages réalisés dans les forums reste cependant un problème complexe. Différents modèles et différentes procédures d’évaluation ont été proposés par la littérature, mais aucun n’a encore abordé spécifiquement la culture e-learning des participants telle qu’elle est définie par le modèle IntersTICES (Viens, 2007 ; Viens et Peraya, 2005). L’objectif de notre recherche est l’élaboration d’une grille opérationnelle pour l’analyse de la culture e-learning à partir des contenus de différents forums de discussion utilisés comme activité de formation dans un cours à distance. Pour développer cette grille, nous utiliserons une combinaison de modèles recensés dans la revue de littérature afin de circonscrire les principaux concepts et indicateurs à prendre en compte pour ensuite suivre les procédures relatives à l’analyse de la valeur, une méthodologie qui appelle la production d’un cahier des charges fonctionnel, la production de l’outil, puis sa mise à l’essai auprès d’experts. Cette procédure nous a permis de mettre sur pied une grille optimale, opérationnelle et appuyée par une base théorique et méthodologique solide.
Resumo:
Le thème de la motivation au travail en lien avec la performance des employés captive l’intérêt des théoriciens, des chercheurs, des praticiens et des gestionnaires depuis déjà près d’un siècle. L’engouement pour l’étude de ces concepts a permis de faire des avancées scientifiques notables permettant de mieux éclairer la pratique. Cependant, on constate que la popularité de la motivation présente également certains enjeux. Notamment, la pluralité des théories rend le domaine presque étourdissant par ses connaissances éparses et ses résultats équivoques. En premier lieu, cette thèse présente une méta-analyse multithéorique réalisée à partir d’études effectuées sur le terrain examinant les liens entre la motivation au travail et la performance des travailleurs entre 1985 et 2010. Les résultats de ce bilan nous indiquent que, peu importe la théorie motivationnelle employée, la force et la direction de la relation motivation-performance sont similaires plutôt que différentes. Parmi les variables modératrices examinées, seule la source des mesures s’est révélée significative indiquant que la relation entre les variables d’intérêt est plus forte lorsque les mesures proviennent de la même source – dans notre étude elles s’avèrent toutes autodéclarées – comparativement à lorsqu’elles sont recueillies auprès de sources différentes. En second lieu, une étude en laboratoire a permis d’observer que la motivation peut évoluer sur une période très courte, soit de moins de 90 minutes, à partir de 3 mesures de motivation réparties dans le temps d’expérimentation. Plus spécifiquement, l’étude de la motivation par type et par quantité, en considérant le facteur temps, nous renseigne que la motivation intrinsèque a augmenté tandis que la motivation extrinsèque et l’amotivation ont connu une diminution. Cette étude, considérant une perspective multidimensionnelle et dynamique de la motivation, telle que proposée par le cadre conceptuel de la théorie de l’autodétermination, montre que l’évolution de la motivation de tous les participants à l’étude est semblable, peu importe leur performance. En plus de permettre l’avancement des connaissances dans le domaine de la motivation et de la performance au travail, cette thèse se démarque à plusieurs égards. D’un côté, il s’agit de la première méta-analyse multithéorique de la motivation qui soit réalisée. De l’autre côté, l’étude en laboratoire a examiné simultanément, le type et la quantité de la motivation à l’aide d’un devis à mesures répétées alors que la majorité des études se concentrent soit sur la quantité, soit sur le type et néglige souvent de considérer la variable temps. En outre, cette étude en laboratoire a été réalisée à partir d’une activité à haut potentiel de validité écologique, s’apparentant à une tâche de sélection de candidats en ressources humaines. En somme, cette thèse apporte un éclairage intéressant tant sur le plan des connaissances concernant les variables modératrices déterminantes impliquées dans les relations motivation-performance et sur le plan du rythme des variations des types de motivation que sur le plan de l’utilisation optimale et complémentaire de techniques de recherche sophistiquées. L’ensemble des recommandations découlant de ces deux études concernant la recherche et l’intervention est présenté en conclusion.
Resumo:
Introduction : La douleur chronique non cancéreuse (DCNC) est prévalente, notamment en première ligne où l’on traite la plupart des maladies chroniques. Cette étude de cohorte vise à décrire l’usage des analgésiques, la prévalence et le traitement des effets secondaires des analgésiques utilisés, la satisfaction ainsi que les croyances et attitudes face à la douleur et son traitement chez des patients souffrant de DCNC et suivis en première ligne. Méthodologie : Des patients souffrant de DCNC (douleur qui dure depuis six mois et plus), ressentie au minimum deux fois par semaine avec une intensité d’au moins 4 sur une échelle de 0 à 10 (10 = la pire douleur possible) et qui possèdent une ordonnance active d’un médecin de famille pour un médicament contre la douleur, ont été recrutés à travers le Québec. Ils ont complété une entrevue téléphonique et un questionnaire auto-administré afin de documenter les caractéristiques de leur douleur, son impact psychosocial et émotionnel ainsi que leur satisfaction et croyances face à la douleur et son traitement. L’information concernant la pharmacothérapie reçue a été collectée en utilisant les banques de données administratives de la Régie d’assurance maladie du Québec et les dossierspatients des pharmacies communautaires. Résultats : Les 486 patients qui ont participé à l’étude avaient une moyenne d’âge de 58,4 ans. Ils ont rapporté une douleur qui dure en moyenne depuis 11,7 ans évaluée à 6,5 sur une échelle de 0 à 10. Sur la période d’une année, 52,9% des patients ont reçu des analgésiques prescrits par deux ou trois médecins de famille. Les analgésiques les plus dispensés étaient les anti-inflammatoires non stéroïdiens (72,2%) et les opioïdes (65,6%). Bien que 90% des patients ont rapporté des effets gastro-intestinaux, les proportions de ceux n’ayant pas reçu de médicaments pour soulager la constipation ou les nausées et/ou vomissements étaient respectivement 36,4% et 54,4%. Le niveau de satisfaction était faible, notamment face à l’information reçue concernant la douleur et son traitement. La peur des effets néfastes des analgésiques constitue la barrière face à l’optimisation de la pharmacothérapie de la douleur la plus souvent rapportée par les patients. Conclusion : En première ligne, la prise en charge de la douleur chronique non cancéreuse modérée à sévère paraît sous-optimale. Elle implique différents médecins de famille suggérant un manque de cohérence et de continuité. Les effets secondaires aux analgésiques sont prévalents et souvent non traités; la satisfaction est faible et les patients paraissent réticents à prendre les médicaments contre la douleur. Ces résultats indiquent clairement la nécessité d’optimiser la pharmacothérapie de ces patients.
Resumo:
L'insuffisance cardiaque est une maladie à grande incidence dont le traitement définitif est difficile. Les pompes d'assistance ventriculaire ont été proposées comme thérapie alternative à long terme, mais la technologie est relativement jeune et selon son design, axial ou centrifuge, le dispositif favorise soit l'hémolyse, soit la stagnation de l'écoulement sanguin. Les pompes à écoulement mixte, combinant certaines propriétés des deux types, ont été proposées comme solution intermédiaire. Pour évaluer leurs performances, nous avons effectué des comparaisons numériques entre huit pompes, deux axiales, deux centrifuges, et quatre mixtes, en employant un modèle Windkessel du système cardiovasculaire avec paramètres optimisés pour l'insuffisance cardiaque résolu avec une méthode Radau IIA3, une méthode de résolution de système d'équations différentielles ordinaires L-stable appartenant à la famille des méthodes Runge-Kutta implicites. Nos résultats semblent suggérer que les pompes d'assistance mixtes ne démontrent qu'un léger avantage comparativement aux autres types en terme de performance optimale dans le cas de l'insuffisance cardiaque, mais il faudrait effectuer plus d'essais numériques avec un modèle plus complet, entre autres avec contrôles nerveux implémentés.
Resumo:
En 1997, dans un souci de justice sociale et de solidarité entre tous les québécois, le gouvernement a instauré un Régime général d’assurance médicaments (RGAM) devant permettre de fournir à moindre coût et de manière équitable, des médicaments prescrits assurant une meilleure prise en charge de la maladie des individus. Depuis sa mise en place, le rythme soutenu d’évolution des coûts des médicaments remboursés par le Régime est le sujet d’un nombre croissant de débats. Le Québec ne fait pas figure d’exception car au cours des dernières décennies, la croissance des dépenses de médicaments des régimes d’assurance médicaments des pays industrialisés a connu un rythme de progression élevé, cela malgré l’instauration successive de mécanismes de régulation ciblant une utilisation optimale des médicaments et un meilleur contrôle de la trajectoire de leurs dépenses. La recherche propose une réflexion sur les cadres communs d’action dans lesquels ces outils de régulation sont implantés et évoluent. Elle s’intéresse à l’ensemble des facteurs relationnels et contextuels qui les constituent. Le devis de recherche s’appuie sur une étude de cas unique qu’est le processus menant à l’utilisation du médicament prescrit couvert par le RGAM. Il se compose de trois unités d’analyse identifiées comme étant des cibles importantes de régulation : l’inscription du médicament à la liste du RGAM, la prescription et l’accès au médicament couvert par le Régime. La perspective conceptuelle retenue est celle de l’analyse stratégique de Crozier et Friedberg (1987). La démarche analytique s’appuie sur des entrevues réalisées auprès des régulateurs, de fabricants de médicaments brevetés et de génériques, de médecins, de pharmaciens et de patients impliqués dans l’utilisation des médicaments remboursés par le RGAM et sur une revue du cadre réglementaire concernant ces acteurs, le médicament d’ordonnance et le RGAM. La recherche décrit et analyse la structuration du processus menant à l’utilisation du médicament couvert par le RGAM. Elle conduit au développement d’un construit organisationnel- le système d’action concret- fondé sur les interdépendances des cinq groupes d’acteurs et les relations de pouvoir qu’ils entretiennent entre eux. Ceux-ci évoluent dans des contextes organisationnels singuliers constitués d’enjeux, de stratégies et de ressources. Ils développent diverses stratégies pour accroître leurs possibilités d’action (capacités stratégiques) face aux problèmes qu’ils ont à résoudre. Les capacités stratégiques, inégales entre les groupes d’acteurs, découlent des relations de pouvoir qu’ils exercent entre eux et les amènent à occuper des positions différentes dans le système d’action concret. La recherche démontre qu’en fonction des capacités stratégiques dont ils disposent, les acteurs sont portés à s’approprier certaines règles en tentant de les influencer, de les contourner ou de ne pas les respecter. La connaissance empirique des cadres communs d’action permet d’établir les bases d’un système d’action concret dans un contexte de « phénomène organisation » (Friedberg, 1997). Cette connaissance d’une part, établit que les retombées de certaines stratégies d’acteurs peuvent s’avérer peu compatibles avec les objectifs du RGAM et, d’autre part, pose les limites de certains mécanismes de régulation en vigueur tout en questionnant les façons de concevoir la régulation dans un système complexe.
Resumo:
Ce papier utilise les réseaux de neurones avec un algorithme incrémental comme outil de sélection des facteurs de risques les plus pertinents dans la maladie du cancer du sein. Les résultats témoignent de la pertinence de l’approche neuronale avec un algorithme incrémentale dans ce domaine de recherche. A partir d’un échantillon de 248 patientes atteintes par cette maladie, il nous a été possible de déterminer la combinaison optimale des facteurs permettant d’atteindre une bonne performance prédictive du type de tumeur maligne et bénigne.
Resumo:
L’utilisation d’une méthode d’assimilation de données, associée à un modèle de convection anélastique, nous permet la reconstruction des structures physiques d’une partie de la zone convective située en dessous d’une région solaire active. Les résultats obtenus nous informent sur les processus d’émergence des tubes de champ magnétique au travers de la zone convective ainsi que sur les mécanismes de formation des régions actives. Les données solaires utilisées proviennent de l’instrument MDI à bord de l’observatoire spatial SOHO et concernent principalement la région active AR9077 lors de l’ ́évènement du “jour de la Bastille”, le 14 juillet 2000. Cet évènement a conduit à l’avènement d’une éruption solaire, suivie par une importante éjection de masse coronale. Les données assimilées (magnétogrammes, cartes de températures et de vitesses verticales) couvrent une surface de 175 méga-mètres de coté acquises au niveau photosphérique. La méthode d’assimilation de données employée est le “coup de coude direct et rétrograde”, une méthode de relaxation Newtonienne similaire à la méthode “quasi-linéaire inverse 3D”. Elle présente l’originalité de ne pas nécessiter le calcul des équations adjointes au modèle physique. Aussi, la simplicité de la méthode est un avantage numérique conséquent. Notre étude montre au travers d’un test simple l’applicabilité de cette méthode à un modèle de convection utilisé dans le cadre de l’approximation anélastique. Nous montrons ainsi l’efficacité de cette méthode et révélons son potentiel pour l’assimilation de données solaires. Afin d’assurer l’unicité mathématique de la solution obtenue nous imposons une régularisation dans tout le domaine simulé. Nous montrons enfin que l’intérêt de la méthode employée ne se limite pas à la reconstruction des structures convectives, mais qu’elle permet également l’interpolation optimale des magnétogrammes photosphériques, voir même la prédiction de leur évolution temporelle.
Resumo:
La thèse comporte trois essais en microéconomie appliquée. En utilisant des modèles d’apprentissage (learning) et d’externalité de réseau, elle étudie le comportement des agents économiques dans différentes situations. Le premier essai de la thèse se penche sur la question de l’utilisation des ressources naturelles en situation d’incertitude et d’apprentissage (learning). Plusieurs auteurs ont abordé le sujet, mais ici, nous étudions un modèle d’apprentissage dans lequel les agents qui consomment la ressource ne formulent pas les mêmes croyances a priori. Le deuxième essai aborde le problème générique auquel fait face, par exemple, un fonds de recherche désirant choisir les meilleurs parmi plusieurs chercheurs de différentes générations et de différentes expériences. Le troisième essai étudie un modèle particulier d’organisation d’entreprise dénommé le marketing multiniveau (multi-level marketing). Le premier chapitre est intitulé "Renewable Resource Consumption in a Learning Environment with Heterogeneous beliefs". Nous y avons utilisé un modèle d’apprentissage avec croyances hétérogènes pour étudier l’exploitation d’une ressource naturelle en situation d’incertitude. Il faut distinguer ici deux types d’apprentissage : le adaptive learning et le learning proprement dit. Ces deux termes ont été empruntés à Koulovatianos et al (2009). Nous avons montré que, en comparaison avec le adaptive learning, le learning a un impact négatif sur la consommation totale par tous les exploitants de la ressource. Mais individuellement certains exploitants peuvent consommer plus la ressource en learning qu’en adaptive learning. En effet, en learning, les consommateurs font face à deux types d’incitations à ne pas consommer la ressource (et donc à investir) : l’incitation propre qui a toujours un effet négatif sur la consommation de la ressource et l’incitation hétérogène dont l’effet peut être positif ou négatif. L’effet global du learning sur la consommation individuelle dépend donc du signe et de l’ampleur de l’incitation hétérogène. Par ailleurs, en utilisant les variations absolues et relatives de la consommation suite à un changement des croyances, il ressort que les exploitants ont tendance à converger vers une décision commune. Le second chapitre est intitulé "A Perpetual Search for Talent across Overlapping Generations". Avec un modèle dynamique à générations imbriquées, nous avons étudié iv comment un Fonds de recherche devra procéder pour sélectionner les meilleurs chercheurs à financer. Les chercheurs n’ont pas la même "ancienneté" dans l’activité de recherche. Pour une décision optimale, le Fonds de recherche doit se baser à la fois sur l’ancienneté et les travaux passés des chercheurs ayant soumis une demande de subvention de recherche. Il doit être plus favorable aux jeunes chercheurs quant aux exigences à satisfaire pour être financé. Ce travail est également une contribution à l’analyse des Bandit Problems. Ici, au lieu de tenter de calculer un indice, nous proposons de classer et d’éliminer progressivement les chercheurs en les comparant deux à deux. Le troisième chapitre est intitulé "Paradox about the Multi-Level Marketing (MLM)". Depuis quelques décennies, on rencontre de plus en plus une forme particulière d’entreprises dans lesquelles le produit est commercialisé par le biais de distributeurs. Chaque distributeur peut vendre le produit et/ou recruter d’autres distributeurs pour l’entreprise. Il réalise des profits sur ses propres ventes et reçoit aussi des commissions sur la vente des distributeurs qu’il aura recrutés. Il s’agit du marketing multi-niveau (multi-level marketing, MLM). La structure de ces types d’entreprise est souvent qualifiée par certaines critiques de système pyramidal, d’escroquerie et donc insoutenable. Mais les promoteurs des marketing multi-niveau rejettent ces allégations en avançant que le but des MLMs est de vendre et non de recruter. Les gains et les règles de jeu sont tels que les distributeurs ont plus incitation à vendre le produit qu’à recruter. Toutefois, si cette argumentation des promoteurs de MLMs est valide, un paradoxe apparaît. Pourquoi un distributeur qui désire vraiment vendre le produit et réaliser un gain recruterait-il d’autres individus qui viendront opérer sur le même marché que lui? Comment comprendre le fait qu’un agent puisse recruter des personnes qui pourraient devenir ses concurrents, alors qu’il est déjà établi que tout entrepreneur évite et même combat la concurrence. C’est à ce type de question que s’intéresse ce chapitre. Pour expliquer ce paradoxe, nous avons utilisé la structure intrinsèque des organisations MLM. En réalité, pour être capable de bien vendre, le distributeur devra recruter. Les commissions perçues avec le recrutement donnent un pouvoir de vente en ce sens qu’elles permettent au recruteur d’être capable de proposer un prix compétitif pour le produit qu’il désire vendre. Par ailleurs, les MLMs ont une structure semblable à celle des multi-sided markets au sens de Rochet et Tirole (2003, 2006) et Weyl (2010). Le recrutement a un effet externe sur la vente et la vente a un effet externe sur le recrutement, et tout cela est géré par le promoteur de l’organisation. Ainsi, si le promoteur ne tient pas compte de ces externalités dans la fixation des différentes commissions, les agents peuvent se tourner plus ou moins vers le recrutement.
Resumo:
Travail dirigé présenté à la Faculté des Sciences Infirmières En vue de l’obtention du grade de Maîtrise ès Sciences (M. Sc.) Option formation en sciences infirmière.