993 resultados para Systèmes multiagents


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse de doctorat effectuée en cotutelle au Département d’histoire de l’art et d’études cinématographiques, Faculté des arts et des sciences, Université de Montréal et à l’Institut de recherche sur le cinéma et l'audiovisuel (IRCAV), Arts et Médias, ED 267, Université Sorbonne Nouvelle – Paris 3

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de stage présenté à la Faculté des Sciences infirmières en vue de l’obtention du grade de maîtrise en Administration des services infirmiers, option stage

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En la actualidad, el uso de las tecnologías ha sido primordial para el avance de las sociedades, estas han permitido que personas sin conocimientos informáticos o usuarios llamados “no expertos” se interesen en su uso, razón por la cual los investigadores científicos se han visto en la necesidad de producir estudios que permitan la adaptación de sistemas, a la problemática existente dentro del ámbito informático. Una necesidad recurrente de todo usuario de un sistema es la gestión de la información, la cual se puede administrar por medio de una base de datos y lenguaje específico, como lo es el SQL (Structured Query Language), pero esto obliga al usuario sin conocimientos a acudir a un especialista para su diseño y construcción, lo cual se ve reflejado en costos y métodos complejos, entonces se plantea una pregunta ¿qué hacer cuando los proyectos son pequeñas y los recursos y procesos son limitados? Teniendo como base la investigación realizada por la universidad de Washington[39], donde sintetizan sentencias SQL a partir de ejemplos de entrada y salida, se pretende con esta memoria automatizar el proceso y aplicar una técnica diferente de aprendizaje, para lo cual utiliza una aproximación evolucionista, donde la aplicación de un algoritmo genético adaptado origina sentencias SQL válidas que responden a las condiciones establecidas por los ejemplos de entrada y salida dados por el usuario. Se obtuvo como resultado de la aproximación, una herramienta denominada EvoSQL que fue validada en este estudio. Sobre los 28 ejercicios empleados por la investigación [39], 23 de los cuales se obtuvieron resultados perfectos y 5 ejercicios sin éxito, esto representa un 82.1% de efectividad. Esta efectividad es superior en un 10.7% al establecido por la herramienta desarrollada en [39] SQLSynthesizer y 75% más alto que la herramienta siguiente más próxima Query by Output QBO[31]. El promedio obtenido en la ejecución de cada ejercicio fue de 3 minutos y 11 segundos, este tiempo es superior al establecido por SQLSynthesizer; sin embargo, en la medida un algoritmo genético supone la existencia de fases que amplían los rangos de tiempos, por lo cual el tiempo obtenido es aceptable con relación a las aplicaciones de este tipo. En conclusión y según lo anteriormente expuesto, se obtuvo una herramienta automática con una aproximación evolucionista, con buenos resultados y un proceso simple para el usuario “no experto”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire propose une hypothèse alternative pour expliquer les facteurs à l’origine du boom du soja brésilien. En utilisant une approche combinant la théorie de l’organisation et l’économie politique institutionnelle, ce mémoire propose de comparer les modèles d’organisation de la chaîne de valeur soja des États du Mato Grosso et du Paraná. Dans un premier temps, cette recherche est guidée par un souci de documenter les rouages propres à chaque mode d’organisation et de catégoriser ces derniers comme des systèmes à part entière et cohérents. Ainsi, le mode de coordination du Mato Grosso (intégration de la chaîne de valeur) peut être qualifié de modèle hybride se rapprochant davantage du pôle hiérarchie tandis que le mode d’organisation du Paraná (coopérative agroindustrielle) peut être qualifié de mode hybride gravitant davantage vers le pôle marché. La nature des risques est identifiée comme principal déterminant du degré de centralisation de la gouvernance au sein de ces modèles. L’argument soutient que chaque mode de coordination est performant car il est adapté aux conditions locales de production et permet de mitiger les risques propres à chaque région de façon à encourager les échanges économiques. Dans un deuxième temps, cette recherche serait incomplète sans une analyse des facteurs politiques et historiques ayant influencé la trajectoire de développement de chaque région. Ainsi, chaque étude de cas présente un récit détaillé de l’évolution des politiques agraires et des institutions depuis les années 1960, soit le moment où la culture commerciale du soja a commencé à gagner en importance au Brésil. Analyser le changement institutionnel depuis 1960 est primordial pour comprendre comment se sont consolidées les règles du jeu qui sous-tendent aujourd’hui chaque mode de coordination.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le remodelage cardiaque est le processus par lequel la structure ou la fonction cardiaque change en réponse à un déséquilibre pathophysiologique tel qu'une maladie cardiaque, un contexte d'arythmie prolongée ou une modification de l'équilibre hormonal. Le système rénine-angiotensine (SRA) est un système hormonal largement étudié et il est impliqué dans de nombreuses activités associées au remodelage cardiovasculaire. L’existence d'un système circulatoire couplé à un système de tissus locaux est une représentation classique, cependant de nouvelles données suggèrent un SRA indépendant et fonctionnellement actif à l'échelle cellulaire. La compréhension de l'activité intracellulaire du SRA pourrait mener à de nouvelles pistes thérapeutiques qui pourraient prévenir un remodelage cardiovasculaire défavorable. L'objectif de cette thèse était d'élucider le rôle du SRA intracellulaire dans les cellules cardiaques. Récemment, les récepteurs couplés aux protéines G (RCPG), les protéines G et leurs effecteurs ont été détectés sur des membranes intracellulaires, y compris sur la membrane nucléaire, et les concepts de RCPG intracellulaires fonctionnels sont en voie d'être acceptés comme une réalité. Nous avons dès lors fait l'hypothèse que la signalisation du SRA délimitant le noyau était impliquée dans le contrôle de l'expression des gènes cardiaques. Nous avons démontré la présence de récepteurs d'angiotensine de type-1 (AT1R) et de type-2 (AT2R) nucléaires dans les cardiomyocytes ventriculaires adultes et dans une fraction nucléaire purifiée de tissu cardiaque. Des quantités d'Ang II ont été détectées dans du lysat de cardiomyocytes et des microinjections d'Ang-II-FITC ont donné lieu à des liaisons préférentielles aux sites nucléaires. L'analyse transcriptionnelle prouve que la synthèse d'ARN de novo dans des noyaux isolés stimulés à l'Ang-II, et l'expression des ARNm de NF-κB étaient beaucoup plus importants lorsque les noyaux étaient exposés à de l'Ang II par rapport aux cardiomyocytes intacts. La stimulation des AT1R nucléaires a engendré une mobilisation de Ca2+ via les récepteurs de l'inositol trisphosphate (IP3R), et le blocage des IP3R a diminué la réponse transcriptionnelle. Les méthodes disponibles actuellement pour l'étude de la signalisation intracrine sont limitées aux méthodes indirectes. L'un des objectifs de cette thèse était de synthétiser et caractériser des analogues d'Ang-II cellule-perméants afin d’étudier spécifiquement dans les cellules intactes l'activité intracellulaire du SRA. Nous avons synthétisé et caractérisé pharmacologiquement des analogues photosensibles Ang-II encapsulée en incorporant un groupement 4,5-diméthoxy-2-nitrobenzyl (DMNB) photoclivable sur les sites actifs identifiés du peptide. Chacun des trois analogues d'Ang II encapsulée synthétisés et purifiés: [Tyr(DMNB)4]Ang-II, Ang-II-ODMNB et [Tyr(DMNB)4]Ang-II-ODMNB a montré une réduction par un facteur deux ou trois de l'affinité de liaison envers AT1R et AT2R dans les dosages par liaison compétitive et une activité réduite dans la contraction de l'aorte thoracique. La photostimulation de [Tyr(DMNB)4]Ang-II dans des cellules HEK a augmenté la phosphorylation d'ERK1/2 (via AT1R) et la production de cGMP (via AT2R) alors que dans les cardiomyocytes isolés elle générait une augmentation de Ca2+ nucléoplasmique et initiait la synthèse d'ARNr 18S et d'ARNm du NF-κB. Les fibroblastes sont les principaux générateurs de remodelage cardiaque structurel, et les fibroblastes auriculaires sont plus réactifs aux stimuli profibrotiques que les fibroblastes ventriculaires. Nous avons émis l'hypothèse que l’Ang-II intracellulaire et l'activation des AT1R et AT2R nucléaires associés contrôlaient les profils d'expression des gènes des fibroblastes via des systèmes de signalisation distincts et de ce fait jouaient un rôle majeur dans le développement de la fibrose cardiaque. Nous avons remarqué que les fibroblastes auriculaires expriment l’AT1R et l’AT2R nucléaire et l'Ang-II au niveau intracellulaire. L’expression d'AT1R nucléaire a été régulés positivement dans les cas d’insuffisance cardiaque (IC), tandis que l'AT2R nucléaire a été glycosylé post-traductionnellement. La machinerie protéique des protéines G, y compris Gαq/11, Gαi/3, et Gβ, a été observée dans des noyaux isolés de fibroblastes. AT1R et AT2R régulent l'initiation de la transcription du fibroblaste via les voies de transduction de signal d'IP3R et du NO. La photostimulation de [Tyr(DMNB)4]Ang-II dans une culture de fibroblastes auriculaire déclenche la libération de Ca2+ nucléoplasmique, la prolifération, et la synthèse et sécrétion de collagène qui ne sont pas inhibées par les bloqueurs d'AT1R et/ou AT2R extracellulaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilisation de nanoparticules (NPs) dans divers domaines industriels est de plus en plus fréquente ce qui génère leur propagation dans l’environnement. Selon leur persistance, mobilité, bioaccumulation et toxicité, des risques inconnus pour la santé et pour des écosystèmes peuvent en résulter. En effet, la caractérisation et la quantification sont des défis analytiques très complexes en raison de la nature dynamique (petite taille, grande réactivité et instabilité) des nanomatériaux. L'objectif de cette étude est donc de caractériser par ultracentrifugation analytique (AUC) des nanoparticules polymériques (Allosperse® dites allosphères) qui sont destinées à des fins agricoles. Pour y parvenir, différentes NPs métalliques (argent, quantum dot), oxydes métalliques (dioxyde de titane, oxyde de zinc) et NPs de polystyrène ont d’abord été mesurés par AUC à l’aide des différents systèmes de détection (absorbance, fluorescence et interférence). Dans le cas des allosphères, un grand nombre d'essais préliminaires ont été réalisés afin d'optimiser la vitesse d'ultracentrifugation, le temps d'ultracentrifugation, le nombre de numérisations et la concentration de l'échantillon. Un protocole optimisé a été utilisé pour la détermination du diamètre hydrodynamique (dh) des NPs. Les différentes analyses qui ont été réalisées dans cette étude révèlent que l’AUC permet de déterminer la taille de très petites NPs. Par ailleurs, une étude du comportement de ces allosphères pour des pH entre 4-8, des forces ioniques de 0 à 500 mM, en présence ou absence de matière organique naturelle a été entreprise. Les travaux ont montré que le dH était d’environ 7,0 nm avec de petites augmentations à faible pH, ou à très grande force ionique ou dureté. Ces résultats indiquent la grande stabilité physique et chimique des allosphères qui auront, ainsi, une grande mobilité dans les sols. La diffusion de lumière dynamique et la spectroscopie de corrélation de fluorescence ont été utilisées afin de valider les résultats obtenus par l’AUC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente thèse porte sur les calculs utilisant la théorie de la fonctionnelle de la densité (DFT) pour simuler des systèmes dans lesquels les effets à longue portée sont importants. Une emphase particulière est mise sur les calculs des énergies d’excitations, tout particulièrement dans le cadre des applications photovoltaïques. Cette thèse aborde ces calculs sous deux angles. Tout d’abord, des outils DFT déjà bien établis seront utilisés pour simuler des systèmes d’intérêt expérimental. Par la suite, la théorie sous-jacente à la DFT sera explorée, ses limites seront identifiées et de nouveaux développements théoriques remédiant à ceux-ci seront proposés. Ainsi, dans la première partie de cette thèse, des calculs numériques utilisant la DFT et la théorie de la fonctionnelle de la densité dépendante du temps (TDDFT) telles qu’implémentées dans le logiciel Gaussian [1] sont faits avec des fonctionnelles courantes sur des molécules et des polymères d’intérêt expérimental. En particulier, le projet présenté dans le chapitre 2 explore l’utilisation de chaînes latérales pour optimiser les propriétés électroniques de polymères déjà couramment utilisés en photovoltaïque organique. Les résultats obtenus montrent qu’un choix judicieux de chaînes latérales permet de contrôler les propriétés électroniques de ces polymères et d’augmenter l’efficacité des cellules photovoltaïques les utilisant. Par la suite, le projet présenté dans le chapitre 3 utilise la TDDFT pour explorer les propriétés optiques de deux polymères, le poly-3-hexyl-thiophène (P3HT) et le poly-3-hexyl- sélénophène (P3HS), ainsi que leur mélange, dans le but d’appuyer les observations expérimentales indiquant la formation d’exciplexe dans ces derniers. Les calculs numériques effectués dans la première partie de cette thèse permettent de tirer plusieurs conclusions intéressantes, mais mettent également en évidence certaines limites de la DFT et de la TDDFT pour le traitement des états excités, dues au traitement approximatif de l’interaction coulombienne à longue portée. Ainsi, la deuxième partie de cette thèse revient aux fondements théoriques de la DFT. Plus précisément, dans le chapitre 4, une série de fonctionnelles modélisant plus précisément l’interaction coulombienne à longue portée grâce à une approche non-locale est élaborée. Ces fonctionnelles sont basées sur la WDA (weighted density approximation), qui est modifiée afin d’imposer plusieurs conditions exactes qui devraient être satisfaites par le trou d’échange. Ces fonctionnelles sont ensuite implémentées dans le logiciel Gaussian [1] et leurs performances sont évaluées grâce à des tests effectués sur une série de molécules et d’atomes. Les résultats obtenus indiquent que plusieurs de ces fonctionnelles donnent de meilleurs résultats que la WDA. De plus, ils permettrent de discuter de l’importance relative de satisfaire chacune des conditions exactes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’association démontrée récemment entre les commotions cérébrales dans le sport et le développement possible de maladies neurodégénératives a suggéré la possibilité que des altérations persistantes soient présentes dans le cerveau de l’athlète commotionné. En fait, des altérations neurophysiologiques ont récemment été révélées au sein du cortex moteur primaire (M1) d’athlètes ayant un historique de commotions via la stimulation magnétique transcrânienne (SMT). Plus précisément, la période silencieuse corticale (PSC), une mesure d’inhibition liée aux récepteurs GABAB, était anormalement élevée, et cette hyper-inhibition était présente jusqu’à 30 ans post-commotion. La PSC, et possiblement le GABA, pourraient donc s’avérer des marqueurs objectifs des effets persistants de la commotion cérébrale. Toutefois, aucune étude à ce jour n’a directement évalué les niveaux de GABA chez l’athlète commotionné. Ainsi, les études cliniques et méthodologiques composant le présent ouvrage comportent deux objectifs principaux: (1) déterminer si l’inhibition excessive (GABA et PSC) est un marqueur des effets persistants de la commotion cérébrale; (2) déterminer s’il est possible de moduler l’inhibition intracorticale de façon non-invasive dans l’optique de développer de futurs avenues de traitements. L’article 1 révèle une préservation des systèmes sensorimoteurs, somatosensoriels et de l’inhibition liée au GABAA chez un groupe d’athlètes universitaires asymptomatiques ayant subi de multiples commotions cérébrales en comparaison avec des athlètes sans historique connu de commotion cérébrale. Cependant, une atteinte spécifique des mesures liées au système inhibiteur associé aux récepteurs GABAB est révélée chez les athlètes commotionnés en moyenne 24 mois post-commotion. Dans l’article 2, aucune atteinte des mesures SMT liées au système inhibiteur n’est révélée en moyenne 41 mois après la dernière commotion cérébrale chez un groupe d’athlètes asymptomatiques ayant subi 1 à 5 commotions cérébrales. Bien qu’aucune différence entre les groupes n’est obtenue quant aux concentrations de GABA et de glutamate dans M1 via la spectroscopie par résonance magnétique (SRM), des corrélations différentielles suggèrent la présence d’un déséquilibre métabolique entre le GABA et le glutamate chez les athlètes commotionnés. L’article 3 a démontré, chez des individus en bonne santé, un lien entre la PSC et la transmission glutamatergique, ainsi que le GABA et le glutamate. Ces résultats suggèrent que la PSC ne reflète pas directement les concentrations du GABA mesurées par la SRM, mais qu’un lien étroit entre la GABA et le glutamate est présent. L’article 4 a démontré la possibilité de moduler la PSC avec la stimulation électrique transcrânienne à courant direct (SÉTcd) anodale chez des individus en santé, suggérant l’existence d’un potentiel thérapeutique lié à l’utilisation de cette technique. L’article 5 a illustré un protocole d’évaluation des effets métaboliques de la SÉTcd bilatérale. Dans l’article 6, aucune modulation des systèmes GABAergiques révélées par la SMT et la SRM n’est obtenue suite à l’utilisation de ce protocole auprès d’individus en santé. Cet article révèle également que la SÉTcd anodale n’engendre pas de modulation significative du GABA et du glutamate. En somme, les études incluent dans le présent ouvrage ont permis d’approfondir les connaissances sur les effets neurophysiologiques et métaboliques des commotions cérébrales, mais également sur le mécanisme d’action des diverses méthodologies utilisées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans l'apprentissage machine, la classification est le processus d’assigner une nouvelle observation à une certaine catégorie. Les classifieurs qui mettent en œuvre des algorithmes de classification ont été largement étudié au cours des dernières décennies. Les classifieurs traditionnels sont basés sur des algorithmes tels que le SVM et les réseaux de neurones, et sont généralement exécutés par des logiciels sur CPUs qui fait que le système souffre d’un manque de performance et d’une forte consommation d'énergie. Bien que les GPUs puissent être utilisés pour accélérer le calcul de certains classifieurs, leur grande consommation de puissance empêche la technologie d'être mise en œuvre sur des appareils portables tels que les systèmes embarqués. Pour rendre le système de classification plus léger, les classifieurs devraient être capable de fonctionner sur un système matériel plus compact au lieu d'un groupe de CPUs ou GPUs, et les classifieurs eux-mêmes devraient être optimisés pour ce matériel. Dans ce mémoire, nous explorons la mise en œuvre d'un classifieur novateur sur une plate-forme matérielle à base de FPGA. Le classifieur, conçu par Alain Tapp (Université de Montréal), est basé sur une grande quantité de tables de recherche qui forment des circuits arborescents qui effectuent les tâches de classification. Le FPGA semble être un élément fait sur mesure pour mettre en œuvre ce classifieur avec ses riches ressources de tables de recherche et l'architecture à parallélisme élevé. Notre travail montre que les FPGAs peuvent implémenter plusieurs classifieurs et faire les classification sur des images haute définition à une vitesse très élevée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous présentons dans cette thèse des théorèmes de point fixe pour des contractions multivoques définies sur des espaces métriques, et, sur des espaces de jauges munis d’un graphe. Nous illustrons également les applications de ces résultats à des inclusions intégrales et à la théorie des fractales. Cette thèse est composée de quatre articles qui sont présentés dans quatre chapitres. Dans le chapitre 1, nous établissons des résultats de point fixe pour des fonctions multivoques, appelées G-contractions faibles. Celles-ci envoient des points connexes dans des points connexes et contractent la longueur des chemins. Les ensembles de points fixes sont étudiés. La propriété d’invariance homotopique d’existence d’un point fixe est également établie pour une famille de Gcontractions multivoques faibles. Dans le chapitre 2, nous établissons l’existence de solutions pour des systèmes d’inclusions intégrales de Hammerstein sous des conditions de type de monotonie mixte. L’existence de solutions pour des systèmes d’inclusions différentielles avec conditions initiales ou conditions aux limites périodiques est également obtenue. Nos résultats s’appuient sur nos théorèmes de point fixe pour des G-contractions multivoques faibles établis au chapitre 1. Dans le chapitre 3, nous appliquons ces mêmes résultats de point fixe aux systèmes de fonctions itérées assujettis à un graphe orienté. Plus précisément, nous construisons un espace métrique muni d’un graphe G et une G-contraction appropriés. En utilisant les points fixes de cette G-contraction, nous obtenons plus d’information sur les attracteurs de ces systèmes de fonctions itérées. Dans le chapitre 4, nous considérons des contractions multivoques définies sur un espace de jauges muni d’un graphe. Nous prouvons un résultat de point fixe pour des fonctions multivoques qui envoient des points connexes dans des points connexes et qui satisfont une condition de contraction généralisée. Ensuite, nous étudions des systèmes infinis de fonctions itérées assujettis à un graphe orienté (H-IIFS). Nous donnons des conditions assurant l’existence d’un attracteur unique à un H-IIFS. Enfin, nous appliquons notre résultat de point fixe pour des contractions multivoques définies sur un espace de jauges muni d’un graphe pour obtenir plus d’information sur l’attracteur d’un H-IIFS. Plus précisément, nous construisons un espace de jauges muni d’un graphe G et une G-contraction appropriés tels que ses points fixes sont des sous-attracteurs du H-IIFS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Payer ses soins est une réalité coûteuse pour les usagers des services de santé en Afrique subsaharienne. Plusieurs pays suppriment donc certains types de paiements directs des soins au point de service, en instaurant des politiques d’exemption des paiements (PEP). Cette thèse explore trois enjeux majeurs soulevés par ces réformes. Le premier article analyse le positionnement des acteurs de la santé mondiale dans le débat sur les paiements directs des soins dans les pays à faible et moyen revenu. Cette étude documentaire montre que la majorité des acteurs s’exprime en défaveur des paiements directs en invoquant notamment leurs effets néfastes sur l’équité d’accès aux soins. Le second article met en lumière les effets perturbateurs des PEP sur les systèmes de santé des pays à faible et moyen revenu. Cette synthèse exploratoire indique que leur mise en œuvre perturbe les systèmes de santé de plusieurs manières : augmentation immédiate de l’utilisation des services gratuits, indisponibilité des médicaments, financement imprévisible et insuffisant, multiplicité des organes impliqués dans la mise en œuvre, et déficiences dans la planification et la communication. Le troisième article examine la manière dont les PEP influencent le recours aux soins des usagers. La revue réaliste a permis de développer une théorie qui explique ce processus, et de la mettre à l’épreuve d’études empiriques. Selon cette théorie, les PEP sont une ressource contribuant à renforcer le pouvoir d’agir des usagers. Ce pouvoir d’agir est également influencé par des facteurs structurels, locaux et individuels qui agissent sur la « capabilité » des usagers de se saisir de cette ressource, et de choisir de recourir aux services de santé gratuits. Trois mécanismes jouent un rôle essentiel dans ce choix : la confiance, l’acceptabilité, et la reconnaissance du risque. Cette thèse contribue au développement des connaissances empiriques sur une réforme majeure des systèmes de santé en Afrique subsaharienne. Elle apporte également des enseignements méthodologiques à la revue réaliste, et participe à la construction du champ de la recherche sur les politiques et systèmes de santé dans les pays à faible et moyen revenu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail dirigé présenté à la Faculté des sciences infirmières en vue de l'obtention du grade de maître ès Sciences (M.Sc.)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le domaine biomédical est probablement le domaine où il y a les ressources les plus riches. Dans ces ressources, on regroupe les différentes expressions exprimant un concept, et définit des relations entre les concepts. Ces ressources sont construites pour faciliter l’accès aux informations dans le domaine. On pense généralement que ces ressources sont utiles pour la recherche d’information biomédicale. Or, les résultats obtenus jusqu’à présent sont mitigés : dans certaines études, l’utilisation des concepts a pu augmenter la performance de recherche, mais dans d’autres études, on a plutôt observé des baisses de performance. Cependant, ces résultats restent difficilement comparables étant donné qu’ils ont été obtenus sur des collections différentes. Il reste encore une question ouverte si et comment ces ressources peuvent aider à améliorer la recherche d’information biomédicale. Dans ce mémoire, nous comparons les différentes approches basées sur des concepts dans un même cadre, notamment l’approche utilisant les identificateurs de concept comme unité de représentation, et l’approche utilisant des expressions synonymes pour étendre la requête initiale. En comparaison avec l’approche traditionnelle de "sac de mots", nos résultats d’expérimentation montrent que la première approche dégrade toujours la performance, mais la seconde approche peut améliorer la performance. En particulier, en appariant les expressions de concepts comme des syntagmes stricts ou flexibles, certaines méthodes peuvent apporter des améliorations significatives non seulement par rapport à la méthode de "sac de mots" de base, mais aussi par rapport à la méthode de Champ Aléatoire Markov (Markov Random Field) qui est une méthode de l’état de l’art dans le domaine. Ces résultats montrent que quand les concepts sont utilisés de façon appropriée, ils peuvent grandement contribuer à améliorer la performance de recherche d’information biomédicale. Nous avons participé au laboratoire d’évaluation ShARe/CLEF 2014 eHealth. Notre résultat était le meilleur parmi tous les systèmes participants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les fichiers accompagnant le document sont en format Microsoft Excel 2010.