776 resultados para peacock bass
Resumo:
Objectifs: Évaluer l’association entre l’exposition récréative, professionnelle et globale au soleil et le risque de cancer de la prostate (CaP). Méthodes: Dans le contexte d’une étude cas-témoins sur le CaP menée à Montréal, Canada, des entrevues ont été complétées auprès de 1371 cas incidents de CaP diagnostiqués en 2005-2009, et 1479 témoins de la population générale. Des questionnaires détaillés ont permis d’obtenir de l’information sur la fréquence et la durée de participation à toute activité extérieure lors des loisirs durant l’âge adulte, ainsi qu’une description de chaque emploi tenu au cours de la vie. Une matrice emploi-exposition canadienne a été appliquée à chaque emploi afin d’assigner un niveau d’exposition professionnelle au soleil. Des indices cumulatifs de l’exposition au soleil basés sur le nombre d’événements récréatifs, la durée d’exposition professionnelle, ainsi qu’un indice d’exposition global ont été développés. La régression logistique a été utilisée pour estimer l’association entre chaque indice d’exposition et le CaP, en ajustant pour des variables de confusion potentielles. Résultats: Globalement, il n’y avait pas d’association entre chacun des indices d’exposition et le risque de CaP. Certaines tendances en accord avec un risque légèrement plus faible chez les hommes exposés au soleil ont été observées mais les résultats n’étaient pas statistiquement significatifs et il n’y avait pas de relation dose-réponse. Conclusion: Notre étude apporte peu de soutien à l’hypothèse d’une association entre l’exposition au soleil et le risque de développer un cancer de la prostate.
Resumo:
Au cours des dernières années, des méthodes non-invasives de stimulations permettant de moduler l’excitabilité des neurones suivant des lésions du système nerveux central ont été développées. Ces méthodes sont maintenant couramment utilisées pour étudier l’effet de l’inhibition du cortex contralésionnel sur la récupération motrice à la suite d’un accident vasculocérébral (AVC). Bien que plusieurs de ces études rapportent des résultats prometteurs, les paramètres permettant une récupération optimale demeurent encore inconnus. Chez les patients victimes d'un AVC, il est difficile de débuter les traitements rapidement et d'initier l’inhibition dans les heures suivant la lésion. L'impact de ce délai est toujours inconnu. De plus, aucune étude n’a jusqu’à maintenant évalué l’effet de la durée de l’inhibition sur la récupération du membre parétique. Dans le laboratoire du Dr Numa Dancause, nous avons utilisé un modèle bien établi de lésion ischémique chez le rat pour explorer ces questions. Nos objectifs étaient d’évaluer 1) si une inactivation de l’hémisphère contralésionnel initiée dans les heures qui suivent la lésion peut favoriser la récupération et 2) l’effet de la durée de l’inactivation sur la récupération du membre parétique. Suite à une lésion dans le cortex moteur induite par injections d’un vasoconstricteur, nous avons inactivé l’hémisphère contralésionnel à l’aide d’une pompe osmotique assurant l’infusion continue d’un agoniste du GABA (Muscimol). Dans différents groupes expérimentaux, nous avons inactivé l’hémisphère contralésionnel pour une durée de 3, 7 et 14 jours suivant la lésion. Dans un autre groupe, le Muscimol a été infusé pour 14 jours mais à un débit moindre de façon à pouvoir étudier le lien entre la fonction du membre non-parétique et la récupération du membre parétique. Les données comportementales de ces groupes ont été comparées à celles d’animaux ayant récupéré de façon spontanée d'une lésion similaire. Nos résultats indiquent que l’augmentation de la durée de l’inactivation (de 3 à 14 jours) accélère la récupération du membre parétique. De plus, les deux groupes ayant reçu une inactivation d'une durée de 14 jours ont montré une plus grande récupération fonctionnelle que le groupe n’ayant pas reçu d’inactivation de l’hémisphère contralésionnel, le groupe contrôle. Nos résultats suggèrent donc que l’inactivation de l’hémisphère contralésionnel initiée dans les heures suivant la lésion favorise la récupération du membre parétique. La durée d’inhibition la plus efficace (14 jours) dans notre modèle animal est beaucoup plus longues que celles utilisées jusqu’à maintenant chez l’homme. Bien qu’il soit difficile d’extrapoler la durée idéale à utiliser chez les patients à partir de nos données, nos résultats suggèrent que des traitements de plus longue durée pourraient être bénéfiques. Finalement, un message clair ressort de nos études sur la récupération fonctionnelle après un AVC: dans le développement de traitements basés sur l’inhibition de l’hémisphère contralésionnel, la durée de l’inactivation est un facteur clef à considérer.
Resumo:
En opération depuis 2008, l’expérience ATLAS est la plus grande de toutes les expériences au LHC. Les détecteurs ATLAS- MPX (MPX) installés dans ATLAS sont basés sur le détecteur au silicium à pixels Medipix2 qui a été développé par la collaboration Medipix au CERN pour faire de l’imagerie en temps réel. Les détecteurs MPX peuvent être utilisés pour mesurer la luminosité. Ils ont été installés à seize différents endroits dans les zones expérimentale et technique d’ATLAS en 2008. Le réseau MPX a recueilli avec succès des données indépendamment de la chaîne d’enregistrement des données ATLAS de 2008 à 2013. Chaque détecteur MPX fournit des mesures de la luminosité intégrée du LHC. Ce mémoire décrit la méthode d’étalonnage de la luminosité absolue mesurée avec les détectors MPX et la performance des détecteurs MPX pour les données de luminosité en 2012. Une constante d’étalonnage de la luminosité a été déterminée. L’étalonnage est basé sur technique de van der Meer (vdM). Cette technique permet la mesure de la taille des deux faisceaux en recouvrement dans le plan vertical et horizontal au point d’interaction d’ATLAS (IP1). La détermination de la luminosité absolue nécessite la connaissance précise de l’intensité des faisceaux et du nombre de trains de particules. Les trois balayages d’étalonnage ont été analysés et les résultats obtenus par les détecteurs MPX ont été comparés aux autres détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité. La luminosité obtenue à partir des balayages vdM a été comparée à la luminosité des collisions proton- proton avant et après les balayages vdM. Le réseau des détecteurs MPX donne des informations fiables pour la détermination de la luminosité de l’expérience ATLAS sur un large intervalle (luminosité de 5 × 10^29 cm−2 s−1 jusqu’à 7 × 10^33 cm−2 s−1 .
Resumo:
La littérature sur l’électrophysiologie des émotions ne semble pas trouver de consensus. Certaines études démontrent que les gens réagissent davantage à des stimuli de valence positive, tandis que d’autres concluent le contraire. L’objectif principal de ce mémoire est de vérifier les effets de la variable relationnelle sur les réactions physiologiques de sujets issus de la population étudiante. C’est-à-dire, les réactions physiologiques sont-elles influencées uniquement par la valence affective des différentes émotions ou s’ils sont également influencés par le contexte relationnel des stimuli? Le second objectif du projet de recherche proposé est de vérifier s’il existe un effet d’interaction entre la qualité affective des schémas relationnels des participants et la nature relationnelle ou non des stimuli. Pour ce faire, le rythme cardiaque a été pris sur 16 sujets divisés en 2 groupes, basés sur leurs résultats au TAT, analysés sur l’échelle de la tonalité affective du SCORS. Finalement, un troisième objectif est de comparer l’expérience subjective des participants aux mesures physiologiques obtenues. Les résultats démontrent que les gens réagissent davantage aux scénarios non relationnels que ceux relationnels. De plus, les grandes tailles d’effet des deux groupes (tonalité affective haute et basse) semblent indiquer l’importance de prendre en considération cette variable dans de futures recherches. Finalement, d’autres études, notamment avec de plus grands échantillons, seront nécessaires pour montrer l’importance de la qualité relationnelle dans l’expérience émotive.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
Travail dirigé
Resumo:
Essai doctoral présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Doctorat (D.Psy.) en psychologie clinique
Resumo:
Nous présentons dans cette thèse notre travail dans le domaine de la visualisation. Nous nous sommes intéressés au problème de la génération des bulletins météorologiques. Étant donné une masse énorme d’information générée par Environnement Canada et un utilisateur, il faut lui générer une visualisation personnalisée qui répond à ses besoins et à ses préférences. Nous avons développé MeteoVis, un générateur de bulletin météorologique. Comme nous avons peu d’information sur le profil de l’utilisateur, nous nous sommes basés sur les utilisateurs similaires pour lui calculer ses besoins et ses préférences. Nous utilisons l'apprentissage non supervisé pour regrouper les utilisateurs similaires. Nous calculons le taux de similarité des profils utilisateurs dans le même cluster pour pondérer les besoins et les préférences. Nous avons mené, avec l’aide d'utilisateurs n’ayant aucun rapport avec le projet, des expériences d'évaluation et de comparaison de notre outil par rapport à celui utilisé actuellement par Environnement Canada. Les résultats de cette évaluation montrent que les visualisation générées par MeteoVis sont de loin meilleures que les bulletins actuels préparés par EC.
Resumo:
Cette thèse étudie des modèles de séquences de haute dimension basés sur des réseaux de neurones récurrents (RNN) et leur application à la musique et à la parole. Bien qu'en principe les RNN puissent représenter les dépendances à long terme et la dynamique temporelle complexe propres aux séquences d'intérêt comme la vidéo, l'audio et la langue naturelle, ceux-ci n'ont pas été utilisés à leur plein potentiel depuis leur introduction par Rumelhart et al. (1986a) en raison de la difficulté de les entraîner efficacement par descente de gradient. Récemment, l'application fructueuse de l'optimisation Hessian-free et d'autres techniques d'entraînement avancées ont entraîné la recrudescence de leur utilisation dans plusieurs systèmes de l'état de l'art. Le travail de cette thèse prend part à ce développement. L'idée centrale consiste à exploiter la flexibilité des RNN pour apprendre une description probabiliste de séquences de symboles, c'est-à-dire une information de haut niveau associée aux signaux observés, qui en retour pourra servir d'à priori pour améliorer la précision de la recherche d'information. Par exemple, en modélisant l'évolution de groupes de notes dans la musique polyphonique, d'accords dans une progression harmonique, de phonèmes dans un énoncé oral ou encore de sources individuelles dans un mélange audio, nous pouvons améliorer significativement les méthodes de transcription polyphonique, de reconnaissance d'accords, de reconnaissance de la parole et de séparation de sources audio respectivement. L'application pratique de nos modèles à ces tâches est détaillée dans les quatre derniers articles présentés dans cette thèse. Dans le premier article, nous remplaçons la couche de sortie d'un RNN par des machines de Boltzmann restreintes conditionnelles pour décrire des distributions de sortie multimodales beaucoup plus riches. Dans le deuxième article, nous évaluons et proposons des méthodes avancées pour entraîner les RNN. Dans les quatre derniers articles, nous examinons différentes façons de combiner nos modèles symboliques à des réseaux profonds et à la factorisation matricielle non-négative, notamment par des produits d'experts, des architectures entrée/sortie et des cadres génératifs généralisant les modèles de Markov cachés. Nous proposons et analysons également des méthodes d'inférence efficaces pour ces modèles, telles la recherche vorace chronologique, la recherche en faisceau à haute dimension, la recherche en faisceau élagué et la descente de gradient. Finalement, nous abordons les questions de l'étiquette biaisée, du maître imposant, du lissage temporel, de la régularisation et du pré-entraînement.
Resumo:
Ma thèse est composée de trois essais sur l'inférence par le bootstrap à la fois dans les modèles de données de panel et les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peut être faible. La théorie asymptotique n'étant pas toujours une bonne approximation de la distribution d'échantillonnage des estimateurs et statistiques de tests, je considère le bootstrap comme une alternative. Ces essais tentent d'étudier la validité asymptotique des procédures bootstrap existantes et quand invalides, proposent de nouvelles méthodes bootstrap valides. Le premier chapitre #co-écrit avec Sílvia Gonçalves# étudie la validité du bootstrap pour l'inférence dans un modèle de panel de données linéaire, dynamique et stationnaire à effets fixes. Nous considérons trois méthodes bootstrap: le recursive-design bootstrap, le fixed-design bootstrap et le pairs bootstrap. Ces méthodes sont des généralisations naturelles au contexte des panels des méthodes bootstrap considérées par Gonçalves et Kilian #2004# dans les modèles autorégressifs en séries temporelles. Nous montrons que l'estimateur MCO obtenu par le recursive-design bootstrap contient un terme intégré qui imite le biais de l'estimateur original. Ceci est en contraste avec le fixed-design bootstrap et le pairs bootstrap dont les distributions sont incorrectement centrées à zéro. Cependant, le recursive-design bootstrap et le pairs bootstrap sont asymptotiquement valides quand ils sont appliqués à l'estimateur corrigé du biais, contrairement au fixed-design bootstrap. Dans les simulations, le recursive-design bootstrap est la méthode qui produit les meilleurs résultats. Le deuxième chapitre étend les résultats du pairs bootstrap aux modèles de panel non linéaires dynamiques avec des effets fixes. Ces modèles sont souvent estimés par l'estimateur du maximum de vraisemblance #EMV# qui souffre également d'un biais. Récemment, Dhaene et Johmans #2014# ont proposé la méthode d'estimation split-jackknife. Bien que ces estimateurs ont des approximations asymptotiques normales centrées sur le vrai paramètre, de sérieuses distorsions demeurent à échantillons finis. Dhaene et Johmans #2014# ont proposé le pairs bootstrap comme alternative dans ce contexte sans aucune justification théorique. Pour combler cette lacune, je montre que cette méthode est asymptotiquement valide lorsqu'elle est utilisée pour estimer la distribution de l'estimateur split-jackknife bien qu'incapable d'estimer la distribution de l'EMV. Des simulations Monte Carlo montrent que les intervalles de confiance bootstrap basés sur l'estimateur split-jackknife aident grandement à réduire les distorsions liées à l'approximation normale en échantillons finis. En outre, j'applique cette méthode bootstrap à un modèle de participation des femmes au marché du travail pour construire des intervalles de confiance valides. Dans le dernier chapitre #co-écrit avec Wenjie Wang#, nous étudions la validité asymptotique des procédures bootstrap pour les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peu être faible. Nous montrons analytiquement qu'un bootstrap standard basé sur les résidus et le bootstrap restreint et efficace #RE# de Davidson et MacKinnon #2008, 2010, 2014# ne peuvent pas estimer la distribution limite de l'estimateur du maximum de vraisemblance à information limitée #EMVIL#. La raison principale est qu'ils ne parviennent pas à bien imiter le paramètre qui caractérise l'intensité de l'identification dans l'échantillon. Par conséquent, nous proposons une méthode bootstrap modifiée qui estime de facon convergente cette distribution limite. Nos simulations montrent que la méthode bootstrap modifiée réduit considérablement les distorsions des tests asymptotiques de type Wald #$t$# dans les échantillons finis, en particulier lorsque le degré d'endogénéité est élevé.
Resumo:
This work describes a methodology for converting a specialized dictionary into a learner’s dictionary. The dictionary to which we apply our conversion method is the DiCoInfo, Dictionnaire fondamental de l’informatique et de l’Internet. We focus on changes affecting the presentation of data categories. What is meant by specialized dictionary for learners, in our case, is a dictionary covering the field of computer science and Internet meeting our users’ needs in communicative and cognitive situations. Our dictionary is aimed at learners’ of the computing language. We start by presenting a detailed description of four dictionaries for learners. We explain how the observations made on these resources have helped us in developing our methodology.In order to develop our methodology, first, based on Bergenholtz and Tarp’s works (Bergenholtz 2003; Tarp 2008; Fuertes Olivera and Tarp 2011), we defined the type of users who may use our dictionary. Translators are our first intended users. Other users working in the fields related to translation are also targeted: proofreaders, technical writers, interpreters. We also determined the use situations of our dictionary. It aims to assist the learners in solving text reception and text production problems (communicative situations) and in studying the terminology of computing (cognitive situations). Thus, we could establish its lexicographical functions: communicative and cognitive functions. Then, we extracted 50 articles from the DiCoInfo to which we applied a number of changes in different aspects: the layout, the presentation of data, the navigation and the use of multimedia. The changes were made according to two fundamental parameters: 1) simplification of the presentation; 2) lexicographic functions (which include the intended users and user’s situations). In this way, we exploited the widgets offered by the technology to update the interface and layout. Strategies have been developed to organize a large number of lexical links in a simpler way. We associated these links with examples showing their use in specific contexts. Multimedia as audio pronunciation and illustrations has been used.
Resumo:
Le 1er avril 2003, l’entrée en vigueur de la Loi sur le système de justice pénale pour les adolescents (LSJPA) a fourni aux policiers canadiens de nouveaux outils pour procéder à des interventions non-judiciaires auprès d’adolescents contrevenants. Dorénavant, les policiers détiennent le pouvoir officiel d’imposer des mesures extrajudiciaires aux adolescents interpellés pour avoir commis des infractions plutôt que de procéder à leur arrestation formelle. La présente étude vise à déterminer quelles caractéristiques des adolescents et circonstances des infractions ont un impact significatif sur les décisions des policiers d’imposer ces mesures plutôt que de procéder à des arrestations. Les résultats sont basés sur trois échantillons de participations criminelles juvéniles enregistrées par un corps policier canadien entre 2003 et 2010: le premier composé d’infractions contre la personne (n= 3 482), le second, d’infractions contre la propriété (n= 8 230) et le troisième, d’autres crimes (n= 1 974). L’analyse de régression logistique multiniveaux a été utilisée pour déterminer les facteurs — tels que le sexe, l’âge et les contacts antérieurs avec la justice des adolescents ainsi que la localisation dans le temps et l’espace de l’infraction — ont un impact significatif sur le pouvoir discrétionnaire des policiers. Certains facteurs ont une influence universelle d’une catégorie de crime à l’autre, tandis que d’autres ont un impact spécifique selon le type d’infraction commise.
Resumo:
Cette thèse s’intéresse à l’influence des facteurs contextuels sur la mise en œuvre et les effets d’une politique de santé maternelle au Burkina Faso. Cette politique nommée la subvention SONU vise à faire augmenter la couverture des accouchements dans les établissements de santé publics en agissant sur l’accessibilité économique des ménages. La thèse propose une évaluation des processus de cette politique. Le cadre d’analyse repose sur des propositions théoriques issues du champ de l’étude des politiques sanitaires (les acteurs et leurs relations de pouvoir) et de l’anthropologie médicale critique (les représentations). L’étude s’est déroulée dans le district sanitaire de Djibo, situé dans la région du Sahel. Il s’agit d’une étude de cas multiples où chaque centre de santé représentait un cas. L’approche méthodologique employée était qualitative. Une enquête de terrain, des entretiens, des groupes de discussion, des observations non participantes et une analyse documentaire ont été les méthodes de collecte de données utilisées. Les résultats préliminaires de l’étude ont été présentés aux parties prenantes. Le premier article évalue l’implantation de cette subvention SONU au niveau d’un district et rend compte de l’influence des rapports de pouvoir sur la mise en œuvre de cette dernière. Les résultats indiquent que toutes les composantes de cette subvention sont mises en œuvre, à l’exception du fond d’indigence et de certaines composantes relatives à la qualité technique des soins telles que les sondages pour les bénéficiaires et l’équipe d’assurance qualité dans l’hôpital du district. Les professionnels et les gestionnaires de la santé expliquent les difficultés dans l’application de politique de subvention par un manque de clarté et de compréhension des directives officielles. Les relations de pouvoir entre les différents groupes d’acteurs ont une influence sur la mise en œuvre de cette politique. Les rapports entre gestionnaires du district et agents de santé sont basés sur des rapports hiérarchiques. Ainsi, les gestionnaires contrôlent le travail des agents de santé et imposent des changements à la mise en œuvre de la politique. Les rapports entre soignants et patients sont variables. Dans certains centres de santé, les communautés perçoivent positivement cette relation alors que dans d’autres, elle est perçue négativement. Les perceptions sur les relations entre les accoucheuses villageoises et les agents de santé sont également partagées. Pour les agents de santé, ces actrices peuvent être de potentielles alliées pour renforcer l’efficacité de la politique SONU en incitant les femmes à utiliser les services de santé, mais elles sont aussi perçues comme des obstacles, lorsqu’elles continuent à effectuer des accouchements à domicile. Les difficultés de compréhension des modalités de remboursement entrainent une rigidité dans les rapports entre agents de santé et comités de gestion. Le deuxième article vise à comprendre la variation observée sur la couverture des accouchements entre plusieurs centres de santé après la mise en œuvre de cette politique SONU. Les facteurs contextuels et plus spécifiquement humains ont une influence sur la couverture des accouchements assistés. Le leadership des agents de santé, caractérisé par l’initiative personnelle, l’éthique professionnelle et l’établissement d’un lien de confiance entre les populations et l’équipe sanitaire expliquent la différence d’effets observée sur la couverture des accouchements assistés après la mise en œuvre de cette dernière. Le troisième article analyse l’usage stratégique des référentiels ethnoculturels par certaines équipes sanitaires pour expliquer l’échec partiel de la politique SONU dans certains centres de santé. La référence à ces facteurs vise essentiellement à normaliser et légitimer l’absence d’effet de la politique sur la couverture des accouchements assistés. Elle contribue également à blâmer les populations. Enfin, le recours à ces référentiels tend à écarter les interprétations socioéconomiques et politiques qui sous-tendent la problématique des accouchements dans les établissements de santé publics. Sur le plan pratique, cette thèse permet de mieux comprendre le processus de mise en œuvre d’une politique de santé maternelle. Elle montre que les dimensions relatives à l’équité et à la qualité des soins sont négligées dans ce processus. Cette recherche met en lumière les difficultés auxquelles sont confrontés les agents de santé dans la mise en oeuvre de cette politique. Elle met également en exergue les facteurs qui expliquent l’hétérogénéité observée sur la couverture des accouchements assistés entre les centres de santé après la mise en œuvre de cette politique. Sur le plan théorique, cette thèse montre l’importance d’identifier les rapports de pouvoir qui s’exercent entre les différents acteurs impliqués dans les politiques sanitaires. Elle rappelle l’influence considérable des facteurs contextuels sur la mise en œuvre et les effets des politiques. Enfin, cette recherche révèle le poids des représentations sociales des acteurs dans la compréhension des effets des politiques. Cette thèse contribue au développement des connaissances dans le champ des politiques publiques sur le plan des thématiques abordées (mise en œuvre, rapports de pouvoir) et de l’approche méthodologique (enquête de terrain) utilisée. Elle participe aussi aux réflexions théoriques sur le concept de leadership des professionnels de la santé en Afrique.
Resumo:
Nous proposons dans cette thèse un système permettant de déterminer, à partir des données envoyées sur les microblogs, les évènements qui stimulent l’intérêt des utilisateurs durant une période donnée et les dates saillantes de chaque évènement. Étant donné son taux d’utilisation élevé et l’accessibilité de ses données, nous avons utilisé la plateforme Twitter comme source de nos données. Nous traitons dans ce travail les tweets portant sur la Tunisie dont la plupart sont écrits par des tunisiens. La première tâche de notre système consistait à extraire automatiquement les tweets d’une façon continue durant 67 jours (de 8 février au 15 avril 2012). Nous avons supposé qu’un évènement est représenté par plusieurs termes dont la fréquence augmente brusquement à un ou plusieurs moments durant la période analysée. Le manque des ressources nécessaires pour déterminer les termes (notamment les hashtags) portant sur un même sujet, nous a obligé à proposer des méthodes permettant de regrouper les termes similaires. Pour ce faire, nous avons eu recours à des méthodes phonétiques que nous avons adaptées au mode d’écriture utilisée par les tunisiens, ainsi que des méthodes statistiques. Pour déterminer la validité de nos méthodes, nous avons demandé à des experts, des locuteurs natifs du dialecte tunisien, d’évaluer les résultats retournés par nos méthodes. Ces groupes ont été utilisés pour déterminer le sujet de chaque tweet et/ou étendre les tweets par de nouveaux termes. Enfin, pour sélectionner l'ensemble des évènements (EV), nous nous sommes basés sur trois critères : fréquence, variation et TF-IDF. Les résultats que nous avons obtenus ont montré la robustesse de notre système.
Resumo:
Ce mémoire porte sur l’analyse documentaire en milieu universitaire. Deux approches générales sont d’abord étudiées : l’approche centrée sur le document (premier chapitre), prédominante dans la tradition bibliothéconomique, et l’approche centrée sur l’usager (deuxième chapitre), influencée par le développement d’outils le plus souvent associés au Web 2.0. L’opposition entre ces deux démarches reflète une dichotomie qui se trouve au cœur de la notion de sujet, c’est-à-dire les dimensions objective et subjective du sujet. Ce mémoire prend par conséquent la forme d’une dissertation dont l’avantage principal est de considérer à la fois d’importants acquis qui appartiennent à la tradition bibliothéconomique, à la fois des développements plus récents ayant un impact important sur l’évolution de l’analyse documentaire en milieu universitaire. Notre hypothèse est que ces deux tendances générales doivent être mises en relief afin d’approfondir la problématique de l’appariement, laquelle définit la difficulté d’accorder le vocabulaire qu’utilise l’usager dans ses recherches documentaires avec celui issu de l’analyse documentaire (métadonnées sujet). Dans le troisième chapitre, nous examinons certaines particularités liées à l’utilisation de la documentation en milieu universitaire dans le but de repérer certaines possibilités et certaines exigences de l’analyse documentaire dans un tel milieu. À partir d’éléments basés sur l’analyse des domaines d’études et sur la démarche analytico-synthétique, il s’agit d’accentuer l’interaction potentielle entre usagers et analystes documentaires sur le plan du vocabulaire utilisé de part et d’autre.