101 resultados para Percussion ensembles--Senegal
Resumo:
FRANCAIS: L'observation d'une intense luminescence dans les super-réseaux de Si/SiO2 a ouvert de nouvelles avenues en recherche théorique des matériaux à base de silicium, pour des applications éventuelles en optoélectronique. Le silicium dans sa phase cristalline possède un gap indirect, le rendant ainsi moins intéressant vis-à-vis d'autres matériaux luminescents. Concevoir des matériaux luminescents à base de silicium ouvrira donc la voie sur de multiples applications. Ce travail fait état de trois contributions au domaine. Premièrement, différents modèles de super-réseaux de Si/SiO2 ont été conçus et étudiés à l'aide de calculs ab initio afin d'en évaluer les propriétés structurales, électroniques et optiques. Les deux premiers modèles dérivés des structures cristallines du silicium et du dioxyde de silicium ont permis de démontrer l'importance du rôle de l'interface Si/SiO2 sur les propriétés optiques. De nouveaux modèles structurellement relaxés ont alors été construits afin de mieux caractériser les interfaces et ainsi mieux évaluer la portée du confinement sur les propriétés optiques. Deuxièmement, un gap direct dans les modèles structurellement relaxés a été obtenu. Le calcul de l'absorption (par l'application de la règle d'or de Fermi) a permis de confirmer que les propriétés d'absorption (et d'émission) du silicium cristallin sont améliorées lorsque celui-ci est confiné par le SiO2. Un décalage vers le bleu avec accroissement du confinement a aussi été observé. Une étude détaillée du rôle des atomes sous-oxydés aux interfaces a de plus été menée. Ces atomes ont le double effet d'accroître légèrement le gap d'énergie et d'aplanir la structure électronique près du niveau de Fermi. Troisièmement, une application directe de la théorique des transitions de Slater, une approche issue de la théorie de la fonctionnelle de la densité pour des ensembles, a été déterminée pour le silicium cristallin puis comparée aux mesures d'absorption par rayons X. Une très bonne correspondance entre cette théorie et l'expérience est observée. Ces calculs ont été appliqués aux super-réseaux afin d'estimer et caractériser leurs propriétés électroniques dans la zone de confinement, dans les bandes de conduction.
Resumo:
Depuis quelques années, l’urbanisme tend à considérer de plus en plus la question patrimoniale. Au Québec, c’est suite à l’adoption, en 1980, de la Loi sur l’aménagement et l’urbanisme que fut formellement introduite la donne patrimoniale dans la pratique urbanistique. Bien que cette pratique tente aujourd’hui de poser la conservation du patrimoine bâti comme l’une de ses préoccupations, elle ne parvient pas à l’assumer complètement. En nous basant sur la définition du patrimoine urbain telle que proposée par Gustavo Giovannoni, nous voulons, par cette étude, amorcer une réflexion sur les enjeux d’une approche urbanistique du patrimoine urbain. Nous proposons dans un premier temps un survol de l’évolution de la notion de patrimoine urbain. Cette évolution est mise en relation avec la constitution d’un regard sur le patrimoine bâti québécois. Nous analysons, par la suite, trois moments clés dans la constitution d’un tel regard. La mise en contexte de la naissance de l’urbanisme québécois constitue, quant à elle, le troisième et avant-dernier volet de notre réflexion. À la lumière de cette analyse, nous considérons que le regard de l’urbaniste, posé sur le patrimoine bâti, témoigne encore aujourd’hui d’un désintérêt pour la forme. L’abandon du domaine du physico-spatial au profit d’une gestion rationnelle de la ville a engendré une méconnaissance des processus de constitution des ensembles bâtis et du rôle des formes spécialisées polarisantes. Une véritable approche urbanistique du patrimoine bâti ne saurait passer que par la reconnaissance des processus morphogénétiques des ensembles urbains anciens et de leur inscription dans la ville contemporaine.
Resumo:
Résumé Objectif : Identifier les facteurs institutionnels qui influencent la mortalité maternelle (MM) hospitalière dans les maternités chirurgicales au Sénégal. Méthode : cette étude est une analyse secondaire des données de la troisième Enquête Nationale sur la Couverture Obstétrico-chirurgicale au Sénégal en 2001. Les données analysées, issues des fiches d'activité des maternités, comptaient pour 38,239 admissions en obstétrique dans 19 hôpitaux et 450 décès maternels. Les taux de mortalité maternelle hospitalière (TMMH) brut et ajusté ont été utilisés comme variables dépendantes. Le TMMH ajusté sur les caractéristiques de la clientèle ('cases-mix') a été estimé pour chaque établissement de santé par la méthode de standardisation directe. Les indicateurs de la qualité des structures, de la gestion des ressources, et un score de qualité ont été utilisés comme variables indépendantes pour prédire la MM hospitalière. Les tests de Mann-Whitney et de Kruskal-Wallis ont été utilisés pour analyser l’association entre les variables indépendantes, le score de qualité et la MM. Une analyse multivariée a été utilisée pour estimer l’impact du score de qualité sur la MM, en tenant compte de la situation géographique (Dakar versus autre région).Résultats: En analyse bivariée, la présence d'anesthésiste, la disponibilité de boîtes de césarienne complète et la supervision de tous les accouchements par du personnel qualifié sont les facteurs institutionnels associés significativement à une réduction du TMMH brut. Quant au TMMH ajusté ce sont la présence de scialytique, la disponibilité du sulfate de magnésium, l'utilisation des guides de pratiques cliniques (GPC) pour la prise en charge des complications obstétricales. Le score de qualité est associé significativement au TMMH brut, y compris en analyse multivariée, mais pas au TMMH ajusté. Conclusion : La disponibilité du Sulfate de magnésium, et du scialytique pourrait contribuer à la réduction de la MM. En complément, une réorganisation adéquate des ressources pour réduire la disparité géographique rurale/urbaine est essentielle ainsi qu’une sensibilisation du personnel à l’usage des GPC. De plus, l’assistance par un personnel qualifié de tous les accouchements est nécessaire pour améliorer la qualité des soins et la prise en charge des complications obstétricales.
Resumo:
Contexte. Les études cas-témoins sont très fréquemment utilisées par les épidémiologistes pour évaluer l’impact de certaines expositions sur une maladie particulière. Ces expositions peuvent être représentées par plusieurs variables dépendant du temps, et de nouvelles méthodes sont nécessaires pour estimer de manière précise leurs effets. En effet, la régression logistique qui est la méthode conventionnelle pour analyser les données cas-témoins ne tient pas directement compte des changements de valeurs des covariables au cours du temps. Par opposition, les méthodes d’analyse des données de survie telles que le modèle de Cox à risques instantanés proportionnels peuvent directement incorporer des covariables dépendant du temps représentant les histoires individuelles d’exposition. Cependant, cela nécessite de manipuler les ensembles de sujets à risque avec précaution à cause du sur-échantillonnage des cas, en comparaison avec les témoins, dans les études cas-témoins. Comme montré dans une étude de simulation précédente, la définition optimale des ensembles de sujets à risque pour l’analyse des données cas-témoins reste encore à être élucidée, et à être étudiée dans le cas des variables dépendant du temps. Objectif: L’objectif général est de proposer et d’étudier de nouvelles versions du modèle de Cox pour estimer l’impact d’expositions variant dans le temps dans les études cas-témoins, et de les appliquer à des données réelles cas-témoins sur le cancer du poumon et le tabac. Méthodes. J’ai identifié de nouvelles définitions d’ensemble de sujets à risque, potentiellement optimales (le Weighted Cox model and le Simple weighted Cox model), dans lesquelles différentes pondérations ont été affectées aux cas et aux témoins, afin de refléter les proportions de cas et de non cas dans la population source. Les propriétés des estimateurs des effets d’exposition ont été étudiées par simulation. Différents aspects d’exposition ont été générés (intensité, durée, valeur cumulée d’exposition). Les données cas-témoins générées ont été ensuite analysées avec différentes versions du modèle de Cox, incluant les définitions anciennes et nouvelles des ensembles de sujets à risque, ainsi qu’avec la régression logistique conventionnelle, à des fins de comparaison. Les différents modèles de régression ont ensuite été appliqués sur des données réelles cas-témoins sur le cancer du poumon. Les estimations des effets de différentes variables de tabac, obtenues avec les différentes méthodes, ont été comparées entre elles, et comparées aux résultats des simulations. Résultats. Les résultats des simulations montrent que les estimations des nouveaux modèles de Cox pondérés proposés, surtout celles du Weighted Cox model, sont bien moins biaisées que les estimations des modèles de Cox existants qui incluent ou excluent simplement les futurs cas de chaque ensemble de sujets à risque. De plus, les estimations du Weighted Cox model étaient légèrement, mais systématiquement, moins biaisées que celles de la régression logistique. L’application aux données réelles montre de plus grandes différences entre les estimations de la régression logistique et des modèles de Cox pondérés, pour quelques variables de tabac dépendant du temps. Conclusions. Les résultats suggèrent que le nouveau modèle de Cox pondéré propose pourrait être une alternative intéressante au modèle de régression logistique, pour estimer les effets d’expositions dépendant du temps dans les études cas-témoins
Resumo:
Suite à une recension des écrits sur les soins d’hygiène des personnes atteintes de démence de type Alzheimer (DTA), force est de constater la rareté, voire l’absence de recherches sur la question des soins d’hygiène (SH) dispensés à domicile par les conjointes. Pourtant, la conjointe à domicile est confrontée aux mêmes difficultés que les intervenants des établissements de santé et doit ainsi faire face aux comportements, parfois difficiles de la personne atteinte. Dans la pratique, les infirmières questionnent peu les difficultés rencontrées par les aidantes au moment des soins d’hygiène, ce qui permet difficilement de prendre conscience de leurs sentiments d’isolement et de détresse et de les réduire, le cas échéant. Pour pallier cette lacune, la présente recherche vise à comprendre l’expérience que vivent des conjointes d’hommes atteints de DTA lorsqu’elles leur dispensent des SH à domicile. Un second objectif vise à identifier les dimensions qui sont associées à cette expérience. Une approche de recherche qualitative est utilisée. Les participantes ont été recrutées par l’entremise des Sociétés Alzheimer de Laval et des Laurentides. La stratégie de collecte des données a impliqué la réalisation de deux entrevues individuelles, face à face, de même que l’administration d’un court questionnaire portant sur les aspects sociodémographiques. La démarche retenue pour l’analyse de l’ensemble de données est inspirée de l’approche proposée par Miles et Huberman (2003). Les résultats permettent d’abord de mettre en évidence des profils de conjointes qui, tout en étant variables, présentent certaines similarités. Eu égard aux SH, toutes ont à consacrer des efforts soutenus, quotidiens et intenses. Elles doivent faire montre de patience et compter sur des capacités personnelles les amenant à ressentir des sentiments positifs malgré les situations difficiles. Les résultats montrent par ailleurs que la dispensation des SH provoque aussi des sentiments négatifs associés au fardeau que ces soins impliquent. Les conjointes mettent toutefois en œuvre une variété de stratégies d’adaptation au stress telles la résolution de problème, la recherche de soutien social et le recadrage. Cinq ensembles de dimensions personnelles et contextuelles sont associés à l’expérience des aidantes : 1) En ce qui a trait aux caractéristiques personnelles des conjointes, l’avancement en âge et l’état de santé physique ou psychologique influencent négativement l’expérience lors des SH. Par contre, les ressources personnelles intrinsèques (acceptation de la réalité, capacité de trouver un sens à l’évènement, habileté à improviser et sens de l’humour) sont utilisées de manière naturelle ou acquise; 2) Les caractéristiques personnelles du conjoint (année du diagnostic, pertes d’autonomie et troubles de comportement) affectent négativement l’expérience vécue; 3) La relation conjugale présente un intérêt important puisqu’il apparaît qu’une relation conjugale pré-diagnostic positive semble favoriser des sentiments positifs chez la conjointe en ce qui a trait aux SH; 4) Les dimensions familiales ont un impact favorable, étant donné le soutien psychologique reçu de la famille; 5) Les dimensions macro-environnementales, incluant l’aide reçue du réseau informel plus large de même que du réseau formel, ainsi que les divers aménagements matériels de l’environnement physique du couple, ressortent enfin comme ayant un impact positif. Au terme de l’analyse des résultats, l’auteure est en mesure de proposer une synthèse de l’expérience des conjointes. La discussion aborde quatre enjeux qui se dégagent des résultats observés : impacts des difficultés rencontrées lors des SH dans la décision d’hébergement, réticence des aidantes à faire appel aux ressources du réseau formel pour obtenir de l’aide eu égard aux SH, importance des ressources personnelles des aidantes et potentiel de l’approche relationnelle humaine (human caring) pour faire face aux défis que pose la dispensation des SH.
Resumo:
Le présent texte porte sur l’état de la démocratie au Sénégal depuis l’alternance politique survenue en 2000. Adoptant une définition minimale de la démocratie – respect des libertés civiles et politiques, et tenue d’élections libres et justes – à laquelle il ajoute le principe de séparation des pouvoirs, son principal objectif est de répondre à la question suivante : pourquoi le fonctionnement de la démocratie est-il entravé au Sénégal? L’hypothèse avancée pour répondre à cette interrogation est la présence du néo-patrimonialisme. Celui-ci, par l’intermédiaire de la personnalisation du pouvoir et le clientélisme, sape le respect des règles démocratiques dans ce pays d’Afrique de l’Ouest. Pour analyser l’impact du néo-patrimonialisme sur la démocratie au Sénégal, ce mémoire privilégie le néo-institutionnalisme sociologique comme cadre théorique. Cette approche définit les institutions de façon large : celles-ci peuvent englober non seulement des normes formelles mais également des règles informelles. En vertu de cette approche, le néo-patrimonialisme et la démocratie représentent des institutions puisque le premier englobe un ensemble de règles informelles et le second un ensemble de normes et procédures formelles. Ces deux institutions structurent et façonnent le comportement des individus. Dans cette confrontation institutionnelle, les règles néo-patrimoniales influencent davantage l’action des élites politiques sénégalaises – notamment le chef de l’État – que les normes démocratiques. La vérification de l’hypothèse s’appuie sur des études sur la démocratie et le néo-patrimonialisme aussi bien au Sénégal qu’en Afrique. Elle se base également sur l’actualité et les faits politiques saillants depuis l’alternance. L’analyse est essentiellement qualitative et se divise en deux chapitres empiriques. Le premier de ceux-ci (chapitre II dans le texte) concerne la séparation des pouvoirs. Le but de ce chapitre est d’observer la manière dont l’actuel président de la République, Abdoulaye Wade, contrôle le parlement et la justice. Le second chapitre empirique (chapitre III dans le texte) se divise en deux sections. La première s’intéresse aux libertés civiles et politiques qui subissent des restrictions dues au penchant autoritaire de Wade. La seconde section porte sur les élections dont le déroulement est entaché par de nombreuses irrégularités : violence électorale, manque de ressources de l’autorité électorale, instabilité du calendrier électoral, partialité de la justice. L’étude confirme l’hypothèse, ce qui est très problématique pour la plupart des États africains. En effet, le néo-patrimonialisme est une caractéristique fondamentale de la gouvernance en Afrique. Ainsi, beaucoup de régimes du continent noir qui enclenchent ou enclencheront un processus de démocratisation comme le Sénégal, risquent de connaître les mêmes difficultés liées à la persistance des pratiques néo-patrimoniales.
Resumo:
Thèse réalisée en cotutelle avec l'Université Paris IV-Sorbonne.
Resumo:
Malgré les problèmes que pose la délinquance juvénile au Sénégal, les réponses des décideurs semblent inefficaces, surtout pour les filles déviantes. Ainsi, l’objectif de notre étude est de déterminer les caractéristiques familiales, scolaires et des amis des adolescentes judiciarisées à Dakar en les comparant à celles de Montréal. Les enquêtes se sont déroulées à Dakar sur trente adolescentes interrogées avec un instrument adapté du MASPAQ. Les similitudes entre les échantillons concernent l’âge moyen et le statut judiciaire quasi-identiques, le milieu socio-économique défavorisé et la structure familiale en majorité monoparentale matricentrique. Les autres résultats concernent surtout les liens sociaux plus forts chez les dakaroises alors que l’activité marginale est plus importante chez les montréalaises. Les liens sociaux des dakaroises constitueraient une protection contre la déviance. Le contexte culturel également, en favorisant un contrôle social, pousserait à développer plus de contraintes internes, autre protection contre la déviance. Des perspectives sont envisagées notamment utiliser l’instrument avec des garçons.
Resumo:
Cette thèse envisage un ensemble de méthodes permettant aux algorithmes d'apprentissage statistique de mieux traiter la nature séquentielle des problèmes de gestion de portefeuilles financiers. Nous débutons par une considération du problème général de la composition d'algorithmes d'apprentissage devant gérer des tâches séquentielles, en particulier celui de la mise-à-jour efficace des ensembles d'apprentissage dans un cadre de validation séquentielle. Nous énumérons les desiderata que des primitives de composition doivent satisfaire, et faisons ressortir la difficulté de les atteindre de façon rigoureuse et efficace. Nous poursuivons en présentant un ensemble d'algorithmes qui atteignent ces objectifs et présentons une étude de cas d'un système complexe de prise de décision financière utilisant ces techniques. Nous décrivons ensuite une méthode générale permettant de transformer un problème de décision séquentielle non-Markovien en un problème d'apprentissage supervisé en employant un algorithme de recherche basé sur les K meilleurs chemins. Nous traitons d'une application en gestion de portefeuille où nous entraînons un algorithme d'apprentissage à optimiser directement un ratio de Sharpe (ou autre critère non-additif incorporant une aversion au risque). Nous illustrons l'approche par une étude expérimentale approfondie, proposant une architecture de réseaux de neurones spécialisée à la gestion de portefeuille et la comparant à plusieurs alternatives. Finalement, nous introduisons une représentation fonctionnelle de séries chronologiques permettant à des prévisions d'être effectuées sur un horizon variable, tout en utilisant un ensemble informationnel révélé de manière progressive. L'approche est basée sur l'utilisation des processus Gaussiens, lesquels fournissent une matrice de covariance complète entre tous les points pour lesquels une prévision est demandée. Cette information est utilisée à bon escient par un algorithme qui transige activement des écarts de cours (price spreads) entre des contrats à terme sur commodités. L'approche proposée produit, hors échantillon, un rendement ajusté pour le risque significatif, après frais de transactions, sur un portefeuille de 30 actifs.
Resumo:
L'administration fédérale canadienne et la Commission européenne ont construit, dans le courant des années 2000, deux réseaux de Systèmes d'informations géographiques (SIG) : le Système national d'information forestière au Canada, et l'Infrastructure d'information géographique dans la Communauté européenne. Ces SIG permettent le traitement géographique de données sociales et environnementales ainsi que leur représentation sur des cartes. Nous appréhendons ces deux réseaux de SIG sous l'angle de leur valeur heuristique : leur analyse nous permet d'étudier les configurations institutionnelles dans lesquelles ils ont été développés, c'est-à-dire, dans ces cas précis, ce qu'il est convenu d'appeler la « gouvernance ». Les SIG sont des instruments de mesure et de représentation de certains phénomènes : ils appartiennent à la classe des instruments d'objectivation. En tant qu'instruments d'objectivation, ils nous permettent de discuter deux éléments théoriques de la « gouvernance » : le rapport entre les administrations centrales et les administrations locales ; le rapport entre les administrations étatiques et les organisations non-étatiques. A travers cette discussion, nous montrons d'une part que la réarticulation de paliers de gouvernement différents ne signifie pas, comme cela a pu être écrit, un retrait de l'administration centrale au profit des administrations locales, mais au contraire une manière de contrôler plus étroitement celles-ci. Nous montrons d'autre part que cette renégociation des rapports entre les administrations centrales et locales ne s'accompagne pas, en pratique, d’une renégociation des rapports entre administrations étatiques et organisations non-étatiques. En révélant que les données non-étatiques ne sont pas intégrées dans les réseaux de SIG étatiques, nous relativisons les théories qui voient dans la « gouvernance » un mode de gouvernement ouvert aux organisations non-étatiques. Cela nous conduit à approfondir la piste qui envisage les instruments étatiques d'objectivation comme des moyens d'écarter de l'objectivation des phénomènes sociaux ou naturels les éléments qui contredisent l'action gouvernementale. Cette exégèse politique de deux ensembles de programmes informatiques particuliers – les SIG – nous amène, en conclusion, à proposer de considérer certains programmes informatiques comme des institutions politiques.
Resumo:
Les usines récupérées par les ouvriers en Argentine sont devenues un mouvement social emblématique symbolisant l'un des aspects de la révolte sociale entourant la crise économique de 2001-2002. Les usines récupérées sont des entreprises abandonnées par leurs propriétaires originaux ou déclarées faillite, laissant derrières elles des salaires et des dettes impayés. Par conséquence, les ouvriers ont commencé à récupérer leurs usines; reprenant la production sans leurs anciens patrons, sous, et au profit de la gestion collective des ouvriers. Le mouvement est remarquable pour sa rémunération égalitaire et sa gestion horizontale. Ce travail examine la continuité des usines récupérées et ceci à travers l'évolution sociale, politique et économique du paysage de l'Argentine. Il évalue également l'impact du mouvement en tant que défi aux modes économiques de production hégémoniques et orientés vers le marché. En supposant que l'avenir du mouvement dépend de deux ensembles de facteurs, le rapport analyse les facteurs internes à travers le prisme de la théorie de mobilisation des ressources, ainsi que les facteurs externes à travers la perspective de la théorie de la structure de l'opportunité politique. Le travail conclut que la situation actuelle se trouve dans une impasse dans laquelle le mouvement a gagné l'acceptation institutionnelle, mais a échoué d'effectuer le changement structurel favorisant ses pratiques et garantissant la sécurité à long terme. Il argumente que le mouvement doit consolider certains aspects combatifs. Il doit consolider sa nouvelle identité en tant que mouvement social et forger des alliances stratégiques et tactiques tout en préservant son autonomie.
Resumo:
Une nouvelle notion d'enlacement pour les paires d'ensembles $A\subset B$, $P\subset Q$ dans un espace de Hilbert de type $X=Y\oplus Y^{\perp}$ avec $Y$ séparable, appellée $\tau$-enlacement, est définie. Le modèle pour cette définition est la généralisation de l'enlacement homotopique et de l'enlacement au sens de Benci-Rabinowitz faite par Frigon. En utilisant la théorie du degré développée dans un article de Kryszewski et Szulkin, plusieurs exemples de paires $\tau$-enlacées sont donnés. Un lemme de déformation est établi et utilisé conjointement à la notion de $\tau$-enlacement pour prouver un théorème d'existence de point critique pour une certaine classe de fonctionnelles sur $X$. De plus, une caractérisation de type minimax de la valeur critique correspondante est donnée. Comme corollaire de ce théorème, des conditions sont énoncées sous lesquelles l'existence de deux points critiques distincts est garantie. Deux autres théorèmes de point critiques sont démontrés dont l'un généralise le théorème principal de l'article de Kryszewski et Szulkin mentionné ci-haut.
Resumo:
Pourquoi, comment et quand y a-t-il changement institutionnel et politique en Afrique ? En examinant les stratégies de développement économique de l’Afrique postcoloniale et en s’intéressant à l’évolution du rôle de l’État – État comme acteur central du développement, tentative du retrait de l’État, interventionnisme limité au social, retour de l’État dans la sphère économique –, la présente thèse se propose d’expliquer le changement sous l’angle original des innovations politiques et institutionnelles. En effet, derrière l’apparente continuité que la plupart des auteurs tant analytiques que normatifs fustigent, il se produit des innovations dont nous proposons de rendre compte par le biais des variables idéationnelles, stratégiques, temporelles et institutionnelles. Cette thèse propose ainsi une analyse comparative inédite du rôle des acteurs nationaux (élites, États, administrations publiques du Bénin, Burkina Faso, Cameroun, Côte d’Ivoire, Congo, Sénégal, Mali, Niger, Togo), des institutions internationales (FMI, Banque mondiale, ONU) et des organisations d’intégration régionale (Union africaine, NEPAD) dans l’émergence et les trajectoires des stratégies de développement en Afrique. Les contextes temporels favorables, les crises des modèles précédents, les configurations et héritages institutionnels structurants, les stratégies instrumentales des acteurs intéressés, l’apprentissage politique, les dimensions cognitives et normatives des idées permettent d’expliquer la diffusion, la sédimentation et la conversion institutionnelles comme processus privilégiés d’innovation en Afrique. La critique de ces concepts permet de développer des outils mieux adaptés pour expliquer certaines innovations, soit l’inclusion et l’intrusion institutionnelles. L’inclusion institutionnelle est un processus mi-stratégique et mi-idéationnel à travers lequel les acteurs nationaux ou régionaux incluent intentionnellement des stratégies (ou solutions) internationales déjà existantes dans une nouvelle institution ou politique dans le but d’accroître la probabilité d’acceptation (reconnaissance, convenance sociale, partage réel ou supposé des mêmes valeurs) ou de succès (pour faire valoir les intérêts) de cette dernière dans un environnement politique structuré. Les idées sont constitutives des intérêts dans ce processus. L’intrusion institutionnelle renvoie à un processus mi-stratégique et mi-structurel par lequel les acteurs nationaux se font relativement imposer de nouvelles institutions ou politiques qu’ils n’acceptent qu’en raison de l’asymétrie de pouvoir, de la contrainte structurelle (structure), ou des gains escomptés (stratégies) des acteurs internationaux, alors que des solutions de rechange pertinentes et non contraignantes sont quasi inexistantes. Ceci n’exclut pas l’existence d’une marge de manœuvre des acteurs nationaux. Inspirés de spécialistes comme Nicolas van de Walle, Kathleen Thelen, Robert Bates, Barry Weingast, Alexander Wendt, Peter Hall, Theda Skocpol et Paul Pierson, ces concepts d’intrusion et d’inclusion institutionnelles que nous proposons réconcilient des approches parfois jugées contradictoires en intégrant les dimensions stratégiques, institutionnelles, historiques et idéationnelles à l’analyse d’un même objet scientifique. Au niveau empirique, la présente thèse permet d’avoir une meilleure compréhension des processus d’émergence des stratégies de développement économique en Afrique, ainsi qu’une meilleure connaissance des relations entre les acteurs internationaux, régionaux et nationaux en ce qui concerne l’émergence et le développement des institutions et des politiques publiques relatives au développement. Une attention particulière est accordée à la dynamique entre différents acteurs et variables (idées, intérêts, institution, temps) pour expliquer les principales stratégies des trois dernières décennies : les stratégies nationales de développement du Bénin, Burkina Faso, Cameroun, Côte d’Ivoire, Congo, Sénégal, Mali, Niger, Togo, le Plan d’action de Lagos, les programmes d’ajustement structurel, le Nouveau Partenariat pour le Développement de l’Afrique, les Documents de stratégie pour la réduction de la pauvreté et certaines interventions du Fonds monétaire international, de Banque mondiale et de l’ONU. En s’intéressant à la question de l’innovation délaissée à tort par la plupart des analyses sérieuses, la présente thèse renouvelle la discussion sur le changement et l’innovation politiques et institutionnels en Afrique et en science politique.
Resumo:
Une réconciliation entre un arbre de gènes et un arbre d’espèces décrit une histoire d’évolution des gènes homologues en termes de duplications et pertes de gènes. Pour inférer une réconciliation pour un arbre de gènes et un arbre d’espèces, la parcimonie est généralement utilisée selon le nombre de duplications et/ou de pertes. Les modèles de réconciliation sont basés sur des critères probabilistes ou combinatoires. Le premier article définit un modèle combinatoire simple et général où les duplications et les pertes sont clairement identifiées et la réconciliation parcimonieuse n’est pas la seule considérée. Une architecture de toutes les réconciliations est définie et des algorithmes efficaces (soit de dénombrement, de génération aléatoire et d’exploration) sont développés pour étudier les propriétés combinatoires de l’espace de toutes les réconciliations ou seulement les plus parcimonieuses. Basée sur le processus classique nommé naissance-et-mort, un algorithme qui calcule la vraisemblance d’une réconciliation a récemment été proposé. Le deuxième article utilise cet algorithme avec les outils combinatoires décrits ci-haut pour calculer efficacement (soit approximativement ou exactement) les probabilités postérieures des réconciliations localisées dans le sous-espace considéré. Basé sur des taux réalistes (selon un modèle probabiliste) de duplication et de perte et sur des données réelles/simulées de familles de champignons, nos résultats suggèrent que la masse probabiliste de toute l’espace des réconciliations est principalement localisée autour des réconciliations parcimonieuses. Dans un contexte d’approximation de la probabilité d’une réconciliation, notre approche est une alternative intéressante face aux méthodes MCMC et peut être meilleure qu’une approche sophistiquée, efficace et exacte pour calculer la probabilité d’une réconciliation donnée. Le problème nommé Gene Tree Parsimony (GTP) est d’inférer un arbre d’espèces qui minimise le nombre de duplications et/ou de pertes pour un ensemble d’arbres de gènes. Basé sur une approche qui explore tout l’espace des arbres d’espèces pour les génomes considérés et un calcul efficace des coûts de réconciliation, le troisième article décrit un algorithme de Branch-and-Bound pour résoudre de façon exacte le problème GTP. Lorsque le nombre de taxa est trop grand, notre algorithme peut facilement considérer des relations prédéfinies entre ensembles de taxa. Nous avons testé notre algorithme sur des familles de gènes de 29 eucaryotes.
Resumo:
Il est à noter que le texte de La Manikoutai a été reproduit dans ce mémoire (voir l’annexe 4, p. xv-xvii), avec l’aimable autorisation de Francyne Furtado des Nouvelles Éditions de l’Arc.