954 resultados para Théorie de la perspective
Resumo:
Les fichiers additionnels sont les données cristallographiques en format CIF. Voir le site de la Cambridge Crystallographic Data Centre pour un visualiseur: http://www.ccdc.cam.ac.uk
Resumo:
Chez l'être humain, le pouvoir d'influence peut être accordé volontairement aux individus qui se démarquent par leurs habiletés exceptionnelles. Dans cette étude, deux théories issues de la perspective évolutionniste sur ce type de pouvoir sont confrontées : celle de la transmission sociale de l'information (Henrich et Gil-White 2001) et celle de l'échange social (Chapais 2012). Cinq hypothèses principales sont extraites et mises à l'épreuve : 1) la compétence supérieure de certains individus leur permet d'acquérir un statut supérieur; 2) la compétence d'un individu est évaluée par comparaison sociale et par l'intermédiaire de mécanismes psychosociaux; 3) les experts sont utiles à autrui puisqu'ils sont de meilleurs modèles à imiter et de meilleurs partenaires de coopération; 4) ces experts reçoivent de la déférence de leurs admirateurs en échange d'un partenariat avec eux ; 5) conséquemment, une compétition pour l'acquisition d'un statut supérieur émerge via la démonstration publique de la compétence et la recherche d'une réputation favorable. Ces prévisions sont testées par une analyse comparative de la littérature ethnographique portant sur dix sociétés de chasseurs-cueilleurs relativement égalitaires en utilisant la base de données du eHRAF of World Cultures. Les résultats appuient très fortement toutes les prévisions et indiquent que des asymétries de statut sont omniprésentes chez tous les peuples de l'échantillon, ce qui refléterait l'universalité des propensions psychosociales qui sous-tendent ces inégalités.
Resumo:
Nurse Managers need today more than ever instruments that can be used to justify the billions of dollars that are invested in the healthcare sector annually. The objective of the study was to establish the validity and reliability of the Nursing Intensity Critical Care Questionnaire (NICCQ) in a cardiac surgery intensive care unit (CSICU) of a tertiary hospital. An expert panel evaluated the questionnaire’s content validity while generalizability theory was used to estimate the G and D coefficients. Decision studies enabled the investigators to determine if the current ward functioning of having one nurse rate one patient is adequate. Also, exploratory factorial analyses (EFA) preceded by principal component analyses (PCA) looked at establishing the factorial structure for the NICCQ. Finally, the NICCQ was correlated with a severity of illness score known as the Acute Physiology And Chronic Health Evaluation II (APACHE II) to estimate the correlation between patient illness and nursing intensity of care. The NICCQ was used by nurses using a sample of patients who had undergone cardiac surgery and were hospitalized on a CSICU of a tertiary teaching hospital. A convenience sample of nurses and patients on the CSICU was used to reflect the procedures and usual functioning of the unit. Each item on the questionnaire measured nursing intensity of care using a three point ordinal scale (Light, Moderate, and Severe) for the first 11 items, and a five point ordinal scale for the global assessment item (including the intermediate categories light/moderate and moderate/severe). The questionnaire proved to be both valid and able to be generalized to all nurses working in the CSICU. Overall results showed that 94.4% of the item generalizability coefficients indicated acceptable to excellent reliability, with most (86.1%) being larger than .90. The EFA established a simple 4 factor structure that explained little of the variance (32%). A correlation coefficient of 0.36 indicated that patient’ severity of illness is somewhat correlated with nursing intensity of care. The study showed that the NICCQ is a valid questionnaire with a generalizability coefficient that is large enough to be used by nurses’ managers for administrative purposes. Further research using larger samples would be needed to further test the factor structure of the NICCQ.
Resumo:
Cette thèse en électronique moléculaire porte essentiellement sur le développement d’une méthode pour le calcul de la transmission de dispositifs électroniques moléculaires (DEMs), c’est-à-dire des molécules branchées à des contacts qui forment un dispositif électronique de taille moléculaire. D’une part, la méthode développée vise à apporter un point de vue différent de celui provenant des méthodes déjà existantes pour ce type de calculs. D’autre part, elle permet d’intégrer de manière rigoureuse des outils théoriques déjà développés dans le but d’augmenter la qualité des calculs. Les exemples simples présentés dans ce travail permettent de mettre en lumière certains phénomènes, tel que l’interférence destructive dans les dispositifs électroniques moléculaires. Les chapitres proviennent d’articles publiés dans la littérature. Au chapitre 2, nous étudions à l’aide d’un modèle fini avec la méthode de la théorie de la fonctionnelle de la densité de Kohn-Sham un point quantique moléculaire. De plus, nous calculons la conductance du point quantique moléculaire avec une implémentation de la formule de Landauer. Nous trouvons que la structure électronique et la conductance moléculaire dépendent fortement de la fonctionnelle d’échange et de corrélation employée. Au chapitre 3, nous discutons de l’effet de l’ajout d’une chaîne ramifiée à des molécules conductrices sur la probabilité de transmission de dispositifs électroniques moléculaires. Nous trouvons que des interférences destructives apparaissent aux valeurs propres de l’énergie des chaînes ramifiées isolées, si ces valeurs ne correspondent pas à des états localisés éloignés du conducteur moléculaire. Au chapitre 4, nous montrons que les dispositifs électroniques moléculaires contenant une molécule aromatique présentent généralement des courants circulaires qui sont associés aux phénomènes d’interférence destructive dans ces systèmes. Au chapitre 5, nous employons l’approche « source-sink potential » (SSP) pour étudier la transmission de dispositifs électroniques moléculaires. Au lieu de considérer les potentiels de sources et de drains exactement, nous utilisons la théorie des perturbations pour trouver une expression de la probabilité de transmission, T(E) = 1 − |r(E)|2, où r(E) est le coefficient de réflexion qui dépend de l’énergie. Cette expression dépend des propriétés de la molécule isolée, en effet nous montrons que c’est la densité orbitalaire sur les atomes de la molécule qui sont connectés aux contacts qui détermine principalement la transmission du dispositif à une énergie de l’électron incident donnée. Au chapitre 6, nous présentons une extension de l’approche SSP à un canal pour des dispositifs électroniques moléculaires à plusieurs canaux. La méthode à multiples canaux proposée repose sur une description des canaux propres des états conducteurs du dispositif électronique moléculaire (DEM) qui sont obtenus par un algorithme auto-cohérent. Finalement, nous utilisons le modèle développé afin d’étudier la transmission du 1-phényl-1,3-butadiène branché à deux rangées d’atomes couplées agissant comme contacts à gauche et à la droite.
Resumo:
Avec la participation de 38 Montréalais d'origine congolaise, dont 21 femmes et 17 hommes
Resumo:
Les preuves astronomiques stipulent qu'environ 4\% de la densité de masse-énergie de l'univers serait composé d'atomes. Le reste est séparé entre la matière sombre, qui représente 24\% de la densité de masse-énergie, et l'énergie sombre, qui s'accapare les 71\% restant. Le neutralino est une particule prédite par la théorie de la supersymétrie et est un candidat à la composition de la matière sombre. Le Projet d'Identification des Candidats Supersymétriques Sombres (PICASSO) vise à détecter le neutralino en utilisant des détecteurs à gouttelettes de C$_4$F$_{10}$ en surchauffe. Lors du passage d'une particule dans les gouttelettes de C$_4$F$_{10}$, une transition de phase aura lieu si l'énergie déposée est au-delà du seuil prédit par le critère de nucléation d'une transition de phase (théorie de Seitz). L'onde acoustique émise durant la transition de phase est ensuite transformée en impulsion électrique par des capteurs piézoélectriques placés sur le pourtour du détecteur. Le signal est amplifié, numérisé puis enregistré afin de pouvoir être analysé par des outils numériques. L'ouvrage qui suit présente les travaux effectués sur la compréhension des signaux des détecteurs à gouttelettes en surchauffe dans le but d'améliorer la discrimination du bruit de fond. Un détecteur à petites gouttelettes, r $\approx 15\mu m$ a été étudié et comparé à une simulation Monte Carlo. Il s'est avéré que les possibilités de discrimination du bruit de fond provenant des particules alpha étaient réduites pour un détecteur à petites gouttelettes, et ce en accord avec le modèle théorique. Différentes composantes du système d'acquisition ont été testées dont le couplage entre le capteur piézoélectrique et la paroi en acrylique, l'efficacité des capteurs piézoélectriques à gain intégré et les conséquences de la force du gain sur la qualité du signal. Une comparaison avec des résultats de l'expérience SIMPLE (Superheated Instrument for Massive ParticLe Experiments) a été effectuée en mesurant des signaux de détecteurs PICASSO à l'aide d'un microphone électrostatique à électret. Il a été conclu que les détecteurs PICASSO ne parviennent pas à reproduire la discrimination quasi parfaite présentée par SIMPLE.
Resumo:
Quand le bilinguisme individuel résout les conflits linguistiques collectifs Frontière linguistique et discours identitaires à Fribourg/Freiburg : la perspective des jeunes adultes bilingues Cette thèse aborde la question linguistique fribourgeoise et l’importance de la langue à Fribourg / Freiburg (Suisse) dans la cohabitation de ses habitants. Elle porte également sur les points de discorde des groupes linguistiques, l’influence de la langue sur la construction des identités (collectives) et son rôle comme marqueur de différenciation entre les Fribourgeois alémaniques et romands. À cette fin, une analyse de discours portant sur un débat mené dans les quotidiens fribourgeois La Liberté et les Freiburger Nachrichten a été réalisée pour établir le contexte du travail. Ce débat, d’une durée de quatre ans, portait sur la nouvelle constitution cantonale. De plus, 17 entrevues furent menées auprès de 18 jeunes adultes bilingues (français et allemand) fribourgeois, afin d’aborder la question linguistique depuis une nouvelle perspective. L’analyse de discours a démontré l’existence de différentes perceptions de l’identité collective fribourgeoise, perceptions souvent liées à l’appartenance à un groupe linguistique : d’une part, la perception d’une ville francophone comptant une minorité germanophone prédomine chez les Fribourgeois romands, alors que, d’autre part, la perception d’une ville traditionnellement bilingue caractérise davantage les Fribourgeois alémaniques, divisant ainsi les Fribourgeois en deux camps. Les uns aspirent à une identité collective (bilingue) qui inclue l’altérité respective, tandis que les autres tentent de renforcer leur propre identité en soulignant l’altérité et en négligeant plutôt les points communs. Les entrevues réalisées ont démontré que la langue est le principal marqueur de différenciation des Fribourgeois alémaniques et romands – bien avant certains paramètres tels que les normes et valeurs, la mentalité, la religion, les habitudes de vie ou la culture. Les informateurs bilingues et la plupart du temps biculturels montrent des attitudes et perceptions particulières : se distinguant de plusieurs argumentaires présents dans l’analyse de discours, ceux-ci s’approprient les deux camps et montrent un sentiment d’appartenance avec le Fribourg romand et alémanique. Ce faisant, ils dénouent la majorité des sources de conflit et des contradictions de la question linguistique fribourgeoise. Leurs attitudes et perceptions spécifiques en font les médiateurs des groupes linguistiques dans le canton-pont et posent des questions potentiellement désagréables aux acteurs sociaux impliqués dans le débat linguistique fribourgeois.
Resumo:
Dans cette thèse, nous étudions quelques problèmes fondamentaux en mathématiques financières et actuarielles, ainsi que leurs applications. Cette thèse est constituée de trois contributions portant principalement sur la théorie de la mesure de risques, le problème de l’allocation du capital et la théorie des fluctuations. Dans le chapitre 2, nous construisons de nouvelles mesures de risque cohérentes et étudions l’allocation de capital dans le cadre de la théorie des risques collectifs. Pour ce faire, nous introduisons la famille des "mesures de risque entropique cumulatifs" (Cumulative Entropic Risk Measures). Le chapitre 3 étudie le problème du portefeuille optimal pour le Entropic Value at Risk dans le cas où les rendements sont modélisés par un processus de diffusion à sauts (Jump-Diffusion). Dans le chapitre 4, nous généralisons la notion de "statistiques naturelles de risque" (natural risk statistics) au cadre multivarié. Cette extension non-triviale produit des mesures de risque multivariées construites à partir des données financiéres et de données d’assurance. Le chapitre 5 introduit les concepts de "drawdown" et de la "vitesse d’épuisement" (speed of depletion) dans la théorie de la ruine. Nous étudions ces concepts pour des modeles de risque décrits par une famille de processus de Lévy spectrallement négatifs.
Resumo:
Dans le domaine de l’éducation, comme dans d’autres domaines d’intervention auprès des humains, les organismes d’agrément exigent de plus en plus que les pratiques professionnelles s’appuient sur des résultats de recherches qui les valident (des données probantes). Cela conduit certains chercheurs à privilégier des travaux qui suivent une démarche hypothético-déductive avec des dispositifs standardisés et des données étalonnées (quantitatives). D’autres, pour mieux comprendre ce qui se passe, privilégient l’induction analytique recourant à des dispositifs plus souples qui s’adaptent aux variations du terrain et produisent des données qui ne seront étalonnées qu’a posteriori (qualitatives). Enfin, un troisième groupe de chercheur utilise aussi des dispositifs adaptatifs, mais traite leur matériel de manière plus gestaltiste par typicalisation produisant des récits de dynamique professionnelle. Or, aucune de ces trois orientations de recherche ne parvient, comme le remarquait déjà Huberman en en 1982, à combler l’écart entre les recherches et le discours des enseignants-chercheurs d’une part, et leur participation effective à la formation de professionnels de l’intervention dont les pratiques devraient être fondées sur des données probantes. Des facteurs historiques peuvent excuser cette situation dans des départements et formations professionnelles jadis dispensées dans des grandes écoles non universitaires. Cependant, on constate que les pratiques de recherche restent largement inspirées par une image idéalisée de la recherche fondamentale ou expérimentale ou philosophique avec des visées épistémiques. Or, il y a d’autres domaines de savoir, celui de la technique, de la sagesse pratique et de l’art. Corrélativement, on peut dire qu’il y a d’autres métiers de chercheurs que celui qui consiste à développer des connaissances causales ou interprétatives alors que c’est à partir de cette seule sensibilité théorique que la notion de pôle paradigmatique a été développée et que les questions auxquelles les recherches qualitatives devaient répondre ont été établies . Aussi les questions et les réponses aux quatre pôles épistémologiques (ontologique, sémantique, instrumental et rhétorique) auront d’autres exigences de forme et de contenu pour les chercheurs engagés dans des perspectives technologiques, pratiques ou artistiques. L’hypothèse proposée pour tenter de comprendre le hiatus entre les recherches universitaires et l’attitude des praticiens porte sur le glissement opéré par trop de chercheurs entre une formulation de problèmes arrimés aux sensibilités technologiques, pratiques ou artistiques et leur reproblématisation dans la perspective d’une sensibilité théorique. Il en découle que ces recherches privilégient des dispositifs conçus pour vérifier ou découvrir des hypothèses discursives (la sémantique de l’intelligibilité de l’action, selon Barbier ), plutôt que des dispositifs semblables aux conditions de la pratique professionnelle et qui respectent ses contraintes. Or, les professionnels attendent des résultats de la recherche que ceux-ci prennent en compte les contraintes de leurs activités et que leurs conclusions soient formulées dans des formes de présentation qui leur sont appropriées : une sémantique et une rhétorique de l’action intelligente, selon la formule d’Evans qui définit la praxis comme une action pensée et finalisée autant qu’une finalité pensée et agie. Quatre cas de professeurs-chercheurs et d’étudiants illustrent cette tension et les glissements méthodologiques vers l’épistémique au détriment des sensibilités professionnelles et les difficultés qui en découlent, surtout pour les étudiants. Or, il y a moyen de résoudre autrement cette tension, à condition de changer de posture. C’est la piste que nous suggérons avec une méthodologie qui respecte les contraintes de l’activité professionnelle, qui exploite les formulations et les dispositifs propres aux praticiens, et qui utilise les confrontations entre l’activité et les praticiens eux-mêmes comme démarche de la co-construction d’une présentation explicitant l’intelligence de l’action.
Resumo:
Cette thèse s’inscrit au cœur du chantier de réflexion sur l’interaction entre les États et les entreprises multinationales qui s’impose dans le contexte de l’accélération actuelle du processus de mondialisation de l’économie capitaliste. Nous l’abordons sous l’angle plus particulier des multinationales et de leur engagement institutionnel au sein des organisations, associations, forums ou réseaux qui contribuent à la définition et parfois même à la gestion des différentes politiques publiques orientées vers le développement économique, l’innovation et le marché du travail. Quelles sont les différentes facettes de l’engagement institutionnel des filiales de multinationales au Canada ? Comment ces comportements peuvent-ils être influencés par les différentes caractéristiques et stratégies de ces entreprises ? Un modèle théorique large, empruntant des hypothèses aux nombreuses approches théoriques s’intéressant aux comportements généraux des multinationales, est testé à l’aide d’analyses quantitatives de données obtenues dans le cadre d’une enquête auprès des multinationales au Canada associée au projet international INTREPID. D’abord, cette thèse permet une opérationnalisation plus précise du concept d’« imbrication de la firme » à travers la notion d’engagement institutionnel. Elle met en évidence les différentes dimensions de ce phénomène et remet en question la vision « essentiellement » positive qui l’entoure. Les résultats de cette thèse viennent questionner de la centralité des approches macro-institutionnalistes, particulièrement celle associée aux Variétés du capitalisme, dans les études sur les multinationales. Ils réaffirment par contre l’importance des différentes approches économiques et démontrent plus particulièrement la pertinence de la théorie de la dépendance aux ressources et l’impact de la présence d’un acteur structuré venant faire le contrepoids aux gestionnaires. Malgré nos efforts de théorisation, nous sommes incapable d’observer un effet modérateur des facteurs stratégiques sur l’impact du pays d’origine dans la détermination de l’engagement institutionnel. Cette thèse offre des indications permettant de cibler les interventions institutionnelles qui cherchent à « attacher » les multinationales à l’économie canadienne. Elle met aussi en évidence la contribution d’acteurs indirects dans la consolidation des relations d’engagement institutionnel et plus particulièrement le rôle positif que peuvent jouer les syndicats dans certains forums ou réseaux.
Resumo:
Cette thèse est divisée en trois parties. Une première section présente les résultats de l'étude de la formation de polarons magnétiques liés (BMP) dans le ferroaimant EuB6 par diffusion de neutrons à petits angles (SANS). La nature magnétique du système ferromagnétique est observée sous une température critique de 15K. La signature des BMP n'apparaît pas dans la diffusion de neutrons, mais ces mesures permettent de confirmer une limite inférieure de 100\AA à la longueur de cohérence des BMP (xi_{Lower}). Dans un second temps, l'étude du LaRhSi3, un supraconducteur sans symétrie d'inversion, par muSR et ZF-muSR nous permet de sonder le comportement magnétique du système dans la phase supraconductrice. Aucun champ magnétique interne n'a été détecté en ZF-muSR sous la température critique (T_c = 2.2K). Cela indique que la phase supraconductrice ne porte pas de moment cinétique intrinsèque. L'analyse du spectre d'asymétrie sous l'application d'un champ magnétique externe nous apprend que le système est faiblement type II par l'apparition de la signature de domaines magnétiques typique d'un réseau de vortex entre H_{c1}(0) et H_{c2}(0), respectivement de 80+/- 5 et 169.0 +/- 0.5 G. Finalement, la troisième section porte sur l'étude du champ magnétique interne dans l'antiferroaimant organique NIT-2Py. L'observation d'une dépendance en température des champs magnétiques internes aux sites d'implantation muonique par ZF-muSR confirme la présence d'une interaction à longue portée entre les moments cinétiques moléculaires. Ces valeurs de champs internes, comparées aux calculs basés sur la densité de spins obtenue par calculs de la théorie de la fonctionnelle de la densité, indiquent que la moitié des molécules se dimérisent et ne contribuent pas à l'ordre antiferromagnétique. La fraction des molécules contribuant à l'ordre antiferromagnétique sous la température critique (T_c = 1.33 +/- 0.01K) forme des chaines uniformément polarisées selon l'axe (1 0 -2). Ces chaines interagissent antiferromagnétiquement entre elles le long de l'axe (0 1 0) et ferromagnétiquement entre les plan [-1 0 2].
Resumo:
Context and objectives. While 11% of all drivers are aged between 16 and 24, they represent 20% of all fatally injured drivers on the road network of the Province of Quebec. In collaboration with the Sûreté du Québec (SQ), this study seeks to: (1) offer a detailed description of the process (script) leading to fatal collisions involving young drivers; and (2) to recommend prevention measures. Methodology. The script perspective was used to relate the process leading to a fatal collision. The script perspective accounts for all steps that lead to the collision by focusing on: (1) all parties (the driver, friends, parents) and their actions; (2) contexts; and (3) environments. Data were collected from collision and investigation files (n=179). Descriptive and comparative analyses were then conducted to construct the script(s). Results. Results show that fatal collision scripts for 16-29 are different from scripts involving drivers of other age categories (30-59 year-old and 60 year-old and over). The typical script involves a young driver using his car to take part in leisure or festive activities. The latest often occur in a private residence, a bar or a restaurant. On site, young drivers frequently consume psychoactive substances (between 21 and 63.5% of them according to the scene of the script) and are accompanied by friends (between 18.4 and 73.9% according to the scene of the script). Friends often encourage drivers to have alcohol and/or drugs, and to adopt reckless behaviours (speeding and drinking-and-driving are respectively involved in 29.9 and 28.6% of fatal collisions). Conclusion and implications for prevention. Results suggest that fatal collisions involving young drivers could be avoided by encouraging prevention measures aimed at: (1) separating drinking and driving; (2) limiting access to alcohol and peer pressure; (3) raising awareness among potential guardians (e.g. responsible waiters, friends); and (4) increasing arrest risk.
Resumo:
La présente thèse est une étude ethnographique qui examine le savoir en tant que pratique située au Ladakh, dans l’Himalaya indien. Elle analyse les implications socioculturelles des deux moteurs de changement en jeu au Ladakh: l’un est d'origine socio-économique et lié à la production du Ladakh en tant que zone frontalière, tandis que l’autre est de nature environnementale et entrainé par les changements climatiques. Alors que le Ladakh est demeuré hors de la portée de l’État bureaucratique pendant l’administration coloniale britannique, la région s’est trouvée reconfigurée en zone frontalière stratégique après l’indépendance de l’Inde des suites des guerres successives avec le Pakistan et la Chine. L’Indépendance a mené à la partition de l’Inde et du Pakistan en 1947; cette thèse examine la portée à long terme des évènements traumatisants de la partition tels qu’ils se sont déroulés au Ladakh et comment les Ladakhis établissent des liens entre ces évènements et les changements climatiques. L’État indien s’est produit dans la région à travers une volonté de dominer les montagnes, principalement par le développement d’infrastructures et par l’intégration du savoir local des Ladakhis dans l’appareil militaire. La militarisation a restructuré l'économie du Ladakh, redéfini la structure des ménages, contribué à l’exode rural, déplacé la centralité des activités agropastorales et, tel que la dissertation le soutient, altéré de manière significative la connexion de la population locale avec l'environnement. La rationalisation croissante de la perspective sur l’environnement aujourd'hui contribue à la fragmentation des liens qui unissent les domaines naturels et humains dans la cosmologie locale de même qu’à l'abandon des pratiques rituelles connexes. Parallèlement, la région est touchée par des effets distincts des changements climatiques, en particulier la récession des glaciers. La thèse juxtapose l'expérience subjective de ces vastes changements dans la vie quotidienne des villageois de la Vallée de Sham avec les faits historiques environnementaux, démontrant ainsi que les événements historiques locaux influent sur les perceptions des changements environnementaux. L'analyse démontre qu’un phénomène objectif tel que la récession des glaciers est interprété à travers des réalités locales. Plus précisément, selon la conception du monde locale, un glacier en retrait est une figure rhétorique d’une transformation de la condition humaine. Comme le fait valoir la dissertation, l’interprétation culturelle ne constitue pas un obstacle à l'objectivité de l'histoire naturelle de la cosmologie locale. L’interprétation culturelle et l'expérience empirique s’avèrent par ailleurs essentielles à la vitalité des connaissances locales sur l'environnement et à la performance des pratiques associées.
Resumo:
La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution.
Resumo:
La présente thèse porte sur les acteurs au sein des organisations non gouvernementales locales (ONG) qui, dans la configuration actuelle de l’aide internationale au développement, jouent un rôle de relais ou d’intermédiaires entre donateurs internationaux et populations bénéficiaires en Afrique subsaharienne. En analysant les trajectoires professionnelles de 32 femmes et hommes « leaders » dans des ONG de Cotonou (Bénin) et de Lomé (Togo), la thèse se propose d’appréhender les processus sociaux à travers lesquels ces individus deviennent intermédiaires dans les activités de développement. La recherche s’inscrit dans une approche théorique construite à la rencontre entre la perspective orientée vers l’acteur en socioanthropologie du développement, la sociologie de l’individuation et le paradigme des parcours de vie. La thèse prend également une posture comparative en contrastant, d’une part, les trajectoires professionnelles des intermédiaires du Bénin et du Togo, deux pays ayant connu entre les années 1990 et début 2000 des « destinées » opposées en ce qui a trait à leurs rapports avec les bailleurs de fonds étrangers. D’autre part, l’analyse compare deux générations d’intermédiaires et contraste l’expérience des intermédiaires féminins et masculins. L’analyse montre qu’en premier lieu, les conférences nationales en 1990 au Bénin et en 1991 au Togo ont constitué un tournant important dans les trajectoires professionnelles des intermédiaires dans les deux pays, créant subséquemment, d’un côté, un contexte favorable aux intermédiaires du Bénin, et de l’autre, un environnement délétère pour ceux du Togo. Toutefois, au cours des dix dernières années, ces différences de conditions de travail se sont beaucoup atténuées et les défis relevés par les intermédiaires dans les deux pays sont à nouveau similaires; les contextes actuels sont caractérisés par un soutien étatique au minima, un champ d’activités très concurrentiel et politisé, une professionnalisation du champ, et une forte dépendance vis-à-vis des bailleurs de fonds extérieurs. En second lieu, l’analyse des récits de vie a permis de ressortir quatre types de profils des intermédiaires au moment où ils intègrent le champ des ONG : les « reconvertis », les « nouveaux diplômés des années 1990 », les « carriéristes », et les « activistes ». La comparaison générationnelle suggère en outre que les deux premiers types décrivent mieux les intermédiaires ayant commencé leurs activités avant les années 2000, alors que les « carriéristes » sont pour l’essentiel des intermédiaires de la jeune génération qui intègre le domaine de l’intermédiation après 2000. Aussi, la recherche montre que pour entrer, mais surtout « durer », dans le champ des ONG ces individus utilisent divers réseaux politiques et associatifs et savent « manœuvrer », notamment en choisissant une « thématique porteuse », en veillant à maintenir une constante « visibilité » ou en ayant recours à des formations continues pour acquérir ou consolider des compétences recherchées par les bailleurs de fonds. Par ailleurs, l’analyse des trajectoires professionnelles féminines a révélé qu’alors que le poids des responsabilités familiales a fait que les « pionnières » de l’intermédiation sont entrées de façon tardive dans une profession dominée par les hommes, et se sont toutes focalisées sur des thématiques liées directement aux droits des femmes, les parcours de leurs cadettes sont bien différents. Ces dernières ne travaillent pas dans le traditionnel domaine du « genre », et même si elles reconnaissent aussi leurs difficultés à concilier responsabilités professionnelles et devoir familial, elles ne sont pas prêtes à mettre de côté leur carrière et ont une perception très différente de leurs aînées des rôles genrés au sein de la famille.