27 resultados para Problème de Snell
Resumo:
J’entends défendre une position qui s’inscrit dans le cadre du projet de démocratie globale. Cette position se distancie cependant de certaines thèses en philosophie politique contemporaine, notamment les thèses du cosmopolitisme institutionnel, qui présupposent que le système international actuel serait fondé sur un schème de coopération injuste conçu pour les intérêts des pays occidentaux et défavorable en général aux pays les plus pauvres. Le problème de ces thèses est qu’en présupposant cela, elles finissent généralement par en appeler à une profonde refonte démocratique des institutions internationales. Nous soutiendrons qu’un tel parti pris, qui ne nous semble d’ailleurs pas plausible, perd de vue les véritables lieux où il conviendrait de soutenir les réels processus démocratiques. Si nous concédons que les institutions internationales actuelles rencontrent quelquefois d’énormes difficultés face à certaines problématiques mondiales, une telle reconnaissance ne conduit pas en déduire qu’elles sont foncièrement injustes. Nous arguerons que le projet de démocratie globale devrait plus se préoccuper de réels processus démocratiques qui ont cours dans toutes les régions du monde, en accompagnant les peuples et les individus qui, à l’intérieur des États encore autocratiques ou despotiquement doux, ont soif de liberté. Dès lors, il n’est pas seulement question d’un simple transfert des vivres et de ressources monétaires vers les pays pauvres. Il faut bien plus s’intéresser aux divers facteurs (politiques, économiques et sociaux) de nature à susciter chez une population l’éveil de la conscience citoyenne, l’urgence de la participation, la passion du débat public raisonné, et la défense des libertés et de la qualité de vie, autant de paramètres qui sont nécessaires à l’éclosion de réels processus démocratiques. De fait, notre approche vise à renforcer l’esprit de colégislateur et l’empowerment des peuples et des individus, ouvrant ainsi à la démocratie d’infinies possibilités d’ancrage autant au niveau national qu’international.
Resumo:
Dans cette étude, nous nous sommes intéressé à l’utilisation des TIC, plus précisément du Tableau Numérique Interactif (TNI), en géométrie, par des groupes d’élèves de deux classes du primaire en pédagogie Freinet. S’inspirant d’une revue de littérature concernant la pédagogie dialogique, qui se rapproche de la pédagogie Freinet, trois unités d’observation, qui se rapportent aux trois types de discussion (cumulatif, disputationnel et exploratoire) au sein des groupes, ont été analysées. Le but de l’étude est de comprendre en quoi les discussions des groupes d’élèves autour du TNI, dans un contexte dit dialogique, peuvent être exploratoires (un type de discussion qui favoriserait les apprentissages). Pour cela, une activité d’apprentissage, appelée situation-problème, impliquant six groupes d’élèves autour du TNI, a été créée en collaboration avec les enseignants en géométrie. Nos résultats indiquent, entres autres, que les aspects pédagogiques de la technologie en question, ici le TNI, sont à différencier des aspects pédagogiques du logiciel utilisé, ici Tinkercad en mathématiques. Ce mémoire remet en relief toute la complexité de prendre en compte un unique facteur (l’analyse des discussions) pour discuter des apprentissages des élèves autour du TNI.
Resumo:
Cette thèse propose une lecture anthropologique de la consommation d’alcool. Elle met de l’avant une approche novatrice qui repose sur le concept de « métaphysique du quasi- arrêt ». Cette approche a été développée à la suite d’une recherche ethnographique réalisée dans la région de la Beauce, au Québec. Au lieu de considérer la consommation d’alcool comme un problème social ou de santé publique, j’ai cherché à comprendre comment et pourquoi l’on boit, en Beauce, en me laissant guider par les buveurs et les buveuses côtoyés sur place. En prenant part à de nombreuses soirées où la bière est omniprésente, que ce soit dans les garages, les bars ou l’aréna local, je me suis laissé affecter par les sensations ressenties et par les paroles prononcées lorsque les buveurs éprouvent ce qu’ils appellent le « feeling du moment ». En prenant du recul, j’ai constaté que les Beaucerons qui boivent ont développé des stratégies défensives pour échapper à la tentative de contrôle de la société québécoise sur leurs conduites alcooliques et, plus largement, sur l’alcoolisme. En effet, dans la perspective de la « métaphysique du quasi-arrêt », la quantité de verres consommés n’a d’importance qu’eu égard au « feeling du moment »; les normes culturelles ou médicales liées à la consommation d’alcool ne tiennent pas, et c’est pourquoi cette approche permet d’expliquer des discours et des pratiques liés à la consommation d’alcool qui, à première vue, semblent paradoxaux, voire complètement absurdes. Pour bien montrer en quoi l’approche mise de l’avant se distingue, mais surtout pour expliquer comment la consommation excessive d’alcool en est venue à représenter, en anthropologie comme dans d’autres disciplines, une pratique problématique qu’il faut comprendre pour la combattre, une première partie de la thèse consiste en une mise en perspective historique de l’alcoolisme en tant que concept scientifique et enjeu de société. Y sont passées en revue les approches et concepts développés, depuis la fin du XVIIe siècle, par des médecins, des psychologues, des économistes, des sociologues et des anthropologues euro-américains pour aborder ce genre de consommation. Je suggère que ces scientifiques mènent, depuis plus de deux siècles, une véritable croisade contre les « buveurs excessifs ». Collaborant avec l’État, les mouvements de tempérance et les entreprises privées, ils ont contribué à contenir les abus d’alcool en Occident. Dans la seconde partie de la thèse, l’ethnographie sert de support au déploiement de la perspective théorique développée à l’issue du travail de terrain. Il s’agit d’analyser comment les buveurs d’alcool vivent et font durer le « feeling du moment » au cours du boire social. Sur le terrain, j’ai découvert que les buveurs d’alcool ont inventé onze stratégies pour vivre et faire durer le « feeling du moment » en consommant de l’alcool avec les autres. Ces stratégies constituent une forme de résistance face à une société qui cherche à contrôler les conduites alcooliques.
Resumo:
L’objet de cette thèse est la « Responsabilité de protéger » (RdP), son émergence et les processus de légitimation qui ont contribué à son acceptation dans les arènes de la politique globale. Le principe d’une intervention militaire à des fins humanitaires gagne en légitimité dans les années 1990, bien qu’il soit marqué par d’intenses polémiques dans la pratique. Les situations de conflits où les civils sont brutalement persécutés et les interventions demandées et organisées pour y répondre sont maintenant largement justifiées dans les termes de la RdP. Est donc apparu d’abord un changement normatif. Ce changement s’est cristallisé dans le rapport de la Commission internationale sur l’intervention et la souveraineté des États (CIISE) qui a forgé l’expression « responsabilité de protéger ». Le point de départ ici est cependant que la RdP marque un changement discursif dans la manière de parler et de justifier ces pratiques. Je montre comment les termes de la RdP en sont venus à être ceux qui dégagent le plus large consensus autour de la question de l’intervention à des fins humanitaires. La thèse centrale de cette recherche est que le relatif succès de la RdP tient au fait que les architectes de la CIISE et les entrepreneurs de la RdP ont déployé un sens pratique aiguisé du champ de la politique globale. Le procédé principal employé est de mettre en lumière les processus de légitimation activement mis en oeuvre pour stimuler ce changement discursif. J’avance que les agents ont su placer la RdP, et par extension le principe de l’intervention à des fins humanitaires, dans le domaine du non problématique en déployant un langage et des pratiques vus comme ne posant pas problème. Concrètement, il s’est agi de choisir les agents à qui serait accordée la reconnaissance de parler, mais qui seraient aussi en mesure de proposer une solution d’une manière considérée comme légitime dans les arènes de la politique globale. Traquer les processus de légitimation est un procédé analytique qui permet de comprendre le succès de la RdP, mais qui révèle également des éléments fondamentaux du fonctionnement formel et informel de la politique globale.
Resumo:
Les élections post-conflit ou élections de sortie de crise organisées sous l’égide de la communauté internationale en vue de rétablir la paix dans les pays sortant de violents conflits armés ont un bilan mixte caractérisé par le succès ou l’échec selon les cas. Ce bilan mitigé représente le problème principal auquel cette recherche tente de répondre à travers les questions suivantes : l’assistance électorale étrangère est-elle efficace comme outil de rétablissement de la paix dans les sociétés post-conflit? Qu’est ce qui détermine le succès ou l’échec des élections post-conflit à contribuer efficacement au rétablissement de la paix dans les sociétés déchirées par la guerre? Pour résoudre cette problématique, cette thèse développe une théorie de l’assistance électorale en période post-conflit centrée sur les parties prenantes à la fois du conflit armé et du processus électoral. Cette théorie affirme que l’élément clé pour le succès des élections post-conflit dans le rétablissement de la paix est le renforcement de la capacité de négociation des parties prenantes à la fois dans le processus de paix et dans le processus électoral post-conflit. Dans les situations post-conflit, une assistance électorale qui se voudrait complète et efficace devra combiner à la fois le processus électoral et le processus de paix. L’assistance électorale sera inefficace si elle se concentre uniquement sur les aspects techniques du processus électoral visant à garantir des élections libres, transparentes et équitables. Pour être efficace, l’accent devra également être mis sur les facteurs supplémentaires qui peuvent empêcher la récurrence de la guerre, tels que l’habilité des individus et des groupes à négocier et à faire des compromis sur les grandes questions qui peuvent menacer le processus de paix. De fait, même des élections transparentes comme celles de 1997 au Liberia saluées par la communauté internationale n’avaient pas réussi à établir des conditions suffisantes pour éviter la reprise des hostilités. C’est pourquoi, pour être efficace, l’assistance électorale dans les situations de post-conflit doit prendre une approche globale qui priorise l’éducation civique, la sensibilisation sur les droits et responsabilités des citoyens dans une société démocratique, le débat public sur les questions qui divisent, la participation politique, la formation au dialogue politique, et toute autre activité qui pourrait aider les différentes parties à renforcer leur capacité de négociation et de compromis. Une telle assistance électorale fera une contribution à la consolidation de la paix, même dans le contexte des élections imparfaites, comme celles qui se sont détenues en Sierra Leone en 2002 ou au Libéria en 2005. Bien que la littérature sur l’assistance électorale n’ignore guère l’importance des parties prenantes aux processus électoraux post-conflit (K. Kumar, 1998, 2005), elle a fortement mis l’accent sur les mécanismes institutionnels. En effet, la recherche académique et professionnelle est abondante sur la réforme des lois électorales, la reforme constitutionnelle, et le développement des administrations électorales tels que les commissions électorales, ainsi que l’observation électorale et autres mécanismes de prévention de la fraude électorale, etc. (Carothers & Gloppen, 2007). En d’autres termes, les décideurs et les chercheurs ont attribué jusqu’à présent plus d’importance à la conception et au fonctionnement du cadre institutionnel et des procédures électorales. Cette thèse affirme qu’il est désormais temps de prendre en compte les participants eux-mêmes au processus électoral à travers des types d’assistance électorale qui favoriseraient leur capacité à participer à un débat pacifique et à trouver des compromis aux questions litigieuses. Cette approche plus globale de l’assistance électorale qui replace l’élection post-conflit dans le contexte plus englobant du processus de paix a l’avantage de transformer le processus électoral non pas seulement en une expérience d’élection de dirigeants légitimes, mais aussi, et surtout, en un processus au cours duquel les participants apprennent à régler leurs points de vue contradictoires à travers le débat politique dans un cadre institutionnel avec des moyens légaux et légitimes. Car, si le cadre institutionnel électoral est important, il reste que le résultat du processus électoral dépendra essentiellement de la volonté des participants à se conformer au cadre institutionnel et aux règles électorales.
Resumo:
Les courriels Spams (courriels indésirables ou pourriels) imposent des coûts annuels extrêmement lourds en termes de temps, d’espace de stockage et d’argent aux utilisateurs privés et aux entreprises. Afin de lutter efficacement contre le problème des spams, il ne suffit pas d’arrêter les messages de spam qui sont livrés à la boîte de réception de l’utilisateur. Il est obligatoire, soit d’essayer de trouver et de persécuter les spammeurs qui, généralement, se cachent derrière des réseaux complexes de dispositifs infectés, ou d’analyser le comportement des spammeurs afin de trouver des stratégies de défense appropriées. Cependant, une telle tâche est difficile en raison des techniques de camouflage, ce qui nécessite une analyse manuelle des spams corrélés pour trouver les spammeurs. Pour faciliter une telle analyse, qui doit être effectuée sur de grandes quantités des courriels non classés, nous proposons une méthodologie de regroupement catégorique, nommé CCTree, permettant de diviser un grand volume de spams en des campagnes, et ce, en se basant sur leur similarité structurale. Nous montrons l’efficacité et l’efficience de notre algorithme de clustering proposé par plusieurs expériences. Ensuite, une approche d’auto-apprentissage est proposée pour étiqueter les campagnes de spam en se basant sur le but des spammeur, par exemple, phishing. Les campagnes de spam marquées sont utilisées afin de former un classificateur, qui peut être appliqué dans la classification des nouveaux courriels de spam. En outre, les campagnes marquées, avec un ensemble de quatre autres critères de classement, sont ordonnées selon les priorités des enquêteurs. Finalement, une structure basée sur le semiring est proposée pour la représentation abstraite de CCTree. Le schéma abstrait de CCTree, nommé CCTree terme, est appliqué pour formaliser la parallélisation du CCTree. Grâce à un certain nombre d’analyses mathématiques et de résultats expérimentaux, nous montrons l’efficience et l’efficacité du cadre proposé.
Resumo:
L’obésité est de nos jours un problème croissant à travers le monde. La morbidité qui y est associée est surtout reliée au développement des différentes composantes du syndrome métabolique (SMet), une constellation de facteurs de risque regroupant l’hypertension, la dyslipidémie (concentration faible de cholestérol des lipoprotéines à haute densité (C-HDL) et élevée de triglycérides (TG)), l’hyperglycémie et l’obésité. Cependant, certains sujets obèses demeurent métaboliquement sains. Les facteurs génétiques joueraient donc un rôle important dans le développement de l’obésité et de ses complications. Les facteurs épigénétiques semblent également y avoir des effets. L’analyse de tissu adipeux viscéral (TAV) a donc été réalisée pour mener à la découverte de plusieurs gènes différentiellement exprimés et méthylés entre les obèses atteints et non atteints par le SMet. Les deux gènes candidats NMT1 et DGKZ font partie de ce groupe et leurs associations avec les composantes du SMet ont été testées. Leurs niveaux de méthylation et d’expression génique ont aussi été analysés.
Resumo:
La scoliose est la pathologie déformante du rachis la plus courante de l’adolescence. Dans 80 % des cas, elle est idiopathique, signifiant qu’aucune cause n’a été associée. Les scolioses idiopathiques répondent à un modèle multifactoriel incluant des facteurs génétiques, environnementaux, neurologiques, hormonaux, biomécaniques et de croissance squelettique. Comme hypothèse neurologique, une anomalie vestibulaire provoquerait une asymétrie d’activation des voies vestibulospinales et des muscles paravertébraux commandés par cette voie, engendrant la déformation scoliotique. Certains modèles animaux permettent de reproduire ce mécanisme. De plus, des anomalies liées au système vestibulaire, comme des troubles de l’équilibre, sont observées chez les patients avec une scoliose. La stimulation vestibulaire galvanique permet d’explorer le contrôle sensorimoteur de l’équilibre puisqu’elle permet d’altérer les afférences vestibulaires. L’objectif de cette thèse est d’explorer le contrôle sensorimoteur en évaluant la réaction posturale provoquée par cette stimulation chez les patients et les participants contrôle. Dans la première étude, les patients sont plus déstabilisés que les contrôles et il n’y a pas de lien entre l’ampleur de l’instabilité et la sévérité de la scoliose. Dans la deuxième étude, à l’aide d’un modèle neuromécanique, un poids plus grand aux signaux vestibulaires a été attribué aux patients. Dans la troisième étude, un problème sensorimoteur est également observé chez les jeunes adultes ayant une scoliose, excluant ainsi que le problème soit dû à la maturation du système nerveux. Dans une étude subséquente, des patients opérés pour réduire leur déformation du rachis, montrent également une réaction posturale de plus grande amplitude à la stimulation comparativement à des participants contrôle. Ces résultats suggèrent que l’anomalie sensorimotrice ne serait pas secondaire à la déformation. Finalement, un algorithme a été développé pour identifier les patients ayant un problème sensorimoteur. Les patients montrant un contrôle sensorimoteur anormal ont également une réponse vestibulomotrice plus grande et attribuent plus de poids aux informations vestibulaires. Globalement, les résultats de cette thèse montrent qu’un déficit sensorimoteur expliquerait l’apparition de la scoliose mais pas sa progression. Le dysfonctionnement sensorimoteur n’est pas présent chez tous les patients. L’algorithme permettant une classification de la performance sensorimotrice pourrait être utile pour de futures études cliniques.
Resumo:
Le contenu de ce mémoire traite du problème de gestion des stocks dans un réseau constitué de plusieurs sites de stockage de produits. Chaque site i gère son stock de manière autonome pour satisfaire une demande déterministe sur un horizon donné. Un stock maximum Si est tenu à chaque site i. Lorsque le point de commande si est atteint, une commande de taille Qi est placée au centre de distribution qui alimente tous les sites. Qi est telle que Qi = Si - si. La quantité Qi est livrée dans un délai connu Li. Si, à un instant donné, la demande Di au site i excède la quantité en main, le site i fait appel à un ou à plusieurs autres sites du réseau pour le transfert d’une quantité Xji (j = 1, 2, …, n). Ce transfert s’effectue selon un certain nombre de règles de jeu qui tiennent compte des coûts de transfert, de stockage, d’approvisionnement et de pénurie. Ce mémoire examine six principales contributions publiées dans la littérature pour évaluer les contributions d’un modèle collaboratif aux performances, en termes de coûts et de niveau de service, de chaque site du réseau. Cette investigation se limite à une configuration du réseau à deux échelons : un entrepôt central et n (n > 2) sites de stockage. Le cas des pièces de rechange, caractérisé par une demande aléatoire, est examiné dans trois chapitres de ce mémoire. Une autre application de ces stratégies à la collaboration entre n centres hospitaliers (n > 2) est également examinée dans ce travail.
Resumo:
La modélisation de la cryolite, utilisée dans la fabrication de l’aluminium, implique plusieurs défis, notament la présence de discontinuités dans la solution et l’inclusion de la difference de densité entre les phases solide et liquide. Pour surmonter ces défis, plusieurs éléments novateurs ont été développés dans cette thèse. En premier lieu, le problème du changement de phase, communément appelé problème de Stefan, a été résolu en deux dimensions en utilisant la méthode des éléments finis étendue. Une formulation utilisant un multiplicateur de Lagrange stable spécialement développée et une interpolation enrichie a été utilisée pour imposer la température de fusion à l’interface. La vitesse de l’interface est déterminée par le saut dans le flux de chaleur à travers l’interface et a été calculée en utilisant la solution du multiplicateur de Lagrange. En second lieu, les effets convectifs ont été inclus par la résolution des équations de Stokes dans la phase liquide en utilisant la méthode des éléments finis étendue aussi. Troisièmement, le changement de densité entre les phases solide et liquide, généralement négligé dans la littérature, a été pris en compte par l’ajout d’une condition aux limites de vitesse non nulle à l’interface solide-liquide pour respecter la conservation de la masse dans le système. Des problèmes analytiques et numériques ont été résolus pour valider les divers composants du modèle et le système d’équations couplés. Les solutions aux problèmes numériques ont été comparées aux solutions obtenues avec l’algorithme de déplacement de maillage de Comsol. Ces comparaisons démontrent que le modèle par éléments finis étendue reproduit correctement le problème de changement phase avec densités variables.
Resumo:
Avec l’avènement des objets connectés, la bande passante nécessaire dépasse la capacité des interconnections électriques et interface sans fils dans les réseaux d’accès mais aussi dans les réseaux coeurs. Des systèmes photoniques haute capacité situés dans les réseaux d’accès utilisant la technologie radio sur fibre systèmes ont été proposés comme solution dans les réseaux sans fil de 5e générations. Afin de maximiser l’utilisation des ressources des serveurs et des ressources réseau, le cloud computing et des services de stockage sont en cours de déploiement. De cette manière, les ressources centralisées pourraient être diffusées de façon dynamique comme l’utilisateur final le souhaite. Chaque échange nécessitant une synchronisation entre le serveur et son infrastructure, une couche physique optique permet au cloud de supporter la virtualisation des réseaux et de les définir de façon logicielle. Les amplificateurs à semi-conducteurs réflectifs (RSOA) sont une technologie clé au niveau des ONU(unité de communications optiques) dans les réseaux d’accès passif (PON) à fibres. Nous examinons ici la possibilité d’utiliser un RSOA et la technologie radio sur fibre pour transporter des signaux sans fil ainsi qu’un signal numérique sur un PON. La radio sur fibres peut être facilement réalisée grâce à l’insensibilité a la longueur d’onde du RSOA. Le choix de la longueur d’onde pour la couche physique est cependant choisi dans les couches 2/3 du modèle OSI. Les interactions entre la couche physique et la commutation de réseaux peuvent être faites par l’ajout d’un contrôleur SDN pour inclure des gestionnaires de couches optiques. La virtualisation réseau pourrait ainsi bénéficier d’une couche optique flexible grâce des ressources réseau dynamique et adaptée. Dans ce mémoire, nous étudions un système disposant d’une couche physique optique basé sur un RSOA. Celle-ci nous permet de façon simultanée un envoi de signaux sans fil et le transport de signaux numérique au format modulation tout ou rien (OOK) dans un système WDM(multiplexage en longueur d’onde)-PON. Le RSOA a été caractérisé pour montrer sa capacité à gérer une plage dynamique élevée du signal sans fil analogique. Ensuite, les signaux RF et IF du système de fibres sont comparés avec ses avantages et ses inconvénients. Finalement, nous réalisons de façon expérimentale une liaison point à point WDM utilisant la transmission en duplex intégral d’un signal wifi analogique ainsi qu’un signal descendant au format OOK. En introduisant deux mélangeurs RF dans la liaison montante, nous avons résolu le problème d’incompatibilité avec le système sans fil basé sur le TDD (multiplexage en temps duplexé).
Resumo:
D’abord, nous présentons les principes physiques nous permettant de modéliser et comprendre le phénomène de propagation linéaire des impulsions lumineuses dans un milieu homogène, dans les guides d’ondes planaires et enfin dans les fibres optiques microstructurées. Ensuite, nous faisons une analyse mathématique rigoureuse des équations linéaires de propagation et posons le problème comme celui de la recherche de valeurs propres d’opérateurs auto-adjoints dans un espace de Hilbert. On verra que ces résultats théoriques s’appliquent aux équations simulées dans le logiciel Comsol Multiphysics. Enfin, nous recensons et proposons différentes façons de prédire les valeurs de dispersion chromatique et d’atténuation dans les fibres microstructurées à coeur suspendu en utilisant les notions et équations discutés dans les deux premiers chapitres. Le choix de la géométrie, du matériau et de la longueur d’onde de la lumière transmise sont parmi les variables étudiées numériquement. Nous ferons également un exemple détaillé d’utilisation du logiciel Comsol Multiphysics pour construire un modèle de fibre optique microstructurée.