289 resultados para Courbe de coûts
Resumo:
Le recours au plasma pour stériliser des dispositifs médicaux (DM) est un domaine de recherche ne datant véritablement que de la fin des années 1990. Les plasmas permettent, dans les conditions adéquates, de réaliser la stérilisation à basse température (≤ 65°C), tel qu’exigé par la présence de polymères dans les DM et ce contrairement aux procédés par chaleur, et aussi de façon non toxique, contrairement aux procédés chimiques comme, par exemple, l’oxyde d’éthylène (OEt). Les laboratoires du Groupe de physique des plasmas à l’Université de Montréal travaillent à l’élaboration d’un stérilisateur consistant plus particulièrement à employer les effluents d’une décharge N2-%O2 basse pression (2-8 Torrs) en flux, formant ce que l’on appelle une post-décharge en flux. Ce sont les atomes N et O de cette décharge qui viendront, dans les conditions appropriées, entrer en collisions dans la chambre de stérilisation pour y créer des molécules excitées NO*, engendrant ainsi l’émission d’une quantité appréciable de photons UV. Ceux-ci constituent, dans le cas présent, l’agent biocide qui va s’attaquer directement au bagage génétique du micro-organisme (bactéries, virus) que l’on souhaite inactiver. L’utilisation d’une lointaine post-décharge évite du même coup la présence des agents érosifs de la décharge, comme les ions et les métastables. L’un des problèmes de cette méthode de stérilisation est la réduction du nombre de molécules NO* créées par suite de la perte des atomes N et O, qui sont des radicaux connus pour interagir avec les surfaces, sur les parois des matériaux des DM que l’on souhaite stériliser. L’objectif principal de notre travail est de déterminer l’influence d’une telle perte en surface, dite aussi réassociation en surface, par l’introduction de matériaux comme le Téflon, l’acier inoxydable, l’aluminium et le cuivre sur le taux d’inactivation des spores bactériennes. Nous nous attendons à ce que la réassociation en surface de ces atomes occasionne ainsi une diminution de l’intensité UV et subséquemment, une réduction du taux d’inactivation. Par spectroscopie optique d’émission (SOE), nous avons déterminé les concentrations perdues de N et de O par la présence des matériaux dans le stérilisateur, ainsi que la diminution de l’émission UV en découlant. Nous avons observé que cette diminution des concentrations atomiques est d’autant plus importante que les surfaces sont catalytiques. Au cours de l’étude du phénomène de pertes sur les parois pour un mélange N2-%O2 nous avons constaté l’existence d’une compétition en surface entre les atomes N et O, dans laquelle les atomes d’oxygènes semblent dominer largement. Cela implique qu’au-delà d’un certain %O2 ajouté à la décharge N2, seuls les atomes O se réassocient en surface. Par ailleurs, l’analyse des courbes de survie bi-phasiques des micro-organismes a permis d’établir une étroite corrélation, par lien de cause à effet, entre la consommation des atomes N et O en surface et la diminution du taux d’inactivation des spores dans la première phase. En revanche, nous avons constaté que notre principal agent biocide (le rayonnement ultraviolet) est moins efficace dans la deuxième phase et, par conséquent, il n’a pas été possible d’établir un lien entre la diminution des concentrations et le taux d’inactivation de cette phase-là.
Resumo:
Lorsque l’anesthésie par inhalation ne peut être utilisée chez le rat, la combinaison de kétamine et de xylazine est l’alternative la plus fréquemment utilisée. Les doses administrées peuvent varier selon le protocole expérimental. En présence de fièvre, d’infections ou de processus tumoral accompagné de fièvre, la pharmacocinétique de ces drogues peut être modifiée. Ce projet porte sur l’évaluation des changements physiologiques, hématologiques, biochimiques et pharmacocinétiques chez le rat Sprague Dawley lors d’anesthésie avec le mélange kétamine-xylazine suite à l’administration de trois doses différentes de lipopolysaccharide (LPS). Après l’administration de LPS, une anesthésie à la kétamine-xylazine fut induite chez des rats Sprague Dawley. Des prélèvements sanguins périodiques ainsi que des mesures des paramètres physiologiques furent effectués afin d’évaluer l’effet du LPS sur la pharmacocinétique des deux drogues ainsi que sur les paramètres biochimiques et hématologiques. Les différentes doses de LPS ont causé certaines modifications notamment en produisant une baisse marquée de la saturation en oxygène et de l’albumine sérique, une augmentation de la durée d’anesthésie ainsi que des lésions hépatiques mineures. Les paramètres pharmacocinétiques de la kétamine furent peu altérés par l’administration de LPS tandis qu’une diminution de la clairance et une augmentation de l’aire sous la courbe (AUC) furent observées pour la xylazine dans les groupes ayant reçu les doses moyenne et élevée de LPS. Ces résultats montrent que les doses de xylazine doivent être adaptées en présence de LPS pour permettre une anesthésie de courte durée et des changements physiologiques et biochimiques moindres lorsqu’elle est administrée avec de la kétamine.
Resumo:
L’insomnie, commune auprès de la population gériatrique, est typiquement traitée avec des benzodiazépines qui peuvent augmenter le risque des chutes. La thérapie cognitive-comportementale (TCC) est une intervention non-pharmacologique ayant une efficacité équivalente et aucun effet secondaire. Dans la présente thèse, le coût des benzodiazépines (BZD) sera comparé à celui de la TCC dans le traitement de l’insomnie auprès d’une population âgée, avec et sans considération du coût additionnel engendré par les chutes reliées à la prise des BZD. Un modèle d’arbre décisionnel a été conçu et appliqué selon la perspective du système de santé sur une période d’un an. Les probabilités de chutes, de visites à l’urgence, d’hospitalisation avec et sans fracture de la hanche, les données sur les coûts et sur les utilités ont été recueillies à partir d’une revue de la littérature. Des analyses sur le coût des conséquences, sur le coût-utilité et sur les économies potentielles ont été faites. Des analyses de sensibilité probabilistes et déterministes ont permis de prendre en considération les estimations des données. Le traitement par BZD coûte 30% fois moins cher que TCC si les coûts reliés aux chutes ne sont pas considérés (231$ CAN vs 335$ CAN/personne/année). Lorsque le coût relié aux chutes est pris en compte, la TCC s’avère être l’option la moins chère (177$ CAN d’économie absolue/ personne/année, 1,357$ CAN avec les BZD vs 1,180$ pour la TCC). La TCC a dominé l’utilisation des BZD avec une économie moyenne de 25, 743$ CAN par QALY à cause des chutes moins nombreuses observées avec la TCC. Les résultats des analyses d’économies d’argent suggèrent que si la TCC remplaçait le traitement par BZD, l’économie annuelle directe pour le traitement de l’insomnie serait de 441 millions de dollars CAN avec une économie cumulative de 112 billions de dollars canadiens sur une période de cinq ans. D’après le rapport sensibilité, le traitement par BZD coûte en moyenne 1,305$ CAN, écart type 598$ (étendue : 245-2,625)/personne/année alors qu’il en coûte moyenne 1,129$ CAN, écart type 514$ (étendue : 342-2,526)/personne/année avec la TCC. Les options actuelles de remboursement de traitements pharmacologiques au lieu des traitements non-pharmacologiques pour l’insomnie chez les personnes âgées ne permettent pas d’économie de coûts et ne sont pas recommandables éthiquement dans une perspective du système de santé.
Resumo:
Étude de cas / Case study
Resumo:
Étude de cas / Case study
Resumo:
Combiner le respect du milieu et le bien-être des personnes qui vivent de l’exploitation des ressources naturelles en Amazonie est une préoccupation qui est appelée à transformer les politiques d’exploitation du territoire. Je montre dans cette étude que les gains du développement économique, la protection de l’environnement et l’amélioration du niveau de vie des populations locales sont des objectifs compatibles. Toutefois, des tensions entre les trois piliers du développement durable subsistent et nécessitent une forme de négociation pour arriver à un équilibre des coûts et bénéfices du développement. En Amazonie, cette négociation prend la forme d’un encadrement du développement par les législations gouvernementales. Ces lois clarifient les droits de propriété et établissent un système de gestion de l’exploitation des ressources forestières tant sur les terres publiques que sur les terres privées. En analysant deux cas d’exploitation de ressources issues de la forêt, soit le bois d’œuvre et la baie d’açaí, j’explique les raisons pour lesquelles les populations locales vivant de l’exploitation des diverses ressources forestières sont peu intégrées dans le processus de développement. La régulation publique s’appliquant à l’exploitation du bois tend à criminaliser les activités pratiquées par les populations locales sans apporter d’alternative autre que les plans de gestion forestière. Dans le cas de la baie d’açaí, la coexistence de la culture et de la cueillette comme systèmes de production permet aux populations locales de continuer leurs activités traditionnelles et une répartition des coûts et bénéfices du développement plus équitable entre les acteurs.
Resumo:
"Ce texte se veut une réflexion sur les points à considérer avant l'adoption d'un système de dépôt électronique accessible à toutes les cours du Canada. En prenant pour exemple l'expérience torontoise, l'auteur souligne une série d'éléments à considérer avant la mise en œuvre d'un tel processus, à savoir : La nécessité de tenir compte des coûts associés à la formation des avocats, des juges, ainsi que du personnel juridique; L'attachement au document "" papier "" et le manque d'unanimité quant à la valeur du document électronique; et L'impact négatif que peut avoir l'informatisation des données sur la vie privée des contribuables. L'auteur conclu en ventant l'aspect centralisé du projet de dépôt électronique proposé par la Cour suprême en soulignant toutefois qu'un tel projet devra nécessairement évaluer les besoins des utilisateurs du système afin d'en tenir compte lors de sa conception."
Resumo:
L’ouvrage constitue la thèse de Doctorat de Monsieur Lauri Railas soutenue le 16 Octobre 2004 à la faculté de droit de l’Université de Helsinki. Expert reconnu en droit du commerce international, son parcours professionnel explique les orientations prises dans son étude et son approche très large des transactions relatives à la vente internationale de marchandises comparativement à d’autres travaux dans le même domaine. L’auteur a été conseiller juridique à l’Institut d’arbitrage de la chambre de commerce centrale finlandaise puis secrétaire général de la section finlandaise de la chambre internationale de commerce. Il a, ensuite, occupé le poste d’administrateur principal au secrétariat général du conseil de l’Union Européenne entre 1996 et 2002. Il est, actuellement, associé senior chez Krogerus & Co, un des plus importants cabinets d’avocats de Finlande. L’originalité de la thèse réside dans le fait qu’elle aborde les transactions relatives à la vente internationale de marchandises du point de vue du commerce électronique. L’étude traite de la création d’un cadre juridique uniforme et cohérent encadrant l’utilisation des instruments du commerce élecronique pour la vente internationale de marchandises en se concentrant, uniquement, sur le commerce électronique entre professionnels (B to B) et plus précisément sur les initiatives des organisations internationales pour en diffuser et en faciliter l’usage. S’inspirant des théories de l’analyse économique du droit, le postulat de départ de Monsieur Railas est que le commerce électronique peut changer les procédures du commerce international et apporter d’importante économie de coûts. Pour ce faire, un cadre juridique pour le commerce électronique et plus généralement les affaires électroniques, est en cours d’élaboration par les organisations internationales. L’étude aborde ces développements dans différents domaines comme la formation du contrat, le crédit documentaire ou encore la résolution des conflits.L’approche est holistique et basée sur les efforts déployés pour introduire des sources uniformes de régulation pour les transactions électroniques dans le commerce international. L’auteur recense un large répertoire de règles de droit qui sont en majorité d’origine internationales avec pour objectif la détermination du rôle que peuvent jouer les communications électroniques dans la passation de contrats de vente de marchandises, leur livraison mais aussi dans le recours au service de tiers dans des fonctions comme le transport, l’assurance-transport et la sécurisation des droits des différentes parties impliquées. L’idée de base étant que la vente internationale et le transport constituent une chaine de contrats et de services interreliés. En plus des règles de droits déjà établies, l’auteur analyse différentes initiatives de régulation novatrices pour le commerce électronique initiées par la CNUDCI notamment. L’ouvrage traite, également, des problématiques générales comme la formation des contrats et la signature électronique. Par ailleurs, l’auteur procède à l’analyse des contrats de vente dans lesquels le vendeur a l’obligation de livrer en plus des marchandises, les documents relatifs aux marchandises et ceux de transfert de propriété. Les marchandises étant soumises à différents droits de propriété, les documents de vente et de transport ont un rôle important à jouer dans l’exercice de ces droits. Enfin, l’auteur considère la procédure de résolution des conflits comme une part du cycle de vie de chaque transaction. L’arbitrage en ligne et les autres méthodes de résolution en ligne des conflits contribuant à la réalisation de transactions électroniques réussies. L’ouvrage peut être particulièrement utile pour les personnes qui s’intéressent à l’harmonisation internationale des droits applicables au commerce international. L’auteur fait une analyse, particulièrement intéressante, de plusieurs instruments et projets comme les E-terms 2004 de la chambre internationale de commerce, le système Boléro, le système TEDI (Trade Electronic Data Interchange) et le système de transactions financières SWIFNet. La finalité de la démarche est de trouver une plate-forme commune qui fasse en sorte que les transactions électroniques puissent être conclues de manière sécuritaire en s’inspirant des résultats tangibles d’harmonisation atteints par la convention de Vienne sur la vente internationale de marchandises et par les principes UNIDROIT mais aussi du consensus selon lequel le commerce électronique doit être gouverné dans une large part par les instruments de « droit mou » comme les codes de conduite, et que, les règlements extrajudiciaires des conflits doivent être utilisés pour les transactions électroniques.
Resumo:
"Le présent rapport a pour objet de fournir un commentaire détaillé sur la faisabilité globale d'un portail unique de dépôt électronique hébergé par le secteur privé (modèle transactionnel central de dépôt électronique) fondé sur la norme LegalXML. Le résultat attendu principal est une opinion concernant la faisabilité du modèle à guichet unique (portail électronique). D'autres résultats attendus comprennent : une connaissance accrue chez les intéressés du modèle de fournisseur de services et une évaluation préliminaire de l'appui que le modèle reçoit. Nous avons utilisé deux véhicules d'analyse principaux pour réaliser les objectifs de l'étude susmentionnés : des analyses documentaires et des entretiens auprès d'intéressés. Les analyses visent explicitement à : examiner des approches différentes au dépôt électronique, notamment un système de dépôt électronique comme extension de chaque instance, et l'hébergement par le secteur privé par opposition au secteur public d'un guichet unique; recenser les questions et les facteurs de risque critiques se rapportant à la mise en place de services de dépôt électronique dans les cours, notamment la protection des renseignements personnels, la propriété intellectuelle et la sécurité, et en discuter; opposer chacun de ces points au modèle de FSA; faire des recommandations sur la stratégie permettant de régler les questions et les facteurs de risque critiques. L'étude a révélé que : de nombreux intéressés appuient le dépôt électronique; de nombreux intéressés (p. ex. les avocats) ne font aucune distinction entre les formes différentes de dépôt électronique, tandis que d'autres s'en soucient beaucoup (p. ex. administrateurs de certaines cours); un modèle de fournisseur de services de dépôt électronique (FSDE) à guichet unique offre quelques avantages importants par rapport à une approche de dépôt électronique individuelle, surtout pour ce qui concerne les coûts et la plate-forme de l'avenir; un modèle de FSDE du secteur privé offre des avantages considérables par rapport à un modèle de FSDE du secteur privé, surtout en matière de succès et de coût de la mise en œuvre."
Resumo:
"Dans la littérature des sciences sociales, les difficultés que connaît le marché du commerce électronique sont souvent attribuées à un manque de confiance; le manque de confiance serait un frein à l’échange. Qu’est au juste la confiance? La confiance permet de se dispenser de certaines précautions qu’on prendrait autrement dans le but d’éviter ou de réduire le risque de se faire avoir dans une opération. Le discours sur la confiance porte essentiellement sur la disponibilité d’informations touchant les différents aspects des opérations projetées dans le marché électronique et qui permettent aux acteurs d’évaluer à la baisse la probabilité de se faire avoir dans ces opérations, et donc la nécessité de précautions pour l’éviter. La disponibilité des informations est de nature à abaisser les coûts dits de transaction dans l’analyse économique du droit, et partant à faire augmenter le nombre d'opérations commerciales effectivement conclues. Cet article fait le point sur les sources de la confiance et sur leur rôle dans la réduction des coûts de transaction. Il recense les mécanismes de transmission d’informations dans les marchés traditionnels et s’en inspire pour ordonner et dégager les moyens correspondants pouvant favoriser les opérations dans les marchés électroniques, compte tenu des particularités propres de ces marchés."
Resumo:
Affirmer que les citoyens des démocraties occidentales sont l’objet d’une surveillance systématique efficace et à grande échelle a de quoi provoquer une réaction incrédule. Démagogie, diront certains. Pourtant, les progrès réalisés dans les technologies de collecte, de traitement et de stockage d’information forcent une réflexion sur cette hypothèse. Il a été souligné justement que les coûts élevés liés aux moyens rudimentaires employés par les polices secrètes d’antan endiguaient en quelque sorte la menace. Les filatures, les infiltrations, les rapts nocturnes de dissidents pêchaient par manque de subtilité. Au contraire, le génie des techniques modernes vient de ce qu’elles n’entravent pas le quotidien des gens. Mais au-delà du raffinement technique, le contrôle panoptique de la masse atteint un sommet d’efficience dès lors que celle-ci est amenée à y consentir. Comme le faisait remarquer le professeur Raab : « [TRADUCTION] La surveillance prospère naturellement dans les régimes autoritaires qui ne s’exposent pas au débat public ni à la critique. Lorsqu’elle est utilisée dans des régimes dits démocratiques, elle est légitimée et circonscrite par des arguments de nécessité ou de justifications spéciales, tout comme la censure »[1]. Or, le droit, en tant que discours de rationalité, accomplit savamment ce travail de légitimation. C’est dans cet esprit qu’une analyse radicale des règles de droit encadrant le droit à la vie privée apporte une lucidité nouvelle sur notre faux sentiment de sécurité.
Resumo:
Nous sommes quotidiennement envahis pour d’innombrables messages électroniques non sollicités, qu’il s’agisse d’annonces publicitaires, de virus ou encore de ce qu’on appelle désormais les métavirus. Ces derniers sont des canulars transmis aux internautes leur suggérant de poser tel ou tel geste, lequel causera des dommages plus ou moins importants au système de l’utilisateur. L’auteur se penche sur la problématique que suscitent ces métavirus au niveau de la responsabilité civile de leurs émetteurs. Il en vient à la conclusion que ce régime, bien qu’applicable en théorie, demeure mal adapté au problème notamment au niveau de la preuve des éléments de la responsabilité civile. Il faut d’abord établir la capacité de discernement (ou l’incapacité) de l’émetteur, la connaissance ou non de cet état par le destinataire et la preuve d’un comportement fautif de la part de l’émetteur voire même des deux parties. Reste à savoir quelle aurait été l’attitude raisonnable dans la situation. À noter que la victime pourrait être trouvée partiellement responsable pour ses propres dommages. Reste alors à prouver le lien de causalité entre l’acte et le dommage ce qui, compte tenu de la situation factuelle, peut s’avérer une tâche ardue. L’auteur conclut que l’opportunité d’un tel recours est très discutable puisque les coûts sont disproportionnés aux dommages et car les chances pour qu’un juge retienne la responsabilité de celui qui a envoyé le métavirus sont assez faibles. La meilleure solution, ajoute-t-il, reste la prudence.
Resumo:
L'adoption des technologies de réseaux sans-fil de type WiFi a connu une croissance impressionnante ces dernières années. Cette vague de popularité ne semble pas vouloir s'estomper, il est estimé que 84 millions d’appareils seront vendus en 2007 totalisant des revenus de 3.7 milliards de dollars. Devant cette forte demande, les fabricants d’appareils de télécommunications ont songés à développer des produits encore plus performants. Appuyé par la norme IEEE 802.16, un consortium du nom de WiMAX Forum a regroupé 350 membres dans le but de promouvoir des produits standardisés portant la marque WiMAX. À l'inverse des premières versions du WiFi, le WiMAX sera doté de mécanismes de sécurité beaucoup plus fiables. L'avantage du WiMAX, comme pour plusieurs de ses concurrents, repose sur sa capacité d'opérer sur une large bande de fréquences, réglementées ou non. Sa portée théorique de 50 Km et son débit escompté de 75 Mbit/s a capté l'attention des fournisseurs de services qui cherchent à réduire leurs coûts d'exploitations mais également de divers organismes gouvernementaux qui espèrent améliorer les services de communications dans les communautés des régions éloignées. Grâce à l'appui du ministre des Affaires indiennes et du nord canadien, le territoire du Nunavut a mis sur pied un réseau à large bande qui dessert actuellement l’ensemble de ses 29 communautés sur tout son territoire. La possibilité de couvrir une superficie de plusieurs kilomètres ramène à la surface le concept d’omniprésence ou de « Pervasive computing ». Cette notion représente l’intégration des technologies dans notre entourage afin de rendre nos interactions avec celle-ci plus naturelles. Nos déplacements dans cet environnement pourraient être facilités puisque les ordinateurs seraient en mesure de détecter et réagir à notre présence pour nous offrir des solutions personnalisées. Les déploiements de réseaux de type WiMAX sont déjà en cours dans plusieurs pays, d'après la situation actuelle du marché, il est envisageable de voir une forte adoption de cette forme de diffusion d’informations dans les prochaines années. Le présent document trace un résumé des applications liées au WiMAX et discute de certaines problématiques engendrées par ce type de réseau.
Resumo:
Les techniques de groupement technologique sont aujourd’hui utilisées dans de nombreux ateliers de fabrication; elles consistent à décomposer les systèmes industriels en sous-systèmes ou cellules constitués de pièces et de machines. Trouver le groupement technologique le plus efficace est formulé en recherche opérationnelle comme un problème de formation de cellules. La résolution de ce problème permet de tirer plusieurs avantages tels que la réduction des stocks et la simplification de la programmation. Plusieurs critères peuvent être définis au niveau des contraintes du problème tel que le flot intercellulaire,l’équilibrage de charges intracellulaires, les coûts de sous-traitance, les coûts de duplication des machines, etc. Le problème de formation de cellules est un problème d'optimisation NP-difficile. Par conséquent les méthodes exactes ne peuvent être utilisées pour résoudre des problèmes de grande dimension dans un délai raisonnable. Par contre des méthodes heuristiques peuvent générer des solutions de qualité inférieure, mais dans un temps d’exécution raisonnable. Dans ce mémoire, nous considérons ce problème dans un contexte bi-objectif spécifié en termes d’un facteur d’autonomie et de l’équilibre de charge entre les cellules. Nous présentons trois types de méthodes métaheuristiques pour sa résolution et nous comparons numériquement ces métaheuristiques. De plus, pour des problèmes de petite dimension qui peuvent être résolus de façon exacte avec CPLEX, nous vérifions que ces métaheuristiques génèrent des solutions optimales.
Resumo:
Grâce à leur flexibilité et à leur facilité d’installation, les réseaux maillés sans fil (WMNs) permettent un déploiement d’une infrastructure à faible coût. Ces réseaux étendent la couverture des réseaux filaires permettant, ainsi, une connexion n’importe quand et n’importe où. Toutefois, leur performance est dégradée par les interférences et la congestion. Ces derniers causent des pertes de paquets et une augmentation du délai de transmission d’une façon drastique. Dans cette thèse, nous nous intéressons au routage adaptatif et à la stabilité dans ce type de réseaux. Dans une première partie de la thèse, nous nous intéressons à la conception d’une métrique de routage et à la sélection des passerelles permettant d’améliorer la performance des WMNs. Dans ce contexte nous proposons un protocole de routage à la source basé sur une nouvelle métrique. Cette métrique permet non seulement de capturer certaines caractéristiques des liens tels que les interférences inter-flux et intra-flux, le taux de perte des paquets mais également la surcharge des passerelles. Les résultats numériques montrent que la performance de cette métrique est meilleure que celle des solutions proposées dans la littérature. Dans une deuxième partie de la thèse, nous nous intéressons à certaines zones critiques dans les WMNs. Ces zones se trouvent autour des passerelles qui connaissent une concentration plus élevé du trafic ; elles risquent de provoquer des interférences et des congestions. À cet égard, nous proposons un protocole de routage proactif et adaptatif basé sur l’apprentissage par renforcement et qui pénalise les liens de mauvaise qualité lorsqu’on s’approche des passerelles. Un chemin dont la qualité des liens autour d’une passerelle est meilleure sera plus favorisé que les autres chemins de moindre qualité. Nous utilisons l’algorithme de Q-learning pour mettre à jour dynamiquement les coûts des chemins, sélectionner les prochains nœuds pour faire suivre les paquets vers les passerelles choisies et explorer d’autres nœuds voisins. Les résultats numériques montrent que notre protocole distribué, présente de meilleurs résultats comparativement aux protocoles présentés dans la littérature. Dans une troisième partie de cette thèse, nous nous intéressons aux problèmes d’instabilité des réseaux maillés sans fil. En effet, l’instabilité se produit à cause des changements fréquents des routes qui sont causés par les variations instantanées des qualités des liens dues à la présence des interférences et de la congestion. Ainsi, après une analyse de l’instabilité, nous proposons d’utiliser le nombre de variations des chemins dans une table de routage comme indicateur de perturbation des réseaux et nous utilisons la fonction d’entropie, connue dans les mesures de l’incertitude et du désordre des systèmes, pour sélectionner les routes stables. Les résultats numériques montrent de meilleures performances de notre protocole en comparaison avec d’autres protocoles dans la littérature en termes de débit, délai, taux de perte des paquets et l’indice de Gini.