23 resultados para Multi-extremal Objective Function
em Universit
Resumo:
The attached file is created with Scientific Workplace Latex
Development of new scenario decomposition techniques for linear and nonlinear stochastic programming
Resumo:
Une approche classique pour traiter les problèmes d’optimisation avec incertitude à deux- et multi-étapes est d’utiliser l’analyse par scénario. Pour ce faire, l’incertitude de certaines données du problème est modélisée par vecteurs aléatoires avec des supports finis spécifiques aux étapes. Chacune de ces réalisations représente un scénario. En utilisant des scénarios, il est possible d’étudier des versions plus simples (sous-problèmes) du problème original. Comme technique de décomposition par scénario, l’algorithme de recouvrement progressif est une des méthodes les plus populaires pour résoudre les problèmes de programmation stochastique multi-étapes. Malgré la décomposition complète par scénario, l’efficacité de la méthode du recouvrement progressif est très sensible à certains aspects pratiques, tels que le choix du paramètre de pénalisation et la manipulation du terme quadratique dans la fonction objectif du lagrangien augmenté. Pour le choix du paramètre de pénalisation, nous examinons quelques-unes des méthodes populaires, et nous proposons une nouvelle stratégie adaptive qui vise à mieux suivre le processus de l’algorithme. Des expériences numériques sur des exemples de problèmes stochastiques linéaires multi-étapes suggèrent que la plupart des techniques existantes peuvent présenter une convergence prématurée à une solution sous-optimale ou converger vers la solution optimale, mais avec un taux très lent. En revanche, la nouvelle stratégie paraît robuste et efficace. Elle a convergé vers l’optimalité dans toutes nos expériences et a été la plus rapide dans la plupart des cas. Pour la question de la manipulation du terme quadratique, nous faisons une revue des techniques existantes et nous proposons l’idée de remplacer le terme quadratique par un terme linéaire. Bien que qu’il nous reste encore à tester notre méthode, nous avons l’intuition qu’elle réduira certaines difficultés numériques et théoriques de la méthode de recouvrement progressif.
Resumo:
We investigate the conditions under which an inequality averse and additively separable welfarist constitution maker would always choose to set up a progressive equalization payments scheme in a federation with local public goods. A progressive equalization payments scheme is defined as a list of per capita net (possibly negative) subsidies - one such net subsidy for every jurisdiction - that are decreasing with respect to jurisdictions per capita wealth. We examine these questions in a setting in which the case for progressivity is a priori the strongest, namely, all citizens have the same utility function for the private and the public goods, inhabitants of a given jurisdiction are all identical, and they are not able to move across jurisdictions. We show that the constitution maker favors a progressive equalization payments scheme for all distributions of wealth and all population sizes if and only if its objective function is additively separable between each jurisdiction’s per capita wealth and number of inhabitants. When interpreted as a mean of order r social welfare function, this condition is shown to be equivalent to additive separability of the individual’s indirect utility function with respect to wealth and the price of the public good. Some implications of this restriction to the case where the individual’s direct utility function is additively separable are also derived.
Resumo:
La traduction automatique statistique est un domaine très en demande et où les machines sont encore loin de produire des résultats de qualité humaine. La principale méthode utilisée est une traduction linéaire segment par segment d'une phrase, ce qui empêche de changer des parties de la phrase déjà traduites. La recherche pour ce mémoire se base sur l'approche utilisée dans Langlais, Patry et Gotti 2007, qui tente de corriger une traduction complétée en modifiant des segments suivant une fonction à optimiser. Dans un premier temps, l'exploration de nouveaux traits comme un modèle de langue inverse et un modèle de collocation amène une nouvelle dimension à la fonction à optimiser. Dans un second temps, l'utilisation de différentes métaheuristiques, comme les algorithmes gloutons et gloutons randomisés permet l'exploration plus en profondeur de l'espace de recherche et permet une plus grande amélioration de la fonction objectif.
Resumo:
Les métaheuristiques sont très utilisées dans le domaine de l'optimisation discrète. Elles permettent d’obtenir une solution de bonne qualité en un temps raisonnable, pour des problèmes qui sont de grande taille, complexes, et difficiles à résoudre. Souvent, les métaheuristiques ont beaucoup de paramètres que l’utilisateur doit ajuster manuellement pour un problème donné. L'objectif d'une métaheuristique adaptative est de permettre l'ajustement automatique de certains paramètres par la méthode, en se basant sur l’instance à résoudre. La métaheuristique adaptative, en utilisant les connaissances préalables dans la compréhension du problème, des notions de l'apprentissage machine et des domaines associés, crée une méthode plus générale et automatique pour résoudre des problèmes. L’optimisation globale des complexes miniers vise à établir les mouvements des matériaux dans les mines et les flux de traitement afin de maximiser la valeur économique du système. Souvent, en raison du grand nombre de variables entières dans le modèle, de la présence de contraintes complexes et de contraintes non-linéaires, il devient prohibitif de résoudre ces modèles en utilisant les optimiseurs disponibles dans l’industrie. Par conséquent, les métaheuristiques sont souvent utilisées pour l’optimisation de complexes miniers. Ce mémoire améliore un procédé de recuit simulé développé par Goodfellow & Dimitrakopoulos (2016) pour l’optimisation stochastique des complexes miniers stochastiques. La méthode développée par les auteurs nécessite beaucoup de paramètres pour fonctionner. Un de ceux-ci est de savoir comment la méthode de recuit simulé cherche dans le voisinage local de solutions. Ce mémoire implémente une méthode adaptative de recherche dans le voisinage pour améliorer la qualité d'une solution. Les résultats numériques montrent une augmentation jusqu'à 10% de la valeur de la fonction économique.
Resumo:
L’examen de la rétine par des moyens non invasifs et in vivo a été un objectif de recherche pendant plusieurs années. Pour l’œil comme pour tous les organes du corps humain, un apport soutenu en oxygène est nécessaire pour le maintien de l’homéostasie. La concentration en oxygène du sang des vaisseaux rétiniens peut être déterminée principalement à partir des mesures du spectre de réflexion du fond de l’œil. En envoyant une lumière, à différentes longueurs d’onde, sur la rétine et en analysant la nature de la lumière réfléchie par la rétine, il est possible d’obtenir des informations quantitatives sur le niveau d'oxygène dans les vaisseaux sanguins de la rétine ou sur le flux sanguin. Cependant, la modélisation est compliquée due aux différentes interactions et aux chemins que la lumière prend à travers les tissus oculaires avant de quitter l’œil. L’objectif de cette thèse a été de développer et de valider un modèle mathématique afin de calculer les dérivées d’hémoglobine à partir de mesures spectrales de réflectométrie sur les vaisseaux sanguins de la rétine. L’instrument utilisé pour mesurer la fonction spectrale de réflectométrie a été un spectroréflectomètre multi-canal, une technologie capable de mesurer in vivo et en continu 800 spectres simultanément. L'équation mathématique qui décrit la fonction spectrale de réflectométrie dans la zone spectrale de 480 nm à 650 nm a été exprimée comme la combinaison linéaire de plusieurs termes représentant les signatures spectrales de l'hémoglobine SHb, de l'oxyhémoglobine SOHB, l’absorption et la diffusion des milieux oculaires et une famille de fonctions multigaussiennes utilisées pour compenser l’incompatibilité du modèle et les données expérimentales dans la zone rouge du spectre. Les résultats du modèle révèlent que le signal spectral obtenu à partir de mesures de réflectométrie dans l’œil est complexe, contenant la lumière absorbée, réfléchie et diffusée, mais chacun avec une certaine prédominance spécifique en fonction de la zone spectrale. La fonction spectrale d’absorption du sang est dominante dans la zone spectrale 520 à 580 nm, tandis que dans la zone spectrale de longueurs d’ondes plus grandes que 590 nm, la diffusion sur les cellules rouges du sang est dominante. Le modèle a été utilisé afin de mesurer la concentration d’oxygène dans les capillaires de la tête du nerf optique suite à un effort physique dynamique. L’effort physique a entraîné une réduction de la concentration d’oxygène dans les capillaires, ainsi qu’une réduction de la pression intraoculaire, tandis que la saturation sanguine en oxygène, mesurée au niveau du doigt, restait constante. Le modèle mathématique développé dans ce projet a ainsi permis, avec la technique novatrice de spectroréflectométrie multicanal, de déterminer in vivo et d’une manière non invasive l’oxygénation sanguine des vaisseaux rétiniens.
Resumo:
Les systèmes logiciels sont devenus de plus en plus répondus et importants dans notre société. Ainsi, il y a un besoin constant de logiciels de haute qualité. Pour améliorer la qualité de logiciels, l’une des techniques les plus utilisées est le refactoring qui sert à améliorer la structure d'un programme tout en préservant son comportement externe. Le refactoring promet, s'il est appliqué convenablement, à améliorer la compréhensibilité, la maintenabilité et l'extensibilité du logiciel tout en améliorant la productivité des programmeurs. En général, le refactoring pourra s’appliquer au niveau de spécification, conception ou code. Cette thèse porte sur l'automatisation de processus de recommandation de refactoring, au niveau code, s’appliquant en deux étapes principales: 1) la détection des fragments de code qui devraient être améliorés (e.g., les défauts de conception), et 2) l'identification des solutions de refactoring à appliquer. Pour la première étape, nous traduisons des régularités qui peuvent être trouvés dans des exemples de défauts de conception. Nous utilisons un algorithme génétique pour générer automatiquement des règles de détection à partir des exemples de défauts. Pour la deuxième étape, nous introduisons une approche se basant sur une recherche heuristique. Le processus consiste à trouver la séquence optimale d'opérations de refactoring permettant d'améliorer la qualité du logiciel en minimisant le nombre de défauts tout en priorisant les instances les plus critiques. De plus, nous explorons d'autres objectifs à optimiser: le nombre de changements requis pour appliquer la solution de refactoring, la préservation de la sémantique, et la consistance avec l’historique de changements. Ainsi, réduire le nombre de changements permets de garder autant que possible avec la conception initiale. La préservation de la sémantique assure que le programme restructuré est sémantiquement cohérent. De plus, nous utilisons l'historique de changement pour suggérer de nouveaux refactorings dans des contextes similaires. En outre, nous introduisons une approche multi-objective pour améliorer les attributs de qualité du logiciel (la flexibilité, la maintenabilité, etc.), fixer les « mauvaises » pratiques de conception (défauts de conception), tout en introduisant les « bonnes » pratiques de conception (patrons de conception).
Resumo:
Ferejohn and Page transplanted a stationarity axiom from Koopmans’ theory of impatience into Arrow’s social choice theory with an infinite horizon and showed that the Arrow axioms and stationarity lead to a dictatorship by the first generation. We prove that the negative implications of their stationarity axiom are more far-reaching: there is no Arrow social welfare function satisfying their stationarity axiom. We propose a more suitable stationarity axiom, and show that an Arrow social welfare function satisfies this modified version if and only if it is a lexicographic dictatorship where the generations are taken into consideration in chronological order.
Resumo:
Cette thèse porte sur le rôle de l’espace dans l’organisation et dans la dynamique des communautés écologiques multi-espèces. Deux carences peuvent être identifiées dans les études théoriques actuelles portant sur la dimension spatiale des communautés écologiques : l’insuffisance de modèles multi-espèces représentant la dimension spatiale explicitement, et le manque d’attention portée aux interactions positives, tel le mutualisme, en dépit de la reconnaissance de leur ubiquité dans les systèmes écologiques. Cette thèse explore cette problématique propre à l’écologie des communautés, en utilisant une approche théorique s’inspirant de la théorie des systèmes complexes et de la mécanique statistique. Selon cette approche, les communautés d’espèces sont considérées comme des systèmes complexes dont les propriétés globales émergent des interactions locales entre les organismes qui les composent, et des interactions locales entre ces organismes et leur environnement. Le premier objectif de cette thèse est de développer un modèle de métacommunauté multi-espèces, explicitement spatial, orienté à l’échelle des individus et basé sur un réseau d’interactions interspécifiques générales comprenant à la fois des interactions d’exploitation, de compétition et de mutualisme. Dans ce modèle, les communautés locales sont formées par un processus d’assemblage des espèces à partir d’un réservoir régional. La croissance des populations est restreinte par une capacité limite et leur dynamique évolue suivant des mécanismes simples de reproduction et de dispersion des individus. Ces mécanismes sont dépendants des conditions biotiques et abiotiques des communautés locales et leur effet varie en fonction des espèces, du temps et de l’espace. Dans un deuxième temps, cette thèse a pour objectif de déterminer l’impact d’une connectivité spatiale croissante sur la dynamique spatiotemporelle et sur les propriétés structurelles et fonctionnelles de cette métacommunauté. Plus précisément, nous évaluons différentes propriétés des communautés en fonction du niveau de dispersion des espèces : i) la similarité dans la composition des communautés locales et ses patrons de corrélations spatiales; ii) la biodiversité locale et régionale, et la distribution locale de l’abondance des espèces; iii) la biomasse, la productivité et la stabilité dynamique aux échelles locale et régionale; et iv) la structure locale des interactions entre les espèces. Ces propriétés sont examinées selon deux schémas spatiaux. D’abord nous employons un environnement homogène et ensuite nous employons un environnement hétérogène où la capacité limite des communautés locales évoluent suivant un gradient. De façon générale, nos résultats révèlent que les communautés écologiques spatialement distribuées sont extrêmement sensibles aux modes et aux niveaux de dispersion des organismes. Leur dynamique spatiotemporelle et leurs propriétés structurelles et fonctionnelles peuvent subir des changements profonds sous forme de transitions significatives suivant une faible variation du niveau de dispersion. Ces changements apparaissent aussi par l’émergence de patrons spatiotemporels dans la distribution spatiale des populations qui sont typiques des transitions de phases observées généralement dans les systèmes physiques. La dynamique de la métacommunauté présente deux régimes. Dans le premier régime, correspondant aux niveaux faibles de dispersion des espèces, la dynamique d’assemblage favorise l’émergence de communautés stables, peu diverses et formées d’espèces abondantes et fortement mutualistes. La métacommunauté possède une forte diversité régionale puisque les communautés locales sont faiblement connectées et que leur composition demeure ainsi distincte. Par ailleurs dans le second régime, correspondant aux niveaux élevés de dispersion, la diversité régionale diminue au profit d’une augmentation de la diversité locale. Les communautés locales sont plus productives mais leur stabilité dynamique est réduite suite à la migration importante d’individus. Ce régime est aussi caractérisé par des assemblages incluant une plus grande diversité d’interactions interspécifiques. Ces résultats suggèrent qu’une augmentation du niveau de dispersion des organismes permet de coupler les communautés locales entre elles ce qui accroît la coexistence locale et favorise la formation de communautés écologiques plus riches et plus complexes. Finalement, notre étude suggère que le mutualisme est fondamentale à l’organisation et au maintient des communautés écologiques. Les espèces mutualistes dominent dans les habitats caractérisés par une capacité limite restreinte et servent d’ingénieurs écologiques en facilitant l’établissement de compétiteurs, prédateurs et opportunistes qui bénéficient de leur présence.
Resumo:
Généralement, les problèmes de conception de réseaux consistent à sélectionner les arcs et les sommets d’un graphe G de sorte que la fonction coût est optimisée et l’ensemble de contraintes impliquant les liens et les sommets dans G sont respectées. Une modification dans le critère d’optimisation et/ou dans l’ensemble de contraintes mène à une nouvelle représentation d’un problème différent. Dans cette thèse, nous nous intéressons au problème de conception d’infrastructure de réseaux maillés sans fil (WMN- Wireless Mesh Network en Anglais) où nous montrons que la conception de tels réseaux se transforme d’un problème d’optimisation standard (la fonction coût est optimisée) à un problème d’optimisation à plusieurs objectifs, pour tenir en compte de nombreux aspects, souvent contradictoires, mais néanmoins incontournables dans la réalité. Cette thèse, composée de trois volets, propose de nouveaux modèles et algorithmes pour la conception de WMNs où rien n’est connu à l’ avance. Le premiervolet est consacré à l’optimisation simultanée de deux objectifs équitablement importants : le coût et la performance du réseau en termes de débit. Trois modèles bi-objectifs qui se différent principalement par l’approche utilisée pour maximiser la performance du réseau sont proposés, résolus et comparés. Le deuxième volet traite le problème de placement de passerelles vu son impact sur la performance et l’extensibilité du réseau. La notion de contraintes de sauts (hop constraints) est introduite dans la conception du réseau pour limiter le délai de transmission. Un nouvel algorithme basé sur une approche de groupage est proposé afin de trouver les positions stratégiques des passerelles qui favorisent l’extensibilité du réseau et augmentent sa performance sans augmenter considérablement le coût total de son installation. Le dernier volet adresse le problème de fiabilité du réseau dans la présence de pannes simples. Prévoir l’installation des composants redondants lors de la phase de conception peut garantir des communications fiables, mais au détriment du coût et de la performance du réseau. Un nouvel algorithme, basé sur l’approche théorique de décomposition en oreilles afin d’installer le minimum nombre de routeurs additionnels pour tolérer les pannes simples, est développé. Afin de résoudre les modèles proposés pour des réseaux de taille réelle, un algorithme évolutionnaire (méta-heuristique), inspiré de la nature, est développé. Finalement, les méthodes et modèles proposés on été évalués par des simulations empiriques et d’événements discrets.
Resumo:
L’étalement urbain constitue un enjeu de société qui préoccupe tous les acteurs de l’aménagement du territoire. Le développement de superficies urbanisées à la périphérie des villes à des fins résidentielle, industrielle, commerciale et d’infrastructures se caractérise par une faible densité des structures bâties et par une perte de terres agricoles. Les conséquences sont importantes notamment parce que ces pertes sont irréversibles. Ce projet de recherche analyse les tendances actuelles de l’étalement urbain dans la RMR de Montréal et au-delà de celle-ci ainsi que ses impacts sur les territoires agricoles. Il comporte trois objectifs secondaires. Le premier objectif vise à analyser l’importance de la multifonctionnalité de l’agriculture et sa prise en compte dans les stratégies d’aménagement et de revitalisation agricole dans les MRC. Le deuxième objectif vise à établir les liens entre ces stratégies et les pressions urbaines dans la région métropolitaine de Montréal. Les pressions urbaines des 88 municipalités sont analysées en fonction de l’augmentation de la population et des ménages, par le nombre de mises en chantier ainsi que par les demandes de modification de la zone agricole déposées par les municipalités auprès de la CPTAQ entre 2000 et 2009. Le dernier objectif vise à identifier les MRC qui ont développé ces stratégies dans leur schéma d’aménagement et de développement (SAD), pour ensuite comparer les intentions et les actions des MRC par rapport à l’étalement urbain qui se développe concrètement sur leur territoire depuis l’an 2000. Pour ce faire, deux critères ont été retenus : une typologie des stratégies d’aménagement et de revitalisation agricole des SAD et les positions adoptées par les acteurs impliqués dans les demandes de modification. En conclusion, les cinq MRC analysées en détail ont demandé entre 2,1 % et 2,6 % de leur propre zone agricole au cours des dix dernières années, peu importe l’élaboration de leur SAD et les pressions urbaines qu’elles subissent.
Resumo:
Les films de simulations qui accompagnent le document ont été réalisés avec Pymol.
Resumo:
Thèse réalisée en cotutelle avec l'Université Pierre et Marie Curie, Paris 6(UPMC, Paris, France).
Resumo:
La tolérance immunitaire dépend de la distinction entre le soi et le non soi par le système immunitaire. Un bris dans la tolérance immunitaire mène à l'auto-immunité, qui peut provoquer la destruction des organes, des glandes, des articulations ou du système nerveux central. Le diabète auto-immun, également connu sous le nom diabète juvénile et diabète de type 1, résulte d'une attaque auto-immune sur les cellules β pancréatiques sécrétrices d’insuline, localisées au niveau des îlots de Langerhans du pancréas. Bien que le diabète auto-immun soit traitable par une combinaison d’injections quotidiennes d’insuline d’origine exogène, de régime et d'exercices, beaucoup de complications chroniques peuvent se manifester chez les patients, y compris, mais non limitées à, la cécité, les maladies cardiovasculaires, l’insuffisance rénale et l'amputation. En raison des nombreuses complications liées au diabète auto-immun à long terme, la recherche continue afin de mieux comprendre tous les facteurs impliqués dans la progression de la maladie dans le but de développer de nouvelles thérapies qui empêcheront, renverseront et/ou traiteront cette maladie. Un rôle primordial dans la génération et l'entretien de la tolérance immunitaire a été attribué au nombre et à la fonction des sous-populations de cellules régulatrices. Une de ces populations est constituée de cellules T CD4-CD8- (double négatives, DN), qui ont été étudiées chez la souris et l'humain pour leur contribution à la tolérance périphérique, à la prévention des maladies et pour leur potentiel associé à la thérapie cellulaire. En effet, les cellules de T DN sont d'intérêt thérapeutique parce qu'elles montrent un potentiel immunorégulateur antigène-spécifique dans divers cadres expérimentaux, y compris la prévention du diabète auto-immun. D’ailleurs, en utilisant un système transgénique, nous avons démontré que les souris prédisposées au diabète auto-immun présentent peu de cellules T DN, et que ce phénotype contribue à la susceptibilité au diabète auto-immun. En outre, un transfert des cellules T DN est suffisant pour empêcher la progression vers le diabète chez les souris prédisposées au diabète auto-immun. Ces résultats suggèrent que les cellules T DN puissent présenter un intérêt thérapeutique pour les patients diabétiques. Cependant, nous devons d'abord valider ces résultats en utilisant un modèle non-transgénique, qui est plus physiologiquement comparable à l'humain. L'objectif principal de cette thèse est de définir la fonction immunorégulatrice des cellules T DN, ainsi que le potentiel thérapeutique de celles-ci dans la prévention du diabète auto-immun chez un modèle non-transgénique. Dans cette thèse, on démontre que les souris résistantes au diabète auto-immun présentent une proportion et nombre absolu plus élevés de cellules T DN non-transgéniques, lorsque comparées aux souris susceptibles. Cela confirme une association entre le faible nombre de cellules T DN et la susceptibilité à la maladie. On observe que les cellules T DN éliminent les cellules B activées in vitro par une voie dépendante de la voie perforine et granzyme, où la fonction des cellules T DN est équivalente entre les souris résistantes et prédisposées au diabète auto-immun. Ces résultats confirment que l'association au diabète auto-immun est due à une insuffisance en terme du nombre de cellules T DN, plutôt qu’à une déficience fonctionnelle. On démontre que les cellules T DN non-transgéniques éliminent des cellules B chargées avec des antigènes d'îlots, mais pas des cellules B chargées avec un antigène non reconnu, in vitro. Par ailleurs, on établit que le transfert des cellules T DN activées peut empêcher le développement du diabète auto-immun dans un modèle de souris non-transgénique. De plus, nous observons que les cellules T DN migrent aux îlots pancréatiques, et subissent une activation et une prolifération préférentielles au niveau des ganglions pancréatiques. D'ailleurs, le transfert des cellules T DN entraîne une diminution d'auto-anticorps spécifiques de l'insuline et de cellules B de centres germinatifs directement dans les îlots, ce qui corrèle avec les résultats décrits ci-dessus. Les résultats présentés dans cette thèse permettent de démontrer la fonction des cellules T DN in vitro et in vivo, ainsi que leur potentiel lié à la thérapie cellulaire pour le diabète auto-immun.
Resumo:
Introduction : Les accéléromètres sont actuellement les appareils les plus utilisés pour mesurer le niveau d’activité physique, et ce, parce qu'ils évaluent les niveaux d'activité physique de façon objective. Toutefois, les mouvements humains sont difficiles à mesurer, et de nombreuses limitations doivent être prises en considération pour la bonne utilisation des accéléromètres. Les études présentées s’intéressent donc à la validité de la fonction podomètre des accéléromètres ainsi qu’à la validation de la composante accéléromètre d’un nouvel appareil multicapteur (SenseDoc). Méthode : Les sujets ayant participé à la première étude, qui consistait en la validation de la fonction podomètre des accéléromètres, ont marché sur un tapis roulant à trois vitesses différentes (2,5 km/h, 3,5 km/h et 4,8 km/h) pendant 5 minutes par palier. Un accéléromètre (ActiGraph GT3X) porté à la ceinture a enregistré le nombre de pas tandis qu'une caméra a enregistré la marche des participants. Pour la seconde étude, les participants portaient un accéléromètre Actigraph et un SenseDoc à la hanche. Les données brutes des accéléromètres et la mesure de la consommation d’oxygène par calorimétrie indirecte ont été mesurées lors de 14 activités réalisées en laboratoire allant de sédentaires à vigoureuses. Résultats : La première étude indique que les accéléromètres ont détecté seulement 53 % des pas à 2,5 km/h, 82 % à 3,5 km/h et 91 % à 4,8 km/h pour les personnes non obèses. Pour les personnes obèses, l'accéléromètre a détecté 47 % des pas à 2.5 km/h, 67 % à 3.5 km/h et 100 % à 4.8 km/h, des résultats significativement différents des personnes non obèses. La seconde étude confirme pour sa part que le SenseDoc est un outil valide de mesure du niveau d’activité physique. Les accéléromètres possèdent une bonne capacité prédictive de la dépense énergétique avec des valeurs de R carré de 0,84 et 0,80 respectivement pour l'Actigraph et le SenseDoc. Conclusion : À vitesse de marche lente, les accéléromètres sous-estiment le nombre de pas, et ce, dans une plus large mesure chez les personnes obèses que chez les personnes non obèses. Également, une méthode valide et transparente de transformation de données brutes d’accélérométrie a été divulguée dans l’étude avec le SenseDoc. Les travaux présentés dans ce mémoire visent à améliorer l’utilisation en milieu clinique et en recherche des accéléromètres et ouvrent la voie à une plus grande uniformité entre les études utilisant différents types d’accéléromètres.