29 resultados para Scientific instrument
em Université de Montréal, Canada
Resumo:
Contexte : De manière générale, on considère que le processus de validation d’un instrument de mesure porte sur la validité et la fiabilité. Or, la nature dynamique et évolutive de certaines problématiques, comme la stigmatisation des personnes vivant avec le VIH (PVVIH), laisse croire qu’il est particulièrement important de réinvestir rapidement dans la pratique, les résultats produits par les mesures ainsi validées. Objectifs : La présente thèse vise à développer et valider une échelle de mesure des attitudes stigmatisantes envers les PVVIH en intégrant un dispositif participatif. La thèse utilise en partie les données d’une enquête de surveillance des attitudes envers les PVVIH au Québec, elle comporte trois études qui répondent aux trois objectifs spécifiques suivants : (1) valider la version révisée d’un instrument de mesure des attitudes favorables à la stigmatisation dans la population générale du Québec envers les PVVIH; (2) analyser la relation entre la mesure des attitudes favorables à la stigmatisation et le recours au dépistage du VIH dans la population générale du Québec; (3) décrire et analyser les processus de circulation et d’utilisation des connaissances produites par l’instrument de mesure dans les réseaux professionnels des membres d’un comité consultatif. Méthodes : Un comité consultatif réunissant plusieurs partenaires issus de différents milieux a été constitué dès l’obtention de la subvention. Il a été consulté et informé avant, pendant et après l’enquête téléphonique populationnelle (n=1500) ayant permis de colliger les données. L’Échelle des Attitudes Stigmatisantes envers les Personnes Vivant avec le VIH (EASE-PVVIH) a été validée au moyen de plusieurs analyses psychométriques : analyses factorielles exploratoires et confirmatives, corrélations, régression linéaire multiple, test-t, tests d’hypothèses d’invariance de la structure factorielle et alphas de Cronbach (objectif 1). L’association entre les attitudes favorables à la stigmatisation et le recours au dépistage du VIH a été testée à l’aide de régressions logistiques hiérarchiques (objectif 2). Quant aux processus de circulation et d’utilisation des connaissances dans les réseaux professionnels, ils ont été analysés au moyen d’une étude de cas rétrospective (objectif 3). Résultats : Les analyses ont révélé trois résultats importants. Premièrement, d’un point de vue psychométrique, l’EASE-PVVIH est un outil fiable et valide pour mesurer les attitudes stigmatisantes envers les personnes vivant avec le VIH. Deuxièmement, sous une certaine forme caractérisée par l’inquiétude éprouvée lors de rencontres occasionnelles, les attitudes stigmatisantes par rapport aux personnes vivant avec le VIH semblent nuire au recours au test de dépistage dans la population générale au Québec. Troisièmement, un dispositif participatif en particulier, soit un comité consultatif, semble être un moyen pour favoriser le réinvestissement rapide et étendre la portée des résultats produits par la recherche dans des actions concrètes de santé publique. Conclusion : Ces résultats mettent en lumière la portée d’un dispositif participatif pour la validation d’instrument de mesure. L’arrimage entre les préoccupations scientifiques et pratiques apparaît être une avenue prometteuse pour améliorer la qualité et la pertinence sociale des données produites par les mesures.
Resumo:
Recent work shows that a low correlation between the instruments and the included variables leads to serious inference problems. We extend the local-to-zero analysis of models with weak instruments to models with estimated instruments and regressors and with higher-order dependence between instruments and disturbances. This makes this framework applicable to linear models with expectation variables that are estimated non-parametrically. Two examples of such models are the risk-return trade-off in finance and the impact of inflation uncertainty on real economic activity. Results show that inference based on Lagrange Multiplier (LM) tests is more robust to weak instruments than Wald-based inference. Using LM confidence intervals leads us to conclude that no statistically significant risk premium is present in returns on the S&P 500 index, excess holding yields between 6-month and 3-month Treasury bills, or in yen-dollar spot returns.
Resumo:
Rapport de recherche
Resumo:
Un résumé en anglais est également disponible.
Resumo:
L’objectif de cette étude était d’obtenir une meilleure compréhension du concept de force mentale appliqué dans un contexte sportif. Pour se faire, des entrevues ont été réalisées avec dix athlètes québécois francophones de niveau universitaire. L’analyse des données s’est effectuée en suivant les principes de la version abrégée de la théorisation ancrée. Les résultats appuient globalement la littérature scientifique. En somme, la force mentale serait composée de caractéristiques de base interreliées, telles que la motivation internalisée, la confiance en soi, la maturité et la détermination. La force mentale serait sollicitée non seulement lorsque l’athlète fait face à des situations difficiles comme l’adversité, mais également lorsque le contexte dans lequel il évolue est exempt de complications (à l’entraînement ou lors de victoire). Les résultats des entrevues indiquent que face à ces deux types de situation, les athlètes forts mentalement possèderaient un mode réactionnel tridimensionnel (dimension cognitive, affective et comportementale) se caractérisant par la gestion et le contrôle de l’attention, l’interprétation optimiste des situations, le contrôle de l’activation et du langage corporel, la gestion des émotions et la résilience. Contrairement à la littérature, les résultats suggèrent que la force mentale ne serait pas nécessairement liée aux athlètes performants au plus haut niveau de leur sport, mais à la capacité des athlètes à donner de bonnes performances en fonction de leur potentiel individuel. Cette étude constitue le premier pas vers le développement d’un instrument de mesure permettant d’évaluer le niveau de force mentale chez les athlètes francophones.
Resumo:
La responsabilité sociale des entreprises (RSE) est un concept qui fait référence au volontariat, sans définition unique, et visant la prise en compte des intérêts des parties prenantes de l’entreprise. Pour celle-ci, les caractéristiques communes à ces différentes définitions est d’établir des balises allant au-delà de ce que la loi fixe comme règle. Pour mettre en oeuvre la RSE, plusieurs outils sont utilisés, le code de conduite étant le plus répandu. Quant aux multiples parties prenantes de l’organisation, celle des travailleurs ne semble pas invitée à participer aux décisions de l’entreprise en matière de RSE, malgré les intérêts importants que les travailleurs et le syndicat peuvent posséder auprès de cette dernière. Notre recherche porte sur la convention collective en tant qu’outil de responsabilité sociale des entreprises. Nous nous intéressons à savoir si cet outil traditionnel en relations du travail pourrait être utilisé, tout comme un code de conduite, pour stimuler la participation des syndicale aux décisions de l’entreprise. À l’aide du Portrait statistique des conventions collectives analysées au Québec en 2006, nous avons validé la fréquence, le sujet ainsi que le niveau de participation syndicale dans les comités conjoints conventionnés en comparant les entreprises dites RSE et non RSE. Il s’est avéré qu’il n’y a pas plus de participation syndicale indiquée dans les conventions collectives d’entreprises RSE que dans celles non RSE. Cependant, notre analyse précise que deux outils RSE autres que le code de conduite adoptés par l’entreprise coïncident avec la participation syndicale, soit la signature d’un accord-cadre international et la participation au Pacte Mondial de l’ONU.
Resumo:
La réadaptation pulmonaire est une intervention dont l’efficacité est largement reconnue. Cette efficacité a été établie grâce à l’utilisation d’instruments de mesure d’impact global. Les patients bénéficiant des programmes de réadaptation pulmonaire possèdent des caractéristiques variées et souffrent généralement de maladie pulmonaire obstructive chronique à différents degrés. En fonction de leurs différents besoins, les patients répondent de façon variable aux composantes d’un programme de réadaptation pulmonaire. Il est recommandé d’individualiser les programmes en fonction des besoins des patients afin d’en optimiser les effets. À cette fin, l’évaluation des besoins de réadaptation des patients est nécessaire. Comme il n’existe actuellement aucun instrument standardisé pour procéder à cette évaluation, nous avons entrepris d’en développer un à l’aide de méthodes qualitatives et quantitatives de recherche. Un modèle conceptuel d’évaluation des besoins de réadaptation des patients a été élaboré suite aux résultats tirés de groupes de discussion, de la consultation de dossiers médicaux et d’une recension des écrits. À partir de ce modèle, des items devant être sélectionnés de façon individualisée parmi cinq domaines (reconnaissance des besoins, connaissance, motivation, attentes et buts) ont été pré-testés. Les tendances générales concernant la validité des items contenus dans le prototype d’instrument ont été vérifiées lors d’une étude pilote auprès de 50 répondants en réadaptation. Les pistes d’investigation dégagées dans ce mémoire serviront aux études de validation plus approfondies dont devrait faire l’objet ce prototype d’instrument dans le futur.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
L'utilisation de l'expérience comme un mode de détermination des faits, c'est-à-dire comme un élément qui comble les lacunes dans l'ensemble des éléments de preuve dans le procès civil, est un thème quelque peu tabou. La doctrine est souvent basée sur la prémisse voulant que le décideur rende une décision uniquement en vertu des éléments de preuve et qu'il doit absolument s'abstenir d'insérer aux constatations quoi que ce soit qui n'est pas présent dans les éléments de preuve. Cette vision est éloignée de la réalité juridique. Dans la première partie, nous allons aborder les principes procéduraux qui empêchent l'utilisation de l'expérience comme mode de détermination des faits. Ce sont le principe de la reconstruction de l'événement du passé, le principe de l'abstraction des connaissances acquises hors du procès et le principe de l'exclusion de la preuve par ouï-dire. Ensuite, nous portons notre attention sur les différents types d'expérience, c'est-à-dire l'expérience profane, divisible en bon sens et sens commun, et l'expérience scientifique, ainsi sur leurs modes de fonctionnement dans le procès civil. La première partie se termine par une brève confrontation des différents types d'expérience avec les principes procéduraux. La deuxième partie est consacré à l'analyse de l'expérience dans trois instruments juridiques: la connaissance d'office, la présomption de fait et le témoignage d'expert. Nous nous intéressons principalement à vérifier si l'expérience fonctionne à l'intérieur de ces instruments juridiques comme mode de détermination des faits et ensuite quelles sont les limites que le droit pose à l'expérience dans ce rôle. L'analyse va confirmer que le principal instrument par lequel l'expérience comme mode de détermination des faits pénètre dans le procès civil est la présomption de fait.
Resumo:
Malgré la préoccupation croissante des chercheurs et praticiens pour la santé psychologique au travail, le concept de bien-être vécu au travail est encore mal compris de la communauté scientifique. En effet, peu d’efforts ont été consacrés à ce jour pour développer des connaissances sur le bien-être psychologique au travail arrimées à la réalité des employés. Cette thèse a donc pour objectif de développer une conceptualisation du bien-être psychologique au travail et une instrumentation psychométriquement fiable lui étant rattachée. Pour ce faire, deux études ont été réalisées. La première, de nature qualitative et exploratoire, fut menée auprès de 20 travailleurs canadiens francophones afin de répertorier, à partir d’incidents critiques vécus par ceux-ci, des manifestations de bien-être psychologique au travail. Celles-ci ont pu être classifiées selon un modèle en 2 axes, soit la sphère de référence dans laquelle le bien-être psychologique au travail se vit et la directionnalité selon laquelle il se développe. Ce modèle a ensuite été comparé aux conceptualisations génériques du bien-être psychologique existantes, et cette analyse a permis d’étayer la validité convergente et divergente du modèle. Dans un deuxième temps, l’Indice de bien-être psychologique au travail (IBEPT) a été créé sur la base des manifestations relevées lors de l’étude qualitative, afin d’en assurer la validité de contenu. Une version expérimentale de l’instrument a ensuite été soumise à une expérimentation auprès de 1080 travailleurs québécois. Les analyses factorielles exploratoires révèlent une structure interne en 25 items reflétant 5 dimensions, représentant elles-mêmes un construit de second ordre. La validité de construit de cette conceptualisation a ensuite été étudiée par l’analyse des intercorrélations avec une série de mesures du bien-être et de la détresse psychologique génériques. Les résultats appuient la validité convergente de l’instrument, et démontrent également sa validité divergente. Enfin, l’instrument affiche une cohérence interne satisfaisante. Au terme de cette recherche doctorale, les résultats des deux études sont interprétés en fonction de l’état actuel des connaissances sur le bien-être psychologique, les limites des études sont énoncées, et des pistes de recherche future sont avancées.
Resumo:
Dans cette étude, nous analysons les principaux problèmes que nous retrouvons lorsque nous utilisons les entrevues sociolinguistiques comme méthode d’analyse pour obtenir des échantillons de l’actuation linguistique authentiques. Cette problématique provient de la nature même de la méthodologie employée en fonction du paradoxe de l’observateur (Labov 1972) et elle impose la nécessité de réfléchir sur les avantages et les désavantages inhérents à l’instrument de recherche utilisé. En ayant ce propos, l’objectif principal qu’on poursuit est celui de donner réponse à une question que surgit lorsqu’on parle de l’entrevue sociolinguistique : Comment pourrait-on obtenir des échantillons de parole de style spontané dans l’observation systématique de l’entrevue? Pour essayer de répondre à cette problématique, on a revu et analysé un échantillon de vingt entrevues semi dirigées (25 heures d’enregistrement) qui font partie du Corpus Oral et Sonore de l’Espagnol Rural (COSER). L’étude des entrevues sociolinguistiques comme méthode scientifique montre, comme principal résultat, que parmi les stratégies utilisées pour essayer de réduire les effets du paradoxe de l’observateur on devrait inclure celle de la tactique de faire parler l’informateur à propos d’un objet qui ait une particulière valeur affective pour lui, pour générer ainsi une déstructuration du schéma formel de l’entrevue et une situation émotionnelle de sorte que l’émotivité neutralise sa conscience linguistique et son discours. De cette façon, l’attention du parlant se concentrera dans l’objet même plutôt que dans sa parole formelle et, de cette manière, on obtiendrait des échantillons de style plus spontané et colloquial.
Resumo:
Le développement des sociétés à travers le monde est influencé par des dynamiques de pouvoir social. D’une perspective de genre, les relations patriarcales ont contribué à la réorganisation du développement par un accès inégal aux ressources, à l’espace et à la mobilité. La société mexicaine, caractérisée par un fort patriarcat et une pauvreté endémique, a vu émerger de multiples outils de développement pour pallier aux inégalités de genre. Plus récemment, les programmes de microfinance sont devenus un instrument de choix pour lutter contre la marginalisation des femmes et les inégalités de genre. La littérature scientifique présente des lacunes au sujet de la nature des relations de genre dans les ménages qui bénéficient de la microfinance. Plusieurs études portent sur les impacts de la microfinance sur la vie des femmes, mais peu offrent une vision holistique considérant la microfinance comme un outil de développement capable de changer la nature spatiale des inégalités de genre. Cette recherche est basée sur une comparaison qualitative de deux études de cas de groupes de microfinance de San Miguel Tenextatiloyan et d’Émilio Carranza, deux communautés de la Sierra Norte de Puebla (Mexique). Son objectif principal est d’évaluer le degré selon lequel les programmes de microfinance ont changé la place des femmes dans la société. Pour répondre à cette question, un portrait de l’organisation spatiale du genre sera tracé, puis, les impacts des programmes de microfinance sur la place des femmes dans les espaces domestiques, de travail et communautaires seront évalués. L’étude mène à la conclusion que les programmes de microfinance du CESDER n’ont pas beaucoup changé la place des femmes dans la société. La recherche dévoile plutôt que, dans un contexte de pauvreté, la microfinance stabilise les ménages et offre des lieux d’échange et de réseautage, mais elle n’offre pas aux femmes une véritable chance d’acquérir plus de contrôle sur leur vie. Deuxièmement, les résultats démontrent que les tâches associées à la reproduction sociale – largement assumée par les femmes - engendrent une barrière structurante à l’empowerment des femmes, un obstacle que la microfinance ne parvient pas entièrement à surmonter. Mots-clés : Géographie du genre, relations de pouvoir, développement, microfinance, spatialité, néolibéralisme, Mexique.
Resumo:
Réalisé en cotutelle avec l'Université Joseph Fourier École Doctorale Ingénierie pour la Santé,la Cognition et l'Environnement (France)