808 resultados para Méthodes épidémiologiques
Resumo:
L’ouvrage constitue la thèse de Doctorat de Monsieur Lauri Railas soutenue le 16 Octobre 2004 à la faculté de droit de l’Université de Helsinki. Expert reconnu en droit du commerce international, son parcours professionnel explique les orientations prises dans son étude et son approche très large des transactions relatives à la vente internationale de marchandises comparativement à d’autres travaux dans le même domaine. L’auteur a été conseiller juridique à l’Institut d’arbitrage de la chambre de commerce centrale finlandaise puis secrétaire général de la section finlandaise de la chambre internationale de commerce. Il a, ensuite, occupé le poste d’administrateur principal au secrétariat général du conseil de l’Union Européenne entre 1996 et 2002. Il est, actuellement, associé senior chez Krogerus & Co, un des plus importants cabinets d’avocats de Finlande. L’originalité de la thèse réside dans le fait qu’elle aborde les transactions relatives à la vente internationale de marchandises du point de vue du commerce électronique. L’étude traite de la création d’un cadre juridique uniforme et cohérent encadrant l’utilisation des instruments du commerce élecronique pour la vente internationale de marchandises en se concentrant, uniquement, sur le commerce électronique entre professionnels (B to B) et plus précisément sur les initiatives des organisations internationales pour en diffuser et en faciliter l’usage. S’inspirant des théories de l’analyse économique du droit, le postulat de départ de Monsieur Railas est que le commerce électronique peut changer les procédures du commerce international et apporter d’importante économie de coûts. Pour ce faire, un cadre juridique pour le commerce électronique et plus généralement les affaires électroniques, est en cours d’élaboration par les organisations internationales. L’étude aborde ces développements dans différents domaines comme la formation du contrat, le crédit documentaire ou encore la résolution des conflits.L’approche est holistique et basée sur les efforts déployés pour introduire des sources uniformes de régulation pour les transactions électroniques dans le commerce international. L’auteur recense un large répertoire de règles de droit qui sont en majorité d’origine internationales avec pour objectif la détermination du rôle que peuvent jouer les communications électroniques dans la passation de contrats de vente de marchandises, leur livraison mais aussi dans le recours au service de tiers dans des fonctions comme le transport, l’assurance-transport et la sécurisation des droits des différentes parties impliquées. L’idée de base étant que la vente internationale et le transport constituent une chaine de contrats et de services interreliés. En plus des règles de droits déjà établies, l’auteur analyse différentes initiatives de régulation novatrices pour le commerce électronique initiées par la CNUDCI notamment. L’ouvrage traite, également, des problématiques générales comme la formation des contrats et la signature électronique. Par ailleurs, l’auteur procède à l’analyse des contrats de vente dans lesquels le vendeur a l’obligation de livrer en plus des marchandises, les documents relatifs aux marchandises et ceux de transfert de propriété. Les marchandises étant soumises à différents droits de propriété, les documents de vente et de transport ont un rôle important à jouer dans l’exercice de ces droits. Enfin, l’auteur considère la procédure de résolution des conflits comme une part du cycle de vie de chaque transaction. L’arbitrage en ligne et les autres méthodes de résolution en ligne des conflits contribuant à la réalisation de transactions électroniques réussies. L’ouvrage peut être particulièrement utile pour les personnes qui s’intéressent à l’harmonisation internationale des droits applicables au commerce international. L’auteur fait une analyse, particulièrement intéressante, de plusieurs instruments et projets comme les E-terms 2004 de la chambre internationale de commerce, le système Boléro, le système TEDI (Trade Electronic Data Interchange) et le système de transactions financières SWIFNet. La finalité de la démarche est de trouver une plate-forme commune qui fasse en sorte que les transactions électroniques puissent être conclues de manière sécuritaire en s’inspirant des résultats tangibles d’harmonisation atteints par la convention de Vienne sur la vente internationale de marchandises et par les principes UNIDROIT mais aussi du consensus selon lequel le commerce électronique doit être gouverné dans une large part par les instruments de « droit mou » comme les codes de conduite, et que, les règlements extrajudiciaires des conflits doivent être utilisés pour les transactions électroniques.
Resumo:
La complexification de nos sociétés et les limites des instruments législatifs (rigidité, opacité, etc.) minent l’efficacité du droit. Il y a un besoin criant de renouveau entre ce que l’auteur appelle la société civile et les pouvoirs de décision C’est pourquoi sont apparues au fil des années des formes alternatives d’organisations collectives, ouvertes et autorégulées. On parle alors de gouvernance. L’auteur explique cette évolution de la relation droit/gouvernance non seulement par les limites de la législation à proprement parler mais également par le développement de nouvelles techniques et technologies comme Internet qui ouvrent la porte à de nouvelles possibilités de coordination plus efficaces ainsi qu’à la protection d’intérêts divers au même titre que la loi. Internet devient alors un nouvel observatoire d’où l’on peut développer de nouvelles méthodes de gouvernance, le tout dans une optique de consensus sur la norme. En effet, il ne s’agit pas ici d’écarter le droit au profit de nouvelles formes de gouvernance ou vice-versa. On cherche à créer un système complémentaire qui viendra pallier aux faiblesses d’une législation rigide et complexe par moment et qui produira tout de même une dynamique juridique au niveau national et international.
Resumo:
"Les juristes partout dans le monde peuvent maintenant, de leur poste informatique personnel, accéder aux données « publiques » (la part des règles juridiques y est majeure) que les États mettent à la disposition de chacun. En plus de modifier les méthodes de travail des praticiens du droit, l’usage des technologies de l’information influera sur l’évolution du droit et de la justice. D’une part, les États ne pourront renoncer à se doter des moyens technologiques requis pour diffuser l’information et, d’autre part, l’institution judiciaire devra répondre à cette nouvelle forme d’exigence de démocratisation. Les technologies de l’information feront surgir un nouveau rapport entre le citoyen et le droit. Dans le domaine judiciaire, il faudra consentir à une réflexion en profondeur sur la manière dont les juridictions sont saisies. Le « dialogue par formulaire » est un exercice de la pensée différent de ceux que les juristes pratiquent habituellement ; dans le domaine judiciaire ou parajudiciaire, la pratique des téléprocédures est, en France, balbutiante. L’utilisation des technologies de l’information et de la communication dans les procédures assurera une meilleure efficacité (effectivité et célérité) de la réponse judiciaire et fera apparaître de nouvelles exigences, en particulier quant à la communication des décisions de justice. Le droit évoluera : la communauté des juristes devient mondiale, les droits internes sont quotidiennement à l’épreuve des autres droits, toutes sortes de comparaisons sont possibles entre les différentes juridictions, entre les législations existantes et entre les solutions théoriquement possibles pour régler tel ou tel cas. On ne peut imaginer que le législateur, que les juridictions suprêmes, que les chercheurs et les théoriciens du droit, que l’ensemble des praticiens se désintéressent des pistes ouvertes par les technologies de l’information."
Resumo:
Le juriste appelé à réfléchir à la question autochtone est inéluctablement entraîné à poser son regard sur les disciplines exogènes au droit : anthropologie, ethnologie, histoire, sociologie, pour n'en nommer que quelques-unes. Cet exercice, fort salutaire, l'oblige à un « examen de conscience épistémologique ». En d'autres termes, il doit s'interroger sur la nature du savoir qu'il produit et sur les méthodes employées pour ce faire. Mais cet exercice l'amène également à constater que, dans un univers résolument hostile à l'idée de valeurs universellement partagées, la légitimité du droit passe de plus en plus par la mobilisation du savoir produit par les sciences sociales énumérées plus haut. Autrement dit, en raison du scepticisme à l'égard de l'objectivité des valeurs, la discipline prescriptive par excellence qu'est le droit se tourne vers les disciplines qui décrivent le réel. Ainsi, on voit les avocats embrigader et instrumentaliser les résultats de recherche produits par les sciences sociales dans la définition des droits ancestraux. Or, bien souvent, ces avocats ne s'interrogent pas sur les limites épistémologiques des disciplines qu'ils enrôlent au profit de leur client.
Resumo:
Les principes et droits fondamentaux au travail, reconnus au sein de la communauté internationale depuis l'adoption de la Déclaration relative aux principes et droits fondamentaux au travail de 1998 par l'Organisation internationale du Travail (OIT), ont connu un succès inespéré dans la dernière décennie. Ils ont essaimé dans des instruments de régulation de diverses organisations internationales et d'acteurs clés de la société civile internationale. Il est maintenant possible de les trouver mentionnés dans des accords commerciaux de libre-échange entre États, ou dans les initiatives unilatérales des entreprises transnationales, comme les codes de conduite, et bilatérales, comme dans les accords-cadres passés avec les Fédérations syndicales internationales. Si ce phénomène d'appropriation et de diffusion des principes et des droits fondamentaux au travail est louable, du moins en théorie, il soulève par ailleurs des problèmes systémiques au plan pratique. Les acteurs internationaux ont nettement privilégié des instruments de régulation non contraignants, dits de soft law, à côté des méthodes plus traditionnelles de réglementation du travail, comme celles découlant des obligations juridiques conventionnelles ou coutumières ayant pour destinataires les États souverains. Tant dans la forme que dans le fond, qu'elles soient d'origine publique ou privée, assorties ou non de mécanisme de suivi, les trajectoires normatives mises de l'avant par les acteurs internationaux embrassent souvent désormais une philosophie de la souplesse. Cette tendance conforte-t-elle le respect des droits des travailleurs sur le terrain ? En outre, la pluralité des mécanismes de contrôle ou de suivi, ainsi que la diversité des acteurs chargés d'appliquer les principes et droits fondamentaux au travail, concourent à la production d'interprétations parfois contradictoires entre elles. Laquelle aura préséance et qui en jugera dans un contexte décentralisé de mise en œuvre ? N'y a-t-il pas là un danger d'implosion du droit international du travail ? Dans ce contexte, l'adoption d'un nouvel instrument souple de régulation par l'OIT, la Déclaration de l'OIT sur la justice sociale pour une mondialisation équitable de 2008, peut-elle octroyer pour l'avenir à cette organisation internationale un certain leadership dans l'interprétation des principes et droits fondamentaux des travailleurs qui, pour lors, demeure le fait d'une pluralité d'acteurs internationaux comme nationaux ?
Resumo:
Le développement exponentiel des réseaux informatiques a largement contribué à augmenter le volume des renseignements personnels disponibles et à remplacer les méthodes désuètes de collecte des renseignements par des méthodes plus rapides et plus efficaces. La vie privée et le contrôle sur les informations personnelles, tels que nous les connaissions il y a quelques décennies, sont des notions difficilement compatibles avec la société ouverte et commerciale comme la nôtre. Face à cette nouvelle réalité menaçante pour les droits et libertés de l’homme, il est essentiel de donner un cadre technique et légal stable qui garantisse une protection adéquate de ces données personnelles. Pour rester dans le marché ou bénéficier de la confiance des individus, les entreprises et les gouvernements doivent posséder une infrastructure de sécurité efficace. Cette nouvelle donne a tendance à devenir plus qu’une règle de compétitivité, elle se transforme en une authentique obligation légale de protéger les données à caractère personnel par des mesures de sécurité adéquates et suffisantes. Ce mémoire aborde justement ces deux points, soit l’étude du développement d’une obligation légale de sécurité et l’encadrement juridique de la mise en place d’un programme de sécurisation des données personnelles par des mesures de sécurités qui respectent les standards minimaux imposés par les textes législatifs nationaux et internationaux.
Resumo:
Le développement accéléré des technologies de communication, de saisie et de traitement de l’information durant les dernières années décennies ouvre la voie à de nouveaux moyens de contrôle social. Selon l’auteur Gary Marx ceux-ci sont de nature non coercitive et permettent à des acteurs privés ou publics d’obtenir des informations personnelles sur des individus sans que ceux-ci y consentent ou mêmes sans qu’ils en soient conscients. Ces moyens de contrôle social se fondent sur certaines valeurs sociales qui sont susceptibles de modifier le comportement des individus comme le patriotisme, la notion de bon citoyen ou le volontarisme. Tout comme les moyens coercitifs, elles amènent les individus à adopter certains comportements et à divulguer des informations précises. Toutefois, ces moyens se fondent soit sur le consentement des individus, consentement qui est souvent factice et imposée, soit l’absence de connaissance du processus de contrôle par les individus. Ainsi, l’auteur illustre comment des organisations privées et publiques obtiennent des informations privilégiées sur la population sans que celle-ci en soit réellement consciente. Les partisans de tels moyens soulignent leur importance pour la sécurité et le bien publique. Le discours qui justifie leur utilisation soutient qu’ils constituent des limites nécessaires et acceptables aux droits individuels. L’emploi de telles méthodes est justifié par le concept de l’intérêt public tout en minimisant leur impact sur les droits des individus. Ainsi, ces méthodes sont plus facilement acceptées et moins susceptibles d’être contestées. Toutefois, l’auteur souligne l’importance de reconnaître qu’une méthode de contrôle empiète toujours sur les droits des individus. Ces moyens de contrôle sont progressivement intégrés à la culture et aux modes de comportement. En conséquence, ils sont plus facilement justifiables et certains groupes en font même la promotion. Cette réalité rend encore plus difficile leur encadrement afin de protéger les droits individuels. L’auteur conclut en soulignant l’important décalage moral derrière l’emploi de ces méthodes non-coercitives de contrôle social et soutient que seul le consentement éclairé des individus peut justifier leur utilisation. À ce sujet, il fait certaines propositions afin d’encadrer et de rendre plus transparente l’utilisation de ces moyens de contrôle social.
Resumo:
Les maladies immunitaires chroniques incluant les maladies auto-immunes et inflammatoires touchent 20 à 25% de la population des pays occidentaux. La comparaison des taux de concordance chez les jumeaux ou l’histoire familiale de sujets atteints de la maladie cœliaque (maladie auto-immune de l’intestin) ou de l’œsophagite éosinophilique (maladie inflammatoire de l’œsophage) indiquent que des facteurs génétiques et environnementaux interviennent dans la susceptibilité à ces maladies. Cependant, ces études ne distinguent pas de manière claire la prédisposition génétique selon l’hétérogénéité clinique (enfants versus adultes) ou ethnique (stratification des populations). Méthodes. Les haplotypes HLA de prédisposition à la maladie cœliaque et les polymorphismes des gènes candidats IL-13 (R130Q), IL-5 (-746 T/G) et IL-5R (-80A/G) impliqués dans la physiopathologie de l’œsophagite éosinophilique, ont été caractérisés par la technique PCR-SSP sur l’ADN génomique. Résultats: Nos études familiales et cas-contrôles réalisées chez une population Québécoises avec un fond génétique très homogène nous a permis : i) d’éviter le problème de stratification des populations, ii) de confirmer que les gènes HLA sont également associés à la maladie cœliaque (enfants et adultes) au Québec comme dans les autres populations Caucasiennes, iii) de mettre en évidence le rôle du gène IL-13 dans la prédisposition à l’œsophagite éosinophilique (garçons et filles) et d’exclure les gènes IL-5 et IL-5R comme facteurs de susceptibilité dans notre population. Conclusion: Ce travail confirme pour la première fois l’impact des gènes HLA dans la prédisposition à la maladie cœliaque et le rôle du facteur génétique dans l’œsophagite éosinophilique chez une population Canadienne Française avec un fond génétique ayant un fort effet fondateur.
Resumo:
L'interface cerveau-ordinateur (ICO) décode les signaux électriques du cerveau requise par l’électroencéphalographie et transforme ces signaux en commande pour contrôler un appareil ou un logiciel. Un nombre limité de tâches mentales ont été détectés et classifier par différents groupes de recherche. D’autres types de contrôle, par exemple l’exécution d'un mouvement du pied, réel ou imaginaire, peut modifier les ondes cérébrales du cortex moteur. Nous avons utilisé un ICO pour déterminer si nous pouvions faire une classification entre la navigation de type marche avant et arrière, en temps réel et en temps différé, en utilisant différentes méthodes. Dix personnes en bonne santé ont participé à l’expérience sur les ICO dans un tunnel virtuel. L’expérience fut a était divisé en deux séances (48 min chaque). Chaque séance comprenait 320 essais. On a demandé au sujets d’imaginer un déplacement avant ou arrière dans le tunnel virtuel de façon aléatoire d’après une commande écrite sur l'écran. Les essais ont été menés avec feedback. Trois électrodes ont été montées sur le scalp, vis-à-vis du cortex moteur. Durant la 1re séance, la classification des deux taches (navigation avant et arrière) a été réalisée par les méthodes de puissance de bande, de représentation temporel-fréquence, des modèles autorégressifs et des rapports d’asymétrie du rythme β avec classificateurs d’analyse discriminante linéaire et SVM. Les seuils ont été calculés en temps différé pour former des signaux de contrôle qui ont été utilisés en temps réel durant la 2e séance afin d’initier, par les ondes cérébrales de l'utilisateur, le déplacement du tunnel virtuel dans le sens demandé. Après 96 min d'entrainement, la méthode « online biofeedback » de la puissance de bande a atteint une précision de classification moyenne de 76 %, et la classification en temps différé avec les rapports d’asymétrie et puissance de bande, a atteint une précision de classification d’environ 80 %.
Resumo:
Parmi les méthodes d’estimation de paramètres de loi de probabilité en statistique, le maximum de vraisemblance est une des techniques les plus populaires, comme, sous des conditions l´egères, les estimateurs ainsi produits sont consistants et asymptotiquement efficaces. Les problèmes de maximum de vraisemblance peuvent être traités comme des problèmes de programmation non linéaires, éventuellement non convexe, pour lesquels deux grandes classes de méthodes de résolution sont les techniques de région de confiance et les méthodes de recherche linéaire. En outre, il est possible d’exploiter la structure de ces problèmes pour tenter d’accélerer la convergence de ces méthodes, sous certaines hypothèses. Dans ce travail, nous revisitons certaines approches classiques ou récemment d´eveloppées en optimisation non linéaire, dans le contexte particulier de l’estimation de maximum de vraisemblance. Nous développons également de nouveaux algorithmes pour résoudre ce problème, reconsidérant différentes techniques d’approximation de hessiens, et proposons de nouvelles méthodes de calcul de pas, en particulier dans le cadre des algorithmes de recherche linéaire. Il s’agit notamment d’algorithmes nous permettant de changer d’approximation de hessien et d’adapter la longueur du pas dans une direction de recherche fixée. Finalement, nous évaluons l’efficacité numérique des méthodes proposées dans le cadre de l’estimation de modèles de choix discrets, en particulier les modèles logit mélangés.
Resumo:
Objectifs: Plusieurs polymorphismes nucléaires localisés sur les gènes des récepteurs nicotiniques cholinergiques CHRN sont associés au tabagisme. Cependant, peu d’études ont examiné l’association entre les polymorphismes sur les gènes CHRN et l’étourdissement. Les polymorphismes et les symptômes subjectifs sont peu être lié à la dépendance à la nicotine et à l’étourdissement ressenti lors de l’initiation. Le but de cette étude est d’étudier l’association entre 61 polymorphismes sur huit gènes CHRN (CHRNA3 CHRNA4 CHRNA5, CHRNA6, CHRNA7, CHRNB2, CHRNB3, CHRNB4) et l’étourdissement ressenti lors de l’initiation. Méthodes: Les données provenant d'une étude de cohorte longitudinale composée de 1293 étudiants, ont été analysées selon un devis d'étude gène-candidat. Les données ont été collectées par le biais de questionnaires auto-reportés aux troix mois, durant 5 ans. L’ADN provenent de la salive ou du sang a été génotypé pour 61 polymosphismes localisés sur les gènes CHRN ont été génotypés, à l'aide d'une stratégie de couverture maximale du gène. L'équation d'analyse est une régression logistique, incluant un ajustement sur l’âge, le sexe et l’origine ethnique. Résultats: Trois SNPs sur le gène CHRNA6 (rs7812298, rs2304297, rs7828365) sont associés à notre phénotype (OR (95% CI)= 0.54 (0.36, 0.81), 0.59 (0.40, 0.86) and 0.58 (0.36, 0.95, respectivement),. Trois autres polymorphismes (rs3743077 (CHRNA3), rs755204 (CHRNA4), rs7178176 (CHRNA7)) sont également associés à phénotype (OR (95% CI)=1.40 (1.02, 1.90), 1.85 (1.05, 3.27) and 1.51 (1.06, 2.15), respectivement) Conclusion: Plusieurs SNPs localisés sur les gènes CHRN sont associés à l'étourdissement, un phénotype de l'initiation qui est peut-être associé à la dépendance à la nicotine.
Resumo:
« La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca/MU). »
Resumo:
Le sujet de la gestion du risque m’a toujours interpelée, surtout après que j’ai vécu deux ouragans et un tremblement de terre dévastateurs au Salvador. Bien qu’on ait assez écrit sur le sujet en le reliant souvent aux changements climatiques, on ne sait pas comment les organisations gouvernementales et civiles vivent cette gestion du risque au quotidien. À partir d’une étude ethnographique de la Commission de la protection civile de la Mairie de Tecoluca au Salvador, j’observais les processus qui se mettent en place dans la recherche et l’analyse des facteurs structuraux causant les situations de vulnérabilité. Pour ce faire, j’adoptais une approche basée sur l’étude des interactions, mobilisant les théories de la cognition distribuée et de l’acteur réseau. Comme je le montre, la gestion du risque, vue comme un processus participatif, se caractérise, d’une part, par la coopération et la coordination entre les personnes et, d’autre part, par la contribution d’outils, de technologies, de documents et de méthodes contribuant à la détection de risques. Ceci exige la mobilisation de connaissances qui doivent être produites, partagées et distribuées entre les membres d’un groupe à travers les divers artéfacts, outils, méthodes et technologies qu’ils mobilisent et qui les mobilisent. À ce sujet, la théorie de la cognition distribuée permet d’explorer des interactions qui se produisent au sein d’un groupe de travail en se focalisant sur ce qui contribue à l’acte de connaitre, conçu comme une activité non pas seulement individuelle, mais surtout collective et distribuée. Par ailleurs, la théorie de l’acteur-réseau me permet, quant à elle, de montrer comment dans l’exécution de cette tâche (la gestion du risque), la contribution active d’acteurs non humains, tant en soi qu’en relations avec les acteurs humains, participe de l’activité de détection et de prévention du risque.
Resumo:
Les forêts occidentales sont aujourd’hui de plus en plus prisées pour la pratique d’activités récréatives en milieu naturel. Dès lors, la mise en place d’une gestion intégrée des forêts est plus que jamais indispensable au maintien des conditions nécessaires à la pratique de l’ensemble des activités sur le territoire. Le Québec s’est doté d’une nouvelle législation pour répondre aux nombreux enjeux qui touchent le milieu forestier, notamment en ce qui a trait à l’harmonisation entre les activités récréatives et la production ligneuse. Dans le cadre de cette recherche, nous nous sommes intéressés au concept d’expérience du visiteur comme moyen de faciliter cette harmonisation. Il s’agissait à la fois de caractériser l’expérience de visite des utilisateurs d’un parc régional et de se questionner sur son opérationnalisation dans l’aménagement forestier. Deux méthodes qualitatives complémentaires ont été utilisées : d’une part, l’analyse de récits inscrits dans des livres d’or placés dans différents hébergements et d’autre part, des entrevues ont été conduites auprès de visiteurs rencontrés sur le site. Les résultats révèlent la pertinence de considérer l’expérience du visiteur pour favoriser une utilisation plurielle et harmonieuse du territoire forestier. Son étude permet une compréhension fine des composantes communes et spécifiques des expériences, en fonction des visiteurs. Par ailleurs, l’étude témoigne de la possibilité de mettre en relation des typologies d’expériences recherchées et les modalités d’harmonisation. Enfin, au-delà de l’expérience, le suivi de la perception de la foresterie et des représentations peut également s’avérer pertinent pour les gestionnaires.
Resumo:
Contexte. Les attitudes et comportements alimentaires développés pendant la petite enfance influencent grandement la relation future du mangeur à l’égard des aliments. Le parent s’avère en ce sens des plus déterminants. Objectifs. Cette étude vise à connaître les pratiques et attitudes employées par les parents québécois d’enfants d’âge préscolaire pour favoriser le « bien manger » ainsi que le repas familial agréable. Méthodes. La collecte de données a été effectuée à l’aide de cartes postales qui étaient distribuées dans six cent cinquante Centres de la Petite Enfance parmi les mille retrouvés dans la province de Québec pour ensuite être remises aux parents. L’analyse des réponses aux deux questions ouvertes figurant sur la carte postale a été effectuée en se basant sur le modèle des prises alimentaires de Jean-Pierre Poulain. Résultats. Plus de mille (1257) cartes postales ont été retenues aux fins d’analyses. Les données recueillies permettent dans un premier temps de connaître la perception des parents quant à la notion de manger bien. Les notions de qualité et de quantité, diamétralement opposées se démarquent. Dans le cas du repas familial, la discussion, la présence de tous les membres à table ainsi que l’absence de télévision sont abondamment mentionnées. Conclusion. Cette étude permet de constater la variété des stratégies employées par les parents québécois au moment du repas. Ces données d’une grande pertinence pour la santé publique permettront de cibler les messages clés à promouvoir auprès de ces acteurs d’influence dans le développement des habitudes alimentaires des tout petits.