526 resultados para Considérations


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’évaluation économique en santé consiste en l’analyse comparative d’alternatives de services en regard à la fois de leurs coûts et de leurs conséquences. Elle est un outil d’aide à la décision. La grande majorité des décisions concernant l’allocation des ressources sont prises en clinique; particulièrement au niveau des soins primaires. Puisque chaque décision est associée à un coût d’opportunité, la non-prise en compte des considérations économiques dans les pratiques des médecins de famille peut avoir un impact important sur l’efficience du système de santé. Il existe peu de connaissances quant à l’influence des évaluations économiques sur la pratique clinique. L’objet de la thèse est de comprendre le rôle de l’évaluation économique dans la pratique des médecins de famille. Ses contributions font l’objet de quatre articles originaux (philosophique, théorique, méthodologique et empirique). L’article philosophique suggère l’importance des questions de complexité et de réflexivité en évaluation économique. La complexité est la perspective philosophique, (approche générale épistémologique) qui sous-tend la thèse. Cette vision du monde met l’attention sur l’explication et la compréhension et sur les relations et les interactions (causalité interactive). Cet accent sur le contexte et le processus de production des données souligne l’importance de la réflexivité dans le processus de recherche. L’article théorique développe une conception nouvelle et différente du problème de recherche. L’originalité de la thèse réside également dans son approche qui s’appuie sur la perspective de la théorie sociologique de Pierre Bourdieu; une approche théorique cohérente avec la complexité. Opposé aux modèles individualistes de l’action rationnelle, Bourdieu préconise une approche sociologique qui s’inscrit dans la recherche d’une compréhension plus complète et plus complexe des phénomènes sociaux en mettant en lumière les influences souvent implicites qui viennent chaque jour exercer des pressions sur les individus et leurs pratiques. L’article méthodologique présente le protocole d’une étude qualitative de cas multiples avec niveaux d’analyse imbriqués : les médecins de famille (niveau micro-individuel) et le champ de la médecine familiale (niveau macro-structurel). Huit études de cas furent réalisées avec le médecin de famille comme unité principale d’analyse. Pour le niveau micro, la collecte des informations fut réalisée à l’aide d’entrevues de type histoire de vie, de documents et d’observation. Pour le niveau macro, la collecte des informations fut réalisée à l’aide de documents, et d’entrevues de type semi-structuré auprès de huit informateurs clés, de neuf organisations médicales. L’induction analytique fut utilisée. L’article empirique présente l’ensemble des résultats empiriques de la thèse. Les résultats montrent une intégration croissante de concepts en économie dans le discours officiel des organisations de médecine familiale. Cependant, au niveau de la pratique, l'économisation de ce discours ne semble pas être une représentation fidèle de la réalité puisque la très grande majorité des participants n'incarnent pas ce discours. Les contributions incluent une compréhension approfondie des processus sociaux qui influencent les schèmes de perception, de pensée, d’appréciation et d’action des médecins de famille quant au rôle de l’évaluation économique dans la pratique clinique et la volonté des médecins de famille à contribuer à une allocation efficiente, équitable et légitime des ressources.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Traditionnellement, les applications orientées objets légataires intègrent différents aspects fonctionnels. Ces aspects peuvent être dispersés partout dans le code. Il existe différents types d’aspects : • des aspects qui représentent des fonctionnalités métiers ; • des aspects qui répondent à des exigences non fonctionnelles ou à d’autres considérations de conception comme la robustesse, la distribution, la sécurité, etc. Généralement, le code qui représente ces aspects chevauche plusieurs hiérarchies de classes. Plusieurs chercheurs se sont intéressés à la problématique de la modularisation de ces aspects dans le code : programmation orientée sujets, programmation orientée aspects et programmation orientée vues. Toutes ces méthodes proposent des techniques et des outils pour concevoir des applications orientées objets sous forme de composition de fragments de code qui répondent à différents aspects. La séparation des aspects dans le code a des avantages au niveau de la réutilisation et de la maintenance. Ainsi, il est important d’identifier et de localiser ces aspects dans du code légataire orienté objets. Nous nous intéressons particulièrement aux aspects fonctionnels. En supposant que le code qui répond à un aspect fonctionnel ou fonctionnalité exhibe une certaine cohésion fonctionnelle (dépendances entre les éléments), nous proposons d’identifier de telles fonctionnalités à partir du code. L’idée est d’identifier, en l’absence des paradigmes de la programmation par aspects, les techniques qui permettent l’implémentation des différents aspects fonctionnels dans un code objet. Notre approche consiste à : • identifier les techniques utilisées par les développeurs pour intégrer une fonctionnalité en l’absence des techniques orientées aspects • caractériser l’empreinte de ces techniques sur le code • et développer des outils pour identifier ces empreintes. Ainsi, nous présentons deux approches pour l’identification des fonctionnalités existantes dans du code orienté objets. La première identifie différents patrons de conception qui permettent l’intégration de ces fonctionnalités dans le code. La deuxième utilise l’analyse formelle de concepts pour identifier les fonctionnalités récurrentes dans le code. Nous expérimentons nos deux approches sur des systèmes libres orientés objets pour identifier les différentes fonctionnalités dans le code. Les résultats obtenus montrent l’efficacité de nos approches pour identifier les différentes fonctionnalités dans du code légataire orienté objets et permettent de suggérer des cas de refactorisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il existe actuellement des différends frontaliers entre les États circumpolaires-Nord qui entravent la bonne gouvernance de la région. Afin d'identifier des pistes de solution pour améliorer la gouvernance en Arctique et faciliter la coopération, nous analysons le processus qui a mené, à l'autre pôle, à la création du Traité sur l’Antarctique de 1959. Nous utilisons une approche néolibérale institutionnelle comme cadre théorique ainsi qu’une méthodologie basée sur le traçage de processus. Nous avons identifié quatre variables (les intérêts des États, le contexte politique, le leadership, et l’Année géophysique internationale [AGI]) que nous avons étudiés au cours de trois périodes historiques et dont l’évolution a contribué à la formation du régime antarctique. Les étapes menant à l'élaboration d'un régime identifié dans la théorie institutionnaliste dynamique de Frischmann s'appliquent aux différentes périodes que nous avons déterminées. La première période historique correspond à l'identification du problème d'interdépendance. Les États ont d’abord tenté d’assouvir leurs intérêts particuliers envers le continent antarctique par l’intermédiaire de stratégies individuelles. Le statut imprécis du continent antarctique caractérisé par des revendications territoriales conflictuelles, la volonté des superpuissances d’effectuer d’éventuelles revendications territoriales et le leadership exercé par les États-Unis ont toutefois permis de faire évoluer les États vers des stratégies coopératives. La deuxième période historique correspond à l'étape de la négociation de l’entente. Le leadership d’un groupe de scientifiques et des États-Unis ainsi que le contexte politique de la Guerre froide ont favorisé la cohésion des États intéressés par les affaires antarctiques et leur investissement dans une coopération multilatérale souple dans le cadre d’un événement ponctuel, l’AGI. La troisième période correspond à la mise en oeuvre de l’entente, soit l’AGI. Lors de cet événement, une entente tacite, un engagement d’honneur, qui suspendait les considérations territoriales en Antarctique, a été respectée par les parties. La coopération dans le cadre de l’AGI s’est avérée un succès. Les États se sont montrés satisfaits des gains que comportait la coopération scientifique dans un environnement pacifique. L’AGI a permis aux États d’expérimenter la coopération multilatérale et d’observer le comportement des autres participants au sein de l’institution. En raison de la satisfaction des États vis-à-vis la coopération dans le cadre de l'entente souple, l'élaboration du traité de 1959 a été facilitée. Notre étude nous a permis d’identifier des éléments clefs qui ont favorisé la formation du régime antarctique et qui pourraient servir d’inspiration pour l'élaboration de futurs régimes. La présence d’un leadership tout au long du processus a permis de promouvoir les avantages de la coopération sous différentes formes et de renforcer les relations entre les États présents dans les affaires antarctiques. La réalisation d'une entente souple dans le cadre de l'AGI, centrée autour des intérêts communs aux parties, comprenant un engagement d’honneur, permettant de mettre de côté les points de discorde, ont aussi été des points centraux dans la réussite et la poursuite de la coopération au-delà de l’AGI. Cette approche graduelle allant du droit souple vers le droit contraignant est sans aucun doute l’élément le plus important ayant facilité le rapprochement des différentes parties et éventuellement la création du Traité sur l’Antarctique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Des décisions médicales en fin de vie sont souvent prises pour des patients inaptes. Nous avons souhaité connaître les argumentations éthiques entourant ces décisions difficiles. Notre objectif était de pouvoir comprendre et apprécier ces lignes d’argumentation. Pour atteindre cet objectif, nous avons répertorié et analysé les lignes argumentatives présentes dans des articles scientifiques, incluant les sections de correspondance et commentaires des journaux savants. Afin d’éviter que les résultats de notre analyse soient trop influencés par les caractéristiques d’un problème médical spécifique, nous avons décidé d’analyser des situations cliniques distinctes. Les sujets spécifiques étudiés sont la non-initiation du traitement antibiotique chez des patients déments souffrant de pneumonie, et l’euthanasie de nouveau-nés lourdement hypothéqués selon le protocole de Groningen. Notre analyse des lignes d’argumentation répertoriées à partir des débats entourant ces sujets spécifiques a révélé des caractéristiques communes. D’abord, les arguments avancés avaient une forte tendance à viser la normativité. Ensuite, les lignes d’argumentation répertoriées étaient principalement axées sur les patients inaptes et excluaient largement les intérêts d’autrui. Nous n’avons trouvé aucune des lignes d’argumentation à visée normative répertoriés concluante. De plus, nous avons trouvé que l’exclusion catégorique d’arguments visant l’intérêt d’autrui des considérations entrainait l’impossibilité d’ évaluer leur validité et de les exclure définitivement de l’argumentaire. Leur présence non-explicite et cachée dans les raisonnements motivant les décisions ne pouvait alors pas être exclue non plus. Pour mieux mettre en relief ces conclusions, nous avons rédigé un commentaire inspiré par les argumentaires avancés dans le contexte de l’arrêt de traitement de Terri Schiavo, patiente en état végétatif persistant. Nous pensons que l’utilisation d’un argumentaire qui viserait davantage à rendre les actions intelligibles, et sans visée normative immédiate, pourrait contribuer à une meilleure compréhension réciproque des participants au débat. Une telle argumentation nous semble aussi mieux adaptée à la complexité et l’unicité de chaque cas. Nous pensons qu’elle pourrait mieux décrire les motivations de tous les acteurs participant à la décision, et ainsi contribuer à une plus grande transparence. Cette transparence pourrait renforcer la confiance dans l’authenticité du débat, et ainsi contribuer à une meilleure légitimation de pratiques cliniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De l’avis de nombreux observateurs, le monde a connu en 2008 une crise économique sans précédent depuis la Grande dépression des années trente. Au premier chef des victimes de ces dérives de l’économie globale figurent les travailleurs du monde entier. Investie depuis 1919 d’un mandat de protection à l’égard de ces derniers, l’Organisation internationale du Travail (OIT) se doit d’être une force de propositions en ces périodes difficiles. La présente étude se propose d’analyser l’évolution des réponses normatives produites par l’OIT au lendemain des crises économiques et financières mondiales depuis sa création. Il s’agira également de mettre en corrélation le degré d’audace de l’Organisation et la composition de la scène internationale qui préside à chacune des époques considérées. Le premier chapitre sera pour nous l’occasion de montrer comment l’OIT, née dans un contexte de crise économique dans les années vingt puis confrontée en 1930 à une autre crise majeure, a su tirer profit de ces situations qui confirment sa raison d’être et la pousse à s’enquérir de nouvelles compétences (chapitre I). Nous ferons ensuite étape dans une époque marquée par la prolifération de nouvelles organisations internationales avec lesquelles l’OIT entre en concurrence : l’ère onusienne. Nous verrons comment la position de l’Organisation sur la scène internationale influe sur sa réactivité face aux crises économiques et politiques du moment (chapitre II). Forts de ces considérations historiques, nous serons enfin à même de comprendre la souplesse normative caractérisant la réaction de l’OIT face à la crise de 2008. Nous serons également en mesure de comprendre comment cette crise historique a modifié l’ordre mondial et influé sur la position de l’Organisation dans l’agencement international (chapitre III).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Article

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les évolutions scientifiques et technologiques engendrent des risques environnementaux complexes. Ces risques doivent être gérés démocratiquement, dans l’intérêt du dêmos. Dans la démocratie représentative, les autorités publiques recourent souvent à l’expertise scientifique pour éclairer leurs décisions relatives à ces risques. Or, ces experts ne le sont pas dans d’autres aspects tout aussi importants tels que les considérations éthiques et les perceptions des risques par le dêmos. En principe, les autorités publiques intègreraient ces autres aspects dans leurs décisions relatives aux risques environnementaux : sur la base d’une évaluation scientifique d’un risque déterminé, les représentants en assureraient une gestion démocratique. Autrement formulé, les autorités publiques garantiraient un filtre démocratique entre l’évaluation scientifique d’un risque environnemental et la décision publique relative à ce risque. Or, sous l’influence exclusive des experts scientifiques et éloignée du dêmos, elles ne sont pas aptes à garantir ce filtre. Les décisions publiques relatives aux risques environnementaux se calquent principalement sur l’évaluation scientifique de ceux-ci. Afin de pallier ces écueils l’idée de faire participer directement le dêmos à l’élaboration de la décision publique environnementale est née. Cette participation enrichirait et nuancerait l’expertise scientifique et permettrait aux autorités publiques d’intégrer dans leurs décisions d’autres facettes des risques environnementaux que les facettes purement scientifiques. Le filtre démocratique entre l’évaluation scientifique et la décision publique serait rétabli. D’abord organisée, en droit international, dans le cadre de l’évaluation des incidences sur l’environnement d’activités susceptibles d’y avoir un impact significatif, la participation directe du public au processus décisionnel a ensuite été étendue. Cela a été tout particulièrement illustré par la convention d’Århus du 25 juin. L’intervention examinera si et comment le système participatif de la convention d’Århus assure réellement une gestion démocratique du risque environnemental et pointera de sérieuses faiblesses démocratiques du système. Explorant les potentialités du système participatif de la convention d’Århus, l’intervention offrira des suggestions pour remédier à ses faiblesses, afin d’assurer une gestion véritablement démocratique du risque environnemental.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'étude porte sur une norme juridique déterminée, identifiée par sa valeur ­ constitutionnelle ­ et par son objet ­ qui est de protéger l'animal pour lui-même. La recherche a été conduite sans délimitation a priori du champ des pays étudiés. Il n'y a pas eu à proprement parler de choix des pays puisque tous ont été intégrés à la présente étude, sans critère d'exclusion ou de discrimination (tel que le niveau de développement ou le type de système juridique dont ils relèvent). Les Constitutions actuellement en vigueur de tous les Etats unitaires ou fédéraux ont été passées au crible de l'analyse. En revanche, les Constitutions des entités fédérées n'ont pas fait l'objet d'une analyse systématique mais seulement d'une étude sélective. L'objectif de la recherche était de réaliser une étude générale en apportant des réponses aux interrogations suivantes : quelles sont les normes constitutionnelles de protection de l'animal ? Pourquoi et comment ont-elles été adoptées ? Quelle est leur portée dans les ordres juridiques concernés ? De cette recherche ressortent principalement trois enseignements. Premièrement, le phénomène de la consécration de normes constitutionnelles de protection de l'animal est récent et en plein développement. Deuxièmement, ces normes présentent des formulations différentes et procèdent de deux considérations distinctes : le respect de l'animal en Inde, la prise en compte de sa sensibilité dans les autres pays (essentiellement les pays occidentaux). Troisièmement, ces normes revêtent le plus souvent la nature d'objectif constitutionnel, ce qui leur permet de justifier au nom du respect, du bien-être ou de la protection de l'animal les limitations apportées aux droits constitutionnels, notamment la liberté du commerce, la liberté artistique et la liberté de la recherche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire prend la forme d’une réflexion critique sur le modèle proposé par Hosler afin d’expliquer les taux quantifiés d’étain et d’arsénique dans des objets de statut métalliques Mésoaméricains provenant principalement de l’Occident mésoaméricain et couvrant les deux phases de développement de la métallurgie mésoaméricaine. Ces objets font partie de la collection du Museo Regional de Guadalajara. Plus particulièrement, ce mémoire s’intéresse aux grelots mésoaméricains puisqu’ils représentent un élément important de la métallurgie préhispanique en Mésoamérique. Cette réflexion critique soulève plusieurs considérations techniques, méthodologiques, étymologiques, iconographiques, ethnohistoriques et logiques du modèle de Hosler relativement à la couleur des alliages constituant les grelots mésoaméricains. Les paramètres sur lesquels Hosler base son modèle sont questionnables à plusieurs niveaux. Ainsi, le fait que les niveaux d’arsenic ou d’étain observés dans les alliages cupriques de biens utilitaires sont généralement inférieurs à ceux quantifiés dans les alliages cupriques usités pour la fabrication de biens de statut de la Période 2 pourrait s’expliquer par le fait qu’il s’agit de deux méthodes de fabrication distinctes ayant des contraintes techniques différentes ou que ces artéfacts ont des paramètres et des fonctions distinctes. Les limites de l’association soleil-or, lune-argent y sont également exposées et un chapitre est consacré à la sonorité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La thèse porte sur l’analyse qualitative de situations didactiques intégrées au programme de prévention au préscolaire Fluppy. Conçu pour la prévention de la violence et du décrochage scolaire (Tremblay et al., 1992, Tremblay et al., 1995), ce programme s’est enrichi depuis une dizaine d’années de différentes composantes d’intervention, dont une sur l’enseignement du français et des mathématiques. Ce programme, relevant aujourd’hui d’une approche multimodale, a fait l’objet d’une évaluation d’impact en 2002-2004 (Capuano et al., 2010). Le devis quasi-expérimental n’a cependant pas permis de procéder à une analyse appropriée au cadre méthodologique, l’ingénierie didactique (Artigue, 1990), sur lequel se fondent les situations didactiques en mathématiques. La thèse procède donc à la validation interne des trois séquences numériques, issues de la composante mathématique, telles qu’expérimentées dans deux classes du préscolaire en 2011-2012. La première séquence vise au développement des connaissances sur la désignation de quantités. La deuxième sur la comparaison numérique et, la troisième, sur la composition additive des nombres. Les analyses mettent en évidence : 1) certains décalages entre la proposition didactique et la réalisation effective des situations; 2) l’évolution des connaissances numériques des élèves; 3) les forces et les limites de l’analyse a priori. L’interprétation des résultats ouvre sur un enrichissement de l’analyse a priori des situations didactiques ainsi que sur de nouvelles considérations relatives aux processus de dévolution et d’institutionnalisation dans le cadre de l’appropriation de situations didactiques par des enseignants du préscolaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Comme une grande partie des îles de la Caraïbe, pour des raisons économiques basées sur le mercantilisme, justifiées par une législation, la Martinique, née il y a trois siècles, a connu un emmêlement massif de diverses ethnies. Suite à l’abolition de l’esclavage en 1848 et à la crise agricole qui en découla, c’est un brassage de coutumes qui s’opéra avec l’immigration des Hindous, des Africains, des Chinois et des Indochinois. Ce faisant, ces coutumes ont conservé leurs traditions et croyances propres, expliquant ainsi la fusion d'éléments de ces cultures, encore présente aujourd’hui. En abolissant l’esclavage, la « Loi » abolit également la réification, rétablissant ainsi l’humanité de l’homme, puisque l’esclave noir était considéré comme un bien meuble . Il en résulte la création d’un nouveau monde, modifiant la vie culturelle, déployant des habitus, ainsi qu’une manière de penser et d’agir. Aussi, un nouveau langage se structure progressivement. En 1946, la Martinique est reconnue département français d’Amérique. Aujourd’hui, elle se trouve dans une dépendance économique et sociale. De cet état de fait, un conflit s’impose à l’Afro-Martiniquais quant à la question de l’identité. Il se trouve partagé entre le contexte franco-européen et le milieu afro-antillais. Cette contradiction émane aussi de situations de confrontation, d’où se dégage souvent un ressenti de « fatalité » voire de « malédiction » entraînant « un sentiment de culpabilité collective » d’oser défier l’ordre social en place. Notre recherche vise à analyser ce dilemme de la dépendance à partir de l’énoncé des malédictions puis des considérations historiques suivies d'une perspective psychanalytique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les biphényles polychlorés (BPC) sont des contaminants de l’environnement, omniprésents dans la chaîne alimentaire, qui ont une propension à la bioaccumulation dans le corps humain. Ils traversent la barrière placentaire et sont suspectés d’induire des altérations du développement mental ou moteur chez des enfants exposés aux BPC pendant la vie intrautérine. Ces effets s’expliqueraient notamment par la capacité des BPC à perturber l’homéostasie de la fonction thyroïdienne chez la femme enceinte ou le nouveau-né. Malgré le nombre considérable d’études épidémiologiques réalisées, la relation entre l’exposition prénatale aux BPC et les altérations du développement mental et moteur ou de la fonction thyroïdienne n’a pas encore été clairement établie ; d’une part, différents bioindicateurs de l’exposition ont été employés (différents congénères de BPC mesurés et différentes matrices biologiques ou unités de mesure) limitant la comparaison directe entre les études et, d’autre part, le lien de causalité entre les BPC et les effets ciblés n’a pas été vérifié avec des critères épidémiologiques reconnus. Cette étude a été réalisée afin d’analyser la relation « concentration biologique de BPC – effet » entre l'exposition aux BPC de la mère pendant la grossesse et le développement mental et moteur de l’enfant ainsi que les paramètres de la fonction thyroïdienne chez la femme enceinte et le nouveau-né à partir d’une analyse systématique des études épidémiologiques disponibles en standardisant les données biologiques entre les études. Sur la base de considérations toxicocinétiques et en appliquant des facteurs de conversion établis à partir de la littérature épidémiologique publiée, les concentrations des BPC rapportées dans les différentes études revues ont été standardisées en termes d’équivalent de BPC totaux par kilogramme de lipides dans le plasma maternel (µg PCBMPEQ/kg de lipides). Afin d’analyser la possibilité d’une association causale entre l’exposition aux BPC et les effets d’intérêt, les critères de Hill ont été appliqués systématiquement à l’ensemble des associations « concentrations biologiques standardisées – effet ciblés ». En appliquant cette approche aux données publiées de 20 études épidémiologiques sur la relation entre les BPC et le poids à la naissance, l’exposition prénatale aux BPC, aux niveaux décrits (moyenne < 1920 µg PCBMPEQ/kg de lipides), n’apparaît pas associée de manière significative à un poids à la naissance inférieur à 2500 g dans les populations étudiées. Par ailleurs, en considérant des études menées sur le suivi de neuf cohortes d’enfants, la probabilité qu’une altération cognitive ou motrice cliniquement significative, qui persiste entre la naissance et l’âge scolaire, soit observée à des concentrations de BPC totaux inférieures à 1000 µg PCBMPEQ/kg de lipides semble faible. Aussi, à partir de l’analyse systématique des données de 17 études épidémiologiques, l’exposition aux BPC aux niveaux standardisés décrits (moyenne < 1000 µg PCBMPEQ/kg de lipides) ne semble pas induire de variation des hormones thyroïdiennes ou de TSH en dehors des intervalles physiologiques reconnus chez la femme enceinte et le nouveau-né. Ainsi, la valeur biologique de référence établie à 1000 µg PCBMPEQ/kg de lipides pour prévenir les effets sur le développement devrait aussi prévenir les effets sur le poids à la naissance et la fonction thyroïdienne chez la femme enceinte ou le nouveau-né. Les résultats présentés dans cette thèse fournissent aux autorités de santé publique responsables de l’établissement de directives et des normes de l’information utile à la révision des critères sanitaires visant à protéger des effets des BPC sur le développement de l’enfant et la fonction thyroïdienne chez la femme enceinte et le nouveau-né.