499 resultados para Modélisation PCBP


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La caractérisation détaillée de vastes territoires pose un défi de taille et est souvent limitée par les ressources disponibles et le temps. Les travaux de cette maîtrise s’incorporent au projet ParaChute qui porte sur le développement d’une Méthode québécoise d’Évaluation du Danger des Chutes de Pierres (MEDCP) le long d’infrastructures linéaires. Pour optimiser l’utilisation des ressources et du temps, une méthode partiellement automatisée facilitant la planification des travaux de terrain a été développée. Elle se base principalement sur la modélisation des trajectoires de chutes de pierres 3D pour mieux cibler les falaises naturelles potentiellement problématiques. Des outils d’automatisation ont été développés afin de permettre la réalisation des modélisations sur de vastes territoires. Les secteurs où l’infrastructure a le plus de potentiel d’être atteinte par d’éventuelles chutes de pierres sont identifiés à partir des portions de l’infrastructure les plus traversées par les trajectoires simulées. La méthode a été appliquée le long du chemin de fer de la compagnie ArcelorMittal Infrastructures Canada. Le secteur couvert par l’étude débute à une dizaine de kilomètres au nord de Port-Cartier (Québec) et s’étend sur 260 km jusqu’au nord des monts Groulx. La topographie obtenue de levés LiDAR aéroportés est utilisée afin de modéliser les trajectoires en 3D à l’aide du logiciel Rockyfor3D. Dans ce mémoire, une approche facilitant la caractérisation des chutes de pierres le long d’un tracé linéaire est présentée. Des études de trajectoires préliminaires sont réalisées avant les travaux sur le terrain. Les informations tirées de ces modélisations permettent de cibler les secteurs potentiellement problématiques et d’éliminer ceux qui ne sont pas susceptibles de générer des chutes de pierres avec le potentiel d’atteindre les éléments à risque le long de l’infrastructure linéaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: En 2015, 65 pays avaient des programmes de vaccination contre les VPH. La modélisation mathématique a joué un rôle crucial dans leur implantation. Objectifs: Nous avons réalisé une revue systématique et analysé les prédictions de modèles mathématiques de l’efficacité populationnelle de la vaccination sur la prévalence des VPH-16/18/6/11 chez les femmes et les hommes, afin d’évaluer la robustesse/variabilité des prédictions concernant l’immunité de groupe, le bénéfice ajouté par la vaccination des garçons et l’élimination potentielle des VPH-16/18/6/11. Méthodes: Nous avons cherché dans Medline/Embase afin d’identifier les modèles dynamiques simulant l’impact populationnel de la vaccination sur les infections par les VPH-16/18/6/11 chez les femmes et les hommes. Les équipes participantes ont réalisé des prédictions pour 19 simulations standardisées. Nous avons calculé la réduction relative de la prévalence (RRprev) 70 ans après l’introduction de la vaccination. Les résultats présentés correspondent à la médiane(10ème;90èmeperccentiles) des prédictions. Les cibles de la vaccination étaient les filles seulement ou les filles & garçons. Résultats: 16/19 équipes éligibles ont transmis leurs prédictions. Lorsque 40% des filles sont vaccinées, la RRprev du VPH-16 est 53%(46%;68%) chez les femmes et 36%(28%;61%) chez les hommes. Lorsque 80% des filles sont vaccinées, la RRprev est 93%(90%;100%) chez les femmes et 83%(75%;100%) chez les hommes. Vacciner aussi les garçons augmente la RRprev de 18%(13%;32%) chez les femmes et 35%(27%;39%) chez les hommes à 40% de couverture, et 7%(0%;10%) et 16%(1%;25%) à 80% de couverture. Les RRprev étaient plus élevées pour les VPH-18/6/11 (vs. VPH-16). Si 80% des filles & garçons sont vaccinés, les VPH-16/18/6/11 pourraient être éliminés. Interprétation: Même si les modèles diffèrent entre eux, les prédictions s’accordent sur: 1)immunité de groupe élevée même à basse couverture, 2)RRprev supérieures pour les VPH-18/6/11 (vs. VPH-16), 3)augmenter la couverture chez les filles a un meilleur impact qu’ajouter les garçons, 4)vacciner 80% des filles & garçons pourraient éliminer les VPH-16/18/6/11.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est une contribution à la modélisation, la planification et l’optimisation du transport pour l’approvisionnement en bois de forêt des industries de première transformation. Dans ce domaine, les aléas climatiques (mise au sol des bois par les tempêtes), sanitaires (attaques bactériologiques et fongiques des bois) et commerciaux (variabilité et exigence croissante des marchés) poussent les divers acteurs du secteur (entrepreneurs et exploitants forestiers, transporteurs) à revoir l’organisation de la filière logistique d’approvisionnement, afin d’améliorer la qualité de service (adéquation offre-demande) et de diminuer les coûts. L’objectif principal de cette thèse était de proposer un modèle de pilotage améliorant la performance du transport forestier, en respectant les contraintes et les pratiques du secteur. Les résultats établissent une démarche de planification hiérarchique des activités de transport à deux niveaux de décision, tactique et opérationnel. Au niveau tactique, une optimisation multi-périodes permet de répondre aux commandes en minimisant l’activité globale de transport, sous contrainte de capacité agrégée des moyens de transport accessibles. Ce niveau permet de mettre en œuvre des politiques de lissage de charge et d’organisation de sous-traitance ou de partenariats entre acteurs de transport. Au niveau opérationnel, les plans tactiques alloués à chaque transporteur sont désagrégés, pour permettre une optimisation des tournées des flottes, sous contrainte des capacités physiques de ces flottes. Les modèles d’optimisation de chaque niveau sont formalisés en programmation linéaire mixte avec variables binaires. L’applicabilité des modèles a été testée en utilisant un jeu de données industrielles en région Aquitaine et a montré des améliorations significatives d’exploitation des capacités de transport par rapport aux pratiques actuelles. Les modèles de décision ont été conçus pour s’adapter à tout contexte organisationnel, partenarial ou non : la production du plan tactique possède un caractère générique sans présomption de l’organisation, celle-ci étant prise en compte, dans un deuxième temps, au niveau de l’optimisation opérationnelle du plan de transport de chaque acteur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent essai dépeint un exercice de modélisation d'un programme de promotion de la relation parents-enseignants d'enfants du premier cycle du primaire. Nous nous sommes questionnés, au cours de l'étude de ce programme, sur les quatre (4) facteurs suivants : (1) le mandat de l'intervention ; (2) l'environnement dans lequel il doit être implanté ; (3) le professionnel responsable de la mise en oeuvre ; (4) la stratégie d'intervention à privilégier pour l'atteinte des buts et des objectifs. Une recherche théorique, auprès d'auteurs ayant exploré le domaine, permet tout d'abord l'approfondissement de ces quatre (4) enjeux. Elle permet, en ce sens, de déterminer un noyau conducteur, qui facilitera le transfert du programme de relation parents-enseignants d'enfants du premier cycle du primaire à d'autres milieux et face à d'autres problématiques. Ces facteurs, constituant la base d'un nouveau programme, sont : (1) promotion ; (2) milieu scolaire urbain ; (3) service social ; (4) conscientisation. Nous avons démontré que l'école et la famille sont deux (2) institutions de notre société qui se sont développées parallèlement et de façon hermétique, accentuant ainsi l'inaccessibilité de part et d'autre. L'analyse théorique nous a permis d'harmoniser les quatre (4) facteurs de notre premier programme dont nous questionnions les possibilités d'interaction. Afin de mettre en oeuvre un nouveau programme plus général appliqué au monde scolaire et à d'autres milieux, nous devions valider ce dernier programme pour appuyer et justifier notre intervention. Pour ce faire, des rencontres avec des acteurs particulièrement susceptibles d'être impliqués dans l'élaboration ou la mise en oeuvre du second programme ont eu lieu. Ces rencontres ont constitué l'analyse pratique de ce deuxième programme et ont permis de le redéfinir afin qu'il réponde davantage aux besoins de modélisation du présent essai. L'analyse théorique et pratique faite au cours de l'essai démontre que la collaboration entre la famille et l'école est difficile parce que l'objet qui unit ces deux (2) groupes constitue la spécificité de l'un ou de l'autre. En effet, l'éducation scolaire est l'objet qui unit parents et enseignants et actuellement, les enseignants sont les professionnels de l'éducation scolaire des enfants. Cela accentue l'écart entre les pouvoirs d'intervention des parents et des enseignants. Finalement, les exercices effectués au cours du présent essai nous ont permis de généraliser notre intervention non seulement au lien parents-enseignants mais également à la relation existant entre tout système ayant des possibilités inégales d'intervention.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent rapport constitue une première présentation des résultats de l'Etude pilote des apports en contaminants par la Seine. Il est consacré aux métaux et à l'arsenic et traite de leurs niveaux de concentration, de leurs variations saisonnières et des flux à l'estuaire. Il comporte des fiches-annexes qui contiennent les méthodes de prélèvement, de filtration et de dosage ainsi que des résumés des résultats. A partir des conclusions, des recommandations sont faites quant aux méthodes à privilégier pour tirer les meilleurs enseignements du suivi des contaminants métalliques et de l'arsenic à la limite amont de l'estuaire de la Seine. Les données contenues dans ce rapport ont été produites par la Cellule de lutte contre la pollution (Service de navigation de la Seine), le laboratoire Chimie des contaminants et modélisation (IFREMER) et le Laboratoire municipal et régional de Rouen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les aspirateurs de turbines hydrauliques jouent un rôle crucial dans l’extraction de l’énergie disponible. Dans ce projet, les écoulements dans l’aspirateur d’une turbine de basse chute ont été simulés à l’aide de différents modèles de turbulence dont le modèle DDES, un hybride LES/RANS, qui permet de résoudre une partie du spectre turbulent. Déterminer des conditions aux limites pour ce modèle à l’entrée de l’aspirateur est un défi. Des profils d’entrée 1D axisymétriques et 2D instationnaires tenant compte des sillages et vortex induits par les aubes de la roue ont notamment été testés. Une fluctuation artificielle a également été imposée, afin d’imiter la turbulence qui existe juste après la roue. Les simulations ont été effectuées pour deux configurations d’aspirateur du projet BulbT. Pour la deuxième, plusieurs comparaisons avec des données expérimentales ont été faites pour deux conditions d’opération, à charge partielle et dans la zone de baisse rapide du rendement après le point de meilleur rendement. Cela a permis d’évaluer l’efficacité et les lacunes de la modélisation turbulente et des conditions limites à travers leurs effets sur les quantités globales et locales. Les résultats ont montrés que les structures tourbillonnaires et sillages sortant de la roue sont adéquatement résolus par les simulations DDES de l’aspirateur, en appliquant les profils instationnaires bidimensionnels et un schéma de faible dissipation pour le terme convectif. En outre, les effets de la turbulence artificielle à l’entrée de l’aspirateur ont été explorés à l’aide de l’estimation de l’intermittence du décollement, de corrélations en deux points, du spectre d’énergie et du concept de structures cohérentes lagrangiennes. Ces analyses ont montré que les détails de la dynamique de l’écoulement et de la séparation sont modifiés, ainsi que les patrons des lignes de transport à divers endroits de l’aspirateur. Cependant, les quantités globales comme le coefficient de récupération de l’aspirateur ne sont pas influencées par ces spécificités locales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les enjeux hydrologiques modernes, de prévisions ou liés aux changements climatiques, forcent l’exploration de nouvelles approches en modélisation afin de combler les lacunes actuelles et d’améliorer l’évaluation des incertitudes. L’approche abordée dans ce mémoire est celle du multimodèle (MM). L’innovation se trouve dans la construction du multimodèle présenté dans cette étude : plutôt que de caler individuellement des modèles et d’utiliser leur combinaison, un calage collectif est réalisé sur la moyenne des 12 modèles globaux conceptuels sélectionnés. Un des défis soulevés par cette approche novatrice est le grand nombre de paramètres (82) qui complexifie le calage et l’utilisation, en plus d’entraîner des problèmes potentiels d’équifinalité. La solution proposée dans ce mémoire est une analyse de sensibilité qui permettra de fixer les paramètres peu influents et d’ainsi réduire le nombre de paramètres total à caler. Une procédure d’optimisation avec calage et validation permet ensuite d’évaluer les performances du multimodèle et de sa version réduite en plus d’en améliorer la compréhension. L’analyse de sensibilité est réalisée avec la méthode de Morris, qui permet de présenter une version du MM à 51 paramètres (MM51) tout aussi performante que le MM original à 82 paramètres et présentant une diminution des problèmes potentiels d’équifinalité. Les résultats du calage et de la validation avec le « Split-Sample Test » (SST) du MM sont comparés avec les 12 modèles calés individuellement. Il ressort de cette analyse que les modèles individuels, composant le MM, présentent de moins bonnes performances que ceux calés indépendamment. Cette baisse de performances individuelles, nécessaire pour obtenir de bonnes performances globales du MM, s’accompagne d’une hausse de la diversité des sorties des modèles du MM. Cette dernière est particulièrement requise pour les applications hydrologiques nécessitant une évaluation des incertitudes. Tous ces résultats mènent à une amélioration de la compréhension du multimodèle et à son optimisation, ce qui facilite non seulement son calage, mais également son utilisation potentielle en contexte opérationnel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les changements climatiques observés depuis les dernières années semblent avoir un impact sur la distribution et l’abondance des espèces dans plusieurs régions du monde. Cette évolution du climat peut représenter un risque pour la survie de certaines espèces car elle peut impliquer leur migration vers une niche écologique leur étant plus favorable. Ce déplacement est possible si l’espèce possède une forte capacité de dispersion et si le territoire sur lequel elle se déplace n’est pas fragmenté. La modélisation de la distribution d’espèces et de niches écologiques, prenant en compte l’évolution des variables environnementales, permet de connaître la distribution potentielle des espèces à la période actuelle et à des périodes futures selon différents scénarios. Au Québec, ces modélisations de distributions de niches écologiques potentielles constituent une source d’information très utile pour les gestionnaires du territoire, en particulier des aires protégées. Ces données permettent notamment d’anticiper la migration des espèces, influencée par les changements climatiques, afin d’identifier les défis de conservation à venir et de poser une réflexion sur le rôle des aires protégées dans ce contexte. L’objectif général de cet essai vise à étudier la migration potentielle des niches écologiques liée aux changements climatiques sur le territoire des parcs nationaux de Frontenac, du Mont-Mégantic et de leur périphérie. Les changements de répartition et de richesse spécifique de plus de 600 niches écologiques dans ce secteur ont été étudiés ainsi que leur implication en lien avec la fragmentation du territoire. Deux échelles de travail (locale et régionale) ont été considérées et des indices spatiaux de changement de répartition et de diversité des niches écologiques ont été calculés pour ces deux échelles de travail, selon deux modes de dispersion (absence de dispersion et dispersion illimitée) et deux horizons futurs (2050 et 2080). Ces indices ont révélé majoritairement une augmentation des niches écologiques apparaissant sur le territoire et une hausse de la diversité de niches écologiques sur l’ensemble du territoire en cas de dispersion illimitée, phénomène accentué à l’horizon 2080. Par contre, en cas d’absence de dispersion, une disparition importante de niches écologiques ainsi qu’une perte de diversité sont à anticiper sur le territoire, phénomène également accentué à l’horizon 2080. L’étude de la fragmentation révèle un territoire relativement fragmenté par les routes, mais présentant majoritairement une faible résistance au déplacement des espèces, malgré la présence de quelques pôles urbains de moyenne importance. Cette étude se base sur des résultats de modélisation de niches écologiques déjà effectués pour l’ensemble du Québec et pourrait ainsi être appliquée à d’autres territoires. Les résultats montrent d’importants changements à venir et les gestionnaires et scientifiques travaillant sur ce territoire pourront utiliser les résultats obtenus pour réfléchir à la mise en place de mesures adaptées aux déplacements potentiels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En traitement du signal audio, les plosives sont des sons de parole très importants au regard de l’intelligibilité et de la qualité. Les plosives sont cependant difficiles à modéliser à l’aide des techniques usuelles (prédiction linéaire et codage par transformée), à cause de leur dynamique propre importante et à cause de leur nature non prédictible. Cette étude présente un exemple de système complet capable de détecter, segmenter, et altérer les plosives dans un flux de parole. Ce système est utilisé afin de vérifier la validité de l’hypothèse suivante : La phase d’éclatement (de burst) des plosives peut être mise à zéro, de façon perceptuellement équivalente. L’impact sur la qualité subjective de cette transformation est évalué sur une banque de phrases enregistrées. Les résultats de cette altération hautement destructive des signaux tendent à montrer que l’impact perceptuel est mineur. Les implications de ces résultats pour le codage de la parole sont abordées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les traitements acoustiques actuels pour parois d’avion sont performants en hautes fréquences mais nécessitent des améliorations en basses fréquences. En effet dans le cas des matériaux classiques cela nécessite une épaisseur élevée et donc les traitements ont une masse très importante. Des solutions sortant de ce cadre doivent donc être développées. Ce projet de maîtrise a pour but de créer un traitement acoustique à base de résonateurs de Helmholtz intégrés dans un matériau poreux, afin de réfléchir les ondes acoustiques basses fréquences tout en absorbant sur une large bande de fréquences en hautes fréquences. Le principe est basé sur la conception d’un méta-composite, optimisé numériquement et validé expérimentalement en tube d’impédance et chambres de transmission. La performance du concept sera également étudiée sur une maquette de la coiffe du lanceur Ariane 5 avec un modèle d’analyse énergétique statistique (SEA). Pour cela, on s’appuie sur les travaux précédents sur les résonateurs d’Helmholtz, les méta-matériaux, les méta-composites et la modélisation par matrices de transfert. L’optimisation se fait via un modèle basé sur les matrices de transfert placé dans une boucle d’optimisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : La schizophrénie est un trouble mental grave qui affecte toutes les facettes de la vie de la personne. En outre, le manque de soutien social est un problème important qui contribue à l’aggravation de la maladie, notamment en influençant négativement la capacité d’adaptation. Chez les personnes atteintes de schizophrénie, la capacité à utiliser des stratégies d’adaptation adéquates et efficaces est essentielle afin d’améliorer la santé, le bien-être et la prévention des rechutes. Cette recherche utilise la conception de l’adaptation de Roy (2009). De nombreuses études confirment la présence de difficultés d’adaptation chez ces personnes. De plus, le processus d’adaptation lui-même reste mal connu. La question de recherche était : Quel est le processus d’adaptation des personnes vivant avec la schizophrénie lorsque leur soutien social est limité ? Cette question sous-tendait deux objectifs : 1) décrire le processus d’adaptation des personnes atteintes de schizophrénie dans un contexte de soutien social limité et 2) contribuer au développement du modèle de Roy dans le contexte des troubles mentaux graves. Le devis de recherche était la théorisation ancrée constructiviste, auprès de 30 personnes vivant avec la schizophrénie. Les données étaient composées d’entrevues et de résultats de trois questionnaires qui ont contribué à décrire de façon plus détaillée le profil des participants. Les résultats sont une modélisation du processus d’adaptation nommée « les filtres dans le processus d’adaptation des personnes vivant avec la schizophrénie ». Cette modélisation met en lumière le fait que le potentiel d’adaptation des personnes vivant avec la schizophrénie est affecté à la fois par des éléments de l’environnement social et des éléments inhérents à la maladie elle-même. Ces éléments altèrent la possibilité et la capacité à utiliser des stratégies d’adaptation adéquates et efficaces. Ces résultats de recherche pourraient permettre d’améliorer l’évaluation des personnes atteintes de schizophrénie et de diminuer les « inconnues » dans l’effet des interventions, tout comme de favoriser les actions visant à lutter contre les conditions sociales qui nuisent à l’adaptation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’entreprise Rio Tinto effectue la gestion du système hydrique de la rivière Nechako, situé en Colombie-Britannique (Canada), à partir de règles de gestion optimisées à l’aide d’un algorithme de programmation dynamique stochastique (PDS) et de scénarios d’apports historiques. Les récents développements en recherche opérationnelle tendent à démontrer que la mise à jour des règles de gestion en mode prévisionnel permet d’améliorer la performance des règles de gestion lorsque des prévisions d’ensemble sont utilisées pour mieux cerner les incertitudes associées aux apports à venir. La modélisation hydrologique permet de suivre l’évolution d’un ensemble de processus hydrologiques qui varient dans le temps et dans l’espace (réserve de neige, humidité du sol, etc.). L’utilisation de modèles hydrologiques, en plus d’offrir la possibilité de construire des prévisions d’ensemble qui tiennent compte de l’ensemble des processus simulés, permet de suivre l’évolution de variables d’état qui peuvent être utilisées à même l’algorithme d’optimisation pour construire les probabilités de transition utiles à l’évaluation de la valeur des décisions futures. À partir d’un banc d’essais numériques dans lequel le comportement du bassin versant de la rivière Nechako est simulé à l’aide du modèle hydrologique CEQUEAU, les résultats du présent projet démontrent que la mise à jour des règles avec l’algorithme de PDS en mode prévisionnel permet une amélioration de la gestion du réservoir Nechako lorsque comparée aux règles optimisées avec l’algorithme en mode historique. Le mode prévisionnel utilisant une variable hydrologique combinant un modèle autorégressif d’ordre 5 (AR5) et la valeur maximale de l’équivalent en eau de la neige (ÉENM) a permis de réduire les déversements non-productifs et les inondations tout en maintenant des productions similaires à celles obtenues à l’aide de règles optimisées en mode historique utilisant l’ÉENM comme variable hydrologique. De plus, les résultats du projet démontrent que l’utilisation de prévisions hydrologiques d’ensemble en mode historique pour construire une variable hydrologique permettant d’émettre une prévision du volume d’apport médian pour les huit mois à venir (PVAM) ne permettait pas d’obtenir des résultats de gestion supérieurs à ceux obtenus avec la variable d’ÉENM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La diminution des doses administrées ou même la cessation complète d'un traitement chimiothérapeutique est souvent la conséquence de la réduction du nombre de neutrophiles, qui sont les globules blancs les plus fréquents dans le sang. Cette réduction dans le nombre absolu des neutrophiles, aussi connue sous le nom de myélosuppression, est précipitée par les effets létaux non spécifiques des médicaments anti-cancéreux, qui, parallèlement à leur effet thérapeutique, produisent aussi des effets toxiques sur les cellules saines. Dans le but d'atténuer cet impact myélosuppresseur, on administre aux patients un facteur de stimulation des colonies de granulocytes recombinant humain (rhG-CSF), une forme exogène du G-CSF, l'hormone responsable de la stimulation de la production des neutrophiles et de leurs libération dans la circulation sanguine. Bien que les bienfaits d'un traitement prophylactique avec le G-CSF pendant la chimiothérapie soient bien établis, les protocoles d'administration demeurent mal définis et sont fréquemment déterminés ad libitum par les cliniciens. Avec l'optique d'améliorer le dosage thérapeutique et rationaliser l'utilisation du rhG-CSF pendant le traitement chimiothérapeutique, nous avons développé un modèle physiologique du processus de granulopoïèse, qui incorpore les connaissances actuelles de pointe relatives à la production des neutrophiles des cellules souches hématopoïétiques dans la moelle osseuse. À ce modèle physiologique, nous avons intégré des modèles pharmacocinétiques/pharmacodynamiques (PK/PD) de deux médicaments: le PM00104 (Zalypsis®), un médicament anti-cancéreux, et le rhG-CSF (filgrastim). En se servant des principes fondamentaux sous-jacents à la physiologie, nous avons estimé les paramètres de manière exhaustive sans devoir recourir à l'ajustement des données, ce qui nous a permis de prédire des données cliniques provenant de 172 patients soumis au protocol CHOP14 (6 cycles de chimiothérapie avec une période de 14 jours où l'administration du rhG-CSF se fait du jour 4 au jour 13 post-chimiothérapie). En utilisant ce modèle physio-PK/PD, nous avons démontré que le nombre d'administrations du rhG-CSF pourrait être réduit de dix (pratique actuelle) à quatre ou même trois administrations, à condition de retarder le début du traitement prophylactique par le rhG-CSF. Dans un souci d'applicabilité clinique de notre approche de modélisation, nous avons investigué l'impact de la variabilité PK présente dans une population de patients, sur les prédictions du modèle, en intégrant des modèles PK de population (Pop-PK) des deux médicaments. En considérant des cohortes de 500 patients in silico pour chacun des cinq scénarios de variabilité plausibles et en utilisant trois marqueurs cliniques, soient le temps au nadir des neutrophiles, la valeur du nadir, ainsi que l'aire sous la courbe concentration-effet, nous avons établi qu'il n'y avait aucune différence significative dans les prédictions du modèle entre le patient-type et la population. Ceci démontre la robustesse de l'approche que nous avons développée et qui s'apparente à une approche de pharmacologie quantitative des systèmes (QSP). Motivés par l'utilisation du rhG-CSF dans le traitement d'autres maladies, comme des pathologies périodiques telles que la neutropénie cyclique, nous avons ensuite soumis l'étude du modèle au contexte des maladies dynamiques. En mettant en évidence la non validité du paradigme de la rétroaction des cytokines pour l'administration exogène des mimétiques du G-CSF, nous avons développé un modèle physiologique PK/PD novateur comprenant les concentrations libres et liées du G-CSF. Ce nouveau modèle PK a aussi nécessité des changements dans le modèle PD puisqu’il nous a permis de retracer les concentrations du G-CSF lié aux neutrophiles. Nous avons démontré que l'hypothèse sous-jacente de l'équilibre entre la concentration libre et liée, selon la loi d'action de masse, n'est plus valide pour le G-CSF aux concentrations endogènes et mènerait en fait à la surestimation de la clairance rénale du médicament. En procédant ainsi, nous avons réussi à reproduire des données cliniques obtenues dans diverses conditions (l'administration exogène du G-CSF, l'administration du PM00104, CHOP14). Nous avons aussi fourni une explication logique des mécanismes responsables de la réponse physiologique aux deux médicaments. Finalement, afin de mettre en exergue l’approche intégrative en pharmacologie adoptée dans cette thèse, nous avons démontré sa valeur inestimable pour la mise en lumière et la reconstruction des systèmes vivants complexes, en faisant le parallèle avec d’autres disciplines scientifiques telles que la paléontologie et la forensique, où une approche semblable a largement fait ses preuves. Nous avons aussi discuté du potentiel de la pharmacologie quantitative des systèmes appliquées au développement du médicament et à la médecine translationnelle, en se servant du modèle physio-PK/PD que nous avons mis au point.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le réseau ECOSCOPA, co-financé par la DPMA, a pour objectif de développer un outil permettant de mesurer, à plusieurs échelles, des paramètres environnementaux et biologiques en lien avec la croissance et la survie d’huîtres creuses en élevage. Sur l’année 2015 et afin de préparer de façon concertée ce projet, il a été proposé dans un premier temps de renforcer la synergie existante entre les réseaux RESCO et VELYGER afin de disposer d’un suivi proactif du cycle complet de production de l’huître (incluant le captage, la croissance, la reproduction, les éventuelles mortalités) à partir d’animaux communs sur différents sites ateliers, en lien avec l’acquisition de descripteurs environnementaux et physiologiques susceptibles d’influencer chacune de ces traits de vie. En complément du fonctionnement des réseaux VELYGER et RESCO II, le projet ECOSCOPA a donc pris en charge le dispositif de déploiement et de suivi bimensuel d’huîtres sentinelles sur 6 sites (Arcachon, Marennes Oléron, Baie de Bourgneuf, Rade de Brest, Etang de Thau, Rivière de Pénerf). Plus précisément, ECOSCOPA a suivi les paramètres biologiques de survie et de croissance, sur ces six sites ateliers. Les huîtres sentinelles(identiques à celles utilisées par le réseau RESCO II) correspondant à 3 classes d’âge d’huîtres creuses (« 6 mois », « 18 mois » et « 30 mois ») ont été déployées et suivies de manière synchrone sur l’ensemble des sites, selon le même calendrier que celui établie pour RESCO II. Les descripteurs environnementaux ont été obtenus grâce à des enregistrements en haute fréquence de la température, de la pression et de la salinité, réalisés sur l'ensemble des 6 sites au moyen de sondes SMATCH permettant la transmission en temps réel de ces paramètres sur un serveur dédié. La totalité des sites ateliers équipés avec ce type de sondes, en complément des sondes de type STPS prévues par le réseau RESCO II, apermis d'assurer une prise de données sans discontinuité pendant les opérations d'entretien.Les données sur les populations phytoplanctoniques ont été acquises grâce aux points de suivi du réseau REPHY là où ces points existent. Des prélèvements additionnels ont été réalisés dans le cas contraire via des partenaires extérieurs. Enfin, des descripteurs physiologiques ont été acquis dans cette étude afin de qualifier le statut physiologique de l’huître en lien avec les variations de l’environnement. Plus précisément, une étude spécifique permettant d’approfondir les résultats acquis dans le cadre de l’expérimentation PHYSITU en 2014, a été réalisée. En effet, dans cette étude, des mesures d’expression de gènes impliqués dans la réponse des naissains aux mortalités ont été réalisées afin de qualifier l’évolution du statut physiologique de l’huître avant, pendant, et après les mortalités. Cette action a permis, entre autre, d’identifier 4 gènes d’intérêt, dont l’expression varie significativement selon les périodes avant et après mortalité. L’action ECOSCOPA a donc pris en charge la poursuite de cette étude afin de tester l’intérêt de ces marqueurs en tant qu’indicateur précoce de la réponse de l’huître face aux agents pathogènes, et de valider si ces marqueurs pourraient être utilisés à plus large échelle pour la surveillance de la qualité des écosystèmes côtiers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.