695 resultados para modélisation systémique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis plus d’un siècle, les organisations dominent par d’imposantes structures hiérarchiques et bureaucratiques. Cependant, face aux pressions externes et à l’environnement de plus en plus complexe, certaines adoptent peu à peu des pratiques plus flexibles afin de s’adapter à ce contexte. Un modèle organisationnel se démarque particulièrement en modifiant complètement son design et sa culture. Développée par Frédéric Laloux, l’organisation Opale se base sur trois principes : l’autogouvernance, la plénitude ainsi que la raison d’être évolutive. Le modèle Opale intègre un nouveau paradigme organisationnel axé sur une vision du monde véritablement intégrée, systémique et cohésive. Face à ce renouveau, cette étude vise à comprendre l’influence de ce modèle vis-à-vis de l’intégration du développement durable. Ainsi, cet essai a permis de déterminer si les principes de durabilité sont appliqués à l’intérieur de ce modèle. En complément, l’application des principes a aussi été évaluée auprès de deux cas au Québec similaires au modèle Opale. Pour ce faire, un outil d’analyse qualitative a été développé avec l’aide de deux cadres en développement durable reconnus et largement appliqués en organisations, soit le Framework for Strategic Sustainable Development et le référentiel québécois BNQ 21000. La grille d’analyse inclut des critères à l’intérieur de quatre sphères du développement durable : gouvernance, sociale, environnementale et économique. Deux analyses distinctes ont donc été réalisées : la première porte sur le modèle Opale et l’autre traite des deux cas d’organisation comparables au modèle Opale. Suite aux évaluations, les constats sont sensiblement les mêmes. Les résultats démontrent que l’intégration se manifeste davantage dans les sphères de gouvernance et sociale, mais nettement moins à l’intérieur de celles économique et environnementale. En effet, la sphère sociale reçoit un résultat parfait et la sphère de gouvernance se démarque principalement auprès des critères d’influence et de transparence. Étant donné que l’organisation Opale est au service d’une raison d’être évolutive, la dimension économique reçoit une attention différente. En effet, chez les organisations Opales, l’économie n’est jamais une finalité en soi, mais un moyen pour réaliser leur mission. Sur le plan environnemental, on remarque que seules les initiatives qui émergent des individus permettent l’intégration de cette sphère dans les cas où celle-ci ne fait pas formellement partie de l’énoncé de mission. Enfin, suite aux résultats, des pistes de réflexion additionnelles seraient intéressantes à poursuivre. D’abord, il s’avèrerait pertinent d’explorer davantage la gouvernance interne dans l’intégration du développement durable, car son influence semble être éminente. De plus, il apparait pertinent de cibler des méthodes permettant l’intégration de façon soutenue de la sphère environnementale. D’autres discussions traitent de l’impact d’une centralisation autour de la raison d’être, des démarches permettant d’intégrer le développement durable et leur potentiel, l’ampleur d’une transition d’un modèle traditionnel à un modèle autogéré ainsi que la possibilité de combiner ces modèles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En traitement du signal audio, les plosives sont des sons de parole très importants au regard de l’intelligibilité et de la qualité. Les plosives sont cependant difficiles à modéliser à l’aide des techniques usuelles (prédiction linéaire et codage par transformée), à cause de leur dynamique propre importante et à cause de leur nature non prédictible. Cette étude présente un exemple de système complet capable de détecter, segmenter, et altérer les plosives dans un flux de parole. Ce système est utilisé afin de vérifier la validité de l’hypothèse suivante : La phase d’éclatement (de burst) des plosives peut être mise à zéro, de façon perceptuellement équivalente. L’impact sur la qualité subjective de cette transformation est évalué sur une banque de phrases enregistrées. Les résultats de cette altération hautement destructive des signaux tendent à montrer que l’impact perceptuel est mineur. Les implications de ces résultats pour le codage de la parole sont abordées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les traitements acoustiques actuels pour parois d’avion sont performants en hautes fréquences mais nécessitent des améliorations en basses fréquences. En effet dans le cas des matériaux classiques cela nécessite une épaisseur élevée et donc les traitements ont une masse très importante. Des solutions sortant de ce cadre doivent donc être développées. Ce projet de maîtrise a pour but de créer un traitement acoustique à base de résonateurs de Helmholtz intégrés dans un matériau poreux, afin de réfléchir les ondes acoustiques basses fréquences tout en absorbant sur une large bande de fréquences en hautes fréquences. Le principe est basé sur la conception d’un méta-composite, optimisé numériquement et validé expérimentalement en tube d’impédance et chambres de transmission. La performance du concept sera également étudiée sur une maquette de la coiffe du lanceur Ariane 5 avec un modèle d’analyse énergétique statistique (SEA). Pour cela, on s’appuie sur les travaux précédents sur les résonateurs d’Helmholtz, les méta-matériaux, les méta-composites et la modélisation par matrices de transfert. L’optimisation se fait via un modèle basé sur les matrices de transfert placé dans une boucle d’optimisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé : La schizophrénie est un trouble mental grave qui affecte toutes les facettes de la vie de la personne. En outre, le manque de soutien social est un problème important qui contribue à l’aggravation de la maladie, notamment en influençant négativement la capacité d’adaptation. Chez les personnes atteintes de schizophrénie, la capacité à utiliser des stratégies d’adaptation adéquates et efficaces est essentielle afin d’améliorer la santé, le bien-être et la prévention des rechutes. Cette recherche utilise la conception de l’adaptation de Roy (2009). De nombreuses études confirment la présence de difficultés d’adaptation chez ces personnes. De plus, le processus d’adaptation lui-même reste mal connu. La question de recherche était : Quel est le processus d’adaptation des personnes vivant avec la schizophrénie lorsque leur soutien social est limité ? Cette question sous-tendait deux objectifs : 1) décrire le processus d’adaptation des personnes atteintes de schizophrénie dans un contexte de soutien social limité et 2) contribuer au développement du modèle de Roy dans le contexte des troubles mentaux graves. Le devis de recherche était la théorisation ancrée constructiviste, auprès de 30 personnes vivant avec la schizophrénie. Les données étaient composées d’entrevues et de résultats de trois questionnaires qui ont contribué à décrire de façon plus détaillée le profil des participants. Les résultats sont une modélisation du processus d’adaptation nommée « les filtres dans le processus d’adaptation des personnes vivant avec la schizophrénie ». Cette modélisation met en lumière le fait que le potentiel d’adaptation des personnes vivant avec la schizophrénie est affecté à la fois par des éléments de l’environnement social et des éléments inhérents à la maladie elle-même. Ces éléments altèrent la possibilité et la capacité à utiliser des stratégies d’adaptation adéquates et efficaces. Ces résultats de recherche pourraient permettre d’améliorer l’évaluation des personnes atteintes de schizophrénie et de diminuer les « inconnues » dans l’effet des interventions, tout comme de favoriser les actions visant à lutter contre les conditions sociales qui nuisent à l’adaptation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’entreprise Rio Tinto effectue la gestion du système hydrique de la rivière Nechako, situé en Colombie-Britannique (Canada), à partir de règles de gestion optimisées à l’aide d’un algorithme de programmation dynamique stochastique (PDS) et de scénarios d’apports historiques. Les récents développements en recherche opérationnelle tendent à démontrer que la mise à jour des règles de gestion en mode prévisionnel permet d’améliorer la performance des règles de gestion lorsque des prévisions d’ensemble sont utilisées pour mieux cerner les incertitudes associées aux apports à venir. La modélisation hydrologique permet de suivre l’évolution d’un ensemble de processus hydrologiques qui varient dans le temps et dans l’espace (réserve de neige, humidité du sol, etc.). L’utilisation de modèles hydrologiques, en plus d’offrir la possibilité de construire des prévisions d’ensemble qui tiennent compte de l’ensemble des processus simulés, permet de suivre l’évolution de variables d’état qui peuvent être utilisées à même l’algorithme d’optimisation pour construire les probabilités de transition utiles à l’évaluation de la valeur des décisions futures. À partir d’un banc d’essais numériques dans lequel le comportement du bassin versant de la rivière Nechako est simulé à l’aide du modèle hydrologique CEQUEAU, les résultats du présent projet démontrent que la mise à jour des règles avec l’algorithme de PDS en mode prévisionnel permet une amélioration de la gestion du réservoir Nechako lorsque comparée aux règles optimisées avec l’algorithme en mode historique. Le mode prévisionnel utilisant une variable hydrologique combinant un modèle autorégressif d’ordre 5 (AR5) et la valeur maximale de l’équivalent en eau de la neige (ÉENM) a permis de réduire les déversements non-productifs et les inondations tout en maintenant des productions similaires à celles obtenues à l’aide de règles optimisées en mode historique utilisant l’ÉENM comme variable hydrologique. De plus, les résultats du projet démontrent que l’utilisation de prévisions hydrologiques d’ensemble en mode historique pour construire une variable hydrologique permettant d’émettre une prévision du volume d’apport médian pour les huit mois à venir (PVAM) ne permettait pas d’obtenir des résultats de gestion supérieurs à ceux obtenus avec la variable d’ÉENM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le présent essai explique la conception d’un dispositif d’autoformation visant à améliorer le développement de la compétence de mise à jour continue des savoirs chez les étudiantes et les étudiants du programme Techniques d’intégration multimédia. L’idée de ce dispositif prend racine dans des préoccupations en lien avec le développement des compétences du 21e siècle et la mise en place de plans de littératie numérique à travers le monde afin de relever les compétences chez la citoyenne et le citoyen à qui on demande de s’adapter, apprendre et maîtriser les changements de manière rapide et efficiente (OCDE, 2000). La littératie numérique regroupe les compétences associées aux savoir-faire reliés à l’utilisation des technologies, mais aussi aux savoir-être nécessaires à leur utilisation critique et éthique, en plus de savoir-apprendre nécessaires à une utilisation innovante et créative de ces mêmes technologies. C’est ce savoir apprendre qui nous intéresse particulièrement dans le contexte où les étudiantes et les étudiants du programme Techniques d’intégration multimédia sont confrontés à des exigences élevées et constantes de mise à jour continue de leurs savoirs. Le cadre de référence de notre essai permet d’identifier les compétences et les habiletés qui sont en lien avec le développement de la compétence de mise à jour continue des savoirs dans quatre plans de littératie numérique internationaux et nationaux, dont Le profil TIC des étudiants du collégial proposé par le Réseau REPTIC (2015). Nous étayons ensuite la définition de la mise à jour continue des savoirs grâce aux travaux fondateurs de Knoles (1975), Straka (1997a), Carré (1997), Long (1988), Foucher (2000) et Tremblay (2003) qui s’intéressent aux concepts de l’« apprentissage autodirigé » et de l’« autoformation ». De ces deux concepts, nous dégageons trois dimensions principales à considérer afin d’améliorer le développement de la mise à jour continue des savoirs: la dimension sociale, la dimension psychologique et la dimension pédagogique. Premièrement, pour la dimension sociale, nous référons aux enjeux contemporains du développement de la littératie numérique et au concept de sujet social apprenant supporté par les travaux de Roger (2010) et de Piguet (2013). Deuxièmement, la dimension psychologique renvoie aux aspects motivationnels appuyés par la théorie de l’autodétermination de Deci et Ryan (2000) et aux aspects volitionnels supportés par la théorie de l’autorégulation de Zimmerman (1989). Finalement, pour la dimension pédagogique nous présentons la théorie du socioconstructivisme, la perspective pédagogique du connectivisme (Siemens, 2005) et la classification des stratégies d’apprentissage proposée par Boulet, Savoie-Zajc et Chevrier (1996). Nous poursuivons notre réflexion théorique en considérant divers modes d’apprentissage à l’aide des outils du Web 2.0 dont les blogues, les communautés et l’apprentissage en réseau. Nous concluons notre cadre de référence par la présentation du système d’apprentissage de Paquette (2002), du modèle des sept piliers de l’autoformation de Carré (1992, 2005) auxquels nous superposons les recommandations de Debon (2002) et finalement la présentation du modèle d’ingénierie pédagogique ADDIE de Lebrun (2007), tous quatre utiles à l’application d’un processus systémique de développement de notre dispositif d’autoformation. Notre recherche développement s’inscrit dans un paradigme interprétatif avec une méthodologie qualitative. Les collectes de données ont été effectuées auprès d’étudiantes et d’étudiants du programme Techniques d’intégration multimédia. Ces participantes et participants volontaires ont été utiles à la tenue d’un groupe de discussion en cours d’implantation et d’un questionnaire électronique utile à l’évaluation du dispositif d’autoformation. À la lumière de nos résultats, nous pensons que notre dispositif d’autoformation permet d’atteindre son objectif d’améliorer le développement de la compétence de mise à jour continue des savoirs des étudiantes et des étudiants du programme Techniques d’intégration multimédia. L’interprétation de nos résultats permet d’affirmer que notre dispositif d’autoformation, conçu par l’application d’un processus systémique fidèle aux constats dégagés par notre cadre de référence, permet de couvrir les trois dimensions que nous avons identifiées comme essentielles à l’autoformation, soit la dimension sociale, la dimension psychologique et la dimension pédagogique, mais surtout de confirmer leur réelle importance dans le développement de la compétence de la mise à jour continue des savoirs. Tel que nous le présentons dans notre cadre de référence, nous constatons que la dimension sociale déclenche les processus motivationnels et volitionnels qui sont propres à la dimension psychologique de l’apprentissage autodirigé ou de l’autoformation. Nous sommes à même de constater qu’il existe en effet un lien entre la dimension sociale et la théorie de la motivation autodéterminée qui accorde une importance aux facteurs sociaux qui facilitent la motivation en répondant à des besoins psychologiques fondamentaux. De plus, nous constatons que les outils développés dans le cadre de notre essai, tels que le plan de travail et le rapport de temps, jouent un rôle d’autorégulation crucial pour les étudiantes et les étudiants dans leur processus de surveillance et d’ajustement cognitif tel par la fixation d’objectifs, l’auto-évaluation, l’ajustement stratégique de ses méthodes d’apprentissage et la gestion du temps qu’ils permettent. Nous pensons que notre essai présente des retombées pour le programme Techniques d’intégration multimédia principalement en lien avec des pistes concrètes d’amélioration de la compétence de mise à jour continue des savoirs pour les étudiantes et les étudiants du programme et le développement d’une expertise dans l’application rigoureuse d’une ingénierie pédagogique pour le développement futur de différents dispositifs d’apprentissage. Nous identifions deux perspectives de recherches futures en lien avec notre essai. Premièrement, nous pensons qu’il serait intéressant d’explorer la capacité heuristique de l’apprentissage en réseau dans une perspective sociale, psychologique et pédagogique de l’autoformation, à l’instar des travaux de Henri et Jeunesse (2013). Deuxièmement, nous pensons qu’il serait intéressant d’améliorer le développement de la littératie numérique sous ses aspects de créativité et d’innovation dans un contexte où notre programme d’enseignement outille nos étudiantes et nos étudiants à une utilisation experte des technologies, leur permettant ainsi de mettre ces compétences à contribution dans une exploitation créative et innovante des technologies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La circulation extracorporelle (CEC) est une technique utilisée en chirurgie cardiaque effectuée des milliers de fois chaque jour à travers le monde. L’instabilité hémodynamique associée au sevrage de la CEC difficile constitue la principale cause de mortalité en chirurgie cardiaque et l’hypertension pulmonaire (HP) a été identifiée comme un des facteurs de risque les plus importants. Récemment, une hypothèse a été émise suggérant que l'administration prophylactique (avant la CEC) de la milrinone par inhalation puisse avoir un effet préventif et faciliter le sevrage de la CEC chez les patients atteints d’HP. Toutefois, cette indication et voie d'administration pour la milrinone n'ont pas encore été approuvées par les organismes réglementaires. Jusqu'à présent, la recherche clinique sur la milrinone inhalée s’est principalement concentrée sur l’efficacité hémodynamique et l'innocuité chez les patients cardiaques, bien qu’aucun biomarqueur n’ait encore été établi. La dose la plus appropriée pour l’administration par nébulisation n'a pas été déterminée, de même que la caractérisation des profils pharmacocinétiques (PK) et pharmacodynamiques (PD) suite à l'inhalation. L'objectif de notre recherche consistait à caractériser la relation exposition-réponse de la milrinone inhalée administrée chez les patients subissant une chirurgie cardiaque sous CEC. Une méthode analytique par chromatographie liquide à haute performance couplée à un détecteur ultraviolet (HPLC-UV) a été optimisée et validée pour le dosage de la milrinone plasmatique suite à l’inhalation et s’est avérée sensible et précise. La limite de quantification (LLOQ) était de 1.25 ng/ml avec des valeurs de précision intra- et inter-dosage moyennes (CV%) <8%. Des patients souffrant d’HP pour lesquels une chirurgie cardiaque sous CEC était prévue ont d’abord été recrutés pour une étude pilote (n=12) et, par la suite, pour une étude à plus grande échelle (n=28) où la milrinone (5 mg) était administrée par inhalation pré-CEC. Dans l'étude pilote, nous avons comparé l'exposition systémique de la milrinone peu après son administration avec un nébuliseur pneumatique ou un nébuliseur à tamis vibrant. L’efficacité des nébuliseurs en termes de dose émise et dose inhalée a également été déterminée in vitro. Dans l'étude à plus grande échelle conduite en utilisant exclusivement le nébuliseur à tamis vibrant, la dose inhalée in vivo a été estimée et le profil pharmacocinétique de la milrinone inhalée a été pleinement caractérisé aux niveaux plasmatique et urinaire. Le ratio de la pression artérielle moyenne sur la pression artérielle pulmonaire moyenne (PAm/PAPm) a été choisi comme biomarqueur PD. La relation exposition-réponse de la milrinone a été caractérisée pendant la période d'inhalation en étudiant la relation entre l'aire sous la courbe de l’effet (ASCE) et l’aire sous la courbe des concentrations plasmatiques (ASC) de chacun des patients. Enfin, le ratio PAm/PAPm a été exploré comme un prédicteur potentiel de sortie de CEC difficile dans un modèle de régression logistique. Les expériences in vitro ont démontré que les doses émises étaient similaires pour les nébuliseurs pneumatique (64%) et à tamis vibrant (68%). Cependant, la dose inhalée était 2-3 fois supérieure (46% vs 17%) avec le nébuliseur à tamis vibrant, et ce, en accord avec les concentrations plasmatiques. Chez les patients, en raison des variations au niveau des facteurs liés au circuit et au ventilateur causant une plus grande dose expirée, la dose inhalée a été estimée inférieure (30%) et cela a été confirmé après récupération de la dose de milrinone dans l'urine 24 h (26%). Les concentrations plasmatiques maximales (Cmax: 41-189 ng/ml) et l'ampleur de la réponse maximale ΔRmax-R0 (0-65%) ont été observées à la fin de l'inhalation (10-30 min). Les données obtenues suite aux analyses PK sont en accord avec les données publiées pour la milrinone intraveineuse. Après la période d'inhalation, les ASCE individuelles étaient directement reliées aux ASC (P=0.045). Enfin, notre biomarqueur PD ainsi que la durée de CEC ont été identifiés comme des prédicteurs significatifs de la sortie de CEC difficile. La comparaison des ASC et ASCE correspondantes a fourni des données préliminaires supportant une preuve de concept pour l'utilisation du ratio PAm/PAPm comme biomarqueur PD prometteur et justifie de futures études PK/PD. Nous avons pu démontrer que la variation du ratio PAm/PAPm en réponse à la milrinone inhalée contribue à la prévention de la sortie de CEC difficile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La diminution des doses administrées ou même la cessation complète d'un traitement chimiothérapeutique est souvent la conséquence de la réduction du nombre de neutrophiles, qui sont les globules blancs les plus fréquents dans le sang. Cette réduction dans le nombre absolu des neutrophiles, aussi connue sous le nom de myélosuppression, est précipitée par les effets létaux non spécifiques des médicaments anti-cancéreux, qui, parallèlement à leur effet thérapeutique, produisent aussi des effets toxiques sur les cellules saines. Dans le but d'atténuer cet impact myélosuppresseur, on administre aux patients un facteur de stimulation des colonies de granulocytes recombinant humain (rhG-CSF), une forme exogène du G-CSF, l'hormone responsable de la stimulation de la production des neutrophiles et de leurs libération dans la circulation sanguine. Bien que les bienfaits d'un traitement prophylactique avec le G-CSF pendant la chimiothérapie soient bien établis, les protocoles d'administration demeurent mal définis et sont fréquemment déterminés ad libitum par les cliniciens. Avec l'optique d'améliorer le dosage thérapeutique et rationaliser l'utilisation du rhG-CSF pendant le traitement chimiothérapeutique, nous avons développé un modèle physiologique du processus de granulopoïèse, qui incorpore les connaissances actuelles de pointe relatives à la production des neutrophiles des cellules souches hématopoïétiques dans la moelle osseuse. À ce modèle physiologique, nous avons intégré des modèles pharmacocinétiques/pharmacodynamiques (PK/PD) de deux médicaments: le PM00104 (Zalypsis®), un médicament anti-cancéreux, et le rhG-CSF (filgrastim). En se servant des principes fondamentaux sous-jacents à la physiologie, nous avons estimé les paramètres de manière exhaustive sans devoir recourir à l'ajustement des données, ce qui nous a permis de prédire des données cliniques provenant de 172 patients soumis au protocol CHOP14 (6 cycles de chimiothérapie avec une période de 14 jours où l'administration du rhG-CSF se fait du jour 4 au jour 13 post-chimiothérapie). En utilisant ce modèle physio-PK/PD, nous avons démontré que le nombre d'administrations du rhG-CSF pourrait être réduit de dix (pratique actuelle) à quatre ou même trois administrations, à condition de retarder le début du traitement prophylactique par le rhG-CSF. Dans un souci d'applicabilité clinique de notre approche de modélisation, nous avons investigué l'impact de la variabilité PK présente dans une population de patients, sur les prédictions du modèle, en intégrant des modèles PK de population (Pop-PK) des deux médicaments. En considérant des cohortes de 500 patients in silico pour chacun des cinq scénarios de variabilité plausibles et en utilisant trois marqueurs cliniques, soient le temps au nadir des neutrophiles, la valeur du nadir, ainsi que l'aire sous la courbe concentration-effet, nous avons établi qu'il n'y avait aucune différence significative dans les prédictions du modèle entre le patient-type et la population. Ceci démontre la robustesse de l'approche que nous avons développée et qui s'apparente à une approche de pharmacologie quantitative des systèmes (QSP). Motivés par l'utilisation du rhG-CSF dans le traitement d'autres maladies, comme des pathologies périodiques telles que la neutropénie cyclique, nous avons ensuite soumis l'étude du modèle au contexte des maladies dynamiques. En mettant en évidence la non validité du paradigme de la rétroaction des cytokines pour l'administration exogène des mimétiques du G-CSF, nous avons développé un modèle physiologique PK/PD novateur comprenant les concentrations libres et liées du G-CSF. Ce nouveau modèle PK a aussi nécessité des changements dans le modèle PD puisqu’il nous a permis de retracer les concentrations du G-CSF lié aux neutrophiles. Nous avons démontré que l'hypothèse sous-jacente de l'équilibre entre la concentration libre et liée, selon la loi d'action de masse, n'est plus valide pour le G-CSF aux concentrations endogènes et mènerait en fait à la surestimation de la clairance rénale du médicament. En procédant ainsi, nous avons réussi à reproduire des données cliniques obtenues dans diverses conditions (l'administration exogène du G-CSF, l'administration du PM00104, CHOP14). Nous avons aussi fourni une explication logique des mécanismes responsables de la réponse physiologique aux deux médicaments. Finalement, afin de mettre en exergue l’approche intégrative en pharmacologie adoptée dans cette thèse, nous avons démontré sa valeur inestimable pour la mise en lumière et la reconstruction des systèmes vivants complexes, en faisant le parallèle avec d’autres disciplines scientifiques telles que la paléontologie et la forensique, où une approche semblable a largement fait ses preuves. Nous avons aussi discuté du potentiel de la pharmacologie quantitative des systèmes appliquées au développement du médicament et à la médecine translationnelle, en se servant du modèle physio-PK/PD que nous avons mis au point.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le réseau ECOSCOPA, co-financé par la DPMA, a pour objectif de développer un outil permettant de mesurer, à plusieurs échelles, des paramètres environnementaux et biologiques en lien avec la croissance et la survie d’huîtres creuses en élevage. Sur l’année 2015 et afin de préparer de façon concertée ce projet, il a été proposé dans un premier temps de renforcer la synergie existante entre les réseaux RESCO et VELYGER afin de disposer d’un suivi proactif du cycle complet de production de l’huître (incluant le captage, la croissance, la reproduction, les éventuelles mortalités) à partir d’animaux communs sur différents sites ateliers, en lien avec l’acquisition de descripteurs environnementaux et physiologiques susceptibles d’influencer chacune de ces traits de vie. En complément du fonctionnement des réseaux VELYGER et RESCO II, le projet ECOSCOPA a donc pris en charge le dispositif de déploiement et de suivi bimensuel d’huîtres sentinelles sur 6 sites (Arcachon, Marennes Oléron, Baie de Bourgneuf, Rade de Brest, Etang de Thau, Rivière de Pénerf). Plus précisément, ECOSCOPA a suivi les paramètres biologiques de survie et de croissance, sur ces six sites ateliers. Les huîtres sentinelles(identiques à celles utilisées par le réseau RESCO II) correspondant à 3 classes d’âge d’huîtres creuses (« 6 mois », « 18 mois » et « 30 mois ») ont été déployées et suivies de manière synchrone sur l’ensemble des sites, selon le même calendrier que celui établie pour RESCO II. Les descripteurs environnementaux ont été obtenus grâce à des enregistrements en haute fréquence de la température, de la pression et de la salinité, réalisés sur l'ensemble des 6 sites au moyen de sondes SMATCH permettant la transmission en temps réel de ces paramètres sur un serveur dédié. La totalité des sites ateliers équipés avec ce type de sondes, en complément des sondes de type STPS prévues par le réseau RESCO II, apermis d'assurer une prise de données sans discontinuité pendant les opérations d'entretien.Les données sur les populations phytoplanctoniques ont été acquises grâce aux points de suivi du réseau REPHY là où ces points existent. Des prélèvements additionnels ont été réalisés dans le cas contraire via des partenaires extérieurs. Enfin, des descripteurs physiologiques ont été acquis dans cette étude afin de qualifier le statut physiologique de l’huître en lien avec les variations de l’environnement. Plus précisément, une étude spécifique permettant d’approfondir les résultats acquis dans le cadre de l’expérimentation PHYSITU en 2014, a été réalisée. En effet, dans cette étude, des mesures d’expression de gènes impliqués dans la réponse des naissains aux mortalités ont été réalisées afin de qualifier l’évolution du statut physiologique de l’huître avant, pendant, et après les mortalités. Cette action a permis, entre autre, d’identifier 4 gènes d’intérêt, dont l’expression varie significativement selon les périodes avant et après mortalité. L’action ECOSCOPA a donc pris en charge la poursuite de cette étude afin de tester l’intérêt de ces marqueurs en tant qu’indicateur précoce de la réponse de l’huître face aux agents pathogènes, et de valider si ces marqueurs pourraient être utilisés à plus large échelle pour la surveillance de la qualité des écosystèmes côtiers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

People go through their life making all kinds of decisions, and some of these decisions affect their demand for transportation, for example, their choices of where to live and where to work, how and when to travel and which route to take. Transport related choices are typically time dependent and characterized by large number of alternatives that can be spatially correlated. This thesis deals with models that can be used to analyze and predict discrete choices in large-scale networks. The proposed models and methods are highly relevant for, but not limited to, transport applications. We model decisions as sequences of choices within the dynamic discrete choice framework, also known as parametric Markov decision processes. Such models are known to be difficult to estimate and to apply to make predictions because dynamic programming problems need to be solved in order to compute choice probabilities. In this thesis we show that it is possible to explore the network structure and the flexibility of dynamic programming so that the dynamic discrete choice modeling approach is not only useful to model time dependent choices, but also makes it easier to model large-scale static choices. The thesis consists of seven articles containing a number of models and methods for estimating, applying and testing large-scale discrete choice models. In the following we group the contributions under three themes: route choice modeling, large-scale multivariate extreme value (MEV) model estimation and nonlinear optimization algorithms. Five articles are related to route choice modeling. We propose different dynamic discrete choice models that allow paths to be correlated based on the MEV and mixed logit models. The resulting route choice models become expensive to estimate and we deal with this challenge by proposing innovative methods that allow to reduce the estimation cost. For example, we propose a decomposition method that not only opens up for possibility of mixing, but also speeds up the estimation for simple logit models, which has implications also for traffic simulation. Moreover, we compare the utility maximization and regret minimization decision rules, and we propose a misspecification test for logit-based route choice models. The second theme is related to the estimation of static discrete choice models with large choice sets. We establish that a class of MEV models can be reformulated as dynamic discrete choice models on the networks of correlation structures. These dynamic models can then be estimated quickly using dynamic programming techniques and an efficient nonlinear optimization algorithm. Finally, the third theme focuses on structured quasi-Newton techniques for estimating discrete choice models by maximum likelihood. We examine and adapt switching methods that can be easily integrated into usual optimization algorithms (line search and trust region) to accelerate the estimation process. The proposed dynamic discrete choice models and estimation methods can be used in various discrete choice applications. In the area of big data analytics, models that can deal with large choice sets and sequential choices are important. Our research can therefore be of interest in various demand analysis applications (predictive analytics) or can be integrated with optimization models (prescriptive analytics). Furthermore, our studies indicate the potential of dynamic programming techniques in this context, even for static models, which opens up a variety of future research directions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travaux d'études doctorales réalisées conjointement avec les travaux de recherches doctorales de Nicolas Leduc, étudiant au doctorat en génie informatique à l'École Polytechnique de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

International audience

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La dynamique sédimentaire à l’embouchure de l’estuaire de Seine est principalement contrôlée par les forçages hydrométéorologiques (débit, vent, vagues, marée) et les fortes pressions anthropiques (endiguement, dragage, clapage). La compréhension et la quantification de la dynamique des flux sédimentaires en suspension (sable/vase) est un enjeu majeur, autant d’un point vu écologique (ex. turbidité, envasement) que financier (ex. gestion des chenaux de navigation). La mise en place de réseaux de mesure in situ permet une meilleure compréhension de la dynamique sédimentaire de l’estuaire, mais leur caractère local rend difficile toute estimation des flux et bilans sédimentaires. Pour répondre à ces questions, cette étude s’appuie sur la modélisation numérique, validée par de nombreuses séries de mesures in situ, afin de quantifier les flux et bilans sédimentaires à différentes échelles caractéristiques de temps et d'espace. Les concentrations simulées dans la zone d'extension du bouchon vaseux sont du même ordre que les observations et leur dynamique associée aux différentes phases et cycles de la marée, ainsi qu'au cycle hydrologique, est satisfaisante. L’analyse des flux résiduels et bilans sédimentaires aux échelles annuelle et trimestrielle a permis d’identifier un schéma de circulation à l’embouchure de l’estuaire et de quantifier l’importance du forçage hydrologique (crue/étiage) sur les échanges sédimentaires. Enfin, ce travail se poursuivra par l’étude de ces flux et bilans pour différents scénarios hydrométéorologiques contrastés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les actions de recherche synthétisées dans ce document ont été menées en partenariat avec des halieutes, écologues marins, statisticiens, modélisateurs et économistes ; partenaires au sein de l’Ifremer, d’organismes de recherche - IRD, CNRS, Institut National de Recherche Halieutique du Maroc - , et d’Enseignement Supérieur - Université de Bretagne Occidentale, Université du Littoral Côte d’Opale, Ecole Nationale d’Ingénieur de Brest, Université des Antilles et de la Guyane. Ces actions ont permis de consolider une communauté pluri-disciplinaire nationale pour aborder les questions de l’analyse intégrée et de la modélisation à l’échelle écosystémique de la durabilité écologique et économique de l’exploitation des ressources halieutiques dans un contexte climatique changeant. Elles ont permis par ailleurs une première application formelle significative au sein de l’Ifremer, de l’approche écosystémique des pêches en contexte tropical (Guyane) et la formalisation du concept de "Biodiversité Halieutique". Les méthodes d’analyse utilisées ont en premier lieu été développées pour le cas du plateau continental du Golfe de Gascogne. Ces méthodes ont ensuite été étendues et appliquées à d’autres plateaux continentaux dont les caractéristiques étaient très différentes en termes climatique, de fonctionnement physique, bio-géographique, d’exploitation halieutique, économique et de gestion de la pêche : au Maroc dans la zone sous influence d’un up-welling, et en Guyane sous l’influence de l’estuaire de l’Amazone. Des actions lancées en 2009 et en 2010, reprennent ces méthodes pour des cas d’application à un autre plateau continental, dans la région tropicale du nord de l’Australie, et pour des cas en zones littorales, en Guyane et aux îles Salomon. Les principaux résultats obtenus sont i) l’identification de changements dans la structure des peuplements de poissons de fond : l’analyse de l’évolution temporelle des caractéristiques des peuplements de fond notamment en terme de taille individuelle, de niveau trophique, d’affinité thermique des espèces (origine biogéographique) a montré l’existence d’effets conjoints de la pêche (sur-exploitation et effets écosystémiques) et des changements climatiques, en région tempérée comme en région tropicale ; ii) l’identification de changements dans la structure en espèce des débarquements des pêcheries à l’échelle des dernières décennies, ainsi que la diminution de leur valeur économique totale, à la fois conséquence des changements dans les peuplements mais conséquence aussi des changements intervenus dans les marchés internationaux des produits de la mer ; iii) Le poids des différents facteurs (pêche, climat, marchés…) est variable selon les cas d’étude, mais ceux qui sont décrits ici sont ceux, communs aux différents systèmes, qui semblent prépondérants ; iv) l’adaptation de modèles existants ainsi que le développement de nouveaux modèles maintenant opérationnels, depuis des échelles permettant une utilisation en terme d’expertise et de recommandation de gestion des pêcheries à court terme, jusqu’à des échelles permettant des projections exploratoires à long terme visant à comprendre les effets conjoints du climat, de la pêche et des marchés.